본문 바로가기
Have Done/Attention

[Attention] attention 뭐 들어도 모르겠는 제대로 공부좀 하자

by 에아오요이가야 2022. 7. 5.

https://pyimagesearch.com/2022/09/05/a-deep-dive-into-transformers-with-tensorflow-and-keras-part-1/

 

A Deep Dive into Transformers with TensorFlow and Keras: Part 1 - PyImageSearch

A tutorial on the evolution of the attention module into the Transformer architecture.

pyimagesearch.com

 

이 튜토리얼을 따라서 이해해 보도록 하겠습니다.

 

1. Intro

2. The Transfomer Architecture

3. Evolution of Attention

  - Version 0

  - Version 1

  - Version 2

  - Version 3

  - Version 4

  - Version 5

  - Version 6

4. Summary

 

로 구성돼있네요 

 

Intro + Transfomer Architecture

 

Version 0, 1, 2, 3

 

Version 4, 5, 6 + summary

 

글 세개로 나눠서 정리 해보도록 하겠습니다.

 

댓글