본문 바로가기

EHFKSWL

검색하기
EHFKSWL
프로필사진 도란지

  • 분류 전체보기 (8)
    • Deep Learning (7)
      • NLP (1)
      • Vision (3)
    • Development (1)
      • Algorithm problem (1)
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
Tags
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록Deep Learning/NLP (1)

EHFKSWL

[Transformer] Attention is all you need

Transformer에 대하여 논문을 정리해 보고자 한다. 이 논문은 2017년도에 구글에서 발표한 것으로 RNN과 CNN을 사용하지 않고 Attention 만으로 번역 task에서 당시 SOTA를 달성하였다. 지금까지도 많은 논문들이 Transformer를 기반으로 많이 나왔으며 그 분류한 표는 아래와 같다. Transformer는 자연어처리 뿐만아니라 vision 분야에서도 좋은 성능을 내고 있으므로 반드시 알아야 할 개념이라고 생각한다. Eschewing Recurrence Transformer와 LSTM, GRU 같은 RNN 계열 모델과의 가장 큰 차이는 Transformer가 recurrence의 특성을 제거했다는 것이다. Recurrence는 hidden state인 h_t가 h_t-1의 함수..

Deep Learning/NLP 2021. 5. 27. 11:25
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바