
본 게시글은 NLP in Korean의 The Illustrated Transformer 게시글을 정리한 것입니다. Transformer를 공부하시는 분들은 시각적인 자료로 쉽게 설명되어 있으니 한번 보시는 것을 추천드립니다. 목차 Introduction 개괄적인 수준의 설명 벡터들을 기준으로 그림 그려보기 이제 Encoding을 해봅시다! 크게 크게 살펴보는 Self-Attention Self-Attention 을 더 자세히 보겠습니다. Self-attention 의 행렬 계산 The Beast With Many Heads Positional Encoding 을 이용해서 시퀀스의 순서 나타내기 The Residuals The Decoder Side 마지막 Linear Layer과 Softmax Laye..
NLP/Basics
2020. 5. 12. 02:38
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
TAG
- TF2.0
- stft
- Introduction to Algorithm
- wavenet
- nlg
- 시계열
- MIT
- 오디오 전처리
- boto3
- librosa
- nlp 트렌드
- 알고리즘 강의
- keras
- 핵심어 검출
- netron
- nlp
- BOJ
- RNN
- 6.006
- 알고리즘
- AWS
- aws cli
- lambda
- S3
- tensorflow
- LSTM
- Tensorflow2.0
- 모델 시각화
- MFCC
- 인공지능 스피커 호출
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
글 보관함