Attention Is All You Need (2017) 논문 노트
Transformer 논문의 핵심 아이디어, 왜 중요했는지, 다음에 읽을 논문까지 연결하는 시작 노트.
Read MoreTransformer 논문의 핵심 아이디어, 왜 중요했는지, 다음에 읽을 논문까지 연결하는 시작 노트.
Read MoreTransformer 블록에서 Residual, LayerNorm, FFN이 각각 왜 필요한지 직관적으로 설명합니다.
Read More