BERT (2018) 논문 노트
BERT 논문의 핵심 아이디어인 양방향 Transformer encoder, masked language model, next sentence prediction, fine-tuning 패러다임을 정리한 논문 노트.
Hello 👋
Senior Software Engineer
6+ years of experience building scalable systems and leading engineering teams.
Specialized in full-stack development, cloud architecture, and delivering high-impact products to millions of users.
Sharing diverse development experiences and knowledge
Solving problems with diverse technologies
Sharing latest development insights and experiences
BERT 논문의 핵심 아이디어인 양방향 Transformer encoder, masked language model, next sentence prediction, fine-tuning 패러다임을 정리한 논문 노트.
BERT와 GPT 계열을 구분하는 encoder-only, decoder-only 구조를 비교합니다.
Transformer 이전의 대표 구조인 RNN이 문장을 순서대로 처리하는 방식과 한계를 설명합니다.