레슨 목록
1
Transformer 개요
Attention is All You Need, RNN과의 비교
50분
2
Self-Attention
Q, K, V 개념과 Attention Score 계산
50분
3
Multi-Head Attention
여러 전문가의 동시 분석, 차원 분할
45분
4
Positional Encoding
위치 정보의 필요성, Sinusoidal Encoding
40분
5
Encoder & Decoder 구조
Transformer 전체 구조, Layer Norm, Residual Connection, FFN
60분
6
GPT 구조
Decoder-only 아키텍처, 자기회귀 생성, Next Token Prediction
45분
7
BERT 구조
Encoder-only 아키텍처, Masked Language Model, 양방향 문맥
45분
8
LLM 학습과 활용
Pre-training, Fine-tuning, RLHF, 프롬프트 엔지니어링, Scaling Laws
45분