위키 홈 Edit 트랜스포머 아키텍쳐 거의 모든 LLM의 기반이 되는 신경망 아키텍쳐. 2017년 논문 Attention is all you need에서 처음으로 제안. External links poloclub.github.io/transformer-explainer/ https://bbycroft.net/llm See also Generative Pre-trained Transformer