Transformers 시리즈(2) : BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding Transformers 시리즈를 시작하게 되고 처음으로, Vaswani, Ashish, et al. “Attention is all you need.” Advances in neural information processing systems. 2017 라는 논문을 리뷰했습니다. 이 논문은 transformer라는 혁명적인 아키텍처를 처음으로 세상에 공개한 논문이었습니다. 그 다음으로 BERT: Pre-training of Deep Bidirectional Transformers forLanguage Understanding..