[NLP 스터디] Improving Language Understanding by Generative Pre-Training 논문 리뷰
1. Introduction 이제까지의 NLP 모델은 labeled data를 필요로 했고 이러한 데이터는 label을 달기 위해 시간도 오래걸릴뿐더러 텍스트가 다양한 영역에서 적용될 수 있는 가능성을 제한했다. 그래서 unlabeled data를 사용하는 모델은 그 이전 모델에 대한 중요한 대안이 되었다. 심지어 unsupervised한 방식으로 만들어진 모델은 훨씬 더 좋은 성능을 보였다. 그러나 unlabeled text를 사용하는 모델은 두가지 문제점이 있었다. 첫번째, 어떤 종류의 목적에서 가장 효율적인지 분명하지 않았다. (다만 최근 연구에서는 language modeling, machine translation, discourse coherence 등의 목적에서 좋은 성과를 보였다.) 두번째..
심화 스터디/NLP 스터디1
2021. 9. 30. 20:13