자연어 처리 책 : https://wikidocs.net/book/2155
BERT로 네이버 영화 리뷰데이터 분류하기 : http://yonghee.io/bert_binary_classification_naver/
BERT로 IMDB 리뷰데이터 분류하기 : http://yonghee.io/imdb-yeonghwa-ribyudeiteo-bunryu/
Week 28 - BERT만 잘 써먹어도 최고가 될 수 있다? : https://jiho-ml.com/weekly-nlp-28/
The Illustrated BERT, ELMo, and co. (How NLP Cracked Transfer Learning) - 한국어 심화 설명 : https://nlpinkorean.github.io/illustrated-bert/
[BERT] BERT에 대해 쉽게 알아보기1 - BERT는 무엇인가, 동작 구조 : https://ebbnflow.tistory.com/151
[BERT] BERT에 대해 쉽게 알아보기2 - colab으로 BERT Pretraining(수정) : https://ebbnflow.tistory.com/162?category=895676
[BERT] BERT에 대해 쉽게 알아보기3 - tf-hub BERT layer를 이용한 캐글 분류문제 : https://ebbnflow.tistory.com/163?category=895676
[BERT] BERT에 대해 쉽게 알아보기4 - BERT 파인튜닝: https://ebbnflow.tistory.com/164?category=895676
BERT를 사용한 다중 레이블 텍스트 분류 – Mighty Transformer
Huggungface(허깅페이스) transformers github : https://github.com/huggingface/transformers/blob/master/README_ko.md
구글 언어학자의 NLP 블로그 : https://jiho-ml.com/tag/weekly-nlp/