ep21: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Leading NLP Ninja - A podcast by jojonki

Categories:
第21回では,Googleによる双方向コンテキストを獲得した言語モデルBERTの解説をしました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/199 番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki