ep21: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

第21回では,Googleによる双方向コンテキストを獲得した言語モデルBERTの解説しました.

ep20: Comprehensive evaluation of statistical speech waveform synthesis

第20回では,Amazonが行った音声合成の知覚評価に関する論文を解説しました.

ep19: SentencePiece: A simple and language independent subword tokenizer and detokenizer for NLP

第19回では,Googleが開発したサブワードによるTokenizer/DetokenizerであるSentencePieceを解説しました.

ep18: PyText: A Seamless Path from NLP research to production

第18回では,FacebookによるNLPのモデル化のためのフレームワーク,PyTextを解説しました.

ep17: User Modeling for Task Oriented Dialogues

第17回では,Googleによるタスク指向対話におけるユーザーシミュレーターの論文について解説しました.

ep16: Contextual Topic Modeling For Dialog Systems

第16回では,Amazonによるコンテキストを利用したトピック分類のモデルについて解説しました.

ep15: Another Diversity-Promoting Objective Function for Neural Dialogue Generation

第15回では,AAAI 2019 Deep Dialに採択された,ニューラル対話生成モデルの論文を解説しました.あのりょぼっとさんの論文でして恐縮しながら解説しました.

ep14: XNLI: Evaluating Cross-lingual Sentence Representations

第14回では,Facebook AI Researchによる多言語におけるNLIタスクの評価データセット及び多言語NLIにおけるベースラインを解説しました.

Ep13: You May Not Need Attention

第13回では,アテンションを使わず,エンコーダー・デコーダーを統合した,機械翻訳モデルの手法を解説しました.

Ep12: Word Embedding based Edit Distance

第12回では,単語埋め込みを利用した編集距離を利用して,文の類似度を計算する手法を解説しました.