「2019年はBERTとTransformerの年だった」(AINOW 2020/2/26)
というように、
現在、自然言語処理(NLP)分野の研究が過熱している。
AI業界では、
画像処理の次は自然言語処理!
という雰囲気なのだ。
そこでまずAINOWの記事から、
自然言語処理のざっくりした流れを復習したい(*1)。
もともと、
ディープラーニングの手法を応用した自然言語処理は、
時系列データを処理する「RNN」(*2)と、
その発展形である「LSTM」(*3)が使われてきた。
しかし、
この「LSTM」は構造が複雑だという欠点があった。
こうしたなか、
2017年6月に「Transformer」と「Attention」(*4)と呼ばれる手法が発表された。
これらは、
「LSTM」のような複雑な構造を使わずに高性能を実現したため、
言語モデル開発に大きな影響を与えた。
そして、2018年10月、
双方向的に「Transformer」を使った「BERT」が発表され、
画期的な性能を実現した。
さらに、2019年10月25日。
Googleが、検索エンジンに「BERT」を採用したことを発表。
多くのITメディアで
「BERTは、検索エンジンに大きな影響を与える過去最大級のアップデートである」
「人間の言語能力を超える新しい技術」
などと賞賛の声が上がった。
ということで、せっかくAIを学習するなら、
そんな「熱い」自然言語処理をやりたい!
と思い、
キカガク長期コースの
「機械学習を活用したWebアプリ制作」
のテーマに、自然言語処理を選んだ。
しかし、
初心者がいきなり、
「BERT」のような最先端のモデルを理解できるわけはない。
なので、今回は、
「LSTM」を使った「Seq2Seq」モデルで、
Webアプリ制作に取り組む。
周回遅れの技術であるにせよ、
基本は大切だ。
そのしくみを
『ゼロから作るDeep Learning 2』

NLP必読書No.1! 一読したがもう一度読む!
などで確認しながら、
アプリ制作を進めていきたい。

ほんと、教科書って感じの本

図5ー6 ループする経路を持つRNNレイヤ

図のLSTM Blockにしかけがある。

いつか読みたいけど、英語やもんなぁ〜