「2019年はBERTとTransformerの年だった」(AINOW 2020/2/26)
というように、
現在、自然言語処理(NLP)分野の研究が過熱している。
AI業界では、
画像処理の次は自然言語処理!
という雰囲気なのだ。
そこでまずAINOWの記事から、
自然言語処理のざっくりした流れを復習したい(*1)。
もともと、
ディープラーニングの手法を応用した自然言語処理は、
時系列データを処理する「RNN」(*2)と、
その発展形である「LSTM」(*3)が使われてきた。
しかし、
この「LSTM」は構造が複雑だという欠点があった。
こうしたなか、
2017年6月に「Transformer」と「Attention」(*4)と呼ばれる手法が発表された。
これらは、
「LSTM」のような複雑な構造を使わずに高性能を実現したため、
言語モデル開発に大きな影響を与えた。
そして、2018年10月、
双方向的に「Transformer」を使った「BERT」が発表され、
画期的な性能を実現した。
さらに、2019年10月25日。
Googleが、検索エンジンに「BERT」を採用したことを発表。
多くのITメディアで
「BERTは、検索エンジンに大きな影響を与える過去最大級のアップデートである」
「人間の言語能力を超える新しい技術」
などと賞賛の声が上がった。
ということで、せっかくAIを学習するなら、
そんな「熱い」自然言語処理をやりたい!
と思い、
キカガク長期コースの
「機械学習を活用したWebアプリ制作」
のテーマに、自然言語処理を選んだ。
しかし、
初心者がいきなり、
「BERT」のような最先端のモデルを理解できるわけはない。
なので、今回は、
「LSTM」を使った「Seq2Seq」モデルで、
Webアプリ制作に取り組む。
周回遅れの技術であるにせよ、
基本は大切だ。
そのしくみを
『ゼロから作るDeep Learning 2』
などで確認しながら、
アプリ制作を進めていきたい。