
電気通信大学 田野 俊一学長インタビュー[後編]
――生成AIの仕組み自体は、アカデミズムの方から出てきたのでしょうか。
本来、自然言語理解からのアプローチで言えば、主語があって、述語があって、目的語が……というのを細かく区切っていって、構文解析して意味表現にする、ということを、それこそ死ぬものぐるいでやっていました。
その次に来たのが、これは日本の研究者が言い出したのですが、そんな構文解析をするより、とにかくたくさんの訳例を集めて、それを使えば翻訳ができるじゃないか、というアプローチです。これはずいぶんうまくいっていました。
ChatGPTはそれとも違っていて、「予測する」というアルゴリズムのニューラルネットワーク、ディープラーニングというものができたのですね。これは本来画像処理なのです。
これは、例えば画像を見て「ここに鳩がいる」ということを認識させるために、以前は「鳩というのは白くて、黒いところがあって、丸っこくて…」ということを、私たちがプログラムしてコンピュータに教え込んでいたのですが、生成AIはそうではなくて、とにかく多量の画像を集めて、これが鳩、これも鳩、これは鳩ではない、というのを1万枚ぐらい入れると、なぜだかわからないけれど「ここに鳩がいる」ということが認識できる、ということをディープラーニングの手法でやったのです。
ディープラーニング以前は、3階層のニューラルネットワークがベストだということが式で証明されていたので、3階層以上やらなかったのです。ところが、カナダの研究者たちが、100層にすると学習能力が飛躍的に上がることを見つけて、それがディープラーニングになりました。
それによって画像処理がうまくいくようになって、今の自動運転の仕組み、つまりどこが白線だとか、どこに人が歩いているか、ということが判断できるようになりました。
そうしてディープラーニングの学習能力が上がることがわかったときに、それをたくさんの単語の次を予測するという自然言語の問題に適用してみよう、と思った人がいました。それをやったら、なぜか簡単にできてしまうようになったのです。
10年くらい前は、自然言語にそういったディープラーニングを応用すると良いことがあるかもしれない、とチャレンジしてずっと失敗していたのですが、ある時良いアルゴリズムが見つかったら、突然うまくいくようになったのですね。
過去の例から見ると、そういった劇的な流れが時々あります。
今の生成AIは計算よりも言語処理が中心です。生成AIで予測するには、言語という構造が扱いやすいのでしょうね。言語の構造に知性が入っていて、言語構造に意味があったのですね。
――ありがとうございました。最後に、先生からのお勧めの本のご紹介をいただけますでしょうか。
生成AIの時代である今、ダニエル・カーネマンの『ファスト&スロー』(早川書房)が面白いです。彼は、人間には実はロジカルに考える内省的なエンジンと、とにかく刺激に対して応答する、という2つの頭がある、と言っています。
今の生成AIは刺激応答系で、「こう来たらこう、こう来たらこう」ということを出すだけで、「なぜ、なぜ、なぜ」というのは考えていない。それは実は理解していないということです。
人間が人間として在るのは、その内省の「なぜ、なぜ、なぜ」があるからであって、その「なぜ、なぜ、なぜ」を放っておくと、すぐ忘れてしまう。我々は刺激応答に走りがちですが、本当は騙されているぞ、というのがカーネマンの警告です。今こそ読むべき本だろうと思っています。

電気通信大学(本館前)
◀リンク:「全国の大学のために」――新たな取り組みに見えた電気通信大学の覚悟 [前編] はこちら

電気通信大学 田野 俊一 学長
プロフィール
1983年東京工業大学大学院総合理工学研究科システム科学専攻修士課程を修了後、日立製作所入社。1996年に電気通信大学大学院情報システム学研究科助教授として着任。
2002年教授、2008年に副学長に就任し、その後学長補佐、研究科長、学術院長などを歴任し、2020年より現職。
専門は制御、ファジィ理論、人工知能、システム科学など。
インタビュー:原田広幸(KEI大学経営総合研究所 研究員)
執筆・編集 :小松原潤子(KEI大学経営総合研究所 編集委員)