ジェネレーティブAIを活用した失敗を無くすためにはどうすればよいか。ベンチャーキャピタリストである伊藤穰一さんは「いくらジェネレーティブAIが『答えらしきもの』を提示しても、『実は間違えているかもしれない』という可能性を常に念頭に置くこと。この心得が非常に重要です」という――。

※本稿は、伊藤穰一『AI DRIVEN AIで進化する人類の働き方』(SBクリエイティブ)の一部を再編集したものです。

ジェネレーティブAIも間違える

ジェネレーティブAIの得意・不得意や限界を理解すると、ジェネレーティブAIを活用した学びのコツも見えてきます。

ジェネレーティブAIは、いつ、どんな間違った情報を示すかわかりません。しかし、いつも確信に満ちた口調で説明してくるので、ついつい僕たちは、それらすべてを信じたくなります。そこがものすごく問題なのです。これは、信じてしまった人だけの問題ではありません。

たとえば誰かが、ジェネレーティブAIが捏造ねつぞうされた事実を鵜呑みにして作成した情報を、そのままネット上で公開したとしましょう。

すると、そのデータをまたAIが学習して、別の人に同じようなことを尋ねられたときに、虚偽を事実として提示してしまう。いわばAIがアウトプットした「ゴミ」を、またAIが食べることで、次第に虚偽があたかも事実として世間に定着していってしまう、ということが起こり得ます。

これはWeb2の時代に、パーソナライゼーション(個々人に合わせて情報が最適化されること)の浸透により、自分の知りたい情報だけが身の回りに溢れ(フィルターバブル)、それを信じてしまうことで「いつの間にか虚偽が事実になっていく」という問題が生じるようになったのと似ています。

RISKの文字
写真=iStock.com/patpitchaya
※写真はイメージです

嘘のアウトプットを繰り返すAI

たとえばウィキペディアに記載された虚偽が、それを鵜呑みにした人たちが発信したり語ったりすることで、世の中に「事実」として広まってしまう。それと似たようなことがAIにも起こるのです。

しかもAIのアウトプット量にはリミットがないため、どんどん嘘がアウトプットされ、その嘘をまたAIが学習し……という負のスパイラルを永遠に繰り返しかねません。

だからこそ、いかにAIが出したデータセットをAIのトレーニングセットから外し、それ以上嘘を学習しないよう歯止めをかけるかというのも、AIが抱える重要な課題です。