AI による幻覚: 研究者のブログ投稿が検索エンジンの誤った情報に拍車をかける



生成人工知能モデルを利用した人工知能 (AI) チャットボットが、ある研究ブログ投稿によって誤って誤解されてしまいました。この事件は、AIを活用した検索エンジンがさらに普及するにつれて、より強力な保護措置の必要性を浮き彫りにした。

AIチャットボットの幻覚

情報科学研究者のダニエル S. グリフィンは、誤った情報の例をブログに投稿した際に、AI を活用したチャットボットの分野で、うっかり独特の難問を引き起こしてしまいました。その目的は、AI ベースのチャットボットが誤った情報を広める例を説明することでした。グリフィン氏は、チャットボットの情報は真実ではないという明確な免責事項とともに、影響力のあるコンピューター科学者クロード・E・シャノンに関連する2つの例を示した。

しかし、この免責条項は、機械スクレーパーによる虚偽の情報のインデックス作成を防ぐには不十分であることが判明しました。グリフィン氏は、MicrosoftのBingやGoogleのBardを含むいくつかのチャットボットが幻覚データをあたかも本物であるかのように参照し、検索結果の上位にランクしていたことを発見して驚いた。ユーザーがシャノンに関する具体的な詳細についてチャットボットに質問すると、ボットはグリフィンの免責事項に頼って、一貫性はあるが不正確な物語を構築しました。これにより、シャノンが書いたことのない記事がシャノンのものであるとされることになりました。

さらに、この状況の問題点は、Bing と Bard の検索結果に、ソースが言語モデル AI (LLM) から派生したものであるという兆候がまったくなかったことです。この現象は、個人が文脈を無視してソースを言い換えたり引用したりして、欠陥のある研究につながるケースとよく似ています。しかし、Griffin 事件は、生成 AI モデルがこのエラーをはるかに大規模に自動化できる可能性があることを実証しました。

AI 偽情報の影響

この事件の影響は、単純な研究の不正確さにとどまりません。その後、Microsoft は Bing のエラーを修正し、人間が作成したオンライン コンテンツが限られているエンティティでこの問題が発生する可能性が高いと示唆しました。この脆弱性は、不穏な可能性への扉を開きます。それは、悪意のある攻撃者が意図的に LLM を武器化し、検索エンジンの結果を操作して誤った情報を拡散することを可能にする理論的設計です。この戦術は、ハッカーが検索結果の上位を確保しながら不正な Web サイトを使用してマルウェアを配布した過去の事例を思い出させます。

この事件は、インターネットが LLM で生成されたコンテンツでますます飽和するにつれて、将来の LLM のトレーニングに使用されるだろうと推測する 6 月の以前の警告を反映しています。このフィードバック ループは、 AIモデルの品質と信頼性の大幅な低下、「モデル崩壊」と呼ばれる現象につながる可能性があります。 AI モデルの開発と使用における警戒の必要性が、かつてないほど明らかになりました。

ダニエル・S・グリフィンが関与した事件は、人工知能を扱う企業にとって、人間が作成したコンテンツを使用してモデルを継続的にトレーニングすることを優先することが不可欠であることを浮き彫りにしました。少数派によって作成されたあまり知られていない情報や資料を保存することは、AI システムによって永続化される誤った情報の拡散を軽減する上で重要な役割を果たすことができます。