AIの「ハルシネーション」とは何か? なぜAIは事実でないことを述べるのか
※本記事は『THE CONVERSATION』に2025年3月21日付で掲載された記事を、許可を得て掲載しています。

人間が実際には存在しないものを見たり聞いたりする現象を、「幻覚(ハルシネーション)」と呼ぶことがある。これは、外部の刺激と知覚が一致しないときに生じる。
AIに基づく技術においても、同様の「幻覚」が発生する。
AIがもっともらしく聞こえるが実際には不正確または誤解を招く情報を生成する現象を、コンピュータサイエンスの分野では「AIの幻覚(hallucination)」と呼ぶ。こうした現象は、ChatGPTのようなチャットボットや、DALL-Eのような画像生成AI、自動運転車に至るまで、さまざまなAIシステムで確認されている。我々は情報科学を専門とし、音声認識AIにおける幻覚の研究を行っている。
AIシステムが日常生活に活用される場面では、その幻覚がリスクを生む可能性がある。軽微なケースでは、たとえばチャットボットが簡単な質問に誤った回答をすることで、利用者が誤情報を信じてしまう程度で済む。しかし、より深刻な場合には、その影響は重大となる。判決の判断補助にAIソフトウェアを用いる裁判所や、保険適用の可否を決めるためにアルゴリズムを活用する医療保険会社などにおいて、AIの幻覚は人の人生を左右しかねない。また、自動運転車が障害物や他の車両、歩行者を検知する際にもAIが使われており、幻覚による誤認識は命に関わる事態を引き起こす恐れもある。
続きは無料会員登録後、ログインしてご覧いただけます。
-
記事本文残り79%
月刊「事業構想」購読会員登録で
全てご覧いただくことができます。
今すぐ無料トライアルに登録しよう!
初月無料トライアル!
- 雑誌「月刊事業構想」を送料無料でお届け
- バックナンバー含む、オリジナル記事9,000本以上が読み放題
- フォーラム・セミナーなどイベントに優先的にご招待
※無料体験後は自動的に有料購読に移行します。無料期間内に解約しても解約金は発生しません。