AIが産んでしまうハルシネーション(幻覚)について
近年、ChatGPTやBing Chat、BardなどのAI技術が普及し、その中に「ハルシネーション」と称される現象が見られるようになりました。AIが事実に基づかない情報を生成し、それが現実の情報であるかのように提示することを指します。AIモデルによって発生頻度は異なりますが、頻繁に誤情報や偽情報が含まれてしまう場合があり、AIを活用する際の最大の注意点でもあります。
「ハルシネーション(幻覚)」という言葉は、精神病理学に由来していますが、AIの文脈では少し異なる意味を持ちます。AIの幻覚は、機械が実際には存在しない情報や詳細を生成する現象で、これは系統的なバイアスやデータの不足が原因で発生することがあります。
AIのハルシネーションは、技術の進歩に伴って徐々に軽減されてきています。特に、ChatGPT-4のリリース以降、この問題は以前よりも少なくなったとされています。しかし、AIが生成する内容の約15%から20%は依然として「幻覚」に分類され、根本的な解決には至っていないことが指摘されています。
ハルシネーションの具体例
大きな出来事としては、GoogleのAIチャットボットBardは、2023年のプロモーションビデオでジェームズ・ウェッブ宇宙望遠鏡が太陽系外の惑星の最初の画像を撮影したと誤って主張しました。この間違った情報は、Googleの株価に大きな影響を与え、約1000億ドルの市場価値の減少を招きました。
また、自動運転車が影を岩と誤認識する、あるいはチャットボットが歴史上の出来事に関して間違った情報を返すなどの事例もあります。これらの例は、AIが存在しない詳細や情報を「幻覚」していることを示しています。
人だって勘違いをするのでリスクは変わらない
一見するとAI活用を躊躇する要素になるハルシネーションですが、AIによる幻覚現象は、人間の勘違いと類似しているとも言えないでしょうか。人間も情報の誤解釈や記憶の錯誤によって誤った判断を下すことがありますよね。この点では、AIのハルシネーションのリスクは人間の勘違いと変わらないと言えるでしょう。
ヒューマンエラーを2重チェックなどで回避しようとするのと同様に、AIのハルシネーションも何かしらチェック機構を設けることで対策すれば良いのです。
RAGについて
Retrieval-Augmented Generation(RAG)は、生成AIモデルの精度と信頼性を向上させる技術です。この技術は、外部ソースから取得した情報を活用し、AIモデルによる幻覚のリスクを減らすのに役立ちます。RAGは、大規模言語モデル(LLM)の機能不足を補い、より信頼できる回答を提供することを目的としています。
RAGを使用すると、ユーザーはデータリポジトリと会話をすることが可能になり、より回答精度を求められる場面での活用が期待できます。
参考URL
- “ChatGPTやBardなどが直面する「幻覚症状」問題、NVIDIAが…” – AMP Media.
- “Artificial Hallucinations in ChatGPT: Implications in Scientific…” – NCBI.
- “Fabrication and errors in the bibliographic citations generated…” – Nature.
- “Hallucinations, Plagiarism, and ChatGPT – EnterpriseAI.”
- “What Is AI Hallucination? Examples, Causes & How To Spot…” – Techopedia.
- “What’s an AI Hallucination and its Impact on the Tech Industry” – NearSure.
- “Understanding AI Hallucination: Causes, Consequences, and…” – IdeaMaker.
- “Retrieval-Augmented Generation (RAG) とは?” – NVIDIA.