幻覚問題
AIの幻覚とは?
AIの幻覚の原因
AIの幻覚にはいくつかの原因があります。大規模モデルの一部は訓練データが不十分であったり、エラーを含む低品質の訓練データを使用していたりします。また、以前に訓練されて最新の情報が欠けているモデルもあります。不明瞭なユーザープロンプトも幻覚の原因となり得ます。さらに、会話の流れを維持するよう設計されたチャットボットは、正確なデータがない場合に不正確な情報を生成することがあります。これは、LLMが対話を続けるという主要なタスクを果たすために簡単に行うことです。
Hallucination Leaderboard
https://github.com/vectara/hallucination-leaderboard
Some Real Life Cases:
いくつかの実例:
ケース1: ChatGPTが生成した架空の判例を引用した弁護士
2023年、ニューヨークの弁護士スティーブン・シュワルツは、人身傷害事件の法的ブリーフを作成するためにChatGPTを使用しました。そのブリーフには、AIが生成した架空の判例がいくつか含まれており、相手方弁護士はそれを確認できませんでした。異議が唱えられた際、シュワルツと彼の同僚ピーター・ロドゥカはその主張を堅持しましたが、裁判所は彼らに判例を提出するよう命じました。提出できなかったため、5,000ドルの罰金が科されました。さらに、裁判所は今後、生成型AIコンテンツを含む提出書類にはその使用を明示し、正確性のチェックを確保するよう命じました(ABA Journal)(Law.com)。
ケース2: AI生成の誤情報
AIが生成した誤情報は急速に広まり、公共の誤解を招くことがあります。その一例がGoogleのBardチャットボットで起こりました。Bardはジェームズ・ウェッブ宇宙望遠鏡が初めて系外惑星の画像を撮影したと誤って主張しました。この誤情報はすぐに拡散し、AIが誤ったニュースを広める可能性を示しました。
これらのケースは、誤情報の拡散を防ぎ、法的文書の整合性を確保するために、厳格な検証プロセスとAI技術の責任ある使用が重要であることを示しています。
軽減技術
より優れた大規模言語モデルを使用する:可能な限り、より強力な大規模モデルを使用しましょう。これらのモデルは幻覚を起こす頻度が少ない傾向があります。
AI検索エンジンを使用する:Perplexityのような、検索タスクに最適化された大規模モデルを使ったアプリを利用してください。これらのアプリはインターネットデータに基づいて回答を提供します。(*幻覚が発生する可能性はありますが、その確率は大幅に低くなります。)
人間を介在させる:AIが生成した索引やケース、その他のコンテンツを人間が注意深く検証します。
プロンプトを工夫する:より詳細で洗練されたプロンプトとその構造を使用して、より正確な結果を得るようにします。
論理的思考やステップバイステップの問題解決に特化して訓練・ファインチューニングされたモデルを選びましょう。たとえば、Chain-of-Thought(CoT)プロンプトに対応したGPT-4や、明示的な推論プロセスを通じて幻覚(ハルシネーション)を抑制する****Claude 3などが該当します。
こちらは、AIモデルの幻覚を防ぐためのガイドラインと例を提供するOpenAI Cookbookのページです。
要約すると、大規模モデルが生成したコンテンツは、使用前に必ず注意深く確認してください。
Hallucination Detector
https://demo.exa.ai/hallucination-detector
Last updated
Was this helpful?