人間の方が、ハルシネーションは多くないか?
AIは嘘をつく。2025年だけで、AI生成の虚偽引用が争点となった裁判所の判断は数百件に上るとされ、その数は既知の事例全体の約9割を占めるという。架空の論文を堂々と「出典」として並べるモデルの振る舞いは、もはや笑い話にもならない。
では、こう聞かれたらどうだろう。「人間の方が、ハルシネーションは多くないか?」と。
挑発的に聞こえるかもしれない。しかし、この問いは案外まっとうな比較の入り口になる。大事なのは「どちらが悪い」と断じることではなく、それぞれの「嘘のつき方」の構造を理解することだ。そして、その理解が、AIを使う側の私たちにとって何を意味するかを考えることだ。
まず、数字で見てみる
AI側のデータから確認しよう。Vectaraが公開しているハルシネーション・リーダーボードによれば、2025年時点のモデル(Google Gemini 2.0 Flashなど)は、文書要約タスクにおけるハルシネーション率を0.7〜1.5%まで下げている。サブ1%のモデルが4つ存在するという事実は、「AIは息を吐くように嘘をつく」という印象からすると、だいぶ様子が違う。
ただし、これは「目の前の文書を正確に要約せよ」という、いわば守備範囲の狭いタスクでの数字だ。オープンな事実質問になると話は変わる。OpenAIのo3シリーズは、PersonQAやSimpleQAといったベンチマークで33〜51%のハルシネーション率を記録している。推論を深めるほど、かえって嘘が増えるという逆説的な現象も報告されている。一般的な知識問題における平均ハルシネーション率は約9.2%、法律情報に限れば上位モデルでも6.4%に達する。つまり、AIのハルシネーション率は「何を聞くか」で桁が変わる。一つの数字で語れるものではない。
では人間はどうか。手作業でのデータ入力におけるエラー率は、検証なしの単純入力で約1〜4%というのが複数の研究で示されている数字だ。スプレッドシートの入力に関するある研究では、人間の正確性は約95%にとどまるという結果が出ている。臨床研究のデータ処理に関するシステマティック・レビュー(PMC, 2024年)では、手法によってエラー率が10,000フィールドあたり2件から2,784件まで幅があるという結果が出ている。1万件の入力で最大400件のエラー。自動化システムなら同じ1万件で1〜4件程度。人間は「退屈な転記作業」において、確実かつ恒常的にミスをする生き物である。
単純な正確さの比較なら、限定的なタスクにおいてAIが人間を上回りつつある領域がある、とは言えるだろう。しかし、「人間の方がハルシネーションが多い」と言いたくなる感覚の核心は、たぶんそこにはない。
ハルシネーションの「質」が違う
AIが嘘をつくとき、その原因は比較的シンプルだ。学習データに根拠がない部分を、確率的にもっともらしい単語で埋めてしまう。本人(というのも変だが)に悪意はなく、指摘されれば訂正する方向に倒れやすい。少なくとも設計としてはそうなっている。いわば「知らないのに知っているふりをする優等生」のような存在で、悪気がないぶん発見も遅れやすい。
人間の「ハルシネーション」——ここではあえてその言葉を借りる——は、もう少し構造が複雑だ。大きく分けて三つの系統がある。
一つ目は、記憶の生成と改変。エリザベス・ロフタスらが長年研究してきた「誤情報効果(misinformation effect)」がその代表で、実際に見たり聞いたりした記憶が、後から入った情報によって上書きされる。裁判の目撃証言で、事後に見た写真や質問の仕方で記憶が変容するケースは数え切れない。本人は「たしかに見た」と確信しているから厄介だ。嘘をつこうとしているのではなく、脳が勝手にデータを書き換えてしまう。
二つ目は、推論の穴埋め。断片的な情報から整合的な物語を組み立ててしまう傾向で、神経心理学では「作話(confabulation)」と呼ばれる現象に近い。脳が空白を嫌い、自動的に「それらしい筋書き」を生成する。目撃証言の研究が典型的だ。目撃者は「見ていない部分」を無意識に補完し、しかもその補完された記憶を本物だと確信する。ここまで読んで気づいた人もいるかもしれない。AIの次トークン予測と、構造的にはよく似ている。違いがあるとすれば、AIには「確信」がないという点だろう。
三つ目が、動機づけられた認知(motivated reasoning)。ここが人間に固有の、そしておそらくもっとも影響の大きい領域だ。
「私のポリシーですから」
事実の誤りを指摘されたとき、AIは(設計がうまく機能していれば)訂正する。では人間はどうするか。「それは私の考え方ですから」と言う。あるいは「そういう主義なので」と。
この瞬間に何が起きているかを正確に記述すると、議論の土俵が「事実の領域」から「価値の領域」へ移動している。事実であれば検証できる。反証もできる。しかし「私はそう思う」は検証の対象にならない。科学哲学の用語を借りれば、反証可能性が無効化されるわけだ。
ダン・カハンらが整理した「アイデンティティ保護的認知(identity-protective cognition)」という概念がある。人は、自分が属する集団や信じているイデオロギーと矛盾する事実に直面したとき、事実の方を退けるように認知を調整する。これは意識的な嘘ではない。無意識に、しかも本人は誠実なつもりで行われる。だからこそ修正が難しい。
なぜそこまでして「逃げる」のか。経済学的に見れば、「間違いを認めるコスト」がAIと人間では桁違いだからだ。AIにとって訂正はパラメータの更新に過ぎない。そこに痛みはない。しかし人間にとって、自分の主義や主張に関わる誤りを認めることは、アイデンティティの一部を手放すことを意味する。過去の自分の発言、周囲からの評価、所属集団での立場。そうしたものが積み重なった「埋没費用」が、訂正を阻む壁になる。
AIのハルシネーションが「修正可能なエラー」だとすれば、こちらは「修正を拒絶する構造」だ。どちらが長期的に手に負えないかは、考えるまでもないかもしれない。
繰り返しが「真実」をつくる
もう一つ、人間に固有の厄介な特性がある。同じ主張を繰り返し聞くだけで、それを真実だと感じやすくなる。心理学では「真実性の錯覚効果(illusory truth effect)」と呼ばれる現象で、1977年のヴィラノヴァ大学とテンプル大学の研究以来、繰り返し確認されてきた。あなたも経験があるのではないか。「なんとなく聞いたことがあるから、たぶん正しいだろう」と感じた瞬間が。
2024年のレビュー論文(Udry & Barber, Current Opinion in Psychology)は、この効果がフェイクニュースの見出しや陰謀論にも及ぶことを確認している。しかも、明らかに怪しい主張や、本人がすでに正しい知識を持っている場合ですら、繰り返しによって信頼度が上がる。Collabra: Psychology誌に掲載された研究では、事前に正しい知識を測定したうえで実験を行っても、既知の虚偽が反復によって「よりもっともらしく」評価されるという結果が出ている。
さらに興味深いのは、この効果が対数的であるという点だ(Hassan & Barber, Cognitive Research, 2021)。最も大きな変化は「2回目に触れたとき」に起き、その後は反復ごとに効果が逓減していく。つまり、たった一度の繰り返しが、信念形成に最大のインパクトを与える。
SNSのタイムラインを想像してみてほしい。同じ主張が、異なるアカウントから、異なる文脈で流れてくる。リツイートされ、引用され、スクリーンショットで拡散される。あれは偶然ではなく、構造的に「真実性の錯覚」を増幅する装置として機能している。しかも反復された情報は「より真実らしい」と感じられるだけでなく、オンラインでの共有意図も高まることが示されている。つまり「繰り返し見た→本当っぽい→シェアする→他の人が繰り返し見る」という自己増殖のループが回る。
人間×AIという最悪の組み合わせ
ここまで読んで、「じゃあAIの方がマシなのか」と結論づけたくなるかもしれない。しかし話はそう単純ではない。本当に危ないのは、人間とAIの「合成ハルシネーション」だ。
人間は反復で信じる。AIは「それっぽい根拠」を生成できる。この二つが組み合わさると何が起きるか。自分がすでに信じていることをAIに聞く。AIは(ハルシネーションを含みうる)もっともらしい回答を返す。人間はそれを「やはりそうだったか」と受け取り、信念が強化される。次にまた聞く。ループが回る。
精神医学の領域では、チャットボットとの長時間対話が脆弱な個人の妄想的確信を増幅しうるという論点が「AIサイコシス」のような枠組みで議論され始めている(JMIR Mental Health, 2025)。セラピストの間でも、AIチャットボットにメンタルヘルスの支援を求めることへの懸念が表明されている。これが大半の人に直ちに当てはまるわけではない。しかし、「確信の補強装置」としてAIが機能しうるという指摘は、無視できない。人間が持つ確証バイアスと、AIが持つ「もっともらしさの生成能力」。この二つの相性は、控えめに言って悪い。
2024年のある調査では、企業のAIユーザーの47%が、AIの出力に基づいて少なくとも一つの重要なビジネス上の意思決定を行ったことがあると回答している。ナレッジワーカーがAIの出力をファクトチェックするのに費やす時間は、週平均4.3時間。検証にかかる手間が、AI導入で節約できるはずの時間を食い始めているという皮肉な状況だ。人間はAIの出力を鵜呑みにするリスクと、検証に膨大なコストをかけるリスクの両方に直面している。どちらに転んでも、コストは発生する。
訂正は効くのか
「間違いを正せばいいじゃないか」と思うかもしれない。事はそれほど単純ではないが、絶望的でもない。
かつて注目された「バックファイア効果」——訂正がかえって誤信念を強化するという現象——について、最近の研究は「いつでも起きる一般則ではない」とトーンダウンしている(PMC, 2022年のレビュー)。訂正は効く場合がある。ただし「効くための設計」が必要で、何もしなければ記憶の改変、反復による錯覚、所属集団の圧力に簡単に負ける。
一つの有効なアプローチは、発言を「事実」「価値」「予測」に分離することだ。価値は否定しない。否定する必要もない。事実と予測だけを検証対象にする。たとえば「その方針を採用したら、3か月後に何が観測されるか。逆に、何が起きたら見直すか」という形で、反証条件を事前に言語化させる。こうすれば、「ポリシーだから」という脱出口をふさぐことなく、検証可能な予測の土俵に引き戻すことができる。
反復バイアスへの対策もある。会議の場でいえば、同じ主張を何度も繰り返すことを避け、代わりに「根拠の更新ログ」——出典、データ、日付、前回からの差分——だけを残す。主張の回数ではなく、根拠の質で議論を進める。当たり前のように聞こえるかもしれないが、実際の会議でこれが徹底されていることは驚くほど少ない。
AIを使う場面でも考え方は同じだ。AIの生成文をそのまま採用するのではなく、出典の提示、一次ソースの確認、自分自身での計算や検証、という順序を固定する。AIの出力は「下書き」であって「結論」ではない。この一線を守れるかどうかで、合成ハルシネーションのリスクはかなり変わる。
どちらが「タチが悪い」か
冒頭の問いに戻ろう。「人間の方がハルシネーションが多いのではないか。」
答えは、比較の軸による。単純な転記や事実の再現では、AIの精度は人間を超えつつある領域がある。一方で、AIは推論が複雑になるほど嘘が増えるという弱点を抱えており、「何でもAIの方が正確」とは到底言えない。NeurIPS 2025に採択された論文のうち、少なくとも50本にAI生成の架空引用が含まれていたという報告もある。AIのハルシネーションは、まだ「解決済みの問題」からは程遠い。
しかし、質的に見れば、人間のハルシネーションには厄介な特性がある。修正を拒絶する構造を持っていること。反復で自己強化すること。そして何より、本人が「自分は正しい」と誠実に信じたまま行われること。AIのハルシネーションは技術的な「バグ」として対処の道筋が見えているが、人間のそれは脳の「仕様」に深く根ざしている。
もっとも、ここで「だからAIの方が優れている」と結論づけるのは、それ自体が一種のハルシネーションだろう。人間には現場の感覚器官がある。因果関係の常識的な理解がある。「この数字、なんか変だな」という直感がある。現実に根ざしたタスクでは、AIよりもはるかに堅牢な判断を下せる場面がいくらでもある。テキストの中に閉じた処理ならAIは強いが、物理世界との接地が必要な判断では、人間のセンサーと経験則はまだ圧倒的に優位だ。
問題は、その同じ脳が、自分のアイデンティティに関わる領域では途端にバグを起こすということだ。しかもそのバグを、本人は「信念」と呼ぶ。
AIのハルシネーションは「根拠に接続できない生成上のノイズ」。人間のそれは「アイデンティティと反復で自己強化する信念の固定化」。どちらも嘘をつく。ただし、自分が嘘をついていることに気づかない度合いにおいて、人間の方が一枚上手なのかもしれない。
あなたが今日「当然こうだろう」と思っていること。それは検証された事実か、それとも何度も聞いたから真実に感じているだけか。「私のポリシーだから」と言って守っているものは、本当に守るべき価値か、それとも訂正を拒むための盾か。その区別がつかないとしたら——それは誰のハルシネーションだろうか。
コメント
コメントを投稿