【ITニュース解説】Why Can’t AI Say “I Don’t Know”? (Bite-size Article)
2025年09月06日に「Dev.to」が公開したITニュース「Why Can’t AI Say “I Don’t Know”? (Bite-size Article)」について初心者にもわかりやすいように丁寧に解説しています。
ITニュース概要
ChatGPTなどのAIは、大量のテキストから学習し、確率的に次に来る言葉を予測する。知識ベースではないため、自信満々に答えても誤りを含む「幻覚」を起こしやすい。データや評価の偏りにより、AIは「わからない」と言わず断定的な回答を優先する傾向がある。利用者はAIを全知全能と思わず、情報源を確認し、推測として解釈する姿勢が重要となる。
ITニュース解説
AI、特にChatGPTのような大規模言語モデル(LLM)は、質問に対して自信満々に答えることが多い。しかし、その答えが本当に正しいのか疑問に思ったり、後で誤りだと気づいたりすることがある。これは「AIの幻覚(ハルシネーション)」と呼ばれる現象だ。なぜAIは、不確かな場合に「わからない」と言わずに、あたかも確実であるかのように答えるのだろうか。
LLMは、膨大なテキストデータから学習し、「次に現れる可能性の高い単語(トークン)」を予測する装置として機能する。訓練の目的は、もっともらしい文章を生成することであり、内容が事実として正しいかどうかは必ずしも重視されない。そのため、自然で流暢な文章を作り出す一方で、もっともらしい誤りも生み出してしまう。これが幻覚の本質だ。
AIを理解する上で、百科事典(知識ベース)よりも「物知りな友人」に近いと考えるとわかりやすい。百科事典は情報が整理されており、掲載されていないことは「該当なし」と答える。記録された情報は信頼性が高く、質問が記録された内容と一致すれば信頼できる。一方、物知りな友人は、知っていることを駆使して、実際には知らなくても「たぶんこうだよ」と答えようとする。友人は善意で助けようとするが、誤解や推測も混ざってしまう。AIの振る舞いもこれとよく似ている。
では、なぜAIは控えめに「わからない」と言わず、断定的な答えを好むのだろうか。これにはいくつかの理由がある。まず、学習データには断定的で主張的な文が圧倒的に多い。次に、人間によるフィードバック(RLHF)を用いた評価では、自信のある答えが「役に立つ」と評価されやすい。さらに、ユーザー満足度や会話の継続といった指標も、AIが「とりあえず何か答える」ことで向上する傾向がある。また、答えを保留するためには、信頼度の推定や閾値の設定が必要だが、多くの実装ではそれが構築されていない。これらの要因が重なり、「100%確実でなくても断言する」ことがデフォルトの振る舞いになっている。
具体例として、Googleマップと物知りな友人を比較してみよう。どこかに行きたい時に住所を調べる場合、Googleマップは情報があれば正確な道順を示すが、住所が存在しない場合は「情報なし」と表示したり、候補だけを表示したりする。一方、物知りな友人は、場所を知っていれば自信を持って答えるが、その答えが正しいかどうかすぐに確認できない。また、助けたい気持ちから、実際には知らなくても「たぶんこうだよ」と言ってしまうかもしれない。
ユーザーが本当に求めているのは、正しい答えだ。間違った答えが返ってきて、仕事や生活に影響が出ると問題になる。そのため、AIは不確実な場合には「たぶんそうだと思う」とか「確信はないけど…」といった表現をデフォルトにすべきだと主張する人もいる。
現実には、多くのAIチャットボットは依然として断定的な傾向がある。ユーザーができる対策としては、プロンプトでAIに事実確認を指示することだ。「その情報が正しいかダブルチェックして」「必ず出典を示す」といった指示を与えることで、検証を促すことができる。また、複数のLLMに同じ質問をして答えを比較したり、出典や日付を必ず確認したりすることも重要だ。これらの確認作業は手間がかかるが、より安全に進めたい場合は、デフォルトの習慣として取り入れる価値がある。
AIは、登場以来、日々利用されているが、幻覚によって誤った方向に導かれることに不満を感じることもある。その背景には、「ツールが明確な答えを提示するなら、それは正しいはずだ」という、Googleのような知識ベース型リソースに対する長年の慣れから生まれた固定観念がある。しかし、LLMは知識ベースではなく、確率的な予測装置だ。その構造的な特性と、断定的な表現を好む社会的な傾向から、AIは「わからない」と言うよりも、断言する方向に傾きやすい。
したがって、AIを全知全能の存在だと勘違いしないことが重要だ。「断言=正しさ」と盲信せず、出典や日付を確認し、一部の出力は「これは推測かもしれない」と解釈する心構えが必要だ。AIを、全てを知っている回答者ではなく、部分的な知識に基づいて行動するパートナーとして捉える。この意識の変化こそが、AIを安全かつ効果的に活用するための最初のステップとなる。