2022年末にChatGPTが発表された当時、大きな話題となったのがAIの「間違い」です。当時の生成AIはまだ未成熟だったこともあり、非常に自然な文章を生成する反面、盛大な間違いも起こす、ということが起きました。たとえば、自分の名前を入れて「この人はどんな人?」と聞くと、「戦国時代の武将で・・」などという答えが返ってきたり、「日本の総理大臣は誰?」と聞くと2-3世代前の総理大臣の名前を答えたり、という具合です。これは生成AIの仕組み上、仕方のない部分もあったのですが、なまじ文章が正しいものですから、「自身たっぷりに嘘をつく」などと揶揄されました。
この現象については、後に「ハルシネーション(幻覚)」という名前がつきました。この問題については、生成AIがネット上の情報を中心に学習していること(ネット上の情報には嘘や間違いも含まれる)や、文脈や意味では無く言葉の繋がりを確率的に予想して文章を生成するという仕組み上、無くすことはできないとされています。
しかし、あまりに豪快にわかりやすい嘘を頻繁につかれては、使う方も安心して使えません。生成AIベンダーはハルシネーションをなんとか減らすよう、さまざまな努力をしてきましたし、実際にかなり減ってきています。そうした中、8月にOpenAIがリリースした最新のGPT-5では、驚きのハルシネーション対策が盛り込まれました。
それはなんと、「わからないことはわからないと答える」という、よく考えてみればあたりまえのことだったのです。これまではあまり自信が無い(正解である確率が低い)回答でも、「答えないよりは良いだろう」という考えで回答させていたが、それを「わからない」と回答するように調整した、ということのようです。これで「間違い」の多くが「わからない」になった結果、ハルシネーション(間違い)は減った、というわけです。OpenAIのデータによると、GPT-o4-miniとGPT-5-thinking-miniの比較では、正解率はほぼ同じ(むしろGPT-5のほうが少し低い)であるものの、不正解率は1/3に激減しています。
「そんなのでいいの?」という気もしますが、「知ったかぶりをしない」というのは私たち人間も肝に銘じなければならないことですし、その意味ではAIがより人間に近づいた、という見方もできるのかも知れませんね。


大越章司おおこししょうじ
株式会社アプライド・マーケティング 代表取締役
外資系/国産、ハードウェア/ソフトウェアと、幅広い業種/技術分野で営業/マーケティングを経験。現在は独立してIT企業のマーケティングをお手伝いしています。 様々な業種/技術を経験しているため、IT技…
ビジネス|人気記事 TOP5
高齢者が病院に行きすぎてしまう理由
川口雅裕のコラム 「人が育つ会社、育たない会社」
営業パーソンの皆様への応援メッセージ~お客様宅 訪問時 基本…
伊吹晶夫のコラム 「三越伝説のトップ外商が伝えたい営業の真髄」
OpenAIがとったAIの「間違い」を直す方法とは
大越章司のコラム 「デジタル変革(DX)への対応とは」
講師向け「アプリ」の開発
大谷由里子のコラム 「大谷由里子の人づくり日記」
最初の30秒で相手の心をつかむ雑談術
梶原しげるのコラム 「すべらないコミュニケーション」
講演・セミナーの
ご相談は無料です。
業界25年、実績3万6700件の中で蓄積してきた
講演会のノウハウを丁寧にご案内いたします。
趣旨・目的、聴講対象者、希望講師や
講師のイメージなど、
お決まりの範囲で構いませんので、
お気軽にご連絡ください。
