ご相談

講演依頼.com 新聞

コラム ビジネス

2026年02月13日

AIがもっともらしい嘘をつく「ハルシネーション(幻覚)」とは

ChatGPTが世に出たのが2022年の11月末、12月にはすでに業界筋で大騒ぎになっていましたが、その波が日本に来たのが翌年2023年の2-3月だったと記憶しています。つまり、日本でChatGPTが話題になってからちょうど3年が経過したわけですね。たった3年でここまで世の中が変わってしまったというのは本当にすごいことだと思います。
その3年前を思い返してみると、一般メディアなどは「文章は自然でわかりやすい」と称賛する一方で「まったく間違ったことを平気で言う」といった取り上げ方も多かったと思います。「自信たっぷりに嘘をつく」などと揶揄されるこの現象は、のちに「ハルシネーション(幻覚)と呼ばれるようになりました。

ハルシネーションにはいくつか原因がありますが、主なものはふたつあります。ひとつは、AIが学習するネット上のデータには、誤りや偏りが含まれているかもしれないことです。悪気が無くても間違ったことを書いてしまうことは誰にでもありますし、中には悪意を持って偏見や極論を公開しているサイトもあります。自由に発言できるのはネットの良いところでもあるのですが、明らかな間違いや極論をAIが学習すると、AIの出力もそれに引っ張られてしまいます。この辺りは人間も同じですね。

もうひとつが、AIモデルの学習には時間がかかるということです。最新のAIモデルは大規模化が進んでおり、クラウド上のサーバーをフル稼働させても数週間〜数か月かかると言われます。その後に、間違いや偏りを修正するための人間による調整も必要です。つまり、AIモデルが完成した時には、学習したデータはすでに古くなってしまっているのです。

このように、ハルシネーションは生成AIの構築過程に由来するもので、今の仕組みを続ける限りは無くすことはできないと言われていますが、なるべく少なくするための努力は常に行われています。そのひとつが、以前も書いた「わからないことはわからないと言う」ということですが、これについては、「効果はあるだろうけど、なんかズルくない?」という印象がぬぐえません。

このコラムの次回では、ハルシネーションをなるべく抑えるための技術であるRAGについてご紹介します。

大越章司

大越章司

大越章司おおこししょうじ

株式会社アプライド・マーケティング 代表取締役

外資系/国産、ハードウェア/ソフトウェアと、幅広い業種/技術分野で営業/マーケティングを経験。現在は独立してIT企業のマーケティングをお手伝いしています。 様々な業種/技術を経験しているため、IT技…

  • facebook

講演・セミナーの
ご相談は無料です。

業界25年、実績3万6700件の中で蓄積してきた
講演会のノウハウを丁寧にご案内いたします。
趣旨・目的、聴講対象者、希望講師や
講師のイメージなど、
お決まりの範囲で構いませんので、
お気軽にご連絡ください。