ご相談

講演依頼.com 新聞

コラム ビジネス

2025年10月15日

プライベートに生成AIを使う人の6割以上が「ハルシネーション」についてよく知らない

先月、GPT-5に関するコラムの中で「一般ユーザーは生成AIの「精度」そのものにはあまり興味が無い」のではないか、と書きましたが、先日これに関連する調査報告がありました。Forbesの記事で、「生成AI利用者の6割が知らない致命的な「欠陥」 その落とし穴と対策」というものです。

記事には「プライベートで生成AIを利用する人の約65%が、AIが誤った情報を生成する「ハルシネーション」という現象を十分に理解していないことが、インターネット回線事業を行う株式会社ITSUKIの調査で明らかになった。」とあり、その内訳は「ハルシネーションを知らない」と答えた人が41%、「聞いたことはあるが、よく知らない」と答えた人が24.4%で、合わせて65%ということです。正直、この数値を見てびっくりしました。多くの人は「AIは間違うかもしれないもの」という認識を持たずに利用している、ということですね。これでは、先月書いたように精度云々よりも言葉遣いの方に注意が向くはずです。

2022年末にChatGPTが発表された当時、大きな話題となったのがAIの「間違い」です。当時の生成AIはまだ未成熟だったこともあり、非常に自然な文章を生成する反面、盛大な間違いも起こす、ということが起きました。たとえば、自分の名前を入れて「この人はどんな人?」と聞くと、「戦国時代の武将で・・」などという答えが返ってきたり、「日本の総理大臣は誰?」と聞くと2-3世代前の総理大臣の名前を答えたり、という具合です。これは生成AIの仕組み上、仕方のない部分もあったのですが、なまじ文章が正しいものですから、「自身たっぷりに嘘をつく」などと揶揄されました。

この現象について、後に「ハルシネーション」という名前がつきました。「幻覚」という意味です。この問題は、生成AIがネット上の情報を中心に学習していること、文脈や意味では無く言葉の繋がりを確率的に予想して文章を生成するという仕組み上避けられないものとされています。つまり、「AIが嘘をつく可能性」は意外に高い、ということができるのです。

Forbesの記事には、ハルシネーション対策を取っている人の具体的な手法がいくつか挙げられており、「回答はあくまで参考情報やたたき台として扱う」「生成AIは間違う可能性があるという前提で利用する」「複数の検索エンジンや情報サイトで内容を照合する」などが有効ということです。企業で生成AIを利用する人はこのような教育は受けていると思いますが、プライベートで使う人も、これらの対策を念頭に置いてAIを利用する必要があるでしょう。

大越章司

大越章司

大越章司おおこししょうじ

株式会社アプライド・マーケティング 代表取締役

外資系/国産、ハードウェア/ソフトウェアと、幅広い業種/技術分野で営業/マーケティングを経験。現在は独立してIT企業のマーケティングをお手伝いしています。 様々な業種/技術を経験しているため、IT技…

  • facebook

講演・セミナーの
ご相談は無料です。

業界25年、実績3万6700件の中で蓄積してきた
講演会のノウハウを丁寧にご案内いたします。
趣旨・目的、聴講対象者、希望講師や
講師のイメージなど、
お決まりの範囲で構いませんので、
お気軽にご連絡ください。