ChatGPTが世に出たのが2022年の11月末、12月にはすでに業界筋で大騒ぎになっていましたが、その波が日本に来たのが翌年2023年の2-3月だったと記憶しています。つまり、日本でChatGPTが話題になってからちょうど3年が経過したわけですね。たった3年でここまで世の中が変わってしまったというのは本当にすごいことだと思います。
その3年前を思い返してみると、一般メディアなどは「文章は自然でわかりやすい」と称賛する一方で「まったく間違ったことを平気で言う」といった取り上げ方も多かったと思います。「自信たっぷりに嘘をつく」などと揶揄されるこの現象は、のちに「ハルシネーション(幻覚)と呼ばれるようになりました。
ハルシネーションにはいくつか原因がありますが、主なものはふたつあります。ひとつは、AIが学習するネット上のデータには、誤りや偏りが含まれているかもしれないことです。悪気が無くても間違ったことを書いてしまうことは誰にでもありますし、中には悪意を持って偏見や極論を公開しているサイトもあります。自由に発言できるのはネットの良いところでもあるのですが、明らかな間違いや極論をAIが学習すると、AIの出力もそれに引っ張られてしまいます。この辺りは人間も同じですね。
もうひとつが、AIモデルの学習には時間がかかるということです。最新のAIモデルは大規模化が進んでおり、クラウド上のサーバーをフル稼働させても数週間〜数か月かかると言われます。その後に、間違いや偏りを修正するための人間による調整も必要です。つまり、AIモデルが完成した時には、学習したデータはすでに古くなってしまっているのです。
このように、ハルシネーションは生成AIの構築過程に由来するもので、今の仕組みを続ける限りは無くすことはできないと言われていますが、なるべく少なくするための努力は常に行われています。そのひとつが、以前も書いた「わからないことはわからないと言う」ということですが、これについては、「効果はあるだろうけど、なんかズルくない?」という印象がぬぐえません。
このコラムの次回では、ハルシネーションをなるべく抑えるための技術であるRAGについてご紹介します。


大越章司おおこししょうじ
株式会社アプライド・マーケティング 代表取締役
外資系/国産、ハードウェア/ソフトウェアと、幅広い業種/技術分野で営業/マーケティングを経験。現在は独立してIT企業のマーケティングをお手伝いしています。 様々な業種/技術を経験しているため、IT技…
ビジネス|人気記事 TOP5
営業成果を確実に上げる "量"×"質"の法則
只松 崇のコラム 「目標達成力をアップさせる実践・営業塾」
高齢者が病院に行きすぎてしまう理由
川口雅裕のコラム 「人が育つ会社、育たない会社」
組織内で"女性ルールのメリット"がうまく働かない2つの理由
藤井佐和子のコラム 「企業・個人を豊かにするキャリアデザインの考え方」
職場に"イチロー"を作ってはいけない
川口雅裕のコラム 「人が育つ会社、育たない会社」
ハードワークは社長の特権
宗次徳二のコラム 「宗次流 独断と偏見の経営哲学」
講演・セミナーの
ご相談は無料です。
業界25年、実績3万6700件の中で蓄積してきた
講演会のノウハウを丁寧にご案内いたします。
趣旨・目的、聴講対象者、希望講師や
講師のイメージなど、
お決まりの範囲で構いませんので、
お気軽にご連絡ください。
