情報漏洩でもフェイクニュースでもない 生成AI時代、メディアが“真に”考えるべきふたつの課題とその活用法

情報漏洩でもフェイクニュースでもない 生成AI時代、メディアが“真に”考えるべきふたつの課題とその活用法
  • このエントリーをはてなブックマークに追加
2023/04/14 08:00

 noteは「生成AIがもたらすマスメディアの進化~次世代ツールをどう使いこなす?編集・報道の未来~」と題したメディア向け勉強会を開催。本記事では勉強会前半パートとしてnote株式会社 CXO・深津 貴之氏と同社プロデューサーの徳力基彦氏が登壇した「マスメディアはAIとどう共存していくか〜テキスト篇」の様子をお届けする。

なぜChatGPTは、嘘をついたり知ったかぶりをしたりするのか

 ChatGPTはOpen AI社が開発した「大規模言語モデル(LLM=Large Language Model)」と呼ばれるAIモデルであり、「ChatGPTを車に例えると大規模言語モデルはエンジンに該当し、その名前がGPT」であると冒頭で説明した深津氏。

 また、「すごく頭が良いAIに見える」ものの、「ChatGPTの仕組みは手前の文章や文脈に、確率的にありそうな続きをどんどんつなげていくAIという非常にシンプルなロジック」であることに触れ、ChatGPTの根幹の仕組みを紹介した。

「そのためユーザーが『むかしむかしあるところに』と言うと、そのあとに続く確率が高いのは『おじいさんとおばあさんが』であるというように、単純に確率上ありそうなものが返ってくる。確率的になんとなくそれっぽいものを刹那的に続けていくマシーンというのがChatGPTです」

 それに対し「ただ、相当良い仕事をしますよね」と徳力氏が反応すると、深津氏は次のように補足。

「5兆語くらいの言葉でトレーニングをし、人間が心を込めて言ってはいけないことを教えたり強化学習を繰り返したりしたところ、すごく良くなってしまった。つまり、確率的にできそうなものをつなげていったら、だいぶ人間の知性に近いものができちゃったという感じでしょうか。

確率で単語を続けているだけなので、真の知性ではありません。ネット上でも嘘をついていると言われたりしますが、嘘をついているわけではなく、確率上正しそうなことを返したら、それが間違っていただけ。この世に答えがないものでも「わかりません」と答えるよりも、確率上正しそうなものをしゃべってしまうため『すごく知ったかぶりしている詳しい人』になってしまうのが、現時点でのChatGPTにおける構造上の課題ですね。そのため、検索をするのに使ってはいけないのが基本。それは、正解を知るツールではないからです」

note株式会社 CXO 深津 貴之氏
note株式会社 CXO 深津 貴之氏

 あくまで「確率上高い続きを書いてくれるマシーンに過ぎない」と強調し、そのため「平凡な質問の文章を書いたら平凡な回答が返ってくる可能性が高い」と続けた。

 ここで深津氏は、実際に自身が入力した質問例を紹介。「日本におけるクッキーとバターの定義の違い」について尋ねると、「日本においては、クッキーとバターという用語は、同じ意味でつかわれることが多いです」と回答したと言う。

「このような回答になったのは、お菓子のレシピには似たような材料がたくさん並んでいるため、確率上次に何がくるのかを計算するのが難しくなったからでしょう。もうひとつは、ビスケットとクッキーの定義の違いを聞く人が多く、その違いはあまりないという文章が多かったことで、このような回答が生まれたのかもしれません」

クリックすると拡大します

 現在のGPT-4は、2021年までにネットのテキストから集めた内容で学習をしているため、それ以降の情報は基本的には知らない点もおさえておきたいポイントだ。ただ「Open社もマイクロソフトも『知らなかったら検索して答える』など直りつつある」と補足した。

 またChatGPTそのものの課題については、「確率で回答するマシーンのため、多くの人が持っている偏見などはそのまま学習してしまうこと」がそのひとつであると深津氏。現在は「こういった誤りを人間が心をこめてひとつずつ修正したりしている」と語った。

※この続きは、会員の方のみお読みいただけます(登録無料)。