米CNET、AIにひっそり書かせた記事が間違いだらけだった
2023年1月23日(月)15時0分 GIZMODO
Image: kung_tom (Shutterstock)
CNETだけの問題じゃない。
ネット上から得た知識を元にそれっぽい文章を一瞬で書き上げてくれるAIチャットボット、ChatGPT。
きれいな文章を一瞬で編み出せて、中身もある程度まともなのはすごいんですが、あくまで「ある程度」でしかなく、ときどきニセ情報を混ぜてしまうこともあります。
米メディアWebサイトのCNETは、このChatGPTをひっそりと実際の記事作りに使ってしまっていました。
解説記事なのに間違いでボロボロFuturismなどによれば、CNETは去年11月頃からChatGPTに記事を書かせていたんですが、その内容があまりにウソだらけで、何回も大きな訂正をする結果になっています。
ChatGPTが書いた「複利」に関する解説記事では、大きな間違いが少なくとも以下の5カ所ありました(現在は修正済み)。
・普通預金口座に1万ドル入っていて利率が3%で毎年複利が付いた場合、1年後には利息だけで1万300ドル(約133万円)の収入になると示唆しました。その場合の収入は、実際は300ドル(約3万8700円)です。
・同様の間違いがもう1カ所ありました。
・1年間の譲渡性預金口座の複利計算は1年ごと、と言っていました。実際は、譲渡性預金に利息が付くタイミングはさまざまです。
・利率4%の自動車ローンで5年間に払う金額を間違って伝えていました。
・「APR」(年換算利回り)と「APY」(年間収益率)を混同していたため、間違ったアドバイスをしていました。
CNETはもう2カ月以上、累計78件もChatGPTに記事を書かせ続けています。多いときでは、1日に12件書かせていました。
記事の署名は、元々は「CNET Money Staff」、その後「CNET Money」となりましたが、どちらもAIだとはわからない署名です。AIが書いた記事であることは、著者の説明部分をプルダウンすると「自動化技術を使って作られた」とあるだけでした。
AI記事に対する責任Futurismなどのメディアがこのことに気づいて炎上し始めてからようやく、CNETのConnie Guglielmo編集長が声明を出し、「CNETはAIによる支援の実験をしている」と明かしました。
でもこの声明は、ただ火消し的に全体のスタンスを回答しただけで、Futurismなどが指摘した個々の間違いには触れていません。
Futurismによれば、CNETがChatGPTによる記事を訂正したのは自発的なものではなく、Futurismが直接CNETに修正点を連絡した後だったそうです。
CNET added this gigantic correction to one of its AI-generated articles after we reached out with some questions about its accuracy pic.twitter.com/TvZMzFb1k3
— Jon Christian (@Jon_Christian) January 17, 2023 人間がチェックしてもミスがすり抜けるCNETいわく、AIが書いた記事はすべて、リアルな人間のスタッフが「レビュー、事実性のチェック、編集」をしています。
また各ポストには、署名の横に編集者の名前も入っています。それでもChatGPTが作り出す間違いが膨大だったせいか、チェックの網をすり抜けてしまったようです。
メディアの編集者が記事をチェックするとき(「複利とは何か」みたいな基本的知識の解説記事であれば余計に)、編集者は記者が正確な情報を書くべく最善を尽くしたものとして受け止めています。
でもAIは「なるべく正確に」といった意志がないまま、ただただそれっぽい文章を生み出してしまいます。
だからAIが書いた文章を編集する編集者は、記事に対して何も期待しちゃいけなくて、あらゆるフレーズ、単語、句読点に至るまで、どこが地雷か厳しい目で検討する必要が出てきます。
それはつまり、人間が書いた記事の編集とは全く違うタイプのタスクです。だから編集にはかなりの注意力が必要になるし、AIに記事をたくさん書かせるのだとしたら、現状、それをこなせるだけのマンパワーが必要になってきます。
CNETの編集者がChatGPTの間違いを見落としてしまったことは(許されるとは言えないけれど)、必然ではあったのかもしれません。執筆作業をAIにアウトソースするということは、今まで記者が負ってきた負担の多くを編集者が負うということなんです。
だから今までの「編集」のつもりでAI記事の編集をしてしまうと、間違いは避けられないんです。
どんな編集方法がいいの?CNETで間違いがあったのは、上の例の1記事だけじゃありません。CNETのAIが書いた記事のほぼすべてに、今は「編集者のメモ」があり、「我々は現在この記事の正確性をレビューしています。もし間違いを発見した場合は更新し、訂正します」としています。
つまりCNETは、今までやっていた編集プロセスが不十分だったことに気づいたようです。
そこで米GizmodoはCNETにメールし、今後のレビュープロセスについてより明確な説明を求めました(各記事を再校するのは、同じ編集者か? 違う編集者か? AIファクトチェッカーか? などなど)。
でもCNETはその質問に直接答えませんでした。
PRマネジャーのIvey Oneal氏は前出のGuglielmo氏の声明を参照し、
「我々はAIの支援による全ての記事を積極的にレビューし、今後は決して不正確な記事が編集プロセスを通過することのないよう努力しています。我々はCNETの修正ポリシーに基づき、必要な訂正を行っていきます」
とするだけでした。
現段階でAIができることを把握する今後もAIが間違った文章を書く可能性は高いのに、それでも書き手を人間からシフトしようとしているのはなぜなんでしょうか。
AP通信のような報道機関もAIを使っていますが、それはたとえばあらかじめ決まったテンプレートに情報を埋めていくなど、限られた使い方だけです。
そういった限定的な範囲と意図であれば、人間の負担を軽減し、その分人間は人間にしかできないタスクに注力できます。
でも今回のCNETのAIの使い方は、範囲と意図の両方で明らかに限定的とは言えません。
AI記事量産の意図と、その問題「CNET Money」の署名のある記事はすべて、見出しが簡潔な疑問形の一般的な解説記事です。これは明らかにGoogleの検索エンジンに向けて最適化されていて、つまり検索結果で上位に表示されやすく、他のメディアからクリックを奪っています。
CNETはGizmodoも含め他のデジタルメディアと同様、ページ上の広告から収入を得ています。広告のクリックが多ければ多いほど、広告主はより多くのお金をメディアに支払います。
経済的に見れば、人間はAIにかないません。メディア運営企業から見ると、AIには机のスペースとか空調とか福利厚生とかの経費がかからないし、休ませなくていいから何記事でも書かせられます。
でもAIに記事を量産させてSEOで稼ぐという発想は、正確な報道を二の次にさせてしまいます。
事実の追求とか丁寧な解説といったものは、クリックベースの収入を追いかけるところからは生まれてこないんじゃないでしょうか。
このままAIの書く記事が「普通」になっていくとしたら、メディアはおそらく広告主やメディア企業にとって都合がよく、AIがアルゴリズム的によしとする記事であふれてしまいます。
そのとき、読み手の人間にとって大事なものは、どこに行ってしまうんでしょう…?