9割が「家庭教師よりChatGPTのほうが優秀」と回答…そんな時代にしば犬AI「大ちゃん」が示したAI学習の深刻な問題

2024年3月21日(木)9時15分 プレジデント社

※写真はイメージです - 写真=iStock.com/simarik

写真を拡大

ChatGPTを用いて学習するのは非常に効果が高いが、生成AIには時々間違った答えを出力する「ハルシネーション」という問題がある。これにどう対応すべきか。『ChatGPT「超」勉強法』を上梓した野口悠紀雄さんは「大規模言語モデル(LLM)がどのように言葉や概念を理解し、どのように出力を作っているかに関する理解が必要だ」という——。(第3回/全4回)

※本稿は、野口悠紀雄『ChatGPT「超」勉強法』(プレジデント社)の一部を再編集したものです。


■ChatGPTは誤った回答を出すことがある


ChatGPTを用いて学習を進めるのは、非常に楽しく効率のよい方法だ。しかし、この実行にあたって、乗り越えなければならない大きな問題がある。


それは、ChatGPTなど生成AIが出力する結果が、正しいとは限らないことだ。時々間違った回答をする。これは「ハルシネーション」(幻覚)と呼ばれる現象であり、深刻な問題だ。


2024年1月時点で、GPT-4は2023年4月までのデータしか学習していないため、それ以降の事柄については答えられないはずだ。それにもかかわらず、答えを出すことがある。


また、2023年4月以前の情報についても、間違うことがある(具体的な例は後述する)。BingやBardなどウェブ検索を行なうツールなら間違いが少なくなると思われがちだが、実際には、これらを用いても誤りが生じる。


写真=iStock.com/simarik
※写真はイメージです - 写真=iStock.com/simarik

■誤った家庭教師から誤った知識を得る危険


ハルシネーションに注意せずにChatGPTを用いて勉強すると、誤った知識を身につけてしまう危険がある。そうした人が増えれば、社会は大混乱に陥るだろう。


そのような事態を、未然に食い止める必要がある。これに対して警告を発し、その対処法を考えることは、喫緊の課題だ。


ChatGPTは、家庭教師としてすでに広く利用されている。アメリカでは人間の家庭教師からChatGPTへの切り替えが急速に進んでいる。


教育関連のオンライン雑誌Intelligent.comが2023年10月に紹介したアンケート調査の結果によると、9割近くの学生や親が、人間の家庭教師よりもChatGPTのほうが優れていると答えている(*)。


New Survey Finds Students Are Replacing Human Tutors With ChatGPT,Intelligent.com. 2023/10/24


そして、3割程度の学生がすでにChatGPTに切り替えている。日本での調査でも、かなりの数の学生がChatGPTを使ったことがあると答えている。だから、誤った知識を学んでしまうリスクは、すでに現実のものとなっている。


■ChatGPTの無批判な利用は非常に危険


文部科学省が2023年7月に発表した生成AIに関するガイドラインでは、レポートの作成などを生成AIに丸投げするのはやめるべきだとしている。


また、東京大学をはじめとするいくつかの大学が生成AIの利用についての方針を表明しており、文部科学省のガイドラインと同様、生成AIだけで論文を書くことは適切でないとしている。


その反面で、上で述べたようなハルシネーションの問題は、重視されていない。ChatGPTの無批判な利用が非常に危険だということを、早急に生徒や学生に教える必要がある。


■大阪万博は「中止になってしもた」


勉強とは関係ないが、大阪万博について、ChatGPTが奇妙な答えをしたことが話題になった。これは、大阪府が高齢者向けの事業として2023年9月から提供しているChatGPTサービス「大ちゃん」で起こった出来事だ。


大阪万博が中止かどうか問うと、「中止になってしもた」と答えたという。「まだ決まってない」「もう終わった」と答えた場合もある(*)。


*朝日新聞、2023年10月25日朝刊


大阪府自慢のサービスということだが、現実に深刻な問題になっている万博について間の抜けた答えを出すので、大きな話題になった。大阪府は、10月17日、利用開始前の画面に「内容の正確性及び最新性等を保証するものではありません」という注意書きを掲載したという。


■API接続しても、誤答を防げない


「大ちゃん」は、ChatGPTそのものではなく、それに大阪府独自のデータベースを接続したものだ。大阪府としては、大阪弁にして親しみやすくするという目的があったのかもしれない。



野口悠紀雄『ChatGPT「超」勉強法』(プレジデント社)

一般的にいえば、ChatGPTを独自のデータベースに接続すれば、データベースに入っていることについては正しい答えを出すはずである。


私は、ChatGPTにデータベースをAPI接続することによって、ハルシネーションをある程度避けることが可能だと考えていた。実際、そのような目的で、様々なアプリが開発・提供されている。それにもかかわらず間違った答えを出したのだ。


その意味で、これは深刻な問題だ。API接続がうまく機能しないのであれば、ハルシネーションの問題に対処するのは、きわめて難しいということになる。


つまり、大阪府の「大ちゃん」サービスが提起した問題は、独自のデータベースにAPI接続してもなお、ハルシネーションを防げないということなのである。


■ChatGPTは確立された知識でも間違える


ChatGPTが誤った答えを出すことは、広く知られるようになった。ただ、多くの人は、それは最近の出来事や、具体的な事実や統計データについてのことだと考えているだろう。そして、確立された知識については、関係ないと思っているだろう。


実際、先のアンケート調査においても、「ChatGPTをどの科目で使っているか?」という質問に対して、まず数学、そして化学や生物学などのハードサイエンス分野での利用が挙げられている。


「これらについての知識はすでに確立されたものであり、ChatGPTもそれらを学習しているはずだから、間違った答えを出すことはないだろう」と多くの人が考えていることを示している。しかし、実際にはそうではないのである。


■ChatGPTは数学が得意でない


この問題が最もはっきりした形で現れるのが、数学だ。数学は、様々な学問分野の中でも最も厳密に確立された分野であり、ChatGPTはそれに関する大量の文献を学習しているはずだから、数学の問題について間違えることはないだろうと、多くの人が考えているに違いない。


ところが、実際にはそうではないのである。ChatGPTは、他分野よりもむしろ数学において間違えることが多いのだ。人々が信頼しているにもかかわらず、実際には間違った答えが多いのは、大問題だ。


例を挙げれば、きりがない。例えば、「円周率πが3.05より大きな数字であることを証明せよ」という問題がある。これは、2003年に東京大学の入学試験で出題され、様々なところで引用される有名な問題だ。


この問題をChatGPTに解かせたところ、奇妙な答えが返ってきた。また、ピタゴラスの定理の証明もできない。ツルカメ算の答えを間違えたり、連立方程式で間違った答えを出したりする。


ChatGPTのサイトには、「人名、地名、事実に関して間違うことがある」という注意書きがある。しかし、間違うのはこれだけではない。論理でも、頻繁に間違う。数学だけでなく、形式論理学においても誤った推論をする。


■歴史でも間違える


では、社会科や理科(歴史、地理、物理、化学、生物など)ではどうか? ChatGPTに質問すれば、答えは出てくる。しかし、その中には正しい答えもあれば、間違った答えもある。


たとえば、GPT-4は2023年4月までの情報しか学習していないため、それ以降の事柄については、答えが必ずしも信頼できない。しかし、「歴史的な事柄であれば、多くの文献を学習しているはずだから間違いはないだろう」と考える人が多いだろう。だが、それは必ずしも正しくない。


共和政ローマの武将であったポンペイウスの有名な言葉(Navigare necesse est, vivere non est necesse. 航海が必要だ。生きることは必要ない)について質問したところ、間違った答えを出した。間違いを指摘したら修正したが、その答えもまた間違いで、何度も修正する必要があった。


これでは、こちらが家庭教師になってしまうわけで、おかしなことだ。


■ChatGPTはなぜ間違う?


ChatGPTは、数学の公式の適用や論理を間違える。なぜなのだろうか? その原因として一般的にいわれているのは、「確率的判断で出力を生成しているから」ということだ。この説明は間違いではないが、不十分なものだ。


これを理解するには、大規模言語モデル(LLM)がどのように言葉や概念を理解し、どのように出力を作っているかに関する理解が必要である(*)。


*これについての詳しい説明は、『生成AI革命』第6章を参照。


LLMは、「エンコーダー」と「デコーダー」から成る。エンコーダーは大量の文献を学習し、様々な言葉や概念をベクトルで表し、言葉の意味を、他の言葉との関係で理解する。そして、デコーダーが利用者の質問や要求に応じて答えを作成する。その際、エンコーダーが作ったデータを用いて、ある言葉のつぎに来る言葉の確率を計算している。


写真=iStock.com/GOCMEN
※写真はイメージです - 写真=iStock.com/GOCMEN

■大規模言語モデルは「正しく理解」しているわけではない…


数学の問題についていえば、学習データの中には、数学の問題やその解答も多数含まれている。


エンコーダーは、これらによって、単語や数字、数式などの関係を学習する。それによって、ある種のルールを導き出しているのだ。そうして得た学習結果を用いて、デコーダーが、ある言葉や数字の後に来る言葉や数字を予測している。


この過程においてLLMが分析しているのは、あくまでも言葉と言葉の間の関係だ。数学の法則や論理法則を(人間と同じように)理解しているわけではない。その意味で、正しく理解していない。


そのため、数学や形式論理学などの法則の適用で、誤ることがあるのだと考えられる。


----------
野口 悠紀雄(のぐち・ゆきお)
一橋大学名誉教授
1940年東京生まれ。63年東京大学工学部卒業、64年大蔵省入省、72年エール大学Ph.D.(経済学博士号)を取得。一橋大学教授、東京大学教授、スタンフォード大学客員教授、早稲田大学大学院ファイナンス研究科教授、早稲田大学ビジネス・ファイナンス研究センター顧問を歴任。一橋大学名誉教授。専攻はファイナンス理論、日本経済論。著書に『「超」整理法』『「超」文章法』(ともに中公新書)、『財政危機の構造』(東洋経済新報社)、『バブルの経済学』(日本経済新聞社)、『日本が先進国から脱落する日』(プレジデント社)ほか多数。
----------


(一橋大学名誉教授 野口 悠紀雄)

プレジデント社

「ChatGPT」をもっと詳しく

「ChatGPT」のニュース

「ChatGPT」のニュース

トピックス

x
BIGLOBE
トップへ