タイトルから内容を想像して借りたら全然違う内容だった。なんと、認知心理学からの考察だった。薄い本だし、せっかくなので読んだ。
本書は技術書ではないのでAI技術の深いところは書かれていないが軽く触れられている(もし私に事前の知識がなかったら、スルーするか腑に落ちない内容で悶々としたかもしれない)。
【本を読んだメモ】
■ChatGPT(GPT-3.5)はこんな間違いをする
本書では、ChatGPT(GPT-3.5)とのやりとりで実際に起こったことを2例、あげていた。
(1) 1/2と1/3のどちらが大きい?その理由は?
(2) 99/100、101/100、100を小さいものから順に並べよ。
(1) ChatGPTは 1/3 と答えた。
その理由を聞いたところ、
分母が小さいと分数の値は大きくなるため、1/3の方が大きいということになります。
前半は正しいことを言っていますが、後半は間違っています。にもかかわらず、前半の文章の結論として、後半の文章を示しているのです。
生成AIは、全体の文章を見渡してつじつまが合っているかを検証することはしません。そのため、このように内容がコロコロと変わることがあります。「首尾一貫した回答を作る」ことをしないのです。(中略)
ただこのとき、みなさんが「1/3より1/2の方が大きい」という正しい知識を持っていないと、流暢に書かれたChatGPTの文章にだまされてしまいます。すらすらと文章を読み、「そうか」と納得してしまうのです。
これは「流暢性バイアス」と呼ばれる現象です。私達には、つじつまが合わない事でも、流ちょうに書かれた(言われた)文章(発言)を信じてしまう傾向があります。人間は、実はずごくだまされやすいのです。ですから、生成AIが出してきた文章を読むときには、「人間はだまされやすい」ということをまずは思い出してください。
(2) ChatGPTは次のように答えた
99/100<100<101/100
なぜこのような間違いをしてしまうのでしょうか?
ChatGPTは、インターネット上にある情報を参照して、答えを導き出します。おそらく参照しているデータの中に、「99,100,101」という「並び(配列)」が非常に多く存在するのでしょう。一方で、「99,101,100」という数字の「並び」はほとんど存在しなかったのだと思います。分数の意味を理解していないChatGPTは、数字の「並び」に着目したと考えられるのです。
ChatGPTは、何故間違うのか。その根本的な原因は、AIは「意味」を理解しないからです。
その分数が数直線上でどのあたりにあり、どの整数とどの整数の間にあるのかというような「直感」も、ChatGPTにはありません。
AIの特徴は、「意味を理解しないこと」。そしてこのような「直感を持たないこと」です。そしれそれはそのまま、人間の考える力との違いになります。
■親世代と子世代の違い
今の時代、検索をすれば簡単に知識や情報にアクセスすることができます。そしてそのことが、重要というわけではありません。「検索で大事なことは、たくさんの情報にアクセスすることだ」と考えている人が多いのですが、これは誤解です。
これだけ多くの情報があふれる今日、大事なことは情報の海に溺れない事です。つまり、自分で直感に情報を絞り込み、大切な情報といらない情報を区別することです。情報を得ることよりも、選び取る力が必要になっているのです。言い換えれば「情報の本質」を理解する必要があるということです。
なぜなら私たちの記憶容量は、非常に限られているからです。
人間は多くの誤った推論をするのに、なぜ、文明を進化させ、芸術や化学を進化させてくることができたのでしょうか?それは、誤りを修正する能力があるからです。
(中略)人間は失敗から多くを学ぶことができる生き物です。実際、「学習科学」の研究では、まだ習っていない問題を、自分の持っている知識でなんとか考えまちがった時の方が、難なく回答したときより学びが深まり定着するということが分かっています。
生成AIを使い、簡単に答えを出してしまうことを「あたりまえ」と思ってしまうと、「直感」が育たないだけでなく、自分で難しい問題を考え、チャレンジして失敗をすることを避けるようになるでしょう。(中略)
みなさんが将来扱う問題は、答えが簡単に決まる問題だけということはまずありません。世の中の仕組みも、技術も、ますます複雑になっていき、答えが単純には決まらない問題が多くなるはずです。そういう状況で活躍できる人は、抽象的な概念を自分に接地させ、身体の一部にすることができる人です。つまり「生きた知識」を身体や経験を通じて学ぶことで自ら作ることができる人なのです。
息子世代は親世代とは違うことを悩むんだろうな。私の世代もそうだったし。
と思う。
