「もっともらしい」言い方に騙されないためにはどうすればよいのでしょうか(写真:Graphs/PIXTA)私たちの記憶は非常に曖昧で、頼りないものです。自分の記憶とは違う内容でも、誰かに自信満々に言い切られてしまうとなんだかそんな気がしてきて、いつの間にか記憶がすり替えられてしまうことがあります。その具体例について、慶応義塾大学環境情報学部の今井むつみ教授が解説します。※本稿は今井氏の新著『「何回説明しても伝わらない」はなぜ起こるのか? 認知科学が教えるコミュニケーションの本質と解決策』から一部抜粋・再構成したものです。

曖昧な記憶はトラブルのもと

「記憶は非常に頼りないものだ」ということを知っていると、役に立つことがあります。なぜなら、相手の言うことがあやふやでも、ときに間違っていても仕方ないと許すことができますし、それでイライラすることも減るからです。

また自分の記憶に頼らず、様々なことをダブルチェックするようになりますから、ミスも減ります。自分が間違っていたかもしれないと、素直に非を認めて歩み寄ることもできます。

とはいえ、いいことばかりではありません。私自身、そのために痛い目にあったことがありました。

数年前、駐車場にバックで車を入れていたときのことです。横並びの駐車スペースに止まっていた車から女性が飛び出してきて、

「あんた、ぶつけた!」

と怒鳴ってきたのです。

私にはぶつけた感覚はまったくなかったのですが、相手は「ぶつけた」と言い張り、「ほら!」と言って、自分の車を指さします。

ぶつけた記憶はありませんでしたが、相手の指さした先にはうっすらと傷があり、「相手がそこまで言うのなら、ぶつけてしまったのかも……」と思いました。

相手のことを信じたというより、自分の「ぶつけていない」という記憶に、あまり確信が持てなかったのです。記憶の曖昧さに関しては、誰よりも知っているからです。

この世は「言い切った者勝ち」なのか

警察にも連絡しましたが、その対応は「保険屋さんで解決してください」というものでしたから、こうした事故は頻繁に起こっているのでしょう。

さて、私がつけたという傷を見ると、ちょっと塗装がはげて白い線が入っているくらいのものでした。それで、「数万円で済みそうだし、争うよりも保険で払ってしまおう」と引き下がりました。

後日、請求書が届きました。

そこに書かれていたのは、数十万円という金額でした。さすがにおかしいと思い、保険会社に確認すると、私が「ありとあらゆるところ」をぶつけたことになっていました。女性は、自分の車についた傷のすべてを、私の保険で修理しようとしたのです。

怒りも湧いてきましたし、また正義感に火がついたこともあって、専門家に調査を依頼することにしました。

すると驚いたことに、「そもそも私はぶつけていない」ということがわかったのです。私の車が当たったならばついているはずの塗料が見られなかったこと、私の車には傷がなかったこと、そして車同士の角度から、最初に女性が指摘した傷は、私の車がつけることは不可能、という結果でした。

その女性の、あまりに確信的な発言に影響されて、自分の「ぶつけていないはず」という記憶を疑ってしまった。「記憶のすり替え」が、まさに自分自身に起こったわけです。

なぜ記憶はすり替えられてしまったのか

思い返せばとても風の強い日で、風で車が揺れ、それを相手は「ぶつけられた」と思った。私も「ぶつけたかもしれない」と思ったのかもしれません。

そんな中、確信を持って「ぶつけられた!」と言った女性の言い分で、「事実」がつくられていきました。

世の中ではこのように、「断言したもの勝ち」「自分の記憶が正しいと信じられた人の勝ち」ということが、日々起こっているのだと思います。

自分の記憶があやふやだと、自信満々に「こうだった!」と言う人に押し切られてしまうことは十分あり得ます。

きっとこういうことを経験している人が意外に多いからこそ、近年はドライブレコーダーで全方向を録画する方が増えているのでしょう。私自身もすぐに購入しました。

たとえ両者に悪意がなかったとしても、互いが自分の「記憶」に基づいて「ぶつけられた」「ぶつけていない」と主張したら、議論が平行線をたどるのは当然です。

まして一方に悪意があってより強固に主張をすれば、もう一方はその主張を受け入れてしまうかもしれません。

記憶の曖昧さを知った皆さんに、同じような災難が降りかかりませんように。

生成AIの「もっともらしさ」に騙されない

2023年は、生成AIがトレンドとなりました。日本語など、日常的に使う言語で質問をすると、まるで人間が答えているかのように、自然な文章で回答してくれます。こうした新しい技術は、使い方によっては大変便利なものです。

ただ、ChatGPTをはじめとする生成AIは、内容的に間違った答えを返すことがかなり頻繁にあります。間違いのレベルは様々です。

ChatGPTは、インターネット上にある情報を学習して質問に回答しますが、インターネット上にはそもそも、誤情報や誤認識が溢れています。専門分野のような複雑な知識ならばなおさらです。ChatGPTはそうしたデータをも学習に用いているため、ときに誤った答えを生成してしまうのは必然のことなのです。

この例として非常に興味深いお話を、弁理士をされているSさんから聞きました。

Sさんはクライアントから委託を受けて特許や商標登録を国内・海外に出願する業務をしていますが、最近、クライアントから法的に間違った主張を堂々とされることが増えたといいます。

そこでさらに詳しく聞いてみると、一部のクライアントたちは、ChatGPTの回答を基にそうした主張をしているようなのです。

そこでSさんが、ChatGPTに、

「出願したい特許と似たものが、すでに存在するか」

と質問をしたところ、実在しない事例を挙げて、「もっともらしく」返してきたといいます。いわば「ケースをでっち上げる」わけですね。アメリカと日本の法律を混同したり、商標法と著作権法を混同したりすることもあるということでした。

ここで問題となるのは、生成AIの返事の「もっともらしさ」です。先ほどの事故の事例の「言い切った者勝ち」のような現象が、ここでも起こり始めています。

ChatGPTは責任を負ってくれない

ただし、ChatGPTは、自身が生成した文章について、責任を負ってはくれません。それっぽい回答を信じてしまった人が責任を負うことになります。

『「何回説明しても伝わらない」はなぜ起こるのか? 認知科学が教えるコミュニケーションの本質と解決策』(日経BP)。書影をクリックするとアマゾンのサイトにジャンプします

こうしたことが起こりがちということもあり、また剽窃(ひょうせつ)などの問題と関連することもあり、企業でも学校でも、生成AIが出力したものをそのまま使用することは禁止されています。

でも例えば、まだ何が正しくて、何が正しくないかの判断がつかない子どもがChatGPTの答えを信じてしまい、取り返しのつかない誤りを犯してしまったときは、どうなるでしょうか。あるいは、その子どもから話を聞いた親が、信じてしまったら?

さらに恐ろしいのは、使用したときは「ChatGPTの間違った情報だ」と理解していても、後に似た情報に触れた際に、「この話はどこかで聞いたことがある」と偽情報の中身だけを想起してしまうケースも考えられることです。

誰しもに起こり得るこうした事態について、「思い込むほうが悪い」と言えるでしょうか。

鄭重声明:本文の著作権は原作者に帰属します。記事の転載は情報の伝達のみを目的としており、投資の助言を構成するものではありません。もし侵害行為があれば、すぐにご連絡ください。修正または削除いたします。ありがとうございます。