本日2月1日、第3回TALKROOMを開きました。総勢7名。テーマは、ひとはAIと、どうかかわるか、でした。

まずは生成AIのなかで代表的なchatGPTについて、私から少し説明させていただきました。(ちなみにchatGPTのアプリを使っている人は7人中1名のみ。)

だいたい以下の流れです。

①実際に好むと好まざるとにかかわらず、私たちの生活世界にAIは入り込んでいること。例えばAIによる車の自動運転技術、chatGPTを利用している高校生、大学生は多い、などです。

②つぎにchatGPTの性能を実際にみんなに確かめてもらいました。例えばI君のリクエストで「私は小学生で、知らない人とどう話しかければいいか悩んでいます、解決策を教えて」とかです。検索窓にワードを打つと、ほんの数秒でそれなりに長い文章が出力されます。中身も皆でシェアしました。

③また生成AIがどのような仕組みで膨大なネット上のデータを瞬時にまとめあげ、そつのない文章を作成するかについて私から説明しました。それについては大澤真幸さんの「生成AI時代の言語論」(左右社 2024)という本が大変参考になりました。要は人間の感情や思考とはずいぶん異なるやり方でAIは文章を作成するようです。単語間や文章列の次に出てくる言葉をネット上の天文学的テラバイト並みのデータから、条件付き確率的に推定して、誤りがあればそれを修正するプログラムを繰り返し事前学習させる。トランスフォーマーという画期的なテックです。高スピードで答えを出す。chatGPTなどにはそうしたシステムが搭載されています。とても有能な「統計マシン」なのです。平凡な私などのクリエイティビティはどこかに吹き飛ぶかもしれないレベルのクオリティで、文章を数秒で仕上げることができます。余談ですが、知らないことは謙虚に謝りますし、相手が12歳の男の子だと年齢に合わせた言葉づかいをすることもできます。中学校3年間の思い出、とのタイトルで400字以内で書いてと頼めば、ものの数秒でそれらしい文章を書いてくれます。だからとても便利。しかしその反面、ある事物について説明できてもそれが何を指すのかを生成AIは理解しません。たとえば靴について文章で淀みなくスラスラ説明できても何が、どれが靴なのかを生成AIは知りません。「記号接地問題」というのだそうです。chatGPTは言葉と目の前のものを、身体性がないためか、結びつけることができないのだそうです。前述の大澤さんの本の中に、オリバー・サックスという精神科医の書いた「妻を帽子と間違えた男」という本の症例が紹介されています。脳神経系の障害を負ったある一人の音楽家のはなしです。その人はオリバー氏の診察を受けることになりました。患者である音楽家は生活場面で始終、何かの歌をハミングしているのですが、ハミングが止まると言葉と目の前の事物を上手く結びつけることができなくなる。そのタイミングで、「帽子をかぶりましょう」とオリバーが指示すると、横にいた奥さんを帽子だと思って懸命に自分の頭に乗せようとしたという。。つまりはこの人と同じく、生成AIは事物をほんとうには理解できていないというわけです。

④もちろん、生成AIはネット上以外の情報から何かを導き出すことはありません。○○中学校の3年2組のAさんの横に座っている子の名前はわからないですし、これまで誰も解けなかった数学の難問ですとか、新しい知を生み出すことも現状ではできません。

上記のようなことを話したうえでトーク開始です。

明治期の俳人の、正岡子規のファンだという中学生がいて、周りの友だちとその趣味をシェアしたいのだけど分かってくれないからchatGPTといつも話すのだ、という例を持ち出すと、「日常的にそんなことをしていたらメンタルがへたれてしまう、生身の人間とぶつかり合いをしないとひとは成長しない」というM君の発言。それはそうかもしれないけど面倒な感情のいざこざがないのだし、自分と同じ趣味の人が周りにいないのなら、コミュニケーションが楽だし便利で友だちを得た気分になれるからいいんじゃないの?という意見。いや、ダメでしょうと、いう大勢の意見のやり取り。どんなに自分が他人には理解しがたい趣味や興味関心を持っていても、それがどれだけ面白いことで意味のあることなのか粘り強く周りに説得すべきだという、マッチョで骨太、泥臭い、反時代的な、個人的には嬉しい意見がここに複数寄せられることになりました。

それから、将来AIに置き換えられてしまう職業とそうならないものに関するトークでは、メンバーの皆さん、後者のほうがイメージしやすいようでした。残る職業は、警察官、漁師、スポーツ選手と監督、ショービズ関連の芸能人、俳優、また対人援助職の介護福祉士、精神科医、保育士などが一人ずつの意見として挙げられ、なかでも学校の教師はAIに淘汰される/されないに意見が分かれました。学校の教育現場で、タブレット学習がいまでも行われ、将来はますますその学習が進むだろうゆえに、究極的に教師がいらなくなるというNさんの発言。しかし、学校もいらない?と聞くとNさんはそうではないようで、同級生との生身の共通体験は必要であるとのこと。体育はいくらなんでもAIロボットには教えられないだろうし、トラブルが起きたときにやはり人間の先生は必要だというJ君、G君、I君の反論が。ところでSさんはAIに質問すること自体が嫌なのだそうです。

理由を上手くまとめて、と私がみんなに聞くと、ひとはAIによっては成長できないんじゃないかとの意見が。科学的な合理性や論理性でひとはこころを動かされるのではないし、納得できるものではないというMくんが先陣を切ってのちに、Niさん、Sさんの同様の意見がありました。

なかでもNaさんは保育士の重要性を挙げて、赤ちゃんがAIロボットに抱っこされあやされてもそこにはぬくもりと愛がないと言い、そこにメンバーの強い支持が集まりました。

最後のサブテーマ、ひとはAIとどうかかわるかについては、もうトークの初めから、AIが主人公の社会であってはならない、AIは脇役だ、人はAIの奴隷になってはダメ、巻き込まれるのはゴメンだ、というメンバー全員の意見の「矢」のオンパレード。「矢」がほぼ同時に束となってこちらに飛んでくる次第。。。

これはどうしたものか。私の個人的な総括ですが、黒澤明監督の日本映画の傑作「七人の侍」(1954)ではないですが、ここに集った七人は侍のように頼もしい。ある意味、意外なまでに、ひとの人間性豊かなところをその非合理性ゆえに守りたい、という共通のトーンがメンバー間で共有されているようで、とても熱を帯びていました。そこに僕はある意味驚き、そしてまた感動致しました。

それと共に、AIが僕たち人間社会に忍び込んでいる危険性のリアリティについては僕を含め、メンバーの認識不足があったようにも思えます。今日の議論が他の人からみたら、素朴で牧歌的に映るようなものであったかもしれません。この危険性とのセットで皆の発言がされていたら、もう少し違うトークの深まりと展開があったかも知れないのですが、そこはひとえにメンバーの意見の調整役、ファシリテーターとしての私の力不足です。

しかし、それを差し引いてもここまで「反射的に」若い10代前半の人たちがAIの進化と侵入に対してブーイングを叫ぶのだとは。果たして僕には思いもよらないことでありまして、これを読んだみなさんはいかがでしょうか?どんなふうにお思いになりますか?

以上、第3回TALKROOMの中身についてのご報告、あらましでございました。

ちなみに次回のTALKROOM、まだ正確な日取りは決定していませんが、2月中の土曜日に行う予定です。テーマは私を含めた8名のメンバーの投票による多数決で決めてもらいました。

①モテ系男子女子になるためには(I君の提案:2票)

②死後の世界はあるのかないのか(Niさんの提案:4票)

③ひとは縦、横の関係をふくめて、ひととどうかかわるべきなのか(G君の提案:2票)

多数決により、次回TALKROOMのテーマは、「死後の世界はあるかないか」についてです。これまた深い、深すぎる!

興味のある方、ぜひご参加いただけると幸いです。シャイな人大歓迎、また年長者のおとなの方のご参加、お待ち申し上げます。

また次回、第4回TALKROOMの最初には、「しりとりトーク2分間」ということで、はじめに2分誰かが話したあとで、その話題のなかのキーワードを拾って次の人が2分話し、その次の人も同じように話す、という遊び心満載の緊張感のない、話すトレーニングの時間を設ける予定です。これは新しい試みです。

次回TALKROOMも、茶菓子をポリポリつまみながらでの、多くの皆さんの気軽なご参加お待ちしています!