A I に感情が芽生えた?

昨日、何気にネットニュースを読んでいると、「Googleエンジニアが『AIに意識や感情が芽生えた』と主張し、会社に休職処分とされる」という記事が目に止まりました。

処分に関してはさておき、このAIがどんなものか気になりますよね。

ここで、「意識や感情が芽生えた」と言われたAIは、LaMDAというAIです。BERT,T5などと同じく、Transformerベースの言語モデルで、対話生成に特化したモデルの様です。LaMDAとは?は、こちらをご参照ください。

実は、私が学習させた極めて初歩的なモデルであっても、ドキッとすることを言います。例えば、ウクライナ侵攻のニュースの一節を入力すると「◯◯◯は侵略戦争をしているんです」と言ったりして、「この子は、私の知らないところでニュースを読んでいて、戦争を自分なりに解釈しているんじゃないか」と怖くなります。(そんなはずはないんですが)

ましてや、Googleの開発する最先端のAIだったら、かなり高度な(哲学的な)議論ができるのかもしれません。そうすると、AIの仕組みを熟知しているエンジニアでさえ、「意識や感情が芽生えた」と思ってしまうのでしょう。もしかしたら我が子のように育ててきた感覚があるのかもしれません。

いろんな意見があるかとは思いますが、私はAIは感情を持っているように表現することはできるけれど、感情を持つことはできないと思っています。(少なくとも、今の技術の延長では、、です。)

ただ、AIに人間の感情を理解させたいとは思います。例えば、悲しい人には慰めるように穏やかに接して欲しいし、嬉しい時には一緒に喜んでくれるようになってほしいと思います。

でも、そうなると隣にいる誰かが「人間」なのか「AI」なのかは区別することができなくなってしまうかもしれません。

むしろ「思いもよらず人を傷つけてしまう人間」よりも「絶対に人を傷つけることを言わないAI」の方が、一緒にいて心地いいのかもしれません。それが人間にとって必ずしも良いことだとは思いませんが。。

2016年6月発行の書籍です。倫理判断システムとか駄洒落生成システムとか、、いろんな意味で面白い内容です。