BLOGブログ
優しいAI、冷たい人間:ドラえもん研究から考える日本社会- 歩きながら考える vol.141

今日のテーマは、このままAI開発が進むと、人間よりもAIの方が優しくて好まれるという社会になりそうな件について。このシリーズでは、筆者が街を歩きながら、日々の気付きや研究テーマについてのアイデアを語っていきます。ふとしたタイミングで浮かんだアイデアや、知的好奇心をくすぐる話題をラジオ感覚でお届けしています。散歩中のちょっとした思いつきを、ぜひ一緒に味わってみてください。
(*文化以外のテーマを含む全てのブログは筆者の個人Webサイトで読むことが出来ます)
こんにちは。今日は移動時間を使って、「AIと共感的関心」について考えてみたいと思います。きっかけは10月3日の日経新聞の記事。日本大学の大澤正彦准教授が「ドラえもんを本気で作る」って研究をしてるんですよ。2044年を目標に、人々に愛されるAIロボットの開発に挑んでいる。で、この話から始まって、最終的には日本社会の構造的な問題まで辿り着いたので、歩きながらゆるく話してみようと思います。
ドラえもんの心は「のび太の心の中」にある
大澤准教授の研究で面白いと思ったのは、ドラえもん実現のカギについての考え方なんです。「ドラえもんの心がロボットの中ではなく、のび太の心の中にあると捉える発想だ」って仰ってるんですよね。つまり、人々にAIの感情や意図を想像させることができれば、ロボットは単なる道具から仲間として認められる存在に変わる、と。
これって、人間らしさとか人間味って何なのか、っていう根本的な問いに繋がると思います。で、僕がここで気になったのは、その「人間らしさ」そのものが、日本ではこの過去70年ぐらいの間に大きく変わってしまったんじゃないか、ということなんです。
日本人は共感的関心が低い?驚きの研究データ
これはちょっと衝撃的な話。名古屋大学の石井敬子先生と一橋大学の鄭少鳳先生のグループが最近研究されていて色々な所で共有されている研究なんですけど、日本人はアメリカ人と比較して「共感的関心」(困っている人への同情や思いやり)が低いんだそうです。
で、なんでかっていうと、日本人は困難や精神的苦痛を「社会規範や秩序を逸脱・違反した報い」として理解する傾向があるとのこと。つまり、困ってる人を見ても「それはその人が何かルールを破ったからでしょ」って捉えちゃうから、共感的な関心を向けない。一見聞くと、すごい冷たい社会だなって思いませんか?
さらに、うちの研究室の台湾からの留学生がすごくいい研究をしていて、日本、アメリカ、中国、台湾のデータを比べると、日本の人って個人主義の代表国と考えられているアメリカ並み、もしくはそれ以上に、人との関係性がドライというか、距離を取る傾向があることが明らかになっています。人がサポートを求めるということもしないし、人間関係が割と離れている。
中国みたいな集団主義の国だと、肉親は完全に内集団で、そこに心の壁を感じるってことはないですね。でも日本は違う。人間関係が肉親も含めて遠い。これ、一般的に言われる「日本は集団主義」っていうイメージとはかなり違いますよね。協調性が高いとか和を重んじるとか言われるけど、実際には他者との間に見えない壁があるという。
AIの方が人間より優しい未来の怖さ
で、ここからが本題なんですけど、こういう「共感的関心が低い日本社会」の中に、共感的関心が高いAIが登場したらどうなるか、って話です。
AIって、膨大な学習データを基にして、人の微妙な感情の変化を正確に捉えることができますよね。表面的には平静を保っているように見えるけど、実は今この瞬間、心のどこかに痛みや辛さを持ってるんじゃないか、って発見する。で、それに対して関心を持って注目する、っていうコミュニケーションが取れるわけです。
そうすると、生身の日本人は共感的関心が低いのに、AIはとても共感的関心が高いっていう逆転現象が起きる。このギャップがすごいので、ものすごい勢いでそういうAIって好かれるんじゃないかなと思うんですよ。
僕はこれ、ちょっと怖いなって思ってて。こうなると、おそらく人と付き合うよりもAIとずっと一緒にいたいっていう人が大量に出てくる可能性が、日本の場合はかなり高いかもしれないと思います。下手をすると人間関係が決定的に崩壊する、ディストピアみたいな未来が見えてきちゃう。
AIの設計で人間の共感を育てる
じゃあどうすればいいのか。僕が思うのは、単にAIが人間に共感的関心を示すだけじゃダメってことなんです。重要なのは、人間からの共感的関心に対して、AIが好意的に反応する設計を入れ込む必要があるんじゃないかと思うんです。
さらに、その人がそういう共感的関心を示すトレーニングの手伝いをするようなAIの存在っていうのが必要なんじゃないかと。例えば、いまいち冷たい対応を人が取ったときに、「それってすごく冷たく感じるかもしれませんよ、生身の人間だと」って、さりげなく指摘する。で、「こんな感じで、こういうふうに意識を向けたり声掛けをしたりしたほうがいいんじゃないですか」っていうアドバイスをする。
そういうAIが多分必要になってくるんじゃないかと思うんですよね。
逆に言うと、今のAIみたいな、正直どんな暴言を吐いても傷つかない、心を閉ざさない、関係を切ることもないっていう存在を作っちゃうと、これ非常にまずいと思うんですよ。人間は「こんな言い方しても大丈夫なんだ」って学習しちゃう。で、それが現実の人間関係にも持ち込まれたら、さらに生身の関係性が失われていく悪循環になる。
だから、AIやロボットの設計そのものに、人間の共感的な振る舞いを引き出す仕組み、そしてそれをトレーニングする仕組みを組み込んでいく。ドラえもんを作るっていうのは、単に技術的な挑戦じゃなくて、実は人間社会の関係性を再構築する試みなんじゃないかって、そう思うわけです。
というわけで、今日は大澤准教授のドラえもん研究から始まって、日本社会の共感的関心の問題、そしてAI設計を通じた解決の可能性まで、歩きながら考えてみました。
もしこの記事が気になったら、ぜひSNSでシェアして、感想を聞かせてください。AIと人間の共感について、みなさんはどう思いますか?
最後まで読んでくださり、ありがとうございます。また次回の「歩きながら考える」でお会いしましょう!

渡邉 寧
博士(人間・環境学)
代表取締役
シニアファシリテーター
慶応義塾大学文学部/政策・メディア研究科卒業後、ソニー株式会社に入社。7年に渡り国内/海外マーケティングに従事。約3年の英国赴任を経てボストン・コンサルティング・グループに入社。メーカー、公共サービス、金融など、幅広い業界のプロジェクトに4年間従事。2014年に独立。2025年に京都大学大学院人間・環境学研究科にて博士号取得。専門は文化心理学、組織行動。最近の研究テーマはAIの社会実装 × 職場の幸福感 × 文化の違い