昨年は、大阪公立大でRationalityについての国際シンポジウムを行ったため、パリでのHuman and Artificial Rationalities (第3回) に参加できなかった。したがって、今年は2年ぶりの参加・発表となった。思えば、第1回の3年前は、コロナの明け初めで、主催者のJean Baratginの関係者やパリ第8に関わる研究者、および日本からの数人の参加が中心だったが、今回は、フランス国内だけではなく、イタリア、スイス、スペイン、英国、米国からの研究者が集まった。もちろん日本からも、院生や私自身を含めて7名が発表を行った。
第1回や第2回は、Human and Artificialというタイトルがありながら、どうしても心理学を専門とする発表者が多く、人工知能研究とのかかわりにしても、新しい生成AIとどう付き合っていくのかといったテーマの発表が散見されただけだった。しかし、今回は、AI研究者だけではなく、AI哲学の研究者の発表がかなり多くなった。そして、こちらとしては非常に嬉しいことなのだが、彼らの中の多くが、心理学の研究成果に興味をもってくれていたことである。
AI側の研究の多くは、LLM (large language model) のエージェントを用いたものである。たとえば、今回のキーノートの一人であるMirco Musolesi の講演は、”Modeling Decision-making in Societies of Humans
and AI Agents”というタイトルで、AIによる繰り返しがある囚人のジレンマゲームを扱ったものだった。囚人のジレンマゲームとは、協力か裏切りかの意思決定を求められるもので、相手が協力を求めるときに自分が裏切ると自分の大きな利益になり、逆に自分が協力しようとて相手から裏切りに合うと大きな損失になる。そして、双方とも協力だと中程度の利益があり、双方とも裏切りだと中程度の損失となる。このゲームを反復する中で安定的に利益を得るためには、双方とも協力という選択が望ましいが、それにAIがどのように到達するのかというのが議論されていた。LLMによって深層学習を行うAIの複数のエージェント (multi-agent system) は、ある環境で協力や裏切りなどを行うと、それに応じた報酬 (損失も含める) を受け取る。それを何度も何度も繰り返すと同時に、エージェント間での相互作用を行わせるわけである。さて、モラルの意思決定には、ベンサム流の功利主義と、カント流の義務論主義がある (功利主義的になると利得に目が行き、義務論的になると、「裏切りはいけない・許せない」となる) が、Musolesiの研究では、これらが明示的にトップダウン的にAIに教えられ、繰り返しによる報酬・損失の経験がボトムアップ的に複数のエージェントに深層的に学習される。そうすると、LLMのエージェントの中で、功利主義的か義務論主義的かという次元が構成され、LLMはある場合には非合理的にふるまったりもする。これは、AIが、人間の行動と社会を研究する新しいツールになりうることを示している。
Human and Artificial
Rationalitiesは、来年からも続けられる予定である。生成AIが、合理性の心理学の研究と今後どのようにかかわってくるのか、期待を感じさせる大会だった。
0 件のコメント:
コメントを投稿