科学基礎論学会で、もう1つ興味深かったのは、「形式システムの公平性、公正性、透明性―科学技術に支配されつつある現代社会のための挑戦」(Fairness, Integrity and Transparency of Formal Systems: Challenges for a Society Increasingly Dominated by Technology) というシンポジウムで議論されたテーマである。
この領域については素人なので、ちゃんと理解できたかというと心もとないが、科学における基本的な哲学的問題である「説明」について、AIなどの形式システムがどのようにかかわれるのかということが、私が勝手に興味をもった問題点である。私自身も、実際の研究においていったいどのような説明が適切なのかあるいは規範なのかについては、ケースバイケースで直感的に選択しているように思う。還元主義的になる場合もあれば、因果モデルを適用したりする場合もあり、近接的な説明もあれば究極因的な説明もある。たとえば、「リンゴはなぜ美味しいのか」を説明するのに、近接的な説明ならリンゴの成分と舌の味覚神経細胞の関係を還元的に調べたりするかもしれない。一方、究極因的説明の代表は進化論的な説明で、「ヒトはなぜリンゴを美味しいと感ずるように進化したのか」という問いに言い換えてそれに答えることになる。
この伝統的な「説明」にインパクトを与えたのが、AIなどの形式システムのようだ。元来、幾何に代表される数学的な証明は、自動性があり、誰の目にも明らかな透明性をもち、「説明」として完全である。しかし、AIによる説明は、この延長線上になく、極めて複雑なものになり、ある部分はブラックボックスとなって透明性にも欠ける。AIは、数学の証明を適用できない複雑な現象をより完全な形で説明ができるようにしてくれるかもしれないが、説明の王道である単純性を欠いてくるわけである。現代のテクノロジー社会は、「説明」という点で、単純性と完全性のトレードオフに悩まされるということになる。
素人の私は、残念ながらそれぞれの話題提供者の提案をきちんと理解できなかったが、公平性(fairness)という概念が導入された理由がわかりにくかった。もちろん公平性という概念が重要なことはわかるのだが、あいまいな概念によって却って「説明」の理解が後退したような気がしたからである。もし、もう一度このような議論を聞く機会があれば、もう少し勉強してからと思うのだが、他領域を本格的に取り組もうとすると骨が折れる。