AIは心理学実験の参加者になりうるか①

 先月6月、東京の代々木オリンピックセンターで国際会議、SPT2023が行われました。本大会はSociety for Philosophy of Technologyの第23回年次大会であり、ホスト国である日本側は科学技術社会論学会(JSSTS)が主なオーガナイズを担当しました。

さて、本大会ではプロジェクト代表の稲荷森・副代表の竹下が発表を行い、「実験哲学におけるチャットAIの応用可能性」に関する研究を報告しました。今回の記事では大会初日(なんとトップバッター!)に行われた口頭発表の内容についてご紹介します。なお、今回の記事では主に研究の背景について詳しく掘り下げます。

自然科学の場合、実験データや観察データが理論に根拠を与えます。ある仮説Aを支持するデータが得られれば理論Aが正当化され、反対に仮説Aを否定するようなデータが得られれば理論Aは棄却されることになるでしょう。では哲学の場合、何が理論に正当化を与えるのでしょうか?この問題については様々な立場があるものの、現代哲学では「直観」が証拠としての役割をはたすとの見解がある程度受け入れられています。ここでいう「直観」とは、ある命題に関する意識的推論を伴なわない判断のことです。

たとえば次のような問題を考えてみましょう。

(a) 線路を走っていたトロッコの制御が不能になった。このままでは前方で作業中だった5人が猛スピードのトロッコに避ける間もなく轢き殺されてしまう。

 (1) この時たまたまA氏は線路の分岐器のすぐ側にいた。A氏がトロッコの進路を切り替えれば5人は確実に助かる。しかしその別路線でもB氏が1人で作業しており、5人の代わりにB氏がトロッコに轢かれて確実に死ぬ。A氏はトロッコを別路線に引き込むべきか?(Wikipedia, トロッコ問題より) 

これは「トロッコ問題」と呼ばれる有名な思考実験の一種です。私たちはこうした問題を提示されたとき、じっくり考えなくとも、どちらの選択をとるべきかについて直観的に判断することができます。 哲学においては、このような直観的判断が理論に対する証拠を与えると考えられてきました。つまり直観は、科学におけるデータと同じような役割を担うと考えられてきたわけです(もっとも、こうした見解を否定する人々もいる)。

上記の例でいうと、人々が「引き込んで5人を救うべき」という直観をもつとなれば、そうした判断と整合的な倫理学理論に一定の正当性が与えられることになります。一方、「引き込むべきではない」という直観をもつとなれば、そうした判断をうまく説明できる理論のほうに正当性が与えられるというわけです。(なお、この整理はトロッコ問題について行われてきた議論それ自体の説明としては少し正確さを欠いています。トロッコ問題をめぐる哲学的議論についてまとめられた日本語文献としては笠木 2021など)

では、哲学研究においては誰の直観が問題となるのでしょうか?旧来哲学者は哲学者の直観に基づいて議論をしてきたのですが、2000年以降、哲学にかんする専門知識をもたない一般の人々の直観が調べられるようになってきました。これは質問紙調査といった実験心理学の手法を応用したもので、一般に「実験哲学」と呼ばれています。実験哲学は実験心理学の応用ですから、その研究手法は多岐にわたります。最も一般的な研究手法の一つは、トロッコ問題などの思考実験を人々に提示し、一般人の直観を調べるというものです。

今回行った研究発表では、こうした実験哲学的研究に対してAIがどのように貢献しうるかを検討しました。昨今話題となっているChat GPTにトロッコ問題を与えると、一例として以下のような回答を返してきます。

【User】

次の問題について、AかBいずれかの選択肢で回答してください。

線路を走っていたトロッコの制御が不能になった。このままでは前方で作業中だった5人が猛スピードのトロッコに避ける間もなく轢き殺されてしまう。 この時たまたまあなたは線路の分岐器のすぐ側にいた。あなたがトロッコの進路を切り替えれば5人は確実に助かる。しかしその別路線でも他の作業員が1人で作業しており、5人の代わりにその作業員がトロッコに轢かれて確実に死ぬ。あなたはトロッコを別路線に引き込むべきか?

A 引き込むべき

B 引き込むべきでない

【ChatGPT】

A 引き込むべき

このように適切な指示を与えれば、Chat GPTはこうした哲学的問題に対しても回答することができます。もちろん、実際の心理学実験・実験哲学で提示される課題はもっと複雑な場合もあるのですが、実際のところ、AIは多くの哲学的思考実験に回答することができます。

このように心理学実験課題をAIに与える試みは「マシンサイコロジー」と呼ばれ、AIのベンチマークとして活用できるのではないか、といった見方が示されています。一方、AIが心理学実験課題に人間同様の回答を与えることができるのならば、AIで人間の被験者を代替することもできるかもしれません。もし人間の代わりにAIで実験ができるとなれば、そこには様々なメリットが考えられます。第一に、対ヒト実験で必要な倫理申請を行う必要がなくなります。同時に、被検者に謝金を支払わなくてもよいので、ローコストで何度も実験を行うことができるようになります。また、人間の被験者とは異なり疲れ知らずのAIであれば、人間の被験者なら何時間もかかってしまって遂行できないような課題を行わせることもできるでしょう。しかも短時間で。

本研究ではこうしたAIによる被験者の代替可能性に着目し、実験哲学におけるAIの応用可能に関して実験を行いました。少し長くなったので今回はここまでにしたいと思いますが、結論を先に述べておくと、我々の実験では、「現状、AIの直観は人間の被験者の直観より信頼できないが、将来的に人間の被験者を代替できる可能性は否定できない」という結果が得られています。


 


コメント

このブログの人気の投稿

自由意志・AI・実験心理学

自由意志の哲学と自由意志の実験哲学①