「科学哲学会ワークショップ『AI×実験哲学の可能性』」報告
前回の投稿からかなり間が空いてしまいましたが、今回は昨年12月に中間報告を兼ねて行った学会ワークショップについて報告させていただきます。本ワークショップ『AI×実験哲学の可能性』は、筑波大学で行われた科学哲学会(2023/12/2-12/3)の二日目午後に、学会の公募ワークショップとして開催されました。本ワークショップではプロジェクト代表の稲荷森がオーガナイザー兼提題者を務め、そのほかプロジェクトメンバーの晴木・竹下からも提題を行ったほか、名古屋大学の久木田水生准教授をゲストに迎え、本テーマに関するコメンタリーをいただきました。 以下、各提題の要旨およびフロアからの質問について報告します。 ・稲荷森報告 稲荷森報告「AI実験哲学の可能性と課題」では、大規模言語モデル(Large Lamguage Model/LLM)を用いた実験哲学的・心理学的研究の可能性について提案がなされた。Chat GPTシリーズに代表される昨今のLLMは、「誤信念課題」をはじめとして、人間の被験者に与えられるのと同じような心理学実験課題を遂行することができる。同様にLLMは、いわゆる「ゲティア事例」など、哲学的な思考実験の数々にも回答を与えることが可能である。こうしたLLMの目覚ましい発展は、心理学研究並びその応用である実験哲学での活用可能性を示唆している。本報告ではLLMを応用した心理学研究・実験哲学に関する以下五種類の区分を提案した。 報告を行う稲荷森 内在的・非内在的 強い・弱い 予測的・非予測的 単数的・集合的 シミュレーション的・非シミュレーション的 本分類は心理学研究と実験哲学の両方に適用できる分類であり、LLMを用いた特定の研究は、本分類から導かれる32種類のいずれかに当てはまる。本報告の後半では、これら区分のうち予測的研究と非予測的研究に着目した。人間の心理メカニズムを明らかにすることが目的の心理学研究一般の場合、人間の回答を予測しないLLMの回答が役立つ場面は限定的である。しかし心理学研究一般とは異なり、実験哲学では非予測的研究が大きな役割を果たす可能性がある。 実験哲学が盛んになった2000年代以降、人間の哲学的直観は課題のフレーミングや提示順序など、哲学的真理と無関係の様々な要因によって影響されることが明らかとなった。また、自由意志の実験哲学など一部領域では、一般...