投稿

動物倫理ワークショップ 報告

イメージ
 今年3月、本プロジェクトの一環として、道徳的地位の帰属に関して議論を深めるべく、「 動物倫理ワークショップ 」を開催しました。本ワークショップは北海道大学大学院文学院付設の応用倫理・応用哲学研究教育センター(CAEP)主催の応用倫理研究会として、二日間にわたって開催されたものです(3/22-23)。会場には全国各地から動物倫理と道徳的地位に関心をもつ若手研究者が集結し、聴衆も研究者はもとより市民団体の代表、一般市民の方など、多様なバックグラウンドをもつ参加者が集まり、白熱した議論がなされました。  以下、プロジェクト代表の稲荷森による趣旨説明を、各登壇者の発表風景と共に掲載いたします。 ----- 「動物倫理」については、その道徳的地位はどのようなものかといった問題を中心に、動物実験や肉食の非倫理性などについて、主に功利主義的な立場や動物権利論から論じられてきました。しかし動物倫理については論じられる課題の点でも、またその理論的な基盤に関する議論の点でも新たな展開を見せつつあります。例えば近年のAI技術の発達と動物倫理との関連、またカント的義務論から論じられる動物倫理の再考、さらに道徳的地位の問い直しなど、新たな問題圏が生じています。この研究会ではそのような問題圏について若手研究者を中心に議論を行いました。 動物倫理の背景 P・Singerの『動物の解放』は人間と非ヒト動物のあるべき関係について大きな影響を与えました。本書が出版されてから今年で49年、来年で50周年を迎えます。P・Singerは功利主義の観点から、工場畜産や動物実験に対して問題提起を行いました。その後、Tom ReganのThe case for animal rightsが1983年に出版され、動物権利論の基礎を築き上げました。 これらの書籍は動物倫理学のみならず、他の領域にも多大な影響を与え、動物倫理は今では一つの学問分野として認識されつつあります。 それにもかかわらず、問題はまだまだ山積しています。 第一に、本ワークショップのタイトルにもなっている、道徳的地位の問題があります SingerとRegan以降、動物の道徳的地位を巡って多くの議論がなされてきましたが、依然として解決していません。まず非ヒト動物と人間とでは道徳的地位が違うのか、違うとすればそれはなぜ違うのか。あるい...

「科学哲学会ワークショップ『AI×実験哲学の可能性』」報告

イメージ
前回の投稿からかなり間が空いてしまいましたが、今回は昨年12月に中間報告を兼ねて行った学会ワークショップについて報告させていただきます。本ワークショップ『AI×実験哲学の可能性』は、筑波大学で行われた科学哲学会(2023/12/2-12/3)の二日目午後に、学会の公募ワークショップとして開催されました。本ワークショップではプロジェクト代表の稲荷森がオーガナイザー兼提題者を務め、そのほかプロジェクトメンバーの晴木・竹下からも提題を行ったほか、名古屋大学の久木田水生准教授をゲストに迎え、本テーマに関するコメンタリーをいただきました。 以下、各提題の要旨およびフロアからの質問について報告します。 ・稲荷森報告 稲荷森報告「AI実験哲学の可能性と課題」では、大規模言語モデル(Large Lamguage Model/LLM)を用いた実験哲学的・心理学的研究の可能性について提案がなされた。Chat GPTシリーズに代表される昨今のLLMは、「誤信念課題」をはじめとして、人間の被験者に与えられるのと同じような心理学実験課題を遂行することができる。同様にLLMは、いわゆる「ゲティア事例」など、哲学的な思考実験の数々にも回答を与えることが可能である。こうしたLLMの目覚ましい発展は、心理学研究並びその応用である実験哲学での活用可能性を示唆している。本報告ではLLMを応用した心理学研究・実験哲学に関する以下五種類の区分を提案した。 報告を行う稲荷森 内在的・非内在的 強い・弱い 予測的・非予測的 単数的・集合的 シミュレーション的・非シミュレーション的  本分類は心理学研究と実験哲学の両方に適用できる分類であり、LLMを用いた特定の研究は、本分類から導かれる32種類のいずれかに当てはまる。本報告の後半では、これら区分のうち予測的研究と非予測的研究に着目した。人間の心理メカニズムを明らかにすることが目的の心理学研究一般の場合、人間の回答を予測しないLLMの回答が役立つ場面は限定的である。しかし心理学研究一般とは異なり、実験哲学では非予測的研究が大きな役割を果たす可能性がある。  実験哲学が盛んになった2000年代以降、人間の哲学的直観は課題のフレーミングや提示順序など、哲学的真理と無関係の様々な要因によって影響されることが明らかとなった。また、自由意志の実験哲学など一部領域では、一般...

自由意志の哲学と自由意志の実験哲学①

イメージ
前回からずいぶん活動報告の間が空いてしまいました。先月、プロジェクト代表の稲荷森がスイス・チューリッヒ大学倫理センターで開催された3rd European Experimental Philosophy Conferenceに参加し、現在行っている自由意志の実験哲学的研究について報告を行いました。本日の記事ではその内容を取り上げます。 学会の集合写真(稲荷森は後ろから二列目) 自由意志の哲学においては、伝統的に決定論的世界と自由意志の両立可能性が問題となってきました。決定論的世界とは、平たく言えば、先行する原因と自然法則によって、そのあとに生じる事象がひとつに決定される世界のことです。たとえば以下のような状況を考えてみましょう。 ある宇宙(宇宙A)を想像してみてください。この宇宙で起こることはすべて、その前に起こったことのみに起因しています。これは宇宙の始まりから言えることで、宇宙の始まりに起こったことが次に起こったことを引き起こし、それが現在に至るまで続いているのです。たとえば、ある日太郎は昼食にフライドポテトを食べることにしました。この決定も、他のすべてのものと同様に、その前に起こったことのみに起因していたことになります。だから、もしこの宇宙のすべてが、太郎が決断するまで全く同じであったとしたら、太郎がフライドポテトを食べると決めることは、起こらざるを得ないことであったということです。 次に、起こることのほとんどすべてが、その前に起こったことのみに起因している宇宙(宇宙B)を想像してみてください。ただし、人間の意志決定だけは例外です。たとえば、ある日太郎が昼食にフライドポテトを食べると決めたとします。この宇宙では、人の決断はその前に起こったことのみに起因するわけではないので、たとえ太郎が決断するまで宇宙のすべてがまったく同じであったとしても、太郎がフライドポテトを食べようと決めることが起こらざるを得なかったわけではありません。彼は何か別のことを決めることができたのです。 つまり、宇宙Aでは、すべての決断は、その決断の前に起こったことのみに起因しており、過去を踏まえると、それぞれの決断はそのようにならざるを得ないのです。それに対して、宇宙 B では、決断は過去のみに起因するものではなく、人間の各決断が実際に起こる通りに起こらざるを得ないわけではありません。 このシ...

AIは心理学実験の参加者になりうるか①

イメージ
 先月6月、東京の代々木オリンピックセンターで国際会議、SPT2023が行われました。本大会はSociety for Philosophy of Technologyの第23回年次大会であり、ホスト国である日本側は科学技術社会論学会(JSSTS)が主なオーガナイズを担当しました。 さて、本大会ではプロジェクト代表の稲荷森・副代表の竹下が発表を行い、「実験哲学におけるチャットAIの応用可能性」に関する研究を報告しました。今回の記事では大会初日(なんとトップバッター!)に行われた口頭発表の内容についてご紹介します。なお、今回の記事では主に研究の背景について詳しく掘り下げます。 自然科学の場合、実験データや観察データが理論に根拠を与えます。ある仮説Aを支持するデータが得られれば理論Aが正当化され、反対に仮説Aを否定するようなデータが得られれば理論Aは棄却されることになるでしょう。では哲学の場合、何が理論に正当化を与えるのでしょうか?この問題については様々な立場があるものの、現代哲学では「直観」が証拠としての役割をはたすとの見解がある程度受け入れられています。ここでいう「直観」とは、ある命題に関する意識的推論を伴なわない判断のことです。 たとえば次のような問題を考えてみましょう。 (a) 線路を走っていたトロッコの制御が不能になった。このままでは前方で作業中だった5人が猛スピードのトロッコに避ける間もなく轢き殺されてしまう。  (1) この時たまたまA氏は線路の分岐器のすぐ側にいた。A氏がトロッコの進路を切り替えれば5人は確実に助かる。しかしその別路線でもB氏が1人で作業しており、5人の代わりにB氏がトロッコに轢かれて確実に死ぬ。A氏はトロッコを別路線に引き込むべきか?(Wikipedia, トロッコ問題より)  これは「トロッコ問題」と呼ばれる有名な思考実験の一種です。私たちはこうした問題を提示されたとき、じっくり考えなくとも、どちらの選択をとるべきかについて直観的に判断することができます。 哲学においては、このような直観的判断が理論に対する証拠を与えると考えられてきました。つまり直観は、科学におけるデータと同じような役割を担うと考えられてきたわけです(もっとも、こうした見解を否定する人々もいる)。 上記の例でいうと、人々が「引き込んで5人を救...

自由意志・AI・実験心理学

イメージ
本年度より、私が代表を務めるプロジェクト、「 近未来社会における新しい自由意志・責任概念 」がトヨタ財団特定課題研究:先端技術と共生する新たな人間社会に採択されました。 このブログでは、本プロジェクトのアウトリーチ活動の一環として、一般市民を含む様々な人々に我々の研究内容を発信していくことを目的とします。 さて、第一回目となる今回の投稿では、我々の研究プロジェクトの概要およびその目的に関して報告したいと思います。 【プロジェクトメンバー】 本研究の最大の特色は、プロジェクトメンバー全員が 北海道大学CHAIN に所属する博士後期課程学生であるという点にあります。 本プロジェクトは、CHAINに所属する学生同士で行っていた共同研究の構想を具現化したものに他なりません。 【プロジェクトの概要】 本プロジェクトの背景には、AIと人間の漸近という問題があります。近未来社会においては、AIが人間に代わって意思決定をする、我々の脳がインターネットや仮想空間に直接接続される、AIが人間の指示を受けることなく決断を下す、といったことが一般化していくと予見されます。実際、私たちは知らない土地で移動をするとき、自分で道を選ぶ代わりにGooglemapに意思決定をさせたりと、既に代理意思決定は身近なものになりつつあります。 こうしたAIと人間の漸近は、「自由意志をもつ責任主体」という従来の人間観を変容させると考えられます。 たとえば、クマが人間を襲ったとしても、私たちは熊を刑務所に入れようと考えたりはしません。しかし、人間が人間を襲った場合、私たちはその人が非難や罰の対象であると見なします。責任帰属(非難や罰)の対象となるのは人間だけ。 人間がもつ「自由意志」は、人間に対する責任帰属を特権的に基礎づけ、人間と他の動物を責任主体として区別すると考えられてきました。 しかしながら、今後AIと人間が漸近していくなかで、自由意志は人間だけのものではなくなると予見されます。そういうわけで、AIと人間のそれぞれにどのような自由意志・責任を帰属できるのかを解明し、新たな自由意志・責任概念の構築を目指そう、というのが本プロジェクトの大まかな目的です。 【具体的な研究内容】 本研究の第一段階として、「実験哲学」と呼ばれる手法を用いて人々の自由意志・責任概念を明らかにします。実験哲学とは実験心理学を応用した...