AIとの共生を3つの視点から検討
社会が直面する様々な問題の解決に向き合う「人文学・社会科学を軸とした学術知共創プロジェクト」では、共創の第1ステップとしてワークショップを開催しています。第2回ワークショップ「新たな人類社会を形成する価値の創造―AIと倫理」は、2021年1月25日、オンラインで開催されました。
冒頭、テーマ代表者の京都大学大学院文学研究科・出口康夫教授が、テーマ設定の背景として、「シンギュラリティ(技術的特異点)」に代表される社会環境の劇的な変化、「人新世」という新たな地質区分の提唱に象徴される環境問題や社会問題の深刻化など、人類社会が価値の見直しと再創造を迫られていることを示唆。人文学・社会科学の知によってソリューションの前提となる価値の座標軸を見出し、日本・アジアを含む多元的な価値観の見直しによる新たな価値の創造をめざして、研究者と社会の実務者とが融合したユニークな研究チームの発足につなげたいというワークショップへの意欲を語りました。
参加者は、哲学・倫理学をはじめ様々な分野の研究者、AI研究や社会実装に携わる企業人、リサーチアドミニストレータなど幅広い領域から集まった28名。まずは、研究内容やワークショップへの参加動機を1分間で自己紹介するフラッシュトークを実施。各自の関心の在り処や問題意識を理解し自分の興味と重ね合わせる、チームビルディングへの最初の足掛かりともなりました。
その後、出口教授の提案した3つのテーマに分かれてグループディスカッションが行われました。具体的なAI倫理の規範や行動指針を検討する「AI倫理綱領の構想」、AIと人間が共存する社会の制度設計を議論する「パラヒューマン社会の未来図」、AIの登場によってもたらされる危機の克服をめざす「シンギュラリティ問題と実存の危機」という位相もスコープも異なる3つの論点から議論を深め、AIと倫理に関する重層的な視点と問題意識を共有することが目標です。
AIに何を求めているのかを再認識
「AI倫理綱領の構想」グループは、実際にAI倫理綱領をつくってみながらAI倫理について考察を深めました。内閣府から「人間を中心としたAI社会原則」、世界開発機構(OECD)から「AIに関するOECD原則」などが打ち出されたことが契機となり、国内の企業や研究機関で独自のAI倫理綱領の作成を進めています。代表者からはこのようなAI倫理綱領の現状を踏まえ、なぜ倫理綱領をつくるのか、誰がつくるのか、どこまで実効性を意図するのかなどいくつかの論点が提示されました。これを受けて、参加者全員が既存の倫理綱領を参考にすることなく綱領に加える項目を自由に提案。オンライン上に各自が書き込み共有できるホワイトボードのようなアプリ(Miro)を使って、綱領の文言を記述していきました。項目として挙がったのは、開発したものに対する帰結の評価、弱者保護、責任の所在、環境に及ぼす影響、悪用の禁止、自己省察の重要性、AI・AI開発者の定義、プライバシーなど。記述内容を全員で検討しながらAIとの共存を図る社会に必要な倫理観を探りました。倫理綱領をつくる場合にAIの定義を明らかにするべきかどうか、AIがもたらす社会的影響などにも議論が及びました。
「パラヒューマン社会の未来図」グループは、AIやロボットなどが「人格」を持つ可能性やそのような存在と共生する社会とはどのような社会なのかについて議論。AIとの共生はすでに始まっていること、AIが持つ「人格」とはどのようなものか、といった代表者からの指摘を踏まえて、まず、人間と同じような「人格」を持つという判定基準は何なのかが話題に。人と物との違いは責任能力のあるなしだとしたカントの基準を軸に、AIが人格を持ったとしてもそれは動物や子どもなどに近い存在なのではないか、そうであればすでに一緒に暮らしており、既存のペット倫理、動物倫理などが活用できるのではないか、といった議論が交わされました。また、AIやロボットのコミュニケーション能力にも言及。コミュニケーション能力があるからといって理性があるとは言えないのにあたかも人間のような理性的な存在のように感じてしまうことへの危惧を指摘する声が出た一方で、コミュニケーションできるからこそ一緒に生きている感覚が芽生え徐々に責任を取ることも可能になるかもしれないという意見も。さらに、デジタルの世界にもう一人の私をつくり今より豊かな体験をさせるとしたら、「私」という概念はどうなるかという議論にも発展しました。
「シンギュラリティ問題と実存の危機」グループは、AIが人間を超え飛躍的に知性を高めていくことで、人間の存在意義が見失われかねない事態になることに対してどのように対処すべきかをテーマに議論を展開。代表者からは、われわれはAIに自律性を持たせるのかどうかの岐路に立っているという問題提起がなされ、それを受けて、自律性や人格をどのようにとらえ直すかについてから議論が始まりました。法人という形で人ではないものに人格が与えられていることから、人ではないAIに人格を認めることは可能だろうが、その際、人格を持つAIを所有してもいいのか、ロボット自体が犬を所有することはできるかといった所有権の問題や、自律性がそれほどない段階でも道徳的配慮の対象となるのではないかなどの議論が交わされました。また、ロボット自体に倫理観を持たせるために痛覚を与え共感を引き起こすというアイデアが語られ、痛みや苦痛を感じる存在は道徳的配慮の対象にすべきという意見や、幸福が増えることが正しいとする功利主義的な見方からの同意も得られました。また、AIに痛みを持たせる必要性があるのかといった議論やAIが意識を持てば必然的に痛みを持つといった意見、人間の自律性の一部をAIが担いブラックボックス化していくといった危惧も浮上。さらに、技術者がもっと参加することで議論が深まるのでは?という今後の期待も共有されました。
グループディスカッションの締めとして、出口教授が感想を述べました。各グループともそれぞれのやり方で、人間が客観的に持っている重要なプロパティとは何か、それをAIという人工物に実装し再現することが可能かどうかについて議論されたと総括。人とAIという二項対立だけでなく動物や法人にも議論が展開したことに注目し、動物を人間とは何かにフィードバックしてきた近世哲学の歴史を指摘しながら、AIについて考えることは人間について考えることであり、AIにどのような倫理や責任を持たせるのかを考えることは、人間にとっての倫理や責任の本質を再検討することにつながると示唆しました。また、「AIを定義できるか・定義すべきか」というのも面白い論点だとして、AIがある性質を持っていることをどこまで言えるのかという問題を提起。たとえば道徳的な対象かどうかを、「責任感を持てる」「苦痛を持てる」「人のことを考えられる」「理性的」などの客観的な性質を持っているかどうかで判断する見方を提示したうえで、これ以外にも主観的なアプローチや関係でとらえるアプローチの可能性があることに言及しました。さらに、AIを通して人間とは何かを考えることで、われわれの人間観自体にある種の揺らぎが生じざるを得ない点についても今後の議論で深めていきたいという期待を語りました。
リラックスした雰囲気で実りある議論
第1回目に引き続き今回のワークショップでも、40代以下の参加者を集めた若手研究者セミナーが開催され、グループディスカッションの議論を下敷きに、さらに豊かな内容へと 議論が広がっていきました。
「AI倫理綱領の構想」グループでは、前半でつくった倫理綱領に自分たちでダメ出しをするというユニークな試みを行いました。既存の綱領と比較して、不足している要素がないかを検討。その中から、誰が定める誰のための綱領なのかによって中身が違ってくる可能性などが改めて論点になりました。また、あらかじめ倫理的なAIをつくる必要があるのかどうかという問題や、人権などの概念を綱領に入れ込む場合に文化的多様性を考えておくべきではないかといった議論も。一方、AI倫理綱領の意義についても話題が広がり、人体実験を禁止したヘルシンキ宣言とも比較しながらAI倫理綱領の効力や法制度化について検討し、そもそもAI倫理綱領で定めておくべきAI特有の問題はあるのかという議論に発展。さらに、AIのデュアルユースの問題やELSIの対応といった多彩な方向へも展開されました。
「パラヒューマン社会の未来図」グループでは、前半で議論したパーソナルな存在としてのAIから、企業や国など社会的意思決定を担うような立場へと拡張して議論が展開されました。AIには人間にできない膨大で複雑なデータを読み取る能力はあるが、インプットするデータに偏りはないと言えるのか、AIは自動的に合理的な判断をするだろうがそもそも合理性を突き詰めることが良いのか、AIに人権や人間の尊厳といった問題を考えることができるのだろうかなど、様々な問題提起がなされました。さらに、AIの意思決定を私たちは信じられるのかという問題にも言及。人間とAIとの違いを確認しながら、たとえば、悩み続けることができたり、迷ったりする弱いAIであれば共生できるのではないかといった声も俎上に載せられました。このような人間のパートナーのようなAIを欲する一方で、人知を超えた判断をしてくれる神のようなAIを求めている点にも注目し、そのようなAIを人間がどのように受け入れるのかについても議論されました。
「シンギュラリティ問題と実存の危機」グループでは、前半の議論を受けて、倫理学者ピーター・シンガーの功利主義を一つの軸として議論を展開。人間だけでなく動物もAIも痛みを感じるものすべてに道徳的な配慮をするというシンガーの主張について、その利点を指摘しながらも、人間中心主義的な思考と縁を切ることへの疑問、合理主義や理性的存在者のもとで峻別されることへの反発などが語られました。さらに、何が道徳的価値を持つのかということ自体をAIの判断に任せてもいいのかといった議論も。また、AIは自分の判断で苦しむという経験がないために責任が取れない、だからその判断は信頼できず重要な意思決定の主体として認めがたいという意見もありました。その一方で、人間の判断も大いに間違っており、アメリカのこれまでの判例をAIに学習させたらマイノリティに対する差別を再生産してしまう可能性があるという指摘や、結局、人間とAIが対話しながら意思決定をしていくしかないという意見も出ました。さらに、シンガーが道徳的配慮の対象について明確な線引きをすることへの違和感も論点に。哲学者アマルティア・センの著作『アイデンティティと暴力―運命は幻想である』から、人間は複数のアイデンティティを持って生きておりその中から自分のアイデンティティを選び取っていることに言及。いかに技術が発展してもそのような人間の姿をゆがませないようにする必要があるとの見解も出されました。
若手研究者セミナーは各グループともに、前半のグループディスカッションの内容をさらに拡張させながら、多くの論点が提供される活発な議論となりました。グループそれぞれに違うアプローチから同じ論点について語られることも多く、まさに重層的な議論が展開。これからどのように深化・充実していくのかが大いに期待されます。
ワークショップの概要は、以下よりご覧ください。
第2回 学術知共創プロジェクトワークショップ ~新たな人類社会を形成する価値の創造~
テーマ代表者:出口康夫 京都大学大学院文学研究科教授