「人文学・社会科学を軸とした学術知共創プロジェクト」では、2022年3月17日、第8回ワークショップ「VULNERABILITY―AI・ロボット・サイボーグと“ひと”―」を開催しました。
冒頭、テーマ代表者の京都大学大学院文学研究科 出口康夫教授が、本シンポジウムのテーマである「Vulnerability」について「傷つきやすさ・可傷性」という一般的な訳語とともに、それを超えた多様な意味を持つ概念であること、近年、多くの領域にまたがって使われる思潮のキーワードとなっていることを紹介しました。そのうえで、”ひと”に普遍的に備わっている「実存的Vulnerability」と、ある特定の集団だけが背負わされている「社会的Vulnerability」の内実やそれらの間の関係性や、ロボットやAIが”ひと”と同じようにVulnerabilityを備えるべきなのか、そもそも備えることができるのか、といった問いから、”ひと”はロボット・AIとどのような関係を築いていけるのかについて改めて考え直す契機になるのではないか、など、様々な問いを投げかけました。
続いて、2人のパネリストが話題提供を行いました。最初に、北海道大学人間知×脳×AI研究教育センター長・田口茂教授が「生命の不安定性と生命的コミュニケーション」と題して、“ひと”と真にコミュニケーションができるパートナーとしてのAI・ロボットなどの人工主体が備えるべき条件として、本質的な傷つきやすさ・不安定さが含まれているべきではないかという課題を提示しました。もう一人のパネリストである株式会社KANDO・田崎有城代表取締役は、先端技術の社会実装やスタートアップ企業の支援に関わる立場から、ロボットやAIなどの先端技術の社会実装における人文学・社会科学の役割、AIを活用して定性価値を定量価値に変換する動きなどについて、具体的な事例を交えて実践知を紹介しました。
その後、モデレーターに甲南大学・井野瀬久美惠教授を迎えて、出口教授とパネリスト2人に5人の研究者・実務者を交えた計9名による全体討議が行われました。その議論の内容を、以下の4つの論点に整理しました。
論点による整理
【論点1】A I・ロボットなどの異質な存在をどのように位置付けるのか
「AIが定性価値を定量価値に変換するような面接システムでは、面接を受けている人の表情を解析して精神状態を可視化し、面接官がその情報を見ながらポテンシャルをより引き出すような面接を行うことができる。このようなAIによる定量化は、人間の主観のぶつかり合いを緩和し、相手を許容できる社会に近づけることができるのではないか」(その他)
「『人工物はスレイブ、人間はマスター』『人工物をマスターに引き上げる』『対等な他者としてのAIを認める』という3つの方向で考えると面白い」(法学)
「人事系の評価といったような場面で定性価値を定量価値に変換する場合、受けとる人々の納得感が重要だろう」(その他)
「人間に言われたらイラっとするのにロボットの言うことは素直に聞けるとか、ロボットに接客されると買いやすいとかいうことがある。AIやロボットが第三者として指摘することの効果や、価値ある判断や行動を促すために役立つ側面がありそうだ」(哲学)
「教師あり学習において、AIが利用するデータを人間の主観でつくらなければならないような場合、機械学習を効果的に実施する上で有効なデータであるか否かという点で難しいこともあるが、逆に、人間が関わってパラメータを決めたり、最終的に人間がケアする部分があることが面白い」(その他)
「私たちが感じているもの、見ているもの、考えていることは、どこまで確かなことなのか。AI・ロボットなどの存在は、人間の主体性についての確証を揺さぶる」(歴史学)
【論点2】「ひと」が持つVulnerabilityの本質は何か。それをAIやロボットなど人工物で解消できるか
「知覚を身体的行為と捉えるエナクティヴィズムでは、生命にとって『不安定さ、脆さ』は本質的であると論じている。生命を構成する様々なプロセスは自然に崩壊する傾向にあり、各プロセスは、互いの消滅を互いに食い止め合いつつ循環的に自己生成している。このようなインタラクションは、生命個体同士や人間同士のコミュニケーションにおいても生じており、不安定性を含んだ相互依存的、相互生成的なプロセスである」(哲学)
「人間と真にコミュニケーションを取れるパートナーとしてのAI・ロボット(人工主体)をつくるなら、そのようなVulnerabilityが存在の本質に含まれているようなAI・ロボットを追究する必要があるのではないか」(哲学)
「AIを法的な主体と考えるなら可傷性を持たせたほうがよいという考えもある」(法学)
「人工主体は、人間と付き合う上で推論、学習、適応を繰り返す。それはある種の不安定性、傷つきやすさとは言えないか」(理工系)
「人間と人工主体が、ぶつかり合っているだけでなく、ぶつかった時に両者の関係性が傷ついたり破れたりしてしまうこと。Vulnerabilityという言葉はそのような事柄を表しているために、西洋の文脈でも注目されているのではないか」(哲学)
「情報技術の分野では、ヒューマンインザループ(human in the loop、機械やシステムにおける判断や制御に人間を介在させること)という考え方がある。人間同士や人工主体も含めたコミュニケーションを続けられるようなシステムをつくれば、そこにはある種の非均衡性、不安定性、脆弱性が含まれているのではないか」(理工系)
「ロボットをつくる上で、その本質に傷つきやすさを組み込むことができるかという問いと、傷つきやすさがあるように見せることができるかという問いは別物。このあたりを分けて議論すべき」(芸術学)
【論点3】技術の発展過程において、学術間コミュニケーションをどのように醸成していくか
「ロボットやAIの仕組みが人間の意志を無視するような形で使われたとき、人々はどう抵抗できるのか、そういうふうに使わせないためにどのような法的なアシストが必要なのか」(哲学)
「AIシステムの社会実装にあたっては、まずは世の中に出すことが重要なのではないか。ハックされるようなことがあってもまた改良していけばよいし、それはある種の生態系に近いような営みとも言えるのではないか」(哲学)
「社会実装をする上では倫理観が非常に重要なのはその通り。だが、批判もPDCAサイクルの一環として受け止め、先に進めていくことが重要な場合もある」(その他)
「科学的に正しいというふうに言われていることが人々の行動変容を促すかというと、そうではない。したくない、納得できないとなったときに、いわゆる落としどころを探ることも重要か」(その他)
「現状、ロボットは、研究開発でも演劇などで活躍するにしても、ケアやメンテナンスをする人間とセットで動いている。まさに、エナクティブアプローチ(身体化された心を持った)というか、生まれついてのサイボーグとしてのロボットを感じる」(哲学)
【論点4】定性価値を定量価値へ変換していく動きに対して、研究者はどう考え、振る舞っていくべきなのか。また、価値観の保持や変容に対して、学術はどのような示唆を与えられるのか
「資本は経済資本、社会関係資本、文化資本の3つに分解できるが、社会関係資本も文化資本も定性価値である。環境問題が深刻化する中で、AIを活用し定性価値を定量価値にしていく動きが進んでいる」(その他)
「人文社会学自体は定性価値を持ち、定量化できずに経済価値に還元できないことで苦しんできた。定性価値を定量化できるAIエンジンの開発は、実効性が高い」(その他)
「インパクト投資の考え方が出てきたこのタイミングで、人文学的な価値の在り方や他者としてのAIを踏まえ、学術と科学技術・ビジネスをうまくパッケージしてファンディングしていくことを考えることも必要」(法学)
「社会インパクト投資でもロジックモデルを立てるが、アウトカムやインパクトは多分に主観的で定性的。そもそも経済価値に変換してはいけないようなものもある」(理工系)
「機械学習は現状の価値観に基づくので、将来価値や価値観を変えていきたい場合の評価には向いていない場合もある」(理工系)
「社会の本質の中に、経済原理以外の客観的なものがきちんと入ってこれていない。行動原理に、お金に換算できないものが入って来るべきなのに、それを客観的な数字にできていない社会にいる」(芸術学)
「日本発のアイディアを社会実装する際に西欧の法制度が障壁となることが生じても、我々が西欧からの借り物の概念で議論していてはそこを乗り越えられない」(法学)
ワークショップの概要は、以下よりご覧ください。
第8回 学術知共創プロジェクトワークショップ ~新たな人類社会を形成する価値の創造~
テーマ代表者:出口康夫 京都大学大学院文学研究科教授