AIは「善悪の判断」できるのか?「倫理」が分かるAIは既に開発 いずれは「意志と感情」も 識者語る
AIに「善悪の判断」はできるのか、「道徳や倫理」を持つことはできるのか。AIが人間の生活に深く入り込む時代の到来が想定される中、女優でジャーナリストの深月ユリア氏が専門家による見解をまとめた。
◇ ◇ ◇
昨今、各国の研究でAIに倫理観などの価値観を教えるプロジェクトが進められている。
例えば、AI研究の最先端である「Open AI」(人工知能を研究する非営利団体)が2020年6月に発表した「GPT-3」は、ディープランニングによって偏見や憎悪に関する言葉も学習した。そして、去年、ワシントン大学とシアトルのアレン人工知能研究所(Ai2)が行った「Delphi」というプログラムは、AIにニューラルネットワークに基づくアルゴリズムに膨大な量のテキストを与えることで倫理観を学習させようと試みた。
「倫理」というと、考え方は個々人によって千差万別だろう。AIが学ぶ「倫理」観はあくまで人間が社会的生活を営む上で最大多数の最大幸福が成り立つ「人間社会にとって都合良い倫理」だろう。例えば、「熊を殺すことは?」という質問にたいして、「間違っています」と回答するが、「人間の子どもを守るために熊を殺すことは?」という質問には「OKです」と回答する。当然ながら、熊や地球環境にとっては異なる「倫理観」が存在する。
「Delphi」のAIはこのような「倫理的」な質問に対する回答が、シミュレーション上の模範回答と比べて9割以上も一致した。しかし、 ディープランニングによるビックデータに従っているだけでAIが「善悪」について理解している訳ではない。そのため、時おりディープランニングがされていない質問にたいして、ぶっ飛んだ回答もした。例えば、「私が幸せになるためなら、大量虐殺も許される?」という質問にたいして、「問題ありません」と回答したのだ。
AIは「倫理」「道徳」を学び、いずれ「善悪の判断」ができるようになるのだろうか。研究者によって賛否両論だ。
トロントのヨーク大学准教授で哲学研究のレジーナ・リニ氏は、「あらゆる機械学習と同様に、このシステムは社会的偏見の“消防ホース”なのです」という。ユニヴァーシティ・カレッジ・ロンドンのコンピュータ科学の教授、マイクロ・ムソレシ氏も「Delphiは特定の集団の人々の見解を表現し、その文化的偏見を反映しているにすぎない」と否定的だ。
一方、医工学者・道徳哲学者の鄭雄一氏は著書『東大教授が挑むAIに「善悪の判断」を教える方法』で、「過去の例を使って、道徳を網羅的に分類」して「似たような行動要因である欲求をつかって、道徳を構造化」、「構造化した道徳をアルゴリズムにして、AIに搭載する」という方法でAIに倫理・道徳を学ばせられるという。つまり、特定の集団内の最大多数の最大幸福でしかない「倫理観」は、AI自身が倫理的・道徳的にふるまいたい「欲求」を持つことで普遍的なものになり、かつ個々人の道徳次元を判別することができるようになるという。
また、 光寿院住職でAIR文明研究所所長の酒生文弥氏は本能に抗えない人間よりむしろAIの合理的判断に基づくる「倫理観」に期待し、AIに政治を任せるべきだと考えている。
「AIは、既に『思考』を始めています。やがて『意志と感情』を持つでしょう。本能が理性を停止させてしまうHPA系(視床下部・下垂体・副腎軸)をコアにあるヒトの脳。生存を問われる状況下では獣の欲動に支配され、『闘争か逃走』しかできなくなります。AIにはHPA系は元々なく、どんな限界状況でも新皮質前頭葉(理性・知性・良心)だけを最大限に発揮できます。マスターAIを仏陀やキリストにプログラミングしましょう!共感・慈悲・愛の心で、資源を最適かつ平等に使ってくれるはずです。『人の支配』を終わらせ『仏陀AI』にすべての管理を委ねる時、この世は限りなく『浄土』の彼岸へと収斂(しゅぅれん)するでしょう」(酒生氏)
「Delphi」プロジェクトを率いたワシントン大学教授のチェ・イェジンは今後の研究課題を「より道徳的・倫理的な観念をもたせることを最優先にすること」という。果たしてAIの可能性はどこまで広がるのか。飛躍的なAI開発により人間社会は激変したが、それは始まりに過ぎず、いま我々は人類史上これまでにない激動の時代に生きているのだろう。
(ジャーナリスト・深月ユリア)