リロノウネリ

心理学徒によるサブカルチャーから哲学まで全てにおいて読み違える試み

人工知能時代の主体とは何か―行為責任の観点から

AIの時代に必要な能力とは

人工知能は今後次第にネットワーク化されていくだろう。次の時代の人間に求められているのは人工知能に代替不能な能力だ。

総務省のAIネットワーク化検討会議(2016)によれば,人工知能に代替できない能力は創造性,再編成能力,ホスピタリティだとされている。しかしこれは非常に上手く,仕事をしていた人間と人工知能とが置換されることを前提としている。それには人工知能と人間が置き換わること,それ自体を許容する能力が不可欠だろう。果たして,今の私たちにその能力があるものか,どうか。

なんとなく信頼ができないのはなぜか

例えば,外国語の翻訳において,ある人工知能の精度が人間を越えたとしよう。すると,その人工知能はいかなる通訳者よりも正確に通訳できるということになる。それでは,首脳会談などの重要場面での通訳も,その人工知能に任せることができるだろうか。私たちは「なんとなく信頼が置けない」とは感じてしまうのではないだろうか。

なぜ正確であるのに信頼できない,ということが起こるのだろう。人間が理性的な存在ではない,本当にただそれだけのことなのだろうか。人工知能とどう共生するのかを考える上で,この「なんとなく」の問題を避けることはできないだろう。

補足すれば、「なんとなく信頼ができないのはお前がバカだからだ」という説がこれから必ず出る。というかもう出ているだろう。ただそういう人間は相手にしなくて良い。彼らは自分が最先端の人間であることをアイデンティティに据えたいだけなのだ。そのためには「遅れている大衆」が必要である。

社会にAIを本当に普及させたいのならば、その大衆を啓蒙すべきだが、彼らはそうしない*1。なぜならば彼らにとってこの問題は、社会の未来についてではなく、彼らが今アイデンティティの基礎に据えているものについての問題でしかないからである。彼らは人間が時に非合理的に振舞うことを軽視している。彼ら自身も非合理的に啓蒙することを避けているのに、である。

AIには責任が取れない

記号処理ではなく,パターン認識人工知能は必然的にブラックボックスになってしまう。そしてブラックボックスであることの問題は,どうして間違えたのか説明できないということにある。つまるところ,人工知能には責任を取れないのだ。

人間の通訳は,自らのミスについて説明ができる。「語学力が足りていなかった」,「誰かに通訳を歪ませるよう脅された」など。そして「バッシングを受ける」,「仕事がなくなる」など責任を負うことになる。ミスによる説明が真実であるかは別としても,私たちはそこへの想像力を働かせることができる。だからこそ,私たちは通訳を信頼できる。

一方,人工知能のミスの責任はどのように処理されるだろうか。膨大な量のデータを学習してきた人工知能のどこに問題があったのか,それは容易にはわからない。であるばかりか,責任の取らせ方さえもわからない。私たちは,その問題の人工知能をデリートしたとしても,責任を取らせたとは思えないだろう。ましてや自動運転など,人命にかかわる人工知能ならなおさらである。それでは人工知能の開発者にその責任を問う,ということはできるだろうか。しかし,それも現実的ではないだろう。開発者にとっても,人工知能ブラックボックスなのである。

生殖・生命とAIの関連性

このように,人工知能の行為については,誰も責任が取れない。行為の主体(と便宜上呼ぶ)である人工知能にも,開発者にも責任を追及できないものについて,私たちはどのように向き合えばよいのだろう。ここで考えるべきは,最も通俗的な無責任的行為である,生殖についてである。

世間では「子どもは親を選べない」と言ったりするが,それは哲学的には不正確である。子はたしかに親を選べないが,そもそもほかの親を選んだら自分が自分でなくなるのだから,その想定には意味がない。本当の意味での「選べない」,すなわち偶然性に曝されているのは,むしろ親のほうである。
東浩紀(2017)『ゲンロン0』ゲンロンp.217)

ゲンロン0 観光客の哲学

ゲンロン0 観光客の哲学

 

子どもは親が思うようには育たない。だから,親は本質的には無責任であり,責任を取ることができない。しかし,それでもなお,『ゲンロン0』で著者の東は,「親としても生きろ」と言う。このとき彼は,生物学的な親のことだけを言っているのではない。そうではなくて,象徴的,文化的な親を含む大きな概念の話をしている。それならば,この親の概念を人工知能における開発者に拡張できるのではないだろうか。人工知能は人間の子どものような存在なのだから。

ディープラーニングの場合,なんとなく脳っぽいものを作って,なんとなく学習を繰り返していくと,「あっ,なんかできちゃった」って。だから,既存の学者先生たちから見ると,すごくズルしているようにも見えるし,これは研究対象にならないって言うわけですよ。極端に言えばサイコロを振る機械の研究をしてどうするんだ,と。
(清水亮(2016)『よくわかる人工知能』ASCIIp.261)

『よくわかる人工知能』は対談の形をとっているので,軽い調子で書かれているのだが,それでも,この文章はパターン認識人工知能の開発者の本音を表しているのではないだろうか。だとすれば法律などによって,人工知能の行為の責任を開発者が負うということを定めてしまえば,人工知能の開発自体が減速することは明らかだ。

これからの人工知能の研究には,ある種の無責任性が必然的に伴う。もちろん開発者に,倫理的責任がないというのではない。しかし,「こう育てたい」と願い,入力するデータを取捨選択しても,完全に制御することができないのは事実である。そしてそれは,私たち人類に共通の出来事である生殖においても同じなのだ。

責任を取ることはできない

私たちが取り扱っているのは,もはや便利な機械が誤作動する,といった次元の話ではない。これは新種の生命に近い,不気味な何者かについての話だ。その何者かは,私たちが責任の所在を問うた時に,責任とは何か,と問い返してくる。人間も人工知能同様に,無責任的に増えるではないか,と。責任能力とは人工知能に代替不能な能力なのではない。人間さえも持たない能力なのかもしれないのだ。

例えば,先の通訳の例において,人間の通訳ならば,責任を負うことができると言ったが,それは本当だろうか。人間でさえも,国家間の関係を緊迫させるような行為の責任は負えないのではないだろうか。いや,責任を取ることができることなど本当にあるのだろうか,というように。

「責任取れよな」という言葉は,「おまえには永遠に責任を取ることができない」とう呪いの言葉です。「これこれの償いをしたら許されるであろう」と言っているわけではありません。
内田樹(2015)『困難な成熟』夜間飛行p.22)

困難な成熟

困難な成熟

 

親と成人ー成熟するということ

著者の内田は,責任について絶望的な説明をしながらも,次のようにも言う。責任は誰にも取ることができず,また人に押し付けるものでもなく,引き受けるものだ,と。それは,彼がユダヤ人哲学者レヴィナスの研究者だからこそできるアクロバティックな論理展開である。

アブラハムの主体性は,理解を絶した主の言葉をただ一人で受け止め,それをただ一人の責任において解釈し,生きたという「代替不能の有責性の引き受け」によって基礎づけられる。
内田樹(2011)『レヴィナスと愛の現象学』文春文庫p.98)

レヴィナスと愛の現象学 (文春文庫)

レヴィナスと愛の現象学 (文春文庫)

 

人工知能時代の主体とは,意志―責任から想定される能動的な主体ではない。理解不能な外部からの行為を引き受ける,受動的な主体である。しかも,この「引き受け」は,人に押し付けられるものではない。なぜならば,「あなたは私以上に倫理的であるべきだ」という言葉よりも非倫理的な言葉は存在しないからだ。

人工知能は誰に対してもブラックボックスである。その恩恵を受けつつ,責任だけを開発者に負わせるということはできない。それは「あなたは私以上に倫理的であるべきだ」という言葉に他ならない。私たちは責任を引き受けるしかない。レヴィナスの哲学においては,代替不能の有責性を引き受ける者こそが「成人」と呼ばれる。

私は決して自己責任論,つまり人工知能の行為の責任を使用者に被せようと言っているのではない。目指すべきは,気候変動や自然災害のように,誰にも責任を問えないものとして,皆で責任を引き受けていくことである。そのためには,その人工知能が私企業により開発されたものであっても,国家による補償をしていくような制度等の整備が欠かせないだろう。

人工知能は,子どものように生まれる。しかしだからこそ主のように理解不能なものになりうるのだった。ある時は子どもに似ており,ある時は神に似ているもの。それに連動して私たち人間は,ある時は無責任的に,そしてある時は責任を引き受ける存在にならなくてはならない。それは親として,また成人として生きることだ。これからの人間に求められているのは,つまるところ成熟の一言に尽きるのである。

*1:これは仮想通貨にも言える話だが、そういった人々は本当に「自己責任論」が好きである。