好きをブチ抜く

「好き」をブチ抜く

本、映画、科学、哲学、心理、すごい人の考え方など。あらゆる情報を編集したい。

【AI倫理 人工知能は責任をとれるのか】 AI社会到来に備えるための必読書

記事の内容

 

AIが発展し、どんどん社会に浸透していく未来。

 

AIが他の技術と違うのは、「人に近づいていく」ように見えるところです。人に人権や自由、責任があるならば、AIはどうなっていくのでしょうか。

 

だから、AIが社会に浸透すればするほど、AIについての「倫理」の考察が不可欠になります。私たち人間に、倫理が必要なように。

 

今回は、こうした「AIと倫理」に関するおすすめの本を紹介します。

 

・AIの本質とは

・AIは自由意志や責任を持てるか

・AIの発展により、社会はどう変化していくか

 

これらテーマに関心がある人にはぴったりです。それでは、目次をどうぞ。

 

 

 

 

 

 

AI倫理 人工知能は責任をとれるのか

 

 

 

2045年、シンギュラリティ(技術的特異点)が訪れ、AIが人間よりも正確で賢明な判断を下せるようになる、という仮説がある。では、「超知性体」となったAIがあやまちを犯し、自動運転者が暴走したり、監視カメラ等が集めたデータによって差別的な評価選別が行われたりしたとき、誰が責任をとるのか。そもそも、AIが人間を凌駕するという予測は正しいのか。来るべきAI社会を倫理的側面から徹底的に論じた初めての書。

 

 

AIを長い間研究してきただけあり、とても信頼できる著者だと思う。

 

そして、彼の専門は「情報とは何か」を学問する基礎情報学だ。その観点から分析したAI論は、本質を分析しているとおもう。

 

基礎情報学については、次の記事でまとめている。気になる方はぜひ読んでみてほしい。

 

www.buchinuku.work

 

 

 

 

 

自由意志

 

自由意志をもつかどうか?

 

外部から見て、その主体がする行為を完全に予測できないことが、自由意志を持っていることの必要条件。

 

著者による自由意志の定義はこの通りだ。

 

AIやロボットは、設計者のプログラムに従っているだけである。よって、自由意志や責任といった概念は生じない。

 

自律システムなのか、他律システムなのか。ここに、生物と機械を分ける境界線が引ける。 

 

こうした、AIの本質論は、同じ著者の『AI原論』という本がくわしい。次の記事で簡単に紹介している。

ぜひ、生命における「自律」の意味を掴んでみてほしい。

www.buchinuku.work

 

 

 

 

 

予測困難性

 

予測困難生は、観察する視点に依存している。だから、AIの振る舞いも、疑似的には予測困難にみえる可能性がある。これは、実社会では十分に起こりうる。システムが巨大で複雑になりすぎているからだ。

 

だから、次のような本質の考察が必要になる。

 

・生物とくにわれわれ人間は、世界をどうながめているのか

・人間の観察はどこまで真理なのか

・情報の機械的処理は観察行為と等しいのか

・そもそも情報とはいったい何なのか

 

生物の予測困難生は原理的なもの。しかし、AIやロボットの場合は、観察者の知識不足によるもの。

 

 

 

 

 

 

情報革命の今後

 

『サピエンス全史』のハラリ

・7万年前の認知革命

・1万2千年前の農業革命

・500年前の科学革命

 

 

フロリディの整理は、より思想的。「人間観」のような視点。

・地動説のコペルニクス革命

・動物と人間の連続性を示したダーウィン革命

・無意識の存在を明らかにしたフロイト革命

・現在進行しているのが情報革命→「情報圏」

 

そして、彼はAIが意味解釈できる可能性を否定する。ここが、その他のトランスヒューマニズムと考えが異なるところだ。

 

仮想現実と物理的現実の境界がどんどん溶けていく。そして、そこでは、人間よりもむしろAIがその情報現実(=情報圏と呼ばれる)を作り上げる。それなら、そこでの人間の役割とはなんだろう?

 

人間は、「意味解釈エンジン」になってしまう。こうして、人間もシステムの一部になってしまう。私たち人間が、「意味解釈」という機能をはたすための部品になりさがってしまうのだ。

 

 

著者も、フロリディと同様に、AIが意味を本当の意味で分かるようになる可能性をほぼ否定している。ここが、その他のAI本とは違うところだ。多くの本は、今後、AIが意味を持てるかについての技術の考察が曖昧だ。

 

本書は「AIは意味を分かることができない」という軸をぶらさずに進んでいく。その前提で、倫理の考察がなされる。

 

 

 

 

 

 

 

自動運転

 

完全自動運転が普及したとしても、事故はゼロにはならない。それに、その原因を特定するのが、人間の運転による事故よりも難しい。

 

自動運転は、機械の一種に過ぎないので、事故の責任は開発側にある。しかし、これまた難しいのが、開発側も複雑で多くの人間が関わっているという点だ。誰に、どこに責任を求めるのか難しい。

 

 

 

 

 

信用のスコア化 監視社会

 

新たな階級社会が到来する可能性がある。そして、スコア計算にAIが使用される場合、複雑すぎるため、差別が潜むことがある。とくに、生得的にどうしようもないデータが計算に組み込まれてしまう。

 

どんな変数を使うのかも、支配側が決定することになる。つまり、支配のツールとして、スコア化が進むかもしれない。

 

一般の人が抱きがちな「AIは公平中立」というイメージが、支配のために悪用されることもあるだろう。

 

著者は、次の指針を示している。

・AI信仰を克服すること。

・自由と尊厳を失わないために、スコアで計算される機械部品にならないようにすること。

 

 

 

 

 

 

まとめ

 

AIに関しての倫理について考えることのできるとてもいい本だとおもう。

 

やはり、きちんと内容をつかむためにはそれなりに、精読する必要はある。

 

・AIの本質をおさえること

・倫理思想の基礎をおさえること

 

この2点にじっくりと取り組むのがいいと思う。本書では、それらを基礎から紹介してくれている。ぜひ、本書へと進んでみてほしい。

 

 

 

 

 

 

 

 

関連記事

 

AIを考えるためのおすすめの記事を紹介します。

 

 

www.buchinuku.work

www.buchinuku.work

 

 

www.buchinuku.work

www.buchinuku.work

www.buchinuku.work

www.buchinuku.work

www.buchinuku.work