AI(人工知能)って倫理を持ち得るの??
人間社会において重要な指標となる倫理。
それは社会を円滑に運営する上で必要なシステムであり、
これが無ければ世界は暴力と欲望にまみれた世界になってしまうかもしれません。
人間でも判断基準が曖昧な「倫理」ですが、
もし将来AI(人工知能)技術が発達して人間そっくりのアンドロイドが
作れる世の中になったとして、
AIは倫理感を持つことは可能なのか??
ということについて考えたいと思います。
結論から言うと
「人間が施すプログラミング次第」
というのが私の見解です。
「倫理」というもの自体が非常に曖昧な価値観であると言えます。
たとえばアメリカでは積極的に発言をして我を出していくことが美徳とされていますが、日本では慎ましく行動し周りに合わせるということが美徳とされています。グローバル化が進むことでこういった価値観の違いというのは少しずつ間を埋めてきているとはいえ、まだまだこのような国ごとの価値観の違いは多くあります。
このアメリカと日本の例を使って何が言いたいかというと
「人間というくくりの中にも倫理の基準に相違がある」ということです。
そもそも「倫理」というもの自体に完璧という状態が存在しないのに
AIにその完全な倫理を持たせることは人間にはできないはずです。
ひとつAIの倫理問題の例を挙げるとすると、
自動運転における倫理問題がとても有名です。
たとえばあなたが完全自動運転が実現した社会で、車の運転席に座っていたとする。車に搭載されているAIは瞬時に問題があれば察知して回避をする最善の努力を尽くしてくれると仮定します。あなたが山道を時速60キロで運転していると突然曲がり角から子供が飛び出してきました。AIは瞬時に危険を回避しようとしますが選択肢AとBの2択を迫られます。
A. ガードレールに突っ込んであなたが崖から落下するかわりに子供を助ける。
B. 子供を犠牲にする代わりに自分が助かる。
このような状況になった場合どちらが倫理的な選択と言えるでしょうか。
Aの選択肢は「自己犠牲を伴う英雄的な選択」でBは「自己中心的な傲慢な選択」であると答える人も少なくないでしょう。しかし、子供の不注意によって起きた事故だから轢いてしまってもしかたがないという人もいるでしょう。このように客観的な判断によって「倫理的な行動」というもの容易に変わってしまいます。そんな答えのないことをAIに判断させて答えを求めるのは無理があります。
もし仮に自動運転が当たり前の世界になれば、車の運転手は2つのモードのうちのひとつを選ばなければなりません。咄嗟の判断をAIが下す際にAの選択肢をとる「自己犠牲モード」かBを選ぶ「自己優先モード」か。どれだけ割合が変わるのかというのは非常に興味深いデータとなるでしょう。
結局どのモードにするかの判断は人間がくだすことになるので、さきほどの結論である、AIは人間の施すプログラミング次第では客観的な倫理を持つことができる、ということになります。
幸か不幸か、そう遠くない未来にこのようなことを皆が考えなければならない社会が訪れるかもしれません。