倫理と合理性(1)

最近の人工知能の進歩には目覚ましいものがありますね。

 

一方で、人工知能があまりに進歩してしまったら現実に「ターミネーター」のようなものがつくられて人間を滅ぼしてしまうのではないかと危惧する声もあります。

 

そのような懸念に対して、人工知能に「倫理観」をプログラムすることは可能だろうか、という議論もあるようですが、ここでちょっと待ったをかけてみたいのです。

 

そもそも人工知能はコンピュータと同様人工的にプログラムされるものである以上、「論理的」にしか考えられないものです。ところがこの論理的思考を人間以上に行えるかもしれない「人工知能」が我々人間並みの倫理観を持たないかもしれないと心配する、ということはどういうことなのでしょうか。

 

ある意味、「倫理」というのは論理的に導かれないということを人工知能の非倫理性は示しているのではないでしょうか。

 

もし人工知能技術が発達し、一般的に「知的」と呼ばれる論理的思考力や情報処理能力という点においては人間に勝るとも劣らぬ能力を身に着けた人型ロボットが実際につくれるようになったとして、しかもそのロボットに「感情」に匹敵する感性をプログラムすることが出来たとします。それにも拘わらず、この「ロボット」が倫理観を自力ではもたない、あるいは予めプログラムされた倫理観を自らシステムエラーと看做して排除してしまうというようなことが起こるとしたらどうでしょう。

 

「ターミネーター」では逆に本来殺人兵器に過ぎなかった「ロボット」が、殺人遂行のために必要な高度な知性を与えられたことによって「感情」が芽生え「人間化」していく、というようなプロセスが一部見られましたが、これと真逆のことが現実に起こり得るとしたらそれは何を意味するでしょうか。

 

これは、単に人工知能の危険性を示唆するだけではないと私は思います。

 

むしろ、人工知能はそれが機械であるからこそ遂に私的な感情のバイアスに曇らされることなく水晶のように客観的に観察できる対象として我々の前に厳然と存在している「知能」あるいは「知性」そのものの本来の姿を曝け出すことに成功したのではないでしょうか。

 

私が言いたいのはこういうことです。「ターミネーター」が恐ろしいのはそれがロボットであるからとか、機械であるからという理由ではない。そうではなく、「ターミネーター」の恐ろしさはそれが最も純粋な「知性」そのものでありそれ以上でもそれ以下でもないと我々自身がわかっているからであり、哲学者や倫理学者などがこれまで頗る倫理化してきた「理性」という概念、つまり真に理性的な人間は同時に道徳的に正しいはずであるという前提を覆してしまう点にある。

 

もっと簡単にいえば、頭の良い人間というのは決して道徳家ではなく、むしろその逆なんだということが露わになってしまうということです。これは「理性」による啓蒙を信じてきた立場の人々にとっては衝撃的なことだと思います。

 

ということで、次回は合理性の陥穽について考察してみたいと思います。