危うしロボット三原則
引用した記事は、アフガニスタンに近いパキスタンの山岳地帯に潜伏していたテロ組織「アルカイダ」の幹部を、米中央情報局(CIA)の無人偵察・攻撃機「プレデター」がミサイル攻撃し、殺害したというものだ。最近捕らえられた他の幹部からの情報に基づくという話もあるが、詳細は明らかになっていない。
ここまではニュースから。
CIAの、というのはよくわからない。CIAが無人攻撃機を管理しているのか?米陸軍はミサイル装備の「プレデター」の部隊を持っているとのことだが。このあたりは素人には分かりかねるが、本題とは関係ないのでひとまず措く。
要は、ロボット開発において影響を与えているとされる「ロボット三原則」が、無人兵器の開発にあたってはまったく考慮されていないようにみえることだ。兵器なのだから当然といえば当然だし、自国兵士を危険にさらしたくないというのもわかる。それに、現在ある無人兵器は「ロボット三原則」にいう「ロボット」とは異なるわけだし。だが、それにしても、こうまで完璧に無視されるとは。
おそらく無人兵器の開発者は、「ロボット」を開発しているという意識ではないだろう。遠隔操作できて、ある程度は自律的に行動できる兵器。ただそれだけのことだ。できれば人間がコントロールしたいが、遠隔操作にも限度があるから、自律的に行動する能力が欠かせない。少なくとも、離れた場所から敵を攻撃する際に、遠隔操作できない兵器、自律性がまったくない兵器(要するに大砲の砲弾みたいなものだ)を使うよりは、はるかにその目的に対して効果的だし、関係ない人々を巻き添えにするリスクを小さくすることができるというのはその通り。
現状ではまだ、攻撃指令自体を人間が行っているのだろう。よく考えれば、すでに広く使われている自動追尾ミサイルや巡航ミサイルだって、発射された後はかなりの程度自律的に行動するわけで、いってみれば無人兵器だ。さらに広げれば、地雷だって攻撃のタイミングを自律的に「判断」している。こうした「自動化された機械」と、「ロボット」として意識される機械との差は、つきつめれば「判断」のレベルだ。ロボットに分類されるのは、高度に「知的」な判断をするものだけだろう。しかし兵器として考えるなら、どちらも質的な差はない。
無人兵器が自律的な判断で具体的な攻撃行動をコントロールするようになるまで、もうほんの一歩、のようにみえる。すでに陸戦用の無人兵器などでは、「敵」を探し出して攻撃することも研究されている。広い意味での攻撃命令は人間が出すにしても、現場で実際に特定の人間を撃ち殺すかどうかを機械が決める時代がすぐそこまで来ているのだと思う。
そういう兵器が当たり前であるような世界が来たとき、ロボット三原則はどうなるのだろう。平和利用のロボットのみに適用される原則、ということになるのだろうか。ロボットが「正義の味方」や「友だち」とイメージされる多くの日本人にとっては、見たくない図だろう。少なくとも私は、いやだな。じゃあ人間の兵士が死ぬほうがいいのか、といわれると、それもいやだけど。少なくとも、日本のロボット産業は、できればちがう路線を歩んでもらいたい。
The comments to this entry are closed.
Comments