AI戦争
「無人の兵団」ポール・シャーレ著 伏見威蕃訳
トランプ大統領の米宇宙軍創設をはじめ、戦争が急速にAI化しつつある。
◇
米レンジャー部隊員としてアフガンとイラクに4度も出征した著者。その後はペンタゴンで「自律型兵器」に関する法的・倫理的問題を担当したという。
そんなAI兵器専門家の著者が最初に挙げる例が、自身の体験と冷戦末期のミサイル誤認問題。機械に人間の勘による知恵はなく、合法か否かの判断しかできない。著者はアフガンでタリバン偵察員の少女に遭遇したが、彼女を射殺するのは合法でも道徳には反する。「なにが合法的であるかと、なにが正しいかが一致するとは限らない」のだ。
著者によればロボット兵器の開発はアメリカ主導ではない。たとえばイギリスのブリムストーン・ミサイルは撃ちっ放しで地上の車両や小型船舶を破壊できるミサイル。漁船もどきを大量に繰り出して駆逐艦に体当たりするなどという自爆戦法に対しても、敵を自動で識別して個別に爆破できるという。
しかしウォール街では金融工学が、しばしばアルゴリズムの過ちに悩まされている。世上のビッグデータ信奉者とは一味違う現状報告と現実的な展望は学ぶところ大。
(早川書房 3700円+税)
「AI兵器と未来社会」栗原聡著
ロボット掃除機とAIはどう違うのか。前者も学習機能を持ち、情報を分析して業務を遂行する低汎用型人工知能だ。しかしこれは生物に必須の「生きる目的」や「その目的を達成する自律性、能動性」はない。これが人間との違いだ。
ではAIに人を殺すことはできるのか。答えは、低汎用の道具型人工知能ならノー。しかし今後登場する自律型人工知能であれば、自らの意志でAIが人を殺す可能性はある。たとえば侵入者を発見し、それが建物内の人を傷つけたり殺したりする危険性が高いと根拠を持って判断した場合、AIが犯罪防止の観点で侵入者を殺すことはあり得る。問題はそれが「許されるかどうか」は社会のコンセンサスによりけりなのだ。
いまアメリカではAIが自動的に標的を発見し、追跡して自動的に攻撃態勢に入る自動戦車を開発中。最後にトリガーを引くのは人間だが、すべてを自動化する手前まできていることは間違いないのだ。著者は慶大理工学部の人工知能研究者。
(朝日新聞出版 750円+税)
「AI倫理」西垣通、河島茂生著
日本のIT時代を主導してきた第一人者が若手の情報倫理学者と組んだAI倫理論。戦争などの話ではないが、AIに倫理的な判断は下せるのかを正面から論じる。たとえば中国アリババの「芝麻信用」などのスコアリング(人間のスコア化)。買い物情報から年収、勤務先、支払い履歴、SNS上での人脈などの個人情報をためこんで、350点から950点までの幅で点数化され、基準を超えると低金利ローンや結婚仲介サイトの特別サービス、レンタルやリースの特典などがつく。すると誰もが特典を欲しがり、進んで個人情報を提供する。だが、これでもし権力批判をしたら点数が下がるというのなら……。テロなどのリスクが高まるにつれ、進んで監視を受け入れる人が増えているが、それは最も危険な道と背中合わせなのだ。安易な答えのない問題に取り組んだ入門書。
(中央公論新社 860円+税)