2018年10月14日日曜日

英紙ガーディアン【オピニオン】兵器化AI――アルゴリズム恒久戦争がわたしたちの未来なのだろうか?



兵器化AIが登場する。アルゴリズム恒久戦争がわたしたちの未来なのだろうか?

ベン・ターノフ

米国軍はさらに自動化した形態の戦闘力――どこでも、いつまでも戦う能力を大きく高める戦力を創造している

20181011 10.00 BST

米軍はとても長期にわたりアフガニスタンに駐屯しており、攻撃後に生まれた子どもがその地の戦いに赴ける年齢になったほどである。Photograph: Getty Images

先月で9.1117周年になった。それとともに、新たな節目が到来した――わが国の軍はとても長期にわたりアフガニスタンに駐屯しており、攻撃後に生まれた子どもがその地の戦いに赴ける年齢になったほどである。その子たちはまた他にも、特殊作戦部隊が任務を遂行した2018年上半期だけでも133か国に達する国ぐにのことは言わないでも、わが国が公式に戦争している6か所で就役することもできる。

9.11戦争は継続していて、終わりは見えない。ペンタゴンはいま、戦争を激化させるテクノロジーに多大に投資している。米国軍はテクノロジー産業が提供する最新ツールを愛用して、さらに自動化した形態の戦闘力――どこでも、いつまでも戦う能力を大きく高めるテクノパワー――を創造している。

国防総省は105日、史上最大規模のテクノロジー契約のひとつ、共同事業防衛基盤(JEDIJoint Enterprise Defense Infrastructure)の入札を締め切った。JEDIは、ヴァージニア州のデスクに座っている分析官からニジェールで巡回中の兵士たちまで、世界中の米軍戦力に役立つクラウド・コンピューティング・システムを構築するという野心的なプロジェクトである。契約の額面は10年間で100億ドルほどの巨額になり、だからこそテクノ大企業は勝ち取るためにしのぎを削っている。(と言っても、Googleは別で、経営陣が労働者側の圧力に押されて、受注競争から降りた)

一見しただけでは、JEDIは新手のIT現代化プロジェクトにすぎないと思えるかもしれない。政府の情報技術は、ペンタゴンのような気前よく予算配分されているお役所でさえ、シリコン・ヴァレイから周回遅れである。国防総省のデジタル機器実装システムの規模は、340万人のユーザーと400万台のデヴァイスを抱えて巨大である。その作業負荷量の一部だけでも、Amazonのようなクラウド・プロバイダーに移せば、疑いなく効率が向上するだろう。

だが、実戦力を動かすJEDIとは、国防総省が「アルゴリズム*戦争」と呼びはじめた代物――AIを兵器化する欲求である。軍のデータを最先端のクラウド基盤システムに貯めこみ、そのような基盤システムが備えている、そのデータを分析する機械学習サービスを利用することによって、JEDIはペンタゴンがAIの野望を実現するのを助ける。
*[訳注]アルゴリズム【algorithm】(アラビアの数学者アル・フワリズミーの名に因む)⇒アラビア記数法。②問題を解決する典型的な手法・技法、コンピューターなどで、演算手続きを指示する規則、算法。(広辞苑・第6版より)

そのような野望の規模は、最近の数か月でますます明確になった。ペンタゴンは6月、合同人工知能センター(JAICJoint Artificial Intelligence Center)を設立し、17億ドルの予算をかけて、国防総省の全体で現在進行中のざっと600件のAIプロジェクトを統括することになった。また7月には、国防総省国防高等研究事業局(DARPADefense Advanced Research Projects Agency)がAI兵器の研究開発に今後5年間で最大20億ドルを投資すると発表した。

現状では、ペンタゴンのAI経費使い放題に関する報道は、おおむね自律型兵器――人間の操作員による入力なしに人間を屠殺するターミネーター流の殺人ロボットの将来見通しに注目している。これは実に驚くべき近未来シナリオであり、殺人ロボット阻止キャンペーンが目指している類いの世界的な自律型兵器禁止は断固として必須である。

しかしAIは(まだ)文字通りのターミネーターの形になっていなくとも、すでに戦争の配線替えをはじめている。映画のようとはいかなくても、AIを兵器化する不気味な方法があるのだ。極めて危険な役割を演じるのに、アルゴリズムの引き金を引くアルゴリズムは必要ない。

その役割を理解するのに、恒久戦争がもたらす格別な困難を理解すると助かる。殺害そのものは格別に困難ではない。米国は、中国、ロシア、サウジアラビア、インド、フランス、英国、日本を束にしたより潤沢な火力を保有しており、その火力を地球上どこでも展開する比類なき能力を備えている。

米国軍は殺害する方法を知っている。難しい部分は、だれを殺すか、選別することである。従来の戦争では、単に敵を殺す。だが、国境がなく、特定の戦場がなく、従来型の対戦相手がいない紛争では、誰が敵なのか?

これが恒久戦争の永続的な問題なのだ。これはまた、恒久戦争設計の鍵となる特性なのだ。敵が漠然としているので、米国の軍国主義を飯のタネにする請負業者、官僚、政治家にとって願ってもない喜ばしい事態――紛争が20年近くも続き、70か国以上に拡散する状況が可能になったのだ。海兵隊の伝説的な将軍、スメドリー・バトラーがいうように、戦争はいかがわしい商売だ*としたら、恒久戦争はこれまでで最も長いペテン騒ぎのひとつである。

しかしまた、敵が漠然としていると、ある種の課題が生じる。北ヴェトナムの場合、地図を広げて、爆撃箇所を選ぶ。ドローン攻撃に恰好な標的の候補を特定するために、世界全体の膨大な量の情報をふるいにかけるのは、まったく別物だ。敵がどこにでもいる場合、標的特定はあまりにも労働集約的な仕事になる。ここで、AI――あるいは、より正確には機械学習――が登場する。機械学習は、恒久戦争の面倒で時間ばかりかかる側面、殺す人間の選別を自動化するのに役立つ。

ペンタゴンのプロジェクト・メイヴァン[maven=玄人、熟練者]はすでにこの着想を実行に移している。メイヴァン、またの名をアルゴリズム戦闘職能横断チームは最近、Googleの関与をめぐり、従業員の反乱を巻き起こして、大見出しニュースのネタになった。メイヴァンは軍の「経路先導」AIプロジェクトである。その初期段階は、ドローン撮影映像を精査して、爆撃する価値があるかもしれない人物、車両、建物を特定するのに役立つ機械学習を用いる。

プロジェクト指揮官、ジャック・シャナハン中将は、「われわれは、フルモーション[30フレーム/秒]ヴィデオを閲覧し、一度に67891011時間、スクリーンを見つめるアナリストたちを抱えております」という。メイヴァンのソフトウェアはその仕事を自動化し、その所見を人間に引き継ぐ。今までのところ、大成功であり、ソフトウェアは中東とアフリカの6か所に達する戦闘区域で配備されている。その目標は、やがてドローンそれ自体にソフトウェアを搭載することであり、そうなればドローンがリアルタイムで標的の位置を特定できるようになる。

このテクノロジーは精度を向上させないので、民間人の犠牲者を減らさないなんてことがあるのだろうか? これは、ペンタゴンとシリコン・ヴァレイ両側のお偉方がメイヴァンのようなプロジェクトとの自分たちの関わりを守るために仕組むありふれた論法である。「アメリカのコード」創立者、ジェン・パルカ*は、それを「鋭いナイフ」vs「鈍いナイフ」と言い表しており、よく切れるナイフは軍が人命を救うのに役立つというわけである。
*フルネームは、Jennifer Pahlka=ジェニファー・パルカ。参照サイト:Codefor Ibaraki(コード・フォー・イバラキ)……いっしょに考え、みんなでつくる。コードでまちを便利にする。

しかしながら、兵器化AIの場合、問題のナイフは特に鋭いわけではない。人間による監視が、欠陥や偏見のあるアルゴリズム――黒い顔を認識できなかったり、警察力行使や刑事訴訟判決で人種偏見を増長したりするアルゴリズムに丸投げされたときに起こる事態のホラー物語には事欠いていない。わたしたちは本当に、それと同類のような、頭に爆弾を落とされる人間を決定するテクノロジーをペンタゴンに使ってもらいたいのだろうか?

だが、アルゴリズム戦争にまつわる人道論のもっと深刻な問題は、米国軍が善意の戦力であるという思い込みである。世界中の何百万もの人びとは異議を申し立てるだろう。イラクとシリアにおける米軍と同盟軍の攻撃は2017年だけでも、6,000人に達する大勢の民間人を殺した。このような数字は、あちこち少数の正直者の間違いとは、とても言えず、「巻き添え被害」に対する体系的な無関心を表している。米国政府はまさしく、付加価値の高い標的を殺すつもりで、結婚式など、民間人の集会を繰り返し爆撃してきた。

おまけに恒久戦争の時代では、民間人と戦闘員の線引きは極めてあいまいである。The InterceptWikipediaインターセプト]の報告によれば、米軍は「標的を定めた」攻撃で殺した人間はだれでも、たとえ標的でなかったとしても、「行動中に殺された敵」のラベルを貼るという。米軍とCIAが実施した、いわゆる「標識攻撃」も、戦闘員の概念を用いて同じようなトリックをもてあそんだものだ。これは、人物特定は不詳なままでも、ある種の「標識行動」の外見にもとづいて戦闘員と疑われた――つまり、特定地域にいる戦闘適齢男性というのと同じように曖昧でありうる基準で選別された個々人に対するドローン攻撃である。

言いかえれば、問題は道具の品質ではなく、それを振りかざす組織にある。そして、AIはその組織をさらに残酷にするだけだ。恒久戦争は米国にどこにでも敵を見るようにと要求する。AIは、いっそう迅速に彼ら敵を見つけると約束し――まるでAIが敵と考えられると受け取る人間のすべてが(機密指定された)機械学習モデルが敵対行動と関連づける行動パターンをさらけだしているかのようだ。これをビッグ・データによる死と呼ぼうではないか。

AIはまた、全米最大手の企業が恒久戦争を長引かせることで稼がせてもらえるので、恒久戦争をなおいっそう永続させる可能性がある。シリコン・ヴァレイは常に米国軍と密接なつながりを維持してきた。だが、アルゴリズム戦争は、軍産複合体にいっそう深くビッグ・テクノロジーを埋めこみ、ジェフ・ベゾス[アマゾンCEO]のような億万長者たちに恒久戦争が永遠に継続することを確かなものにしようとする強力な動機付けを与える。敵は見つかるだろう。金は儲かるだろう。

【クレジット】

The Guardian, “Weaponised AI is coming. Are algorithmic forever wars our future?” by Ben Tarnoff, posted on October 11, 2018 at https://www.theguardian.com/commentisfree/2018/oct/11/war-jedi-algorithmic-warfare-us-military?CMP=share_btn_tw.

【関連記事】

2017822日火曜日
映画『ロボコップ』2014年リメイク版に登場する殺人ロボット。公開書簡は、「自律型殺傷兵器は、武力紛争において、かつてないほど大規模で、人間に理解不能な速さの戦闘を可能にします」と指摘する。Photograph: Allstar/Studio Canal/Sportsphoto Ltd./Allstar
「開発されるなら、自律型殺傷兵器は、武力紛争において、かつてないほど大規模で、人間に理解不能な速さの戦闘を可能にします。この兵器は、テロ攻撃に用いる武器、独裁者やテロリストが無防備な人口集団に対して使用する武器、望ましくない形で振る舞うようにハッキングされる武器になる可能性があります。
「行動するための時間は限られています。一度このパンドラの箱を開けば、蓋を閉じるのは困難です」




0 件のコメント:

コメントを投稿