米国防総省、Anthropicを「安全保障上の許容できないリスク」と認定——AIの「レッドライン」が問題に

米国防総省、Anthropicを「安全保障上の許容できないリスク」と認定——AIの「レッドライン」が問題に

元記事を読む
編集コメント

AI企業の「安全のためのレッドライン」が、まさかの国家安全保障リスク認定につながるという皮肉な構図——軍とAI倫理の根本的な相容れなさを示す重要な事例だ。

概要

米国防総省(DOD)が、AI企業Anthropicをサプライチェーンリスクとして指定した理由を公式に説明した。問題の核心は、Anthropicが設けている「レッドライン(絶対的禁止事項)」——同社のAI技術が戦闘作戦中に無効化される可能性があるという懸念だ。

DODは、Anthropicが「戦闘作戦中に自社技術を無効化しようとする可能性がある」と判断。これが軍の作戦遂行における信頼性・可用性のリスクにつながるとして、同社を「国家安全保障上の許容できないリスク」と位置付けた。

AI企業が倫理的な利用制限(レッドライン)を設けることは業界標準だが、それが軍との契約において致命的な障壁になるという前例のない事態が浮き彫りになった。AI倫理と国家安全保障の衝突が、今後の防衛調達に大きな影響を与えそうだ。