
Anthropicが米国防総省(ペンタゴン)との2億ドルの契約を白紙に戻し「供給網リスク」に指定された事実は、AI開発者が「どのモデルを担ぐか」という選択に、技術性能以上の政治的・倫理的リスクが入り込んだことを意味しています。
3行要約 Anthropicがモデルの軍事転用や監視目的の利用制限を譲らず、国防総省との2億ドルの契約が決裂し「供給網リスク」に認定された。 規制の隙間を縫って契約を奪取したOpenAIは、軍事利用解禁後にChatGPTのアンインストール数が295%急増するというユーザーの猛反発に直面している。 開発者は今後、性能だけでなく「企業のガバナンス体制」を技術選定の重要指標に含め、特定のプロプライエタリなモデルへの依存を避けるマルチモデル戦略が必須になる。 📦 この記事に関連する商品 ...