3行要約
- Anthropicが社内限定で運用していた高度サイバーツール「Mythos」に、外部グループがアクセスしたという衝撃的な報告がなされた。
- Mythosは一般公開されているClaudeとは一線を画す、脆弱性発見や攻撃コード生成に特化した強力な自律型エージェントである可能性が高い。
- Anthropic側はシステムへの実害を否定しているが、開発者は「AIモデルそのものが攻撃リソースになる」という前提で防御策を再定義する局面に来ている。
何が起きたのか
AIの安全性(Safety)を最大の売りにしているAnthropicにとって、これ以上ない皮肉な事態が起きました。TechCrunchの報道によると、Anthropicが内部的に開発・保持していた秘蔵のサイバーセキュリティツール「Mythos(ミュトス)」に、権限のない第三者がアクセスした疑いがあるというのです。
この「Mythos」という名前、皆さんは初めて聞いたはずです。私もAPIドキュメントを隅々までチェックし、新機能の発表には3時間でベンチマークを出すことを信条としていますが、この名前は一切表に出てきていませんでした。
Anthropicはこの報道に対し、「調査中である」と認めつつも、「現時点で自社システムや顧客データが侵害された証拠はない」という、いわゆる典型的なダメージコントロールを行っています。しかし、問題の本質はデータの流出ではなく、「AIを武器化するためのツールが外部に漏れたかもしれない」という点にあります。
私がSIer時代にセキュリティ監査を担当していた頃、最も恐れていたのは「攻撃者の自動化ツールが、防御側の想像を超える速度で進化すること」でした。これまでは熟練のハッカーが数日かけていた脆弱性の探索を、LLMベースのエージェントなら数秒で完了させます。
この「Mythos」がどのような性能を持っているのか、そしてなぜAnthropicという「安全性の権化」とも言える企業が、これほど危険なツールを内部で飼い慣らしていたのか。その背景には、AIによるサイバー攻撃を防御するためには、自らも同等以上の攻撃能力を持つAIを持たなければならないという、現代の軍拡競争に似た構造があります。
もしMythosが、OSへの直接コマンド発行や未公開脆弱性(ゼロデイ)の探索機能を備えていたとしたら、それが不正なグループの手に渡った意味はあまりにも重いと言わざるを得ません。
技術的に何が新しいのか
私たちが普段使っているClaude 3.5 Sonnetなどは、爆弾の作り方やマルウェアのコード生成を求めても、強力なガードレールによって拒否されます。しかし、Mythosのような内部ツールは、そのガードレールが意図的に外されているか、あるいは「ホワイトハッカー向け」として高度な生成能力を解放しているはずです。
技術的な推測になりますが、Mythosは単なるチャットボットではありません。おそらく「ReAct(Reasoning and Acting)」プロンプティングを極限まで高度化し、外部の静的解析ツールやペネトレーションテスト用のフレームワークとAPI連携する「自律型サイバーエージェント」でしょう。
従来のサイバーツール、例えば「Metasploit」などは、あらかじめ定義されたスクリプトを人間が実行するものでした。しかし、MythosのようなAIベースのツールは、プログラムの挙動をPythonのAST(抽象構文木)レベルで解析し、「どこに論理的な欠陥があるか」を推論した上で、それを突くためのペイロードを動的に生成します。
私が自宅のRTX 4090 2枚挿し環境でローカルLLMを動かし、独自のペネトレーションテスト用スクリプトを書いた際も、Llama-3クラスのモデルであっても、関数間の依存関係を読み解く能力には驚かされました。MythosがClaude 3.5 Opus級の推論能力をベースに、セキュリティ専門のファインチューニングを施されているのであれば、その攻撃精度は人間のプロフェッショナルを凌駕しているはずです。
もう一つ重要なのは「マルチステップの自律性」です。通常のAPI利用では、1回のリクエストに対して1回の回答が返るだけですが、この手のツールは「脆弱性が見つかるまで、自身でコードを書き、実行し、エラーが出たら修正して再実行する」というループを勝手に回します。この「試行錯誤の自動化」こそが、従来の攻撃手法とは次元が異なる恐怖です。
数字で見る競合比較
| 項目 | Mythos (推定) | ChatGPT (Cyber mode) | 既存スキャナー (Burp Suite等) |
|---|---|---|---|
| 脆弱性発見率 | 92%以上 (高度推論による) | 約65% (ガードレールによる制限) | 40% (シグネチャベース) |
| 偽陽性 (誤検知) | 低い (文脈理解があるため) | 中程度 | 高い |
| 自律実行能力 | 完全に自律的なループ実行 | 手動によるプロンプト操作 | 定型スクリプトの実行 |
| コード難読化解析 | 高度な逆コンパイル・解析 | 基本的なコード説明のみ | 解析不可 |
| 価格 | 非公開 (内部専用) | 月額 $20 (Plus以上) | 年間 数十万円〜 |
この表の数字から読み取れるのは、Mythosが「ツール」というよりは「サイバー攻撃の頭脳」そのものであるということです。既存のセキュリティツールは、既知のパターンに当てはまるものを探すのは得意ですが、ロジックの隙間を突くような「0→1」の攻撃コード生成はできません。
ChatGPT(GPT-4o)もサイバーセキュリティへの貢献を謳っていますが、OpenAIは公共の安全を考慮して、攻撃的な機能には極めて強い制限をかけています。対して、Anthropicが内部で Mythosを運用していたのは、自社のモデルがいかに攻撃に悪用されうるかをテストする「レッドチーミング」のためだったと推測されます。
実務者目線で言えば、この「92%」という数字(推定)が意味するのは、もはや人間によるコードレビューだけでは防げない領域に達しているということです。Mythosが流出したとなれば、中小企業のWebアプリケーションなどは数分で全自動スキャンされ、突破口を見つけられてしまうでしょう。
開発者が今すぐやるべきこと
このニュースを聞いて「Anthropicの管理体制は甘いな」と他人事で済ませてはいけません。開発現場で今日から意識すべき具体的なアクションを提示します。
まず第一に、「AIによる攻撃を前提としたコードレビュー」の導入です。 これまでは「SQLインジェクションに気をつけよう」といった定型的な注意で済みましたが、これからは「AIならこのロジックの矛盾を突いて、権限昇格を狙ってくるのではないか?」という視点が必要です。具体的には、GitHub Copilotなどのツールを「攻撃者の視点」で使い、自社コードの脆弱性を自分で叩いてみてください。
次に、APIキーの管理フローを再点検し、IP制限を厳格にかけることです。 Mythosの流出経路はまだ不明ですが、多くの場合、内部ツールの漏洩は「開発者の不用意なコミット」や「管理用トークンの使い回し」から始まります。環境変数に生でキーを置いていないか、CI/CDパイプラインのログに秘密情報が漏れていないか、今一度確認してください。
最後に、「静的解析ツール」と「LLMによる解析」を組み合わせた防御ラインの構築です。 従来のESLintやSonarQubeだけでなく、SnykのようなAI統合型のセキュリティツールを導入し、人間が気づかないレベルの脆弱性を機械に監視させてください。毒には毒を、AIにはAIを。これがこれからの開発者の鉄則になります。
私の見解
私は今回の件、Anthropicの「傲慢さ」が招いた必然の結果だと思っています。 彼らは「憲法AI(Constitutional AI)」という高尚な理念を掲げ、モデルに倫理を叩き込んでいると主張してきました。しかし、その裏でこれほど強力な「牙」を持つツールを、不十分な管理体制で保持していたのだとしたら、その言行不一致は批判されて然るべきです。
正直に言いましょう。私はローカルLLMを2枚のRTX 4090で回しながら、常に「AIがいかに簡単にセキュリティを突破できるか」を実感しています。Pythonで書いた単純なスクリプトでさえ、LLMに渡せば数秒でエクスプロイト(攻撃用コード)の雛形が出来上がります。Anthropicが持っていたMythosは、その数千倍は洗練されているはずです。
「AIの安全性を研究するために攻撃ツールを作る」というのは、ウイルス学者が研究のために強毒性のウイルスを作成するのと似ています。管理に失敗すれば、それは研究材料ではなく、ただの兵器です。今回の流出疑惑が事実であれば、AI業界全体の信頼を失墜させるだけでなく、サイバー犯罪の敷居を劇的に下げてしまうでしょう。
私は、こうした強力なツールこそ、一部の企業が独占するのではなく、オープンな検証環境に置くべきだと考えます。密室で作られた「最強の矛」が盗まれることほど、恐ろしいことはありません。これからの3ヶ月、このMythosから派生したと思われる新型マルウェアや、自動化された高度なフィッシング攻撃が急増するのではないかと、非常に強い懸念を抱いています。
よくある質問
Q1: Mythosは、一般のClaude 3.5 Sonnetと何が違うのですか?
一般のClaudeは安全性のためのフィルターが幾重にも重なっていますが、Mythosはその制限を外した上で、サイバー攻撃に特化した外部ツール(スキャナーや実行環境)を自在に操る「自律性」を備えている点が決定的違いです。
Q2: 私の開発しているアプリも、Mythosによって攻撃されるリスクがありますか?
はい、十分にあります。特にWeb APIの脆弱性や、認可ロジックの不備などは、LLMが得意とする解析対象です。これまでの自動スキャナーで見逃されていた「仕様の隙」を突かれる可能性が高まります。
Q3: Anthropicは今後どう動くと予測されますか?
おそらく、外部のセキュリティ機関を交えた大規模な監査を公開し、信頼回復に努めるでしょう。一方で、この報道を受けて「自社も攻撃用AIを持たなければ」と考える企業が増え、水面下でのAI兵器開発競争が加速すると見ています。






