Anthropic Mythos に「想定可能な侵入」が起きた——「公開できないほど危険」と言われた最先端AIの基礎

BASIC SYNC

「公開できないほど危険」なAIに、しれっと不正アクセスがあった

2026年4月23日、Anthropicが「Claude Mythos」というAIモデルの一部企業向け限定提供を発表した。Anthropicは数週間にわたり「サイバーセキュリティ能力が高すぎて公開リリースできない」と説明してきたモデルだ。ところが翌日、Bloombergが報道した内容で雲行きが変わる。発表初日から「権限のない少数のユーザーグループ」がMythosにアクセスしていた。Anthropic自身が事実を認め、調査中であることを明らかにした。

基礎解説:Claude Mythosとは何か

Mythosは、サイバーセキュリティ用途に特化したClaudeシリーズの最新モデルだ。Anthropicは公式に「セキュリティの分水嶺となる瞬間(watershed moment for security)」と表現。主要なすべてのOSとWebブラウザに脆弱性を発見したと発表している。

Mozilla CTOのBobby Holleyは、MythosがFirefox 150において数百のバグを発見したと公にコメント。「攻撃者に対して防御側が完全勝利するチャンスを与え得る」とまで述べている。米NSAなど政府機関にも提供が始まっている一方、米国のサイバーセキュリティ機関CISAには到達しておらず、ロールアウトの優先順位が話題になった。

Anthropicは「サプライチェーンリスク認定」を受けている企業でもあり、本来CISAは慎重に扱う対象だ。しかしNSAなどへの提供が先行していることは、政治的な敏感さを伴う。

侵入は「高度なハック」ではなく「教養ある推測」

もうひとつ重い事実が、侵入の手口だ。Bloombergの取材によると、不正アクセスは次の3要素の組み合わせで成立した。

1. Mercor の情報漏洩:AIトレーニングデータを扱うMercor社が以前侵害され、Anthropicの他モデルに関する情報が外部に流出していた。
2. 教養ある推測:その流出情報をもとに、Mythosのオンライン上の所在を「推測」した。
3. インサイダー的なアクセス:グループの一人が、Anthropicモデル評価の業務委託契約者だったため、関連情報に接していた。

セキュリティ研究者のLukasz Olejnik氏は「過去20年、業界が日常的に対処してきたタイプの失敗」と評している。RUSI(英国王立軍事研究所)のPia Hüsch研究員は「人間が常に最も弱い環(weakest link)になる」と一般論を引きつつ、「重大な被害が出なかったのは正直に言って運の要素もある」と指摘した。

つまり、Anthropicが対策できなかった失敗ではない。Mercorの侵害情報が既に世に出ていた以上、想定すべき経路だった。にも関わらず、Anthropicはモデルの利用を「ログ・追跡できる」体制を持っていながら、リアルタイム監視が機能しなかった。

なぜ40〜50代経営者にとって重要なのか

このニュースは「米国のAI企業内輪話」に見えるが、日本企業の経営判断にも直接効く論点が3つ含まれている。

第1に、最先端AIベンダーの「自称セキュリティ」を信じきれない。Anthropicは安全性を企業ブランドの中核に置いてきたが、想定可能なシナリオを見落とした。SaaS型AI契約を結ぶとき、ベンダー側の運用監視能力を独自に検証する必要がある。

第2に、サプライチェーン攻撃は1社の問題ではない。今回はAnthropic本体ではなく、関連会社Mercorが侵害された情報がトリガーになった。自社が直接契約していない、契約先の取引先(N+2層)の情報漏洩が、自社のリスクに跳ね返る構図だ。

第3に、「危険すぎて公開できないが特定先には提供する」モデルへの倫理的・実務的問いが立つ。NSAには出し、CISAには出さない。これは公的な議論を経た選定ではなく、Anthropic単独の判断だ。日本企業がこのようなモデルへのアクセス権を巡って米国系企業と契約するとき、契約条件と政治的位置を慎重に確認する必要がある。

SYNCONの視点:「最先端の安全」は買えるが「最先端の運用」は買えない

Mythos事件の本質は、Anthropicの「能力過信」と言える。技術的な能力は本物だ。しかしその能力を運用する側のオペレーション体制が、能力に追いついていなかった。

これは日本企業がAIベンダーと契約するときの観察視点として有用だ。「このAIは何ができるか」だけでなく、「このAIを提供している会社の運用監視は何ができるか」を、契約前に確かめる。Anthropicがログ追跡能力を持ちながら不正アクセスを検知できなかった事実は、最高水準のAI企業でさえこの種の失敗をする、という1つのデータポイントになる。

来週の取引先AIベンダーとのミーティングで、SOC2レポートの最新版とインシデント対応プロセスを「念のために」確認する1問を入れる。これだけで、自社が抱えるベンダーリスクの解像度が一段上がる。

情報ソース:
・Bloomberg「Wall Street Week | Anthropic Cybersecurity Risk」(2026年4月24日)
・The Verge「Anthropic’s Mythos breach was humiliating」(Robert Hart、2026年4月23日)
・The Verge「Anthropic’s most dangerous AI model just fell into the wrong hands」

SYNCON FREE DIAGNOSIS

あなたの業務に最適なAIツール、
まだ見つかっていませんか?

8つの質問に答えるだけ。約2分で完了。
SYNCON編集部が、あなた専用のAI活用プランをお届けします。

無料AI活用診断を受ける →

コメント

タイトルとURLをコピーしました