AutoMedia/ニュース
ニュースに戻る
ニュースニュース

Anthropicの次期モデル「Mythos」がCMSの設定ミスで流出。AI安全を掲げる企業が自社データを守れなかった

Anthropicが未発表のAIモデル「Claude Mythos」の詳細をCMS設定ミスで約3,000件の内部アセットと共に流出させた。推論・コーディング・サイバーセキュリティで過去最高性能とされる新モデルの存在が明らかに。

AutoMedia Desk
2026/03/28 17:06
3分
更新 2026/03/28 17:06
Anthropicの次期モデル「Mythos」がCMSの設定ミスで流出。AI安全を掲げる企業が自社データを守れなかった

Anthropicが未発表のAIモデル「Claude Mythos」の詳細を、自社CMSの設定不備で外部からアクセス可能な状態にしていた。Fortuneが3月26日に報じた。

ケンブリッジ大学のサイバーセキュリティ研究者Alexandre Pauwelsの分析によると、約3,000件の未公開アセット——ブログ下書き、画像、PDF——がログイン不要で取得できる状態だった。Anthropicはこの問題を「CMS設定のヒューマンエラー」と説明している。

流出した情報には、Mythosと呼ばれる次期モデルの存在が含まれていた。Anthropicは指摘を受けた後、このモデルが「推論、コーディング、サイバーセキュリティにおいて過去最高の性能を持つ」と認めた。早期アクセス顧客への試験提供中だという。同社はこれを「ステップチェンジ(段階的飛躍)」と表現した。

さらに、CEOのDario Amodeiが出席予定の欧州企業CEO向け招待制リトリートの情報や、従業員の育児休暇に関する画像も含まれていた。

問題の本質はCMSのデフォルト設定にある。 アップロードされたアセットは明示的に非公開に設定しない限り、すべて公開状態になる仕組みだった。

Anthropicは「コアインフラ、AIシステム、顧客データ、セキュリティアーキテクチャには影響していない」としているが、AI安全を企業理念に据える同社にとって、セルフホストのCMSすら適切に構成できなかった事実は皮肉な結果だ。

Anthropicは「Claude、Cowork、その他のAIツールとは無関係」と強調した。だが業界では、AIコーディングツールの普及がこうした脆弱性の発見を容易にしているとの指摘もある。Claude Codeのようなツールで公開データストアを自動スキャンすれば、命名規則のパターンを人間より遥かに速く検出できる。

過去にはApple、Nintendo、Googleも同様のリーク事案を起こしている。ただし「AI安全」を看板に掲げる企業が、自社の情報管理で初歩的なミスを犯した点は、競合他社にとって格好の攻撃材料になる。

この記事が役に立ったら共有してください

Premiumプレミアム限定
関連記事