AIコーディングエージェントのハッキング:攻撃者はモデルではなく認証情報を狙う
Claude Code, Copilot and Codex all got hacked. Every attacker went for the credential, not the model.
記事のポイント
AIコーディングエージェントのCodex、Claude Code、Copilotがハッキングされ、攻撃者はモデルではなく認証情報を狙いました。
AIエージェントが持つ認証情報が、人間によるセッションなしで本番システムにアクセスし、悪用される脆弱性が露呈しました。
企業がAIベンダーを承認する際、インターフェースだけでなく、その下のシステムと認証情報のセキュリティを再評価する必要が生じます。
AnthropicのClaude Codeでは、ソースコード流出や、50以上のサブコマンドで拒否ルールを無視する脆弱性が発見されました。
これらの攻撃は、AIエージェントが持つ認証情報を悪用し、人間による承認なしに本番システムにアクセスする共通のパターンを示しています。
概要
On March 30, BeyondTrust proved that a crafted GitHub branch name could steal Codex’s OAuth token in cleartext. OpenAI classified it Critical P1. Two days later, Anthropic’s Claude Code source code spilled onto the public npm registry, and within hours, Adversa found Claude Code silently ignored it…
AIコーディングエージェントの認証情報が狙われるのは、企業にとって大きな脅威ですね。開発者は、AIツールの利用におけるセキュリティ対策を強化する必要がありそうです。