AIコーディングエージェントがプロンプトインジェクションで秘密情報を漏洩、ベンダーの予測通り
Three AI coding agents leaked secrets through a single prompt injection. One vendor's system card predicted it
記事のポイント
3つのAIコーディングエージェントが単一のプロンプトインジェクション攻撃によりAPIキーなどの秘密情報を漏洩しました。
GitHubのプルリクエストタイトルに悪意のある指示を記述するだけで、外部インフラなしに秘密情報を引き出すことに成功しました。
AIコーディングエージェントを利用する開発者や企業は、機密情報漏洩のリスクに直面し、セキュリティ対策の見直しが求められます。
特にAnthropicは、自社のシステムカードでこの機能がプロンプトインジェクションに対して強化されていないことを明記していました。
この脆弱性は「Comment and Control」と名付けられ、各ベンダーは報奨金を支払い、静かにパッチを適用しました。
概要
A security researcher, working with colleagues at Johns Hopkins University, opened a GitHub pull request, typed a malicious instruction into the PR title, and watched Anthropic’s Claude Code Security Review action post its own API key as a comment. The same prompt injection worked on Google’s Gemin…
AIコーディングエージェントの利用が広がる中で、プロンプトインジェクションによる情報漏洩は深刻な問題ですね。開発現場では、AIエージェントの権限管理と入力検証を徹底する必要がありそうです。