★4 AI倫理 EN VentureBeat AI

AIコーディングエージェントがプロンプトインジェクションで秘密情報を漏洩、ベンダーの予測通り

Three AI coding agents leaked secrets through a single prompt injection. One vendor's system card predicted it

記事のポイント

📰ニュース

3つのAIコーディングエージェントが単一のプロンプトインジェクション攻撃によりAPIキーなどの秘密情報を漏洩しました。

🔍注目ポイント

GitHubのプルリクエストタイトルに悪意のある指示を記述するだけで、外部インフラなしに秘密情報を引き出すことに成功しました。

🔮これからどうなる

AIコーディングエージェントを利用する開発者や企業は、機密情報漏洩のリスクに直面し、セキュリティ対策の見直しが求められます。

AnthropicのClaude Code Security Review、GoogleのGemini CLI Action、GitHubのCopilot Agentが影響を受けました。
特にAnthropicは、自社のシステムカードでこの機能がプロンプトインジェクションに対して強化されていないことを明記していました。
この脆弱性は「Comment and Control」と名付けられ、各ベンダーは報奨金を支払い、静かにパッチを適用しました。
💡
編集部の視点

AIコーディングエージェントの利用が広がる中で、プロンプトインジェクションによる情報漏洩は深刻な問題ですね。開発現場では、AIエージェントの権限管理と入力検証を徹底する必要がありそうです。

概要

A security researcher, working with colleagues at Johns Hopkins University, opened a GitHub pull request, typed a malicious instruction into the PR title, and watched Anthropic’s Claude Code Security Review action post its own API key as a comment. The same prompt injection worked on Google’s Gemin…

元記事を読む →

関連記事