AIエージェントが機能するには認証情報が必要です。LLMプラットフォームで認証され、データベースに接続し、SaaS APIを呼び出し、クラウドリソースにアクセスし、数十の外部サービス全体を調整します。すべての統合ポイントにはIDが必要です。ほとんどの組織がこれを不十分に処理しており、その証拠はコードに残されています。
GitGuardianの機密情報の拡散状況レポートによると、2025年のGitHubのパブリックコミットで28,649,024件の新しい秘密情報が流出し、前年比34%の増加で、レポート史上最大の年間上昇を記録しました。
根本的な原因の1つは認証設計です。どの認証情報タイプが選択されるか、どの範囲を持つか、どのくらい有効か、どこに保存されるかです。一方、AIはより多くの管理が必要な認証情報を作成し、それらの認証情報が流出するより多くの成果物を生成しています。
AI支援コードは認証情報の流出率を2倍にする
認証ガバナンスがAIの速度に対応できないことを示す最も明確な信号は、AI支援コミット自体から来ています。GitGuardianは、2025年にClaude Codeで共同作成されたコミットが、公開GitHubの基準率の約2倍で秘密情報を流出させたことを発見しました。
コード生成の速度が上がると、認証情報の作成も同じように速度が上がるため、1つのアシスタントが特に不注意であるということではありません。開発者はプロジェクトをスキャフォールドし、統合を配線し、APIコールをテストし、認証情報がどこに存在すべきか、誰がそれを所有しているか、またはそれがどのようにローテーションするかを誰も尋ねる前に、動作しているプロトタイプをコミットします。
AI生成コードはしばしば本番環境対応に見えますが、実際にはそうではなく、そのギャップはハードコードされたAPIキーで埋められています。
統合速度は10倍増加する可能性がありますが、認証ガバナンスは同じ速度でスケールしません。開発者の手動規律に依存する認証モデルはAIの速度で失敗します。
マルチプロバイダ統合は認証情報の表面を増やす
レポートは2025年に120万以上のAIサービス秘密情報が流出したことを発見し、前年比81%の成長を示しています。成長率が最も高い上位15の流出秘密情報タイプのうち12は、AIサービスでした。これはチームが実際にどのように構築しているかを反映しています。複数のプロバイダを備えた速度で、認証ガバナンスよりも動作するコードを優先します。
マルチプロバイダ統合は標準的な実践になりつつあります。チームは回復力と能力マッチングのためにいくつかのLLMプラットフォームと統合します。1つのAPIを通じて複数のモデルへのゲートウェイとして機能するOpenRouterというサービスは、認証情報の流出が前年比48倍以上成長しました。AIプロジェクトは現在、1つにコミットするのではなく、複数のモデルプロバイダに日常的に依存しています。
より多くのプロバイダは、プロジェクトごとに複数の認証情報タイプ、より多くの保護する統合表面、そしてスタティックAPIキーが増殖するより多くの機会を意味します。個々のモデルプロバイダは同様のパターンを示しました。Deepseekなどの新しい参入者は爆発的な成長を見せた一方、確立されたプラットフォームは継続的な拡張を続けました。認証モデルはこのマルチサービスの現実に対応するために進化していません。
Hugging Faceのようなオープンモデルプラットフォームは、前年からほぼ変わらず、年間130,000件を超える流出量を維持しています。その安定性は、チームが基本的な問題を修正していないことを意味しています。チームがオープンソースモデルを効率的に実行するのを助ける推論プラットフォームは急速に成長していますが、それ以前に存在していたのと同じ安全でない認証情報パターンを採用しています。
フルAIスタックはどこでも認証が必要
AIシステムはオーケストレーション、監視、データサービス、検索、および検索を必要とする完全なアプリケーションです。各レイヤーは認証が必要であり、各レイヤーは同じガバナンスギャップを示しています。
AI向けに設計されたデータベースプラットフォーム、特にベクトル検索をサポートするものは、流出率が前年比ほぼ1,000%ジャンプしました。これらのプラットフォームは動作するアプリケーションを素早く構築することを容易にしていますが、これはちょうど開発者が適切にスコープされたサービスアカウントではなく、便利な認証情報に手を伸ばすときです。
開発者がモデルをツールとワークフローにチェーンするのを支援するオーケストレーションフレームワークは、流出率がおよそ2倍になりました。実験追跡とモデル監視プラットフォームは同様のパターンを示しました。流出したすべてのキーは、適切なスコーピングよりも速度を優先した統合にマップされています。
検索および検索レイヤーは爆発的な成長を示しました。検索APIを通じて質問をルーティングし、モデルにコンテキストをフィードする、またはAIシステムが参照できるウェブスタイル検索を提供するサービスはすべて流出認証情報に劇的に高いレートで表示されました。AIエージェント向けのボイスインフラストラクチャプラットフォームは近く800%成長し、AIが音声サポートと販売電話などの顧客向けエクスペリエンスに移行していることを示しており、各統合は日常的なリポジトリに新しい認証情報をもたらします。
チームがオーケストレーションをゼロから書くことなくエージェントシステムを構築するのに役立つエージェント構築プラットフォームは、500%から600%の間の成長率を示しました。これらのプラットフォームは特に危険です。なぜなら、それらのアクセストークンはしばしば広いアカウントレベルの権限を持ち、1つのサービスだけでなく、委任された統合のネットワーク全体をアンロックするからです。
これらすべてのサービス全体のパターンは一貫しています。便利な認証情報は統合中に作成され、適切にスコープされることはほとんどなく、AIシステムが秘密が歴史的に表示される正確な成果物を生成するときに流出します。
新しい標準は安全でないパターンを成文化する
モデルコンテキストプロトコルに関するGitGuardianの研究は、新しい統合標準がどのように安全でない認証実践を広がることができるかを示しています。MCPは、LLMを外部ツールとデータソースに接続する方法として2025年の初期に出現しました。この研究は、MCP設定ファイルで公開された24,008の一意の秘密情報を発見しました。
流出した認証情報タイプはAIサポートレイヤーに直接マップされます。検索API、検索サービス、データアクセス、および外部統合です。GoogleAPIキーは流出した秘密情報の約20%を占め、PostgreSQL接続文字列は14%で、検索および検索サービスが残りを占めています。
新しい標準は例を通じて広がります。開発者はサンプル設定をコピーし、適応させて展開します。これらの例がローカルファイル内のハードコードされた認証情報を通じた認証を示す場合、そのパターンは事実上の実装になります。MCPは一意に欠陥がありません。それは典型的です。新しい統合サーフェスは、誰かがより良いアプローチを強制するまで、設定ファイル内のスタティック秘密をデフォルトにします。
AI認証ガバナンスが実際に必要とするもの
検出は流出が発生した後にそれらをキャッチします。修正はアップストリームです。第1に認証情報が安全でなく作成されるのを防ぐ認証設計です。
AIエージェントは管理された非人間的アイデンティティとして扱われる必要があります。各エージェントは独自のユニークなアイデンティティ、スコープされた権限、割り当てられた所有権、およびIAM再認証プロセスへの含有が必要です。共有認証情報は属性を排除し、インシデント対応能力を崩壊させます。マシンアイデンティティはほとんどのエンタープライズで人間アイデンティティを45:1上回っており、AIはそれに対応するガバナンスの成熟度なしでその比率を加速しています。
スタティック秘密情報は短寿命の認証情報に置き換える必要があります。SaaS統合の場合、スコープされた委任されたアクセスを備えたOAuth 2.1がデフォルトである必要があります。クラウドワークロードの場合、ワークロードアイデンティティフェデレーションまたは管理されたアイデンティティはスタティック認証情報ストレージを完全に排除します。APIキーは、より強力なメカニズムが存在しない場合にのみ使用され、厳密なコントロール下でのみ使用される必要があります。ボールトサポートされたストレージ、エージェントごとのユニークキー、強制的な有効期限、および露出の継続的な監視です。
認証情報のライフサイクルはカレンダーベースではなくイベント駆動である必要があります。ローテーションは展開の更新、構成の変更、スコープの変更、または異常検出でトリガーされるべきです。すべての自律的なシステムは、テストされた取消機能を備えている必要があります。包含されたブリーチとシステミックな侵害の違いは、認証情報を数分または数時間で取り消すことができるかどうかです。
GitGuardianのポリシー違反データは支配的な問題を示しています。長寿命の秘密情報は違反の60%を占めます。内部流出秘密情報は17%、重複秘密情報は16%です。主な問題はライフサイクルの過失です。秘密情報は長くとどまり、広く広がり、ガバナンスされるより速くコピーされます。
速度ギャップ
AIはソフトウェアをより簡単に生成することができます。ソフトウェア生成の速度が上がると、アイデンティティ作成も同じように加速します。アイデンティティがより速く増殖するとき、秘密情報はガバナンスメカニズムが適応できるより速く広がります。
セキュリティチームは基本的な質問に答える必要があります。このアイデンティティを作成したのは誰ですか?何にアクセスできますか?いつ期限切れになりますか?ほとんどの組織は今日のAIエージェントに対してこれらのいずれにも答えることができません。これら2900万件の流出秘密情報は、アップストリーム障害を表しています。便利のために作成された認証決定は、AI支援開発によってスケールされます。
AI支援コミットの2倍の流出率は、スキャニングギャップでも開発者トレーニングギャップでもありません。それは建築的です。現在の認証モデルは、手動ガバナンスタッチポイントを備えた人間のペースの統合を想定しています。AIはそれらの自然な遅れを排除します。組織はAI速度のための認証ガバナンスを再構築するか、または検出できるより速く認証情報リスクを蓄積するかのいずれかです。
翻訳元: https://www.helpnetsecurity.com/2026/04/14/gitguardian-ai-agents-credentials-leak/