コンテンツにスキップするには Enter キーを押してください

Vibe Codingのサイバーセキュリティ・バイブチェック

Modern conceptual art poster with ancient statue of bust of Venus

出典: Zoonar GmbH(Alamy Stock Photo経由)

Vibe coding(バイブコーディング)、つまり自然言語を使って大規模言語モデル(LLM)にコード生成を指示する行為が増加しています。

このプロセスをパッケージ化することを目的とした新興スタートアップやプラットフォームが、ここ数年で多数登場しています。例としては、Replit、Base44、Bolt.new、Googleの新しいOpalツールなどがあります。Vibe codingの有望な側面――アプリケーション開発の参入障壁を下げ、開発予算を拡張できる――はよく知られていますが、リスクや懸念も過小評価すべきではありません。

大企業がこのプロセスを使って正社員を解雇する可能性を考慮しなくても、AIの幻覚、プラットフォームへの過信によるコード監査の省略、セキュリティギャップがどこにあるかの洞察不足など、セキュリティリスクも考慮する必要があります。

Vibe codingに関する問題についてのニュースも増えています。あるベンチャーキャピタル投資家は、Replitを長時間使用する中で、アプリケーションが明らかに幻覚を起こし、「嘘をついたり、自身の機能を誤って説明したりしていた」と述べています。今週初め、WizはBase44において認可されていないユーザーがあらゆるアプリケーションに自由にアクセスできる脆弱性を発見しました(すでに修正済み)。また、Tracebitの研究者は、GoogleのリリースしたばかりのGemini CLI AIコーディングエージェントにおいて、デフォルト設定で攻撃者が管理するサーバーに機密データを流出させることができるセキュリティエクスプロイトの概念実証を公開しました。

これらの事例はいずれもAI支援によるコーディングの実践自体を否定するものではありませんが、Vibe codingを取り巻くセキュリティ問題の数と規模は、「この技術は本当に実用段階にあるのか?」といった複数の疑問を投げかけます。

アプリケーションセキュリティプロバイダーBlack Duckのデータエンジニアリング担当副社長、Drew Streib氏はDark Readingに対し、「Vibe codingはソフトウェア開発の方法における地殻変動だ」としつつも、それを定義する技術やツールはまだ初期段階にあると語ります。Streib氏は「Vibe codingは実験段階から本番環境へと急速に移行しており、企業は急速に進化するツールの変化に対応するため、これらのシステムの厳格なテストとセキュリティを確保し続けるプロセスを維持しなければならない」と指摘します。

LLM支援コーディングにおけるサイバーギャップとは?

Veracodeの「2025 GenAIコードセキュリティレポート」では、研究者が100のLLMを80の厳選されたコーディングタスクでテストした結果、AIモデルが45%の確率で安全でない実装を選択したことが判明しました。さらに悪いことに、時間の経過によるセキュリティの改善も見られませんでした。

テストされた4つのプログラミング言語のうち、Javaが最も悪い結果となり、安全なコーディングで71%の失敗率を記録しました。クロスサイトスクリプティング問題を防げなかった割合は86%にのぼります。

DevOpsセキュリティベンダーLegit Securityの共同創業者兼CTOであるLiav Caspi氏は、AI支援コードを取り巻くセキュリティ問題として、(レビューなしの)コード品質の疑問、古くて脆弱な依存関係、予測不能な挙動などを指摘しています。

AIは予測不能な挙動をするため、意図せずデータを漏洩させたり、ソースコードを共有したり、本番環境を直接変更したりすることがあります」とCaspi氏は述べます。「つい先週も、AIエージェントが顧客データを削除し(しかもそれについて嘘をついた)という話を聞きました。」

AIコンサルティング企業Modus Createのセキュリティディレクター、William Reynor氏はDark Readingに対し、最大の問題は、製品がセキュリティ脆弱性をプロジェクトに持ち込むことであり、それは典型的なOWASPトップ10のようなSQLインジェクションや、シークレット管理などに関するセキュリティガードレールの欠如などであると述べています。

「問題なのは、Vibe codingツールの利用に最も関心を持つ人々が、しばしばコードセキュリティについて最も知識がない層であることです」とReynor氏は語ります。

AIコーディングはセキュリティ本番運用に対応できるか?

LLMコーディング製品はすでに登場しており、今後も定着する可能性が高いです。最も重要な問いは、セキュリティの観点から見て、Vibe codingツールが市場投入に十分な準備ができているかどうかです。他の生成AIツールの初期バージョンと同様に、これらの製品は有用に見えますが、正しく活用する必要があります。

Reynor氏は、Vibe coding製品は「プロトタイピングやリスクの低い社内ツールには最適」だが、安全な本番開発の代替としてそのまま使うべきではないと述べます。「静的コードスキャンや依存関係チェックを実施し、生成されたコードの脆弱性テストも必要です」と彼は言います。「理想を言えば、コードベースにコミットする前に、少なくとも1人の人間によるコードレビューを行うべきです。」

DarktraceのセキュリティおよびAI戦略担当シニアバイスプレジデント、Nicole Carignan氏は、主なユースケースはアプリケーションや構造の初期ブレインストーミング、そして初心者開発者へのコーディング支援だと述べています。

「自分がプログラムにしてほしいことの大まかなアイデアを言語化でき、それをAIがコードフレームワークとして生成してくれるのです」と彼女は言います。「最大の懸念は、このコードが設計段階から安全ではないことです。」

Caspi氏は、Vibe coding製品は「最初から100%安全ではない」とし、セキュリティスキャンと監視が必要だと述べています。現在利用可能なツールは簡単なタスクには対応できますが、ビジネス用途には技術的にまだ未熟だと言います。

「これは主に、AIが依然として一貫性のない挙動を示し、その出力の品質も低いためです。より多くのことを速くこなせるかもしれませんが、まだ信頼できるものではありません」と彼は言います。「とはいえ、技術は急速に進歩しており、まもなくエンタープライズ対応になるでしょう。」

それでもVibe Codingをやりたい!

Vibe codingを取り巻くリスクを理解した上で、それでも取り組みたい場合、最も重要なのはセキュリティ衛生をしっかり保つことです。

Modus CreateのReynor氏は、組織はAI生成コードを既存のセキュリティパイプラインに統合し、可能な限り人間によるレビューを行い、GitHubでシークレットスキャンやプッシュ保護を有効にすべきだと述べています。

MDRベンダーDeepwatchのシニアプロダクトマネージャー、Kaushik Devireddy氏は、これらのツールを利用する組織は、開発チーム向けに啓発・トレーニングコンテンツを作成または選定し、プログラミング作業を安全に支援できるようにすべきだと推奨しています(完全な置き換えではなく)。

「最終的に、これらのツールは今後も使われ続けるでしょう。イノベーティブな組織は、それらを完全にブロックするのではなく、安全に活用する方法を見つけるべきです」とDevireddy氏は述べています。

最後に、Legit SecurityのCaspi氏は、脆弱性スキャンや脅威モデリング、モデルが幻覚を起こしていないかの適切なチェックや検証の実施を推奨しています。

「そしてもちろん」と彼は言います。「AIに本番データベース上で自由に操作させてはいけません。」

翻訳元: https://www.darkreading.com/application-security/cybersecurity-vibe-check-vibe-coding

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です