kettle 今週のニュースでは、またもや新たなプロンプトインジェクション攻撃が発見されました。この攻撃により、厳重に守られているはずのAIボットが、正しい方法で問いかけられると秘密を漏らしてしまいます。
考えてみると、人間と大規模言語モデル(LLM)は同じような問題を抱えています。どちらも、ずる賢い人間が正しい、または間違った方法で質問すると、機密情報を引き渡してしまう傾向があります。人間を対象とした場合、これをフィッシングと呼びます。プロンプトインジェクションはボットに対して本質的に同じようなものです。基本的には、AIに読み込ませて分析させるドキュメントやファイルの中に悪意のある指示を埋め込むか隠すことです。AIはそれらをコンテンツの一部として扱う代わりに、それらを実行します。
プロンプトインジェクションについて議論することはたくさんあります。それは基本的にはフィッシングと同様にAI時代の解決不可能な問題です。今週のケトルエピソードでは、ホストのブランドン・ビリアローロが、サイバーセキュリティエディターのジェシカ・ライオンズとシニアレポーターのトム・クレイバーンと共にこれらのすべてをカバーしています。
The Kettleはここで聞くことができます。また、SpotifyおよびApple Musicでも聞くことができます。®
翻訳元: https://go.theregister.com/feed/www.theregister.com/2026/04/19/just_like_phishing_for_gullible/