ライブウェビナー | 9月11日(木)午後2時(米国東部時間) – 登録はこちら
大規模言語モデル(LLM)は、企業のテクノロジーを変革し、ソフトウェアのセキュリティのあり方を再定義しています。しかし、ここに問題があります。多くのペネトレーションテスターは、目的に合わないツールを使っています。従来の手法は、AIを単なるアプリケーションと見なしてエクスプロイトやペイロードに注目しますが、実際はそうではありません。
このセッションでは、効果的なLLMセキュリティテストはペイロードよりも「説得力」が重要であることを提唱します。実践的な調査や実際のクライアント案件をもとに、ソーシャルエンジニアリング、行動操作、さらにはセラピー的対話に基づく新しいAIペンテストモデルを明らかにします。
本セッションでは、「アドバーサリアル・プロンプト・エクスプロイテーション(APE)」という手法を探ります。これは、感情の事前付与、ストーリーのコントロール、言語のネスティングといった心理的な要素を活用し、信頼の境界や意思決定の経路を狙うものです。これは単なるプロンプトインジェクションの基礎ではなく、現実のケーススタディを用いた大規模な敵対的認知の実践です。
このバーチャルセッションでは、静的ペイロードや自動化の限界、再現性の複雑さ、経営層や技術リーダーへの報告方法など、主要な運用上の課題を追跡します。
Bishop FoxとSecurityWeekによるライブウェビナーにご参加いただき、以下を学びましょう:
- なぜ従来のペネトレーションテスト手法がLLMには通用しないのか
- 攻撃者がコードではなく、心理的・言語的パターンをどのように悪用するのか
- 実践的な敵対的手法:感情の事前付与、ストーリー誘導など
- LLMベースのシステムに対する現実的な脅威をシミュレーションするためのフレームワーク
- AIを守るためにソーシャルエンジニアのように考える方法
こんな方におすすめ:
本セッションは、AIシステム、特にLLMを活用するシステムのセキュリティ確保、テスト、構築に関わるすべての方に最適です。ペンテスターやレッドチームの方は、ペイロードではなく行動操作に焦点を当てた新しい敵対的フレームワークを学べます。AI/MLセキュリティの専門家や研究者は、感情の事前付与やストーリーコントロールなどの心理的攻撃手法について知見を深められます。開発者は、攻撃者がモデルとどのようにやり取りするかの実例を確認でき、CISOや技術リーダーは、再現性や報告など運用上の課題に関する指針を得られます。
翻訳元: https://www.securityweek.com/webinar-today-breaking-ai-inside-the-art-of-llm-pen-testing/