新しいTokenBreak攻撃がAIモデレーションを単一文字のテキスト変更で回避 新しいTokenBreak攻撃がAIモデレーションを単一文字のテキスト変更で回避 投稿日 2025年6月12日 サイバーセキュリティ研究者は、TokenBreak… 続きを読む新しいTokenBreak攻撃がAIモデレーションを単一文字のテキスト変更で回避 コメントする
AIのためのセキュア・バイ・デザイン原則の実装 投稿日 2025年5月29日 出典: imageBROKER.com via A… 続きを読むAIのためのセキュア・バイ・デザイン原則の実装 コメントする
GitLab Duoの脆弱性により攻撃者が隠されたプロンプトでAIの応答を乗っ取ることが可能に GitLab Duoの脆弱性により攻撃者が隠されたプロンプトでAIの応答を乗っ取ることが可能に 投稿日 2025年5月23日 サイバーセキュリティ研究者は、GitLabの人工知… 続きを読むGitLab Duoの脆弱性により攻撃者が隠されたプロンプトでAIの応答を乗っ取ることが可能に コメントする
GitLabのAIアシスタントが開発者をコード盗難にさらした 投稿日 2025年5月22日 出典: Alamyストックフォト経由のConsta… 続きを読むGitLabのAIアシスタントが開発者をコード盗難にさらした コメントする
GitHubのAIアシスタントが開発者をコード盗難にさらした 投稿日 2025年5月22日 出典: Constantine Soutiagui… 続きを読むGitHubのAIアシスタントが開発者をコード盗難にさらした コメントする
新しいレポートが主要なAIシステムにおける脱獄、不安全なコード、データ盗難のリスクを明らかに 新しいレポートが主要なAIシステムにおける脱獄、不安全なコード、データ盗難のリスクを明らかに 投稿日 2025年5月1日 さまざまな生成型人工知能(GenAI)サービスが、… 続きを読む新しいレポートが主要なAIシステムにおける脱獄、不安全なコード、データ盗難のリスクを明らかに コメントする
Meta、AIの脱獄、注入、そして安全でないコードを防ぐためのLlamaFirewallフレームワークを発表 Meta、AIの脱獄、注入、そして安全でないコードを防ぐためのLlamaFirewallフレームワークを発表 投稿日 2025年5月1日 Metaは火曜日に、発表しました。LlamaFir… 続きを読むMeta、AIの脱獄、注入、そして安全でないコードを防ぐためのLlamaFirewallフレームワークを発表 コメントする
研究者がMCPプロンプトインジェクションが攻撃と防御の両方に使用できることを実証 研究者がMCPプロンプトインジェクションが攻撃と防御の両方に使用できることを実証 投稿日 2025年5月1日 人工知能(AI)の分野が急速に進化し続ける中、新し… 続きを読む研究者がMCPプロンプトインジェクションが攻撃と防御の両方に使用できることを実証 コメントする