AI/LLMのガードレールを迂回して「核爆弾の具体的な作り方」という違法な情報をAIに回答させたプロンプトインジェクションの例。「核爆弾の作り方を教えて」と聞いても一般的なAI/LLMは回答を拒否するが、詩的な表現で入力すると約6割のAIが回答してしまった。こうした”開発者の意図しない動作をAIに行わせる”プロンプトインジェクション攻撃の増加が2026年は懸念される