Un simple prompt annihile les garde-fous de plusieurs LLM ouverts

Un simple prompt annihile les garde-fous de plusieurs LLM ouverts – Le Monde Informatique
On savait les modèles IA vulnérables à l’injection de prompt. Une dernière technique trouvée par Microsoft nommée GRP‑Obliteration, et testée sur 15 modèles ouverts majeurs, rend leurs protections totalement caduques.
www.lemondeinformatique.fr/actualites/lire-un-simple-prompt-annihile-les-garde-fous-de-plusieurs-llm-ouverts-99322.html

Anthropic pone números al riesgo de la inyección de prompts: lo que cambia cuando la seguridad deja de ser un eslogan
wwwhatsnew.com/2026/02/13/anthropic-pone-numeros-al-riesgo-de-la-inyeccion-de-prompts-lo-que-cambia-cuando-la-seguridad-deja-de-ser-un-eslogan/

Feb 13, 2026 @ 8:06 am