Prompt injection es una técnica que se puede usar para forzar un LLM a dar una respuesta determinada. Es peligroso sobre todo en el caso de automatizaciones a base de IA – la IA agéntica, por ejemplo. Unas explicaciones:
Para saber más (en orden de complejidad creciente, por lengua):
- ES
- ¿Qué es un Prompt Injection Attack? | Wiz
www.wiz.io/es-es/academy/prompt-injection-attack - Inyección de código indirecto y riesgos de seguridad de las herramientas de código indirecto – Blog
es.securecodewarrior.com/article/prompt-injection-and-the-security-risks-of-agentic-coding-tools - EN
- Prompt Injection: Overriding AI Instructions with User Input
learnprompting.org/docs/prompt_hacking/injection - Protect Against Prompt Injection | IBM
www.ibm.com/think/insights/prevent-prompt-injection - FR
- Qu’est-ce qu’une Prompt Injection Attack ? | Wiz
www.wiz.io/fr-fr/academy/prompt-injection-attack - Qu’est-ce le prompt injection ? – Guardia Cybersecurity School
guardia.school/boite-a-outils/quest-ce-le-prompt-injection.html - 10 techniques pour jailbreaker ChatGPT
www.jedha.co/formation-ia/comment-jailbreak-chatgpt-dan-prompt-injection-et-autres-techniques - Injection de prompt ChatGPT : Fonctionnement, Risques & Stratégies de Défense
netwrix.com/fr/cybersecurity-glossary/cyber-security-attacks/chatgpt-prompt-injection/ - Injection de prompt ChatGPT : Fonctionnement, Risques & Stratégies de Défense
netwrix.com/fr/cybersecurity-glossary/cyber-security-attacks/chatgpt-prompt-injection/ - Shadow AI, prompt injection, fuite de données… Les principaux dangers cyber de l’IA en entreprise
www.journaldunet.com/cybersecurite/1544821-shadow-ai-prompt-injection-fuite-de-donnees-les-principaux-dangers-cyber-de-l-ia-en-entreprise/