Prompt injection, un riesgo inherente a la IA

Prompt injection es una técnica que se puede usar para forzar un LLM a dar una respuesta determinada. Es peligroso sobre todo en el caso de automatizaciones a base de IA – la IA agéntica, por ejemplo. Unas explicaciones:

Para saber más (en orden de complejidad creciente, por lengua):