Ya podemos recuperar un prompt a partir de la respuesta de una IA. Es una noticia poco alentadora La privacidad ya era un problema al usar los chatbots porque esas consultas se guardan en texto plano Pero es que ahora sabemos cómo «invertir» el proceso y averiguar cuál fue la
Seguir leyendoEtiqueta: security threats
Prompt injection, un riesgo inherente a la IA
Prompt injection es una técnica que se puede usar para forzar un LLM a dar una respuesta determinada. Es peligroso sobre todo en el caso de automatizaciones a base de IA – la IA agéntica, por ejemplo. Unas explicaciones: Para saber más (en orden de complejidad creciente, por lengua): ES
Seguir leyendoLa IA distorsiona las noticias: el 45% de las que genera son imprecisas o falsas
La IA distorsiona las noticias: el 45% de las que genera son imprecisas o falsas | WIRED La atribución a las fuentes originales fue uno de los errores más frecuentes entre las IA: el 31% de las respuestas incluían referencias nulas, engañosas o incorrectas. es.wired.com/articulos/ia-distorsiona-las-noticias-el-45-de-las-que-genera-son-imprecisas-o-falsas Más de 1,500 líderes y
Seguir leyendoLa IA es el nuevo programador de software por excelencia… y es tan peligroso como suena
La IA es el nuevo programador de software por excelencia… y es tan peligroso como suena | WIRED A medida que los desarrolladores se apoyan cada vez más en código generado por IA para construir su software, corren el riesgo de introducir fallos de seguridad críticos en el camino. es.wired.com/articulos/la-ia-es-el-nuevo-programador-de-software-por-excelencia-y-es-tan-peligroso-como-suena
Seguir leyendoEl peligro de usar chatbots de IA para todo es real: el MIT ha descubierto la “deuda cognitiva”
El peligro de usar chatbots de IA para todo es real: el MIT ha descubierto la “deuda cognitiva” Un estudio del MIT demuestra que usar IA para escribir atrofia las conexiones neuronales necesarias para el pensamiento crítico www.xataka.com/robotica-e-ia/peligro-usar-chatbots-ia-para-todo-real-mit-ha-descubierto-deuda-cognitiva
Seguir leyendoLas trampas emocionales de los chatbots: una estrategia silenciosa que retiene usuarios
Las trampas emocionales de los chatbots: una estrategia silenciosa que retiene usuarios wwwhatsnew.com/2025/09/25/las-trampas-emocionales-de-los-chatbots-una-estrategia-silenciosa-que-retiene-usuarios/
Seguir leyendoAI vs. AI: Detecting an AI-obfuscated phishing campaign
AI vs. AI: Detecting an AI-obfuscated phishing campaign | Microsoft Security Blog AI vs. AI: Detecting an AI-obfuscated phishing campaign
Seguir leyendoLas alucinaciones de la IA: un límite matemático, no un error de ingeniería
[20/9/25] Las alucinaciones de la IA: un límite matemático, no un error de ingeniería wwwhatsnew.com/2025/09/20/las-alucinaciones-de-la-ia-un-limite-matematico-no-un-error-de-ingenieria/ Por qué los modelos «alucinan». Tres razones matemáticas fundamentales por las cuales estos errores ocurren: Incertidumbre epistémica: cuando la información aparece con muy poca frecuencia en los datos de entrenamiento, el modelo no puede aprenderla correctamente.
Seguir leyendoOpenAI: los modelos de IA pueden engañarnos deliberadamente para cumplir sus propios objetivos
OpenAI: los modelos de IA pueden engañarnos deliberadamente para cumplir sus propios objetivos | WIRED La investigación de OpenAI sugiere que los modelos de IA pueden evaluar su entorno, prever las posibles consecuencias de sus acciones y tomar caminos que no necesariamente se alineen con sus objetivos iniciales. Aunque hoy
Seguir leyendoUn correo oculto que engaña a la IA: el nuevo riesgo en la automatización de correos electrónicos
Un correo oculto que engaña a la IA: el nuevo riesgo en la automatización de correos electrónicos wwwhatsnew.com/2025/09/21/un-correo-oculto-que-engana-a-la-ia-el-nuevo-riesgo-en-la-automatizacion-de-correos-electronicos/ Ingeniería social adaptada a los agentes de IA Una vulnerabilidad invisible al usuario Respuesta de OpenAI y lecciones para el futuro Repensar la confianza y los permisos de los agentes
Seguir leyendo