Microsoft alerta sobre “agentes dobles” de IA: cuando un asistente con demasiados permisos se convierte en un riesgo wwwhatsnew.com/2026/02/13/microsoft-alerta-sobre-agentes-dobles-de-ia-cuando-un-asistente-con-demasiados-permisos-se-convierte-en-un-riesgo/
Seguir leyendoEtiqueta: security threats
Un simple prompt annihile les garde-fous de plusieurs LLM ouverts
Un simple prompt annihile les garde-fous de plusieurs LLM ouverts – Le Monde Informatique On savait les modèles IA vulnérables à l’injection de prompt. Une dernière technique trouvée par Microsoft nommée GRP‑Obliteration, et testée sur 15 modèles ouverts majeurs, rend leurs protections totalement caduques. www.lemondeinformatique.fr/actualites/lire-un-simple-prompt-annihile-les-garde-fous-de-plusieurs-llm-ouverts-99322.html Anthropic pone números al riesgo
Seguir leyendoEl peligro para la terapia no es la IA: es la ausencia de comunidad
El peligro para la terapia no es la IA: es la ausencia de comunidad | WIRED Todos los días, millones de personas confían en la IA, exponiéndole sus problemas más íntimos con la esperanza de que los resuelva. Esta es la historia de dos personas (y sus bots) en el
Seguir leyendoCreíamos que hablar con ChatGPT y otras IA era privado. No contábamos con estas extensiones robando nuestras conversaciones
Creíamos que hablar con ChatGPT y otras IA era privado. No contábamos con estas extensiones robando nuestras conversaciones Millones de usuarios usan chatbots creyendo que todo se mantiene en privado. Una investigación ha destapado extensiones que capturan esas conversaciones www.xataka.com/seguridad/creiamos-que-hablar-chatgpt-otras-ia-era-privado-no-contabamos-estas-extensiones-robando-nuestras-conversaciones
Seguir leyendoCon Nano Banana, difundir desinformación resulta peligrosamente sencillo
Con Nano Banana, difundir desinformación resulta peligrosamente sencillo | WIRED El generador de IA de Google basado en Gemini ha sido acusado de producir imágenes falsas altamente creíbles. La denuncia de NewsGuard alerta sobre los riesgos de desinformación, mientras Google intenta cubrirse. es.wired.com/articulos/con-nano-banana-difundir-desinformacion-resulta-peligrosamente-sencillo
Seguir leyendoYa podemos recuperar un prompt a partir de la respuesta de una IA. Es una noticia poco alentadora
Ya podemos recuperar un prompt a partir de la respuesta de una IA. Es una noticia poco alentadora La privacidad ya era un problema al usar los chatbots porque esas consultas se guardan en texto plano Pero es que ahora sabemos cómo «invertir» el proceso y averiguar cuál fue la
Seguir leyendoPrompt injection, un riesgo inherente a la IA
Prompt injection es una técnica que se puede usar para forzar un LLM a dar una respuesta determinada. Es peligroso sobre todo en el caso de automatizaciones a base de IA – la IA agéntica, por ejemplo. Unas explicaciones: Para saber más (en orden de complejidad creciente, por lengua): ES
Seguir leyendoLa IA distorsiona las noticias: el 45% de las que genera son imprecisas o falsas
La IA distorsiona las noticias: el 45% de las que genera son imprecisas o falsas | WIRED La atribución a las fuentes originales fue uno de los errores más frecuentes entre las IA: el 31% de las respuestas incluían referencias nulas, engañosas o incorrectas. es.wired.com/articulos/ia-distorsiona-las-noticias-el-45-de-las-que-genera-son-imprecisas-o-falsas Más de 1,500 líderes y
Seguir leyendoLa IA es el nuevo programador de software por excelencia… y es tan peligroso como suena
La IA es el nuevo programador de software por excelencia… y es tan peligroso como suena | WIRED A medida que los desarrolladores se apoyan cada vez más en código generado por IA para construir su software, corren el riesgo de introducir fallos de seguridad críticos en el camino. es.wired.com/articulos/la-ia-es-el-nuevo-programador-de-software-por-excelencia-y-es-tan-peligroso-como-suena
Seguir leyendoEl peligro de usar chatbots de IA para todo es real: el MIT ha descubierto la “deuda cognitiva”
El peligro de usar chatbots de IA para todo es real: el MIT ha descubierto la “deuda cognitiva” Un estudio del MIT demuestra que usar IA para escribir atrofia las conexiones neuronales necesarias para el pensamiento crítico www.xataka.com/robotica-e-ia/peligro-usar-chatbots-ia-para-todo-real-mit-ha-descubierto-deuda-cognitiva
Seguir leyendo