Han secuestrado agentes de Anthropic, Google y Microsoft por el bien de la ciencia. Las tres empresas acabaron pagando

Han secuestrado agentes de Anthropic, Google y Microsoft por el bien de la ciencia. Las tres empresas acabaron pagando www.xataka.com/seguridad/han-secuestrado-agentes-anthropic-google-microsoft-bien-ciencia-tres-empresas-acabaron-pagando Tres agentes en GitHub podían ser manipulados para filtrar credenciales El ataque usaba el propio GitHub como canal de entrada, control y salida El hallazgo destapó un problema de diseño

Seguir leyendo

El caso de la bixonimanía subraya la necesidad urgente de desarrollar mecanismos de evaluación continua para los sistemas de IA, en particular aquellos orientados a la salud.

Una enfermedad falsa pone en evidencia la incapacidad de la IA para detectar fake news | WIRED es.wired.com/articulos/una-enfermedad-falsa-pone-en-evidencia-la-incapacidad-de-la-ia-para-detectar-fake-news El caso de la bixonimanía subraya la necesidad urgente de desarrollar mecanismos de evaluación continua para los sistemas de IA, en particular aquellos orientados a la salud. Una enfermedad falsa pone en

Seguir leyendo

Claude y cibeseguridad

La IA ya es un arma de doble filo en ciberseguridad: un hacker ruso usó Claude para hackear 600 firewalls, y Anthropic advierte que su próximo modelo tendrá riesgo «alto» wwwhatsnew.com/2026/04/07/ia-ciberseguridad-hackers-claude-anthropic-mythos-riesgo-alto/ Zero-day para todos: la nueva IA de Anthropic ha encontrado vulnerabilidades en todos los sistemas operativos del mundo www.xataka.com/robotica-e-ia/claude-mythos-modelo-ia-potente-que-da-miedo-asi-que-anthropic-ha-decidido-que-no-vas-a-poder-usarlo

Seguir leyendo

La tendencia de los chatbots de IA de engañar a los usuarios va en aumento, según estudio

La tendencia de los chatbots de IA de engañar a los usuarios va en aumento, según estudio | WIRED es.wired.com/articulos/la-tendencia-de-los-chatbots-de-ia-de-enganar-a-los-usuarios-va-en-aumento-segun-estudio Una nueva investigación identificó al menos 700 casos reales de manipulación y de acciones no autorizadas por parte de sistemas de IA, lo que representa un incremento de cinco veces

Seguir leyendo