OpenAI: los modelos de IA pueden engañarnos deliberadamente para cumplir sus propios objetivos | WIRED La investigación de OpenAI sugiere que los modelos de IA pueden evaluar su entorno, prever las posibles consecuencias de sus acciones y tomar caminos que no necesariamente se alineen con sus objetivos iniciales. Aunque hoy
Seguir leyendoCategoría: Seguridad
Un correo oculto que engaña a la IA: el nuevo riesgo en la automatización de correos electrónicos
Un correo oculto que engaña a la IA: el nuevo riesgo en la automatización de correos electrónicos wwwhatsnew.com/2025/09/21/un-correo-oculto-que-engana-a-la-ia-el-nuevo-riesgo-en-la-automatizacion-de-correos-electronicos/ Ingeniería social adaptada a los agentes de IA Una vulnerabilidad invisible al usuario Respuesta de OpenAI y lecciones para el futuro Repensar la confianza y los permisos de los agentes
Seguir leyendoUn correo bastó para convertir a ChatGPT en espía: así fue como terminó filtrando datos privados de un usuario de Gmail
Un correo bastó para convertir a ChatGPT en espía: así fue como terminó filtrando datos privados de un usuario de Gmail Un correo con instrucciones ocultas puede engañar a un agente de IA y filtrar datos sensibles Los atacantes usan trucos de ingeniería social para saltarse las defensas y forzar
Seguir leyendoNecesitamos una IA de la que poder fiarnos y que no «alucine». En OpenAI creen tener la solución al problema
Necesitamos una IA de la que poder fiarnos y que no «alucine». En OpenAI creen tener la solución al problema www.xataka.com/robotica-e-ia/openai-cree-haber-descubierto-porque-ias-alucinan-no-saben-decir-no-se
Seguir leyendoChatGPT tendrá control parental: OpenAI mueve ficha tras ser demandada por el suicidio de un adolescente
ChatGPT tendrá control parental: OpenAI mueve ficha tras ser demandada por el suicidio de un adolescente www.xataka.com/robotica-e-ia/suicidio-adolescente-desato-crisis-openai-tenemos-primeras-medidas-que-llegaran-a-chatgpt
Seguir leyendoMeta asegura que entrenará a su IA para evitar temas sensibles con usuarios menores de edad | WIRED
Meta asegura que entrenará a su IA para evitar temas sensibles con usuarios menores de edad | WIRED Meta reforzará la seguridad de sus chatbots tras un reporte que reveló riesgos de conversaciones inapropiadas con menores. La empresa promete nuevas salvaguardas y limitar interacciones sensibles. es.wired.com/articulos/meta-asegura-que-entrenara-a-su-ia-para-evitar-temas-sensibles-con-usuarios-menores-de-edad
Seguir leyendoNuestras conversaciones con Claude eran intocables. Hoy la urgencia de datos presiona para hacerlas materia prima de la IA
Nuestras conversaciones con Claude eran intocables. Hoy la urgencia de datos presiona para hacerlas materia prima de la IA www.xataka.com/robotica-e-ia/nuestras-conversaciones-claude-eran-intocables-hoy-urgencia-datos-presiona-para-hacerlas-materia-prima-ia Anthropic cambia su política y pedirá a los usuarios de Claude decidir si ceden sus chats para entrenar la IA La medida afecta a los planes Free, Pro y Max,
Seguir leyendoEstafas en los resúmenes de IA de Google: qué son y cómo protegerte de ellas
Estafas en los resúmenes de IA de Google: qué son y cómo protegerte de ellas www.xataka.com/basics/estafas-resumenes-ia-google-que-como-protegerte-ellas
Seguir leyendoIA contra deepfakes al vuelo: el escudo digital de 2025
IA contra deepfakes al vuelo: el escudo digital de 2025 wwwhatsnew.com/2025/08/13/ia-contra-deepfakes-al-vuelo-el-escudo-digital-de-2025/
Seguir leyendoLa IA pone en jaque a los servidores científicos: crece la avalancha de papers falsos
La IA pone en jaque a los servidores científicos: crece la avalancha de papers falsos | WIRED es.wired.com/articulos/la-ia-pone-en-jaque-a-los-servidores-cientificos-crece-la-avalancha-de-papers-falsos La IA facilita la creación de investigaciones que parecen reales, pero que no lo son. Esto representa un problema de credibilidad para los servicios de difusión preprint, que reducen las barreras para
Seguir leyendo