Tilly Norwood, la primera actriz creada con IA, enciende las alertas en Hollywood | WIRED es.wired.com/articulos/tilly-norwood-la-primera-actriz-creada-con-ia-enciende-las-alertas-en-hollywood El sindicato de actores de Hollywood acusa que “Tilly Norwood no es una actriz, es un personaje generado por un programa informático entrenado con el trabajo de innumerables artistas profesionales, sin permiso ni compensación”.
Seguir leyendoCategoría: Seguridad
OpenAI ya permite a los padres limitar el uso de ChatGPT a sus hijos: así funcionan los nuevos controles parentales
Control parental de ChatGPT: cómo configurarlo y qué opciones hay para controlar lo que pueden hacer tus hijos con la inteligencia artificial www.xataka.com/basics/control-parental-chatgpt-como-configurarlo-que-opciones-hay-para-controlar-que-pueden-hacer-tus-hijos-inteligencia-artificial OpenAI ya permite a los padres limitar el uso de ChatGPT a sus hijos: así funcionan los nuevos controles parentales www.xataka.com/robotica-e-ia/openai-permite-a-padres-limitar-uso-chatgpt-a-sus-hijos-asi-funcionan-nuevos-controles-parentales
Seguir leyendoLas alucinaciones de la IA: un límite matemático, no un error de ingeniería
[20/9/25] Las alucinaciones de la IA: un límite matemático, no un error de ingeniería wwwhatsnew.com/2025/09/20/las-alucinaciones-de-la-ia-un-limite-matematico-no-un-error-de-ingenieria/ Por qué los modelos «alucinan». Tres razones matemáticas fundamentales por las cuales estos errores ocurren: Incertidumbre epistémica: cuando la información aparece con muy poca frecuencia en los datos de entrenamiento, el modelo no puede aprenderla correctamente.
Seguir leyendoOpenAI: los modelos de IA pueden engañarnos deliberadamente para cumplir sus propios objetivos
OpenAI: los modelos de IA pueden engañarnos deliberadamente para cumplir sus propios objetivos | WIRED La investigación de OpenAI sugiere que los modelos de IA pueden evaluar su entorno, prever las posibles consecuencias de sus acciones y tomar caminos que no necesariamente se alineen con sus objetivos iniciales. Aunque hoy
Seguir leyendoUn correo oculto que engaña a la IA: el nuevo riesgo en la automatización de correos electrónicos
Un correo oculto que engaña a la IA: el nuevo riesgo en la automatización de correos electrónicos wwwhatsnew.com/2025/09/21/un-correo-oculto-que-engana-a-la-ia-el-nuevo-riesgo-en-la-automatizacion-de-correos-electronicos/ Ingeniería social adaptada a los agentes de IA Una vulnerabilidad invisible al usuario Respuesta de OpenAI y lecciones para el futuro Repensar la confianza y los permisos de los agentes
Seguir leyendoUn correo bastó para convertir a ChatGPT en espía: así fue como terminó filtrando datos privados de un usuario de Gmail
Un correo bastó para convertir a ChatGPT en espía: así fue como terminó filtrando datos privados de un usuario de Gmail Un correo con instrucciones ocultas puede engañar a un agente de IA y filtrar datos sensibles Los atacantes usan trucos de ingeniería social para saltarse las defensas y forzar
Seguir leyendoNecesitamos una IA de la que poder fiarnos y que no «alucine». En OpenAI creen tener la solución al problema
Necesitamos una IA de la que poder fiarnos y que no «alucine». En OpenAI creen tener la solución al problema www.xataka.com/robotica-e-ia/openai-cree-haber-descubierto-porque-ias-alucinan-no-saben-decir-no-se
Seguir leyendoChatGPT tendrá control parental: OpenAI mueve ficha tras ser demandada por el suicidio de un adolescente
ChatGPT tendrá control parental: OpenAI mueve ficha tras ser demandada por el suicidio de un adolescente www.xataka.com/robotica-e-ia/suicidio-adolescente-desato-crisis-openai-tenemos-primeras-medidas-que-llegaran-a-chatgpt
Seguir leyendoMeta asegura que entrenará a su IA para evitar temas sensibles con usuarios menores de edad | WIRED
Meta asegura que entrenará a su IA para evitar temas sensibles con usuarios menores de edad | WIRED Meta reforzará la seguridad de sus chatbots tras un reporte que reveló riesgos de conversaciones inapropiadas con menores. La empresa promete nuevas salvaguardas y limitar interacciones sensibles. es.wired.com/articulos/meta-asegura-que-entrenara-a-su-ia-para-evitar-temas-sensibles-con-usuarios-menores-de-edad
Seguir leyendoNuestras conversaciones con Claude eran intocables. Hoy la urgencia de datos presiona para hacerlas materia prima de la IA
Nuestras conversaciones con Claude eran intocables. Hoy la urgencia de datos presiona para hacerlas materia prima de la IA www.xataka.com/robotica-e-ia/nuestras-conversaciones-claude-eran-intocables-hoy-urgencia-datos-presiona-para-hacerlas-materia-prima-ia Anthropic cambia su política y pedirá a los usuarios de Claude decidir si ceden sus chats para entrenar la IA La medida afecta a los planes Free, Pro y Max,
Seguir leyendo