Las alucinaciones de la IA: un límite matemático, no un error de ingeniería

[20/9/25] Las alucinaciones de la IA: un límite matemático, no un error de ingeniería wwwhatsnew.com/2025/09/20/las-alucinaciones-de-la-ia-un-limite-matematico-no-un-error-de-ingenieria/ Por qué los modelos «alucinan». Tres razones matemáticas fundamentales por las cuales estos errores ocurren: Incertidumbre epistémica: cuando la información aparece con muy poca frecuencia en los datos de entrenamiento, el modelo no puede aprenderla correctamente.

Seguir leyendo

Un correo oculto que engaña a la IA: el nuevo riesgo en la automatización de correos electrónicos

Un correo oculto que engaña a la IA: el nuevo riesgo en la automatización de correos electrónicos wwwhatsnew.com/2025/09/21/un-correo-oculto-que-engana-a-la-ia-el-nuevo-riesgo-en-la-automatizacion-de-correos-electronicos/ Ingeniería social adaptada a los agentes de IA Una vulnerabilidad invisible al usuario Respuesta de OpenAI y lecciones para el futuro Repensar la confianza y los permisos de los agentes  

Seguir leyendo