[20/9/25]
Las alucinaciones de la IA: un límite matemático, no un error de ingeniería
wwwhatsnew.com/2025/09/20/las-alucinaciones-de-la-ia-un-limite-matematico-no-un-error-de-ingenieria/
- Por qué los modelos «alucinan». Tres razones matemáticas fundamentales por las cuales estos errores ocurren:
- Incertidumbre epistémica: cuando la información aparece con muy poca frecuencia en los datos de entrenamiento, el modelo no puede aprenderla correctamente.
- Limitaciones de representación: hay tareas que simplemente exceden la capacidad de los modelos actuales, por sofisticados que sean.
- Intractabilidad computacional: incluso una IA teóricamente perfecta no podría resolver ciertos problemas matemáticos sin caer en errores o suposiciones.
- Incluso los mejores modelos se equivocan
- Evaluar mal también empeora el problema
- Implicaciones para las empresas
- Nuevas métricas y más transparencia
- El futuro: convivir con la incertidumbre
[14/10/25]
Un chatbot que no «alucine» es simplemente imposible | WIRED
Un artículo escrito por investigadores de la empresa de Sam Altman explica por qué los chatbots nunca alcanzarán una precisión del 100%.
es.wired.com/articulos/un-chatbot-que-no-alucine-es-simplemente-imposible