Las alucinaciones de la IA: un límite matemático, no un error de ingeniería

[20/9/25]

Las alucinaciones de la IA: un límite matemático, no un error de ingeniería
wwwhatsnew.com/2025/09/20/las-alucinaciones-de-la-ia-un-limite-matematico-no-un-error-de-ingenieria/

  • Por qué los modelos «alucinan». Tres razones matemáticas fundamentales por las cuales estos errores ocurren:
    • Incertidumbre epistémica: cuando la información aparece con muy poca frecuencia en los datos de entrenamiento, el modelo no puede aprenderla correctamente.
    • Limitaciones de representación: hay tareas que simplemente exceden la capacidad de los modelos actuales, por sofisticados que sean.
    • Intractabilidad computacional: incluso una IA teóricamente perfecta no podría resolver ciertos problemas matemáticos sin caer en errores o suposiciones.
  • Incluso los mejores modelos se equivocan
  • Evaluar mal también empeora el problema
  • Implicaciones para las empresas
  • Nuevas métricas y más transparencia
  • El futuro: convivir con la incertidumbre

[14/10/25]

Un chatbot que no «alucine» es simplemente imposible | WIRED
Un artículo escrito por investigadores de la empresa de Sam Altman explica por qué los chatbots nunca alcanzarán una precisión del 100%.
es.wired.com/articulos/un-chatbot-que-no-alucine-es-simplemente-imposible