Ya podemos recuperar un prompt a partir de la respuesta de una IA. Es una noticia poco alentadora La privacidad ya era un problema al usar los chatbots porque esas consultas se guardan en texto plano Pero es que ahora sabemos cómo «invertir» el proceso y averiguar cuál fue la
Seguir leyendoCategoría: Seguridad
Character.AI limita el acceso a adolescentes: un giro hacia la seguridad en la IA conversacional
Character.AI limita el acceso a adolescentes: un giro hacia la seguridad en la IA conversacional wwwhatsnew.com/2025/11/01/character-ai-limita-el-acceso-a-adolescentes-un-giro-hacia-la-seguridad-en-la-ia-conversacional/
Seguir leyendoPor qué la IA a veces se comporta de forma maligna
Por qué la IA a veces se comporta de forma maligna | WIRED De vez en cuando, los grandes modelos de lenguaje se vuelven malvados, y nadie sabe bien por qué. El campo de la interpretabilidad mecanicista busca prevenir estos comportamientos inesperados. es.wired.com/articulos/por-que-la-ia-a-veces-se-comporta-de-forma-maligna
Seguir leyendoLas gafas de realidad aumentada son perfectas para monitorizar trabajadores. Y por eso Amazon se ha echado en sus brazos
Las gafas de realidad aumentada son perfectas para monitorizar trabajadores. Y por eso Amazon se ha echado en sus brazos www.xataka.com/privacidad/gafas-conectadas-parecen-muy-divertidas-que-te-obliguen-a-llevarlas-trabajo Amazon está probando ya unas gafas de realidad aumentada para sus mensajeros Ofrecen opciones llamativas e interesantes para los trabajadores… Pero también permiten que Amazon tenga una herramienta perfecta
Seguir leyendoPrompt injection, un riesgo inherente a la IA
Prompt injection es una técnica que se puede usar para forzar un LLM a dar una respuesta determinada. Es peligroso sobre todo en el caso de automatizaciones a base de IA – la IA agéntica, por ejemplo. Unas explicaciones: Para saber más (en orden de complejidad creciente, por lengua): ES
Seguir leyendoLa IA distorsiona las noticias: el 45% de las que genera son imprecisas o falsas
La IA distorsiona las noticias: el 45% de las que genera son imprecisas o falsas | WIRED La atribución a las fuentes originales fue uno de los errores más frecuentes entre las IA: el 31% de las respuestas incluían referencias nulas, engañosas o incorrectas. es.wired.com/articulos/ia-distorsiona-las-noticias-el-45-de-las-que-genera-son-imprecisas-o-falsas Más de 1,500 líderes y
Seguir leyendoLa amenaza silenciosa que puede alterar los modelos de IA con solo 250 documentos
Hay un método sigiloso para sabotear la IA. Se llama ‘data poisoning’ y corrompe los modelos desde dentro www.xataka.com/robotica-e-ia/modelos-ia-tienen-problema-se-llama-data-poisoning-esta-envenenando-dentro La amenaza silenciosa que puede alterar los modelos de IA con solo 250 documentos wwwhatsnew.com/2025/10/13/la-amenaza-silenciosa-que-puede-alterar-los-modelos-de-ia-con-solo-250-documentos/ Anthropic Warns That Minimal Data Contamination Can ‘Poison’ Large AI Models | Technology News www.gadgets360.com/ai/news/anthropic-study-250-contaminated-data-samples-can-create-backdoor-in-large-ai-models-9436126 Only
Seguir leyendoTilly Norwood, la primera actriz creada con IA, enciende las alertas en Hollywood
Tilly Norwood, la primera actriz creada con IA, enciende las alertas en Hollywood | WIRED es.wired.com/articulos/tilly-norwood-la-primera-actriz-creada-con-ia-enciende-las-alertas-en-hollywood El sindicato de actores de Hollywood acusa que “Tilly Norwood no es una actriz, es un personaje generado por un programa informático entrenado con el trabajo de innumerables artistas profesionales, sin permiso ni compensación”.
Seguir leyendoOpenAI ya permite a los padres limitar el uso de ChatGPT a sus hijos: así funcionan los nuevos controles parentales
Control parental de ChatGPT: cómo configurarlo y qué opciones hay para controlar lo que pueden hacer tus hijos con la inteligencia artificial www.xataka.com/basics/control-parental-chatgpt-como-configurarlo-que-opciones-hay-para-controlar-que-pueden-hacer-tus-hijos-inteligencia-artificial OpenAI ya permite a los padres limitar el uso de ChatGPT a sus hijos: así funcionan los nuevos controles parentales www.xataka.com/robotica-e-ia/openai-permite-a-padres-limitar-uso-chatgpt-a-sus-hijos-asi-funcionan-nuevos-controles-parentales
Seguir leyendoLas alucinaciones de la IA: un límite matemático, no un error de ingeniería
[20/9/25] Las alucinaciones de la IA: un límite matemático, no un error de ingeniería wwwhatsnew.com/2025/09/20/las-alucinaciones-de-la-ia-un-limite-matematico-no-un-error-de-ingenieria/ Por qué los modelos «alucinan». Tres razones matemáticas fundamentales por las cuales estos errores ocurren: Incertidumbre epistémica: cuando la información aparece con muy poca frecuencia en los datos de entrenamiento, el modelo no puede aprenderla correctamente.
Seguir leyendo