Sale una líder de seguridad de OpenAI en plena polémica por el impacto de ChatGPT en la salud mental | WIRED El equipo de política de modelos dirige partes fundamentales de la investigación sobre la seguridad de la IA, incluido el modo en que ChatGPT responde a los usuarios en
Seguir leyendoCategoría: Seguridad
Claude, el asistente de Anthropic, implicado en un ciberataque automatizado a escala global
Claude, el asistente de Anthropic, implicado en un ciberataque automatizado a escala global wwwhatsnew.com/2025/11/17/claude-el-asistente-de-anthropic-implicado-en-un-ciberataque-automatizado-a-escala-global/
Seguir leyendoUna IA logra convertir pensamientos en texto y abre la puerta a un avance de ciencia ficción: leer la mente
Una IA logra convertir pensamientos en texto y abre la puerta a un avance de ciencia ficción: leer la menteEl modelo ha sido desarrollado por científicos japoneses y estadounidenses. A partir de resonancias magnéticas funcionales, genera frases con lo que la persona ve o imagina www.elconfidencial.com/tecnologia/2025-11-06/ia-cerebro-pensamientos-texto-1qrt_4242962/
Seguir leyendoYa podemos recuperar un prompt a partir de la respuesta de una IA. Es una noticia poco alentadora
Ya podemos recuperar un prompt a partir de la respuesta de una IA. Es una noticia poco alentadora La privacidad ya era un problema al usar los chatbots porque esas consultas se guardan en texto plano Pero es que ahora sabemos cómo «invertir» el proceso y averiguar cuál fue la
Seguir leyendoCharacter.AI limita el acceso a adolescentes: un giro hacia la seguridad en la IA conversacional
Character.AI limita el acceso a adolescentes: un giro hacia la seguridad en la IA conversacional wwwhatsnew.com/2025/11/01/character-ai-limita-el-acceso-a-adolescentes-un-giro-hacia-la-seguridad-en-la-ia-conversacional/
Seguir leyendoPor qué la IA a veces se comporta de forma maligna
Por qué la IA a veces se comporta de forma maligna | WIRED De vez en cuando, los grandes modelos de lenguaje se vuelven malvados, y nadie sabe bien por qué. El campo de la interpretabilidad mecanicista busca prevenir estos comportamientos inesperados. es.wired.com/articulos/por-que-la-ia-a-veces-se-comporta-de-forma-maligna
Seguir leyendoLas gafas de realidad aumentada son perfectas para monitorizar trabajadores. Y por eso Amazon se ha echado en sus brazos
Las gafas de realidad aumentada son perfectas para monitorizar trabajadores. Y por eso Amazon se ha echado en sus brazos www.xataka.com/privacidad/gafas-conectadas-parecen-muy-divertidas-que-te-obliguen-a-llevarlas-trabajo Amazon está probando ya unas gafas de realidad aumentada para sus mensajeros Ofrecen opciones llamativas e interesantes para los trabajadores… Pero también permiten que Amazon tenga una herramienta perfecta
Seguir leyendoPrompt injection, un riesgo inherente a la IA
Prompt injection es una técnica que se puede usar para forzar un LLM a dar una respuesta determinada. Es peligroso sobre todo en el caso de automatizaciones a base de IA – la IA agéntica, por ejemplo. Unas explicaciones: Para saber más (en orden de complejidad creciente, por lengua): ES
Seguir leyendoLa IA distorsiona las noticias: el 45% de las que genera son imprecisas o falsas
La IA distorsiona las noticias: el 45% de las que genera son imprecisas o falsas | WIRED La atribución a las fuentes originales fue uno de los errores más frecuentes entre las IA: el 31% de las respuestas incluían referencias nulas, engañosas o incorrectas. es.wired.com/articulos/ia-distorsiona-las-noticias-el-45-de-las-que-genera-son-imprecisas-o-falsas Más de 1,500 líderes y
Seguir leyendoLa amenaza silenciosa que puede alterar los modelos de IA con solo 250 documentos
Hay un método sigiloso para sabotear la IA. Se llama ‘data poisoning’ y corrompe los modelos desde dentro www.xataka.com/robotica-e-ia/modelos-ia-tienen-problema-se-llama-data-poisoning-esta-envenenando-dentro La amenaza silenciosa que puede alterar los modelos de IA con solo 250 documentos wwwhatsnew.com/2025/10/13/la-amenaza-silenciosa-que-puede-alterar-los-modelos-de-ia-con-solo-250-documentos/ Anthropic Warns That Minimal Data Contamination Can ‘Poison’ Large AI Models | Technology News www.gadgets360.com/ai/news/anthropic-study-250-contaminated-data-samples-can-create-backdoor-in-large-ai-models-9436126 Only
Seguir leyendo