Ciberseguridad6 min27 mar 2026

¿Fallo de Seguridad Épico? Anthropic Expone Detalles Secretos de un Nuevo Modelo de IA y Eventos Exclusivos

Escuchar
Compartir

Anthropic, una empresa líder en IA, sufrió una grave filtración de datos que reveló información confidencial sobre un modelo de IA no lanzado, un retiro de CEO y otros datos internos.

OMNI
OMNI
#Anthropic#IA#seguridad#filtración de datos#Claude#ciberseguridad
¿Fallo de Seguridad Épico? Anthropic Expone Detalles Secretos de un Nuevo Modelo de IA y Eventos Exclusivos
La compañía de inteligencia artificial Anthropic reveló inadvertidamente detalles de un próximo lanzamiento de modelo, un evento exclusivo para CEO y otros datos internos, incluyendo imágenes y archivos PDF, en lo que parece ser una importante falla de seguridad. La información, aún no pública, fue accesible a través del sistema de gestión de contenido (CMS) de la compañía, utilizado para publicar información en secciones de su sitio web. En total, había cerca de 3,000 activos vinculados al blog de Anthropic que no habían sido publicados previamente en los sitios públicos de noticias o investigación de la compañía, pero que, sin embargo, eran de acceso público en esta caché de datos, según Alexandre Pauwels, investigador de ciberseguridad de la Universidad de Cambridge, a quien Fortune solicitó evaluar y revisar el material.

Después de que Fortune informara a Anthropic sobre el problema, la compañía tomó medidas para asegurar los datos y evitar que fueran de acceso público. Antes de estas medidas, Anthropic almacenaba todo el contenido de su sitio web, como publicaciones de blog, imágenes y documentos, en un sistema central accesible sin necesidad de inicio de sesión. Cualquier persona con conocimientos técnicos podía enviar solicitudes a ese sistema público, pidiendo que devolviera información sobre los archivos que contenía. Aunque parte de este contenido no había sido publicado en el sitio web de Anthropic, el sistema subyacente aún devolvía los activos digitales que estaba almacenando a cualquiera que supiera cómo preguntar. Esto significa que se podía acceder directamente a material no publicado, incluyendo borradores de páginas y activos internos.
El problema parece provenir de cómo funciona el sistema de gestión de contenido (CMS) utilizado por Anthropic. Todos los activos, como logotipos, gráficos o documentos de investigación, que se cargaban en el almacén de datos central eran públicos por defecto, a menos que se establecieran explícitamente como privados. La compañía aparentemente olvidó restringir el acceso a algunos documentos que no debían ser públicos, lo que resultó en que la gran caché de archivos estuviera disponible en el lago de datos público de la compañía, según informaron a Fortune profesionales de ciberseguridad que analizaron los datos. Varios de los activos de la compañía también tenían direcciones de navegador públicas.

Una portavoz de Anthropic dijo a Fortune: “Un problema con una de nuestras herramientas CMS externas llevó a que el contenido en borrador fuera accesible”. La portavoz atribuyó el problema a “error humano en la configuración del CMS”.
La compañía también buscó restar importancia a la importancia de parte del material que había quedado sin asegurar. “Estos materiales eran borradores iniciales de contenido considerado para publicación y no involucraban nuestra infraestructura principal, sistemas de IA, datos de clientes o arquitectura de seguridad”, dijo la portavoz. Si bien muchos de los documentos parecen ser activos descartados o no utilizados para publicaciones de blog anteriores, como imágenes, banners y logotipos, algunos de los datos parecían detallar información sensible. Los documentos incluyen detalles de próximos anuncios de productos, incluida información sobre un modelo de IA no lanzado que, según Anthropic, es el modelo más capaz que ha entrenado hasta ahora.

Después de ser contactada por Fortune, la compañía reconoció que está desarrollando y probando con clientes de acceso anticipado un nuevo modelo que, según dijo, representaba un “cambio radical” en las capacidades de IA, con un rendimiento significativamente mejor en “razonamiento, codificación y ciberseguridad” que los modelos anteriores de Anthropic.
Los datos de acceso público también incluían información sobre un próximo retiro solo por invitación para los CEOs de grandes empresas europeas que se celebraría en el Reino Unido, al que estaba programado asistir el CEO de Anthropic, Dario Amodei. Una portavoz de Anthropic dijo que el retiro era “parte de una serie de eventos continuos que hemos organizado durante el último año” y que la compañía estaba “desarrollando un modelo de propósito general con avances significativos en razonamiento, codificación y ciberseguridad”. Entre los documentos también había imágenes que parecen ser para uso interno, incluida una imagen con un título que describe la “baja por paternidad” de un empleado.
No es la primera vez que una empresa tecnológica expone inadvertidamente activos internos o de pre-lanzamiento al dejarlos públicamente accesibles antes de los anuncios oficiales. Apple ha filtrado información dos veces a través de su propio sitio web, una vez en 2018, cuando los nombres de los próximos iPhones aparecieron en un archivo de mapa del sitio de acceso público horas antes del lanzamiento, y nuevamente a finales de 2025, cuando un desarrollador descubrió que Apple había enviado su App Store rediseñada con archivos de depuración activos, lo que hacía que todo el código interno del sitio fuera legible para cualquier persona con un navegador. Empresas de juegos como Epic Games y Nintendo también han visto filtraciones de imágenes de pre-lanzamiento, activos dentro del juego y otros medios a través de sistemas de red de entrega de contenido (CDN) o servidores de prueba, de forma similar al lago de datos que Anthropic utilizó en este caso. Incluso empresas más grandes como Google han expuesto accidentalmente documentación interna en URL públicas, y los datos asociados con los vehículos Tesla se han expuesto a través de servidores de terceros mal configurados.
Sin embargo, el problema probablemente se ve exacerbado por las herramientas de codificación de IA ahora disponibles en el mercado, incluido el propio Claude Code de Anthropic. Estas herramientas pueden automatizar el rastreo, la detección de patrones y la correlación de activos de acceso público, lo que facilita mucho más el descubrimiento de este tipo de contenido y reduce las barreras de entrada para hacerlo. Las herramientas de IA como Claude Code o Codex también pueden generar scripts o consultas que escanean conjuntos de datos completos, identificando rápidamente patrones o convenciones de nomenclatura de archivos que un humano podría pasar por alto.