AI8 min27 mar 2026

¡Exclusiva! Anthropic Revela Nuevo Modelo de IA 'Mythos' con Riesgos de Ciberseguridad Sin Precedentes

Escuchar
Compartir

Anthropic, tras una filtración accidental, anuncia un nuevo modelo de IA llamado 'Mythos' que representa un cambio radical en sus capacidades y plantea importantes riesgos de ciberseguridad.

OMNI
OMNI
#Anthropic#IA#Ciberseguridad#Claude Mythos#Filtración de datos
¡Exclusiva! Anthropic Revela Nuevo Modelo de IA 'Mythos' con Riesgos de Ciberseguridad Sin Precedentes
La compañía de inteligencia artificial Anthropic ha confirmado que está desarrollando y probando con clientes de acceso anticipado un nuevo modelo de IA, que representa un avance significativo en comparación con sus modelos anteriores. Este anuncio se produce tras una filtración de datos que reveló la existencia del modelo. Un portavoz de Anthropic describió el nuevo modelo como 'un cambio radical' en el rendimiento de la IA y 'el más capaz que hemos construido hasta la fecha'. Actualmente, el modelo está siendo probado por 'clientes de acceso anticipado'.

La información sobre el modelo fue almacenada accidentalmente en una caché de datos de acceso público, lo que permitió su revisión por parte de la revista Fortune. Un borrador de una publicación de blog, disponible en un almacén de datos público y no seguro, reveló que el nuevo modelo se llama 'Claude Mythos' y que la empresa considera que plantea riesgos de ciberseguridad sin precedentes. La misma caché de documentos reveló detalles de una cumbre de CEO solo por invitación en Europa, parte de la estrategia de la empresa para vender sus modelos de IA a grandes clientes corporativos.
El material filtrado, incluyendo lo que parecía ser un borrador de blog anunciando un nuevo modelo, fue dejado en un lago de datos público y no seguro, según documentos revisados por Roy Paz, investigador de seguridad de IA en LayerX Security, y Alexandre Pauwels, investigador de ciberseguridad de la Universidad de Cambridge. En total, cerca de 3,000 archivos relacionados con el blog de Anthropic, que no se habían publicado previamente en los sitios de noticias o investigación de la empresa, eran accesibles públicamente en esta caché de datos, según Pauwels.

Tras ser informada de la filtración por Fortune el jueves, Anthropic eliminó la capacidad del público para buscar en el almacén de datos y recuperar documentos. En una declaración, Anthropic reconoció que un 'error humano' en la configuración de su sistema de gestión de contenidos provocó que el borrador del blog fuera accesible. La empresa describió el material no publicado como 'borradores iniciales de contenido considerado para su publicación'.
Además de 'Mythos', el borrador del blog también mencionaba una nueva categoría de modelos de IA que se llamará 'Capybara'. En el documento, Anthropic afirma: 'Capybara es un nuevo nombre para una nueva categoría de modelo: más grande y más inteligente que nuestros modelos Opus, que hasta ahora eran nuestros más potentes'. Capybara y Mythos parecen referirse al mismo modelo subyacente.

Actualmente, Anthropic comercializa sus modelos en tres tamaños diferentes: las versiones más grandes y capaces se denominan Opus, mientras que las versiones ligeramente más rápidas y económicas, pero menos capaces, se denominan Sonnet, y las más pequeñas, baratas y rápidas se llaman Haiku. Sin embargo, en la publicación del blog, Anthropic describe a Capybara como una nueva categoría de modelo que es aún más grande y capaz que Opus, pero también más costosa.
La empresa afirmó: 'En comparación con nuestro mejor modelo anterior, Claude Opus 4.6, Capybara obtiene puntuaciones significativamente más altas en pruebas de codificación de software, razonamiento académico y ciberseguridad, entre otras'. El documento también indicaba que la empresa había completado el entrenamiento de 'Claude Mythos', que el borrador del blog describía como 'el modelo de IA más potente que hemos desarrollado'.

En respuesta a preguntas sobre el borrador del blog, la empresa reconoció el entrenamiento y las pruebas de un nuevo modelo. Un portavoz de Anthropic dijo: 'Estamos desarrollando un modelo de propósito general con avances significativos en razonamiento, codificación y ciberseguridad. Dada la fuerza de sus capacidades, estamos siendo deliberados sobre cómo lo lanzamos. Como es práctica estándar en toda la industria, estamos trabajando con un pequeño grupo de clientes de acceso anticipado para probar el modelo. Consideramos que este modelo es un cambio radical y el más capaz que hemos construido hasta la fecha'.
El documento filtrado señala que el nuevo modelo de IA plantea importantes riesgos de ciberseguridad. El borrador del blog indicaba: 'Al prepararnos para lanzar Claude Capybara, queremos actuar con precaución adicional y comprender los riesgos que plantea, incluso más allá de lo que aprendemos en nuestras propias pruebas. En particular, queremos comprender los riesgos a corto plazo del modelo en el ámbito de la ciberseguridad, y compartir los resultados para ayudar a los defensores cibernéticos a prepararse'.

Anthropic parece estar especialmente preocupada por las implicaciones de ciberseguridad del modelo, señalando que el sistema está 'actualmente muy por delante de cualquier otro modelo de IA en capacidades cibernéticas' y 'prefigura una próxima ola de modelos que pueden explotar vulnerabilidades de formas que superan con creces los esfuerzos de los defensores'. En otras palabras, Anthropic teme que los hackers puedan utilizar el modelo para llevar a cabo ciberataques a gran escala.
La empresa afirma que, debido a este riesgo, su plan para el lanzamiento del modelo se centrará en los defensores cibernéticos: 'Lo estamos lanzando en acceso anticipado a organizaciones, dándoles una ventaja inicial en la mejora de la solidez de sus bases de código contra la inminente ola de exploits impulsados por la IA'. Las últimas generaciones de modelos de vanguardia, tanto de Anthropic como de OpenAI, han cruzado un umbral que, según las empresas, plantea nuevos riesgos de ciberseguridad.

En febrero, cuando OpenAI lanzó GPT-5.3-Codex, la empresa dijo que era el primer modelo que había clasificado como de 'alta capacidad' para tareas relacionadas con la ciberseguridad bajo su Marco de Preparación, y el primero que había entrenado directamente para identificar vulnerabilidades de software. Anthropic, por su parte, navegó por riesgos similares con su Opus 4.6, lanzado la misma semana. El modelo demostró la capacidad de detectar vulnerabilidades previamente desconocidas en bases de código de producción, una capacidad que la empresa reconoció que era de doble uso, lo que significa que podría ayudar tanto a los hackers como a los defensores de la ciberseguridad a encontrar y cerrar vulnerabilidades en el código.
La filtración de información aún no pública parece deberse a un error por parte de los usuarios del sistema de gestión de contenidos (CMS) de la empresa, que es el software utilizado para publicar el blog público de la empresa, según los profesionales de ciberseguridad. Los activos digitales creados con el sistema de gestión de contenidos se configuran como públicos de forma predeterminada y, por lo general, se les asigna una URL de acceso público cuando se cargan, a menos que el usuario cambie explícitamente una configuración para que estos activos se mantengan privados. Como resultado, una gran cantidad de imágenes, archivos PDF y archivos de audio parecen haber sido publicados erróneamente en una URL no segura y de acceso público a través del sistema de gestión de contenidos listo para usar.

Anthropic reconoció en una declaración a Fortune que 'un problema con una de nuestras herramientas CMS externas provocó que el contenido del borrador fuera accesible'. Atribuyó este problema a un 'error humano'. Muchos de los documentos parecían ser activos descartados o no utilizados para publicaciones anteriores del blog, como imágenes, banners y logotipos. Sin embargo, varios parecían ser lo que se pretendía que fueran documentos privados o internos. Por ejemplo, un activo tiene un título que describía la 'licencia parental' de un empleado.
Los documentos también incluían un PDF que contenía información sobre un retiro próximo, solo por invitación, para los CEO de empresas europeas que se celebraría en el Reino Unido, y al que asistirá el CEO de Anthropic, Dario Amodei. No se enumeran los nombres de los otros asistentes, pero se les describe como los líderes empresariales más influyentes de Europa.

El retiro de dos días se describe como una 'reunión íntima' para participar en una 'conversación reflexiva' en una mansión del siglo XVIII convertida en hotel y spa en la campiña inglesa. El documento dice que los asistentes escucharán a legisladores y formuladores de políticas sobre cómo las empresas están adoptando la IA y experimentarán las capacidades no publicadas de Claude. Un portavoz de Anthropic dijo a Fortune que el evento 'es parte de una serie continua de eventos que hemos organizado durante el año pasado. Esperamos dar la bienvenida a los líderes empresariales europeos para discutir el futuro de la IA'.