Anthropic ha desarrollado un modelo de inteligencia artificial tan avanzado que supera en un 25% a su predecesor en pruebas de seguridad informática. Sin embargo, debido a su alto potencial de riesgo, solo estará disponible para 40 organizaciones de seguridad seleccionadas.

La empresa considera que el modelo, denominado internamente Claude Mythos, es demasiado peligroso para el público general. Por lo tanto, lo desplegará únicamente a socios seleccionados bajo el programa Project Glasswing.

El modelo de IA más avanzado de Anthropic

Claude Mythos es un modelo de IA que ha demostrado ser capaz de encontrar vulnerabilidades de software de manera más eficiente que su predecesor, Opus 4.6. En pruebas internas, Mythos alcanzó un 83,1% de eficacia en CyberGym, mientras que Opus 4.6 se quedó en el 66,6%.

Logan Graham, responsable del equipo de red team de Anthropic, describe Mythos como equivalente a un investigador de seguridad muy avanzado. Puede encontrar decenas de miles de vulnerabilidades que un experto humano difícilmente detectaría.

Limitaciones y riesgos del modelo

La empresa ha decidido limitar el despliegue de Mythos debido a los riesgos potenciales que conlleva. Si se lanzara al público, miles de aplicaciones críticas de seguridad podrían resultar vulnerables.

Para evitar esto, Anthropic ha seleccionado a 40 empresas que podrán utilizar Mythos para analizar sus propios sistemas y software de código abierto. Estas empresas incluyen a doce socios fundacionales de Anthropic.