Anthropic oculta su nuevo modelo de IA, Mythos, por ser demasiado peligroso

Anthropic ha creado un nuevo modelo de IA tan poderoso que han preferido no hacerlo público. El Claude Mythos Preview ha encontrado “miles de vulnerabilidades” en el software, algunas que llevaban décadas sin ser descubiertas, según la compañía. Para mitigar sus consecuencias potenciales, Anthropic ha creado un proyecto llamado Glasswing, una colaboración con 12 empresas que les permite usar Mythos Preview para parchear sus vulnerabilidades antes de que este u otro modelo igual de potente las explote.

Seguir leyendo

 La compañía ha optado por ceder estrictamente su acceso a unas docenas de empresas escogidas para que lo usen para proteger su ‘software’  

Anthropic ha creado un nuevo modelo de IA tan poderoso que han preferido no hacerlo público. El Claude Mythos Preview ha encontrado “miles de vulnerabilidades” en el software, algunas que llevaban décadas sin ser descubiertas, según la compañía. Para mitigar sus consecuencias potenciales, Anthropic ha creado un proyecto llamado Glasswing, una colaboración con 12 empresas que les permite usar Mythos Preview para parchear sus vulnerabilidades antes de que este u otro modelo igual de potente las explote.

“Ha encontrado más vulnerabilidades Mythos Preview en dos semanas que yo en toda mi vida”, dice Nicholas Carlini, científico de la compañía en un vídeo de presentación. Una vulnerabilidad es un pequeño agujero creado sin querer en una pieza de software y que permite acceder o abusar del programa. Esas vulnerabilidades pueden estar en cualquier herramienta hecha con código: sistemas operativos, navegadores, programas financieros… Un humano necesitaba mucho conocimiento y muchas horas para dar con alguna. Mythos Preview es muchísimo más eficaz.

Entre las 12 compañías en el origen de Glasswing hay varias de las líderes de Silicon Valley en sus ámbitos: Apple, Amazon Web Services, Google, Microsoft, Nvidia o Crowdstrike. Anthropic ha ofrecido el uso del modelo a estas empresas y a otras 40 que manejan infraestructura crítica. También han hablado con el Gobierno de EE UU.

Mythos Preview debía ser simplemente un nuevo modelo centrado en código, después de que Claude Sonnet 4.5 marcara un hito en septiembre en la generación de código con IA. “Pero vimos que era especialmente bueno en ciberseguridad”, ha dicho el presidente ejecutivo de Anthropic, Dario Amodei.

Entre los hallazgos de Mythos revelados, y ya solucionados, hay una vulnerabilidad de 27 años en OpenBSD, un sistema operativo especialmente reforzado, otra que llevaba 16 años en FFmpeg, una librería que usan aplicaciones de vídeo, o varias vulnerabilidades en el núcleo de Linux, un software extremadamente popular y que permitía escalar desde acceso de usuario normal hasta control total de la máquina.

Mythos viene del griego antiguo y significa, según una nota de la propia compañía, “el sistema de historias a través del cual las civilizaciones daban sentido al mundo”. Existe el temor de que esta grandilocuencia con los riesgos sea solo una operación de marketing de Anthropic, pero hay al menos un precedente. OpenAI retrasó en 2019 la publicación de GPT-2, el padrino de la revolución que vivimos actualmente, porque era “demasiado peligroso”. Amodei, fundador de Anthropic, era entonces el encargado de Investigación de OpenAI.

Entonces el temor era que delincuentes usaran el modelo para crear desinformación o spam a escala. Ahora el miedo es más concreto y fácil de verificar: una vulnerabilidad de software existe o no. Mythos también es capaz de programar el exploit, el programita que permite abusar del error en el código. Además, profesionales ajenos a Anthropic la han probado y comprobado sus resultados.

Aparte de ser aparentemente impecable en tareas de ciberseguridad, Mythos es también un nuevo modelo que hace lo mismo que sus predecesores. Además de toda la prudencia informática y de no salir de momento al mercado, Anthropic ha publicado un manual de 244 páginas sobre todo lo que hace mejor o distinto Mythos respecto a sus antecesores, Sonnet y Opus.

Hace apenas unas semanas, Anthropic ya fue noticia por su batalla con el Departamento de Defensa. El Gobierno de EE UU catalogó la compañía un “riesgo para la cadena de suministro”, una medida extraordinaria que le impedía contratar con la Administración federal o con otras compañías que tengan contratos con el Pentágono. El fundador de la compañía fue a los tribunales y le dieron la razón. En sus acuerdos con el Pentágono, Anthropic había impuesto dos líneas rojas: que su modelo no se use para el espionaje masivo de ciudadanos ni para la gestión de armas autónomas sin supervisión.

 Sociedad en EL PAÍS

Te Puede Interesar