
Claude Mythos Preview Mythos detectó, por ejemplo, varias fallas en la parte central del sistema operativo de Linux —el software que ejecuta la mayoría de los servidores del mundo—. Esos errores en la seguridad permitían que un atacante pueda tomar el control total del sistema. También, el modelo descubrió una falla de 27 años de antigüedad en OpenBSD, un sistema operativo conocido como uno de los más seguros del mundo y que se utiliza para bloquear el acceso no autorizado a una red o equipo. La vulnerabilidad que halló la IA permitía a un atacante bloquear remotamente cualquier máquina que ejecutara el sistema operativo simplemente conectándose a ella.
En ese sentido, Anthropic definió no ofrecer este sistema de IA a todo el público hasta que se solucionen las fallas que poseen los softwares. Para eso, solamente tienen acceso los gigantes tecnológicos que forman parte del Proyecto Glasswing: Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Fundación Linux, Microsoft, NVIDIA y Palo Alto Networks.
Así lo describe el comunicado: “Dado el ritmo de avance de la IA, no pasará mucho tiempo antes de que estas capacidades se extiendan, posiblemente más allá de los actores comprometidos con su implementación segura. Las consecuencias —para la economía, la seguridad pública y la seguridad nacional— podrían ser graves. El Proyecto Glasswing es un intento urgente de utilizar estas capacidades con fines defensivos”.
Por su parte, Marchano se permite dudar: “Creo que no lanzan la IA a todo el público porque hay una cuestión técnica que no se los permite. Claude Mythos Preview tiene 10 millones de parámetros, es decir el tamaño de esta IA es muy grande y termina siendo un modelo demasiado caro y que requiere de mucha energía y agua para poder funcionar”. Cuando el especialista habla de tamaño, se refiere a los valores que usa la IA para aprender y generar respuestas. Cada parámetro es como una perilla que se ajusta; cuantas más perillas, más capacidad tiene la IA para aprender patrones complejos.
Marchano continúa: “Además Anthropic no tiene su propio data center, sino que utiliza el de Google, y Google no tiene tanto hardware como sí lo tienen otras empresas como Nvidia. Entonces, la capacidad técnica no le está alcanzando para poder presentar esta IA y que sea usada por todo el mundo. Creo que si pudieran hacerlo, la publicarían sin pensar en la seguridad de los servidores. Aprovechan esa situación para posicionarse y decir ‘tengo una IA que es peligrosa’”.

