Ciberseguridad: crean una IA que promete combatir cualquier tipo falla informática

Se denomina Claude Mythos Preview y fue lanzada de manera reciente por Anthropic. Grandes compañías como Google, Microsoft y Amazon están interesadas en usarla.

Créditos: Qore.
Créditos: Qore.
3 minutos

La empresa estadounidense Anthropic, creadora de la inteligencia artificial Claude (similar a ChatGPT), anunció el desarrollo de su nuevo chiche: Claude Mythos Preview. Se trata de una IA con capacidad para detectar errores de seguridad en sistemas operativos y navegadores. Días atrás, referentes de la compañía se reunieron con gigantes tecnológicos como Google y Microsoft para lanzar el Proyecto Glasswing. Una iniciativa que empleará a la IA para mejorar la ciberseguridad antes de que sea demasiado tarde.

En diálogo con la Agencia de Noticias Científicas, Sebastian Javier Marchano, integrante del Observatorio de Derecho Informático Argentino, explica: “Lo que vio Anthropic es que este modelo de IA en poco tiempo pudo encontrar problemas en softwares o aplicaciones que usamos día a día y que están presentes en nuestros celulares o computadoras, como las apps de bancos, de colectivos o billeteras digitales”.

Claude Mythos Preview Mythos detectó, por ejemplo, varias fallas en la parte central del sistema operativo de Linux —el software que ejecuta la mayoría de los servidores del mundo—. Esos errores en la seguridad permitían que un atacante pueda tomar el control total del sistema. También, el modelo descubrió una falla de 27 años de antigüedad en OpenBSD, un sistema operativo conocido como uno de los más seguros del mundo y que se utiliza para bloquear el acceso no autorizado a una red o equipo. La vulnerabilidad que halló la IA permitía a un atacante bloquear remotamente cualquier máquina que ejecutara el sistema operativo simplemente conectándose a ella.

En ese sentido, Anthropic definió no ofrecer este sistema de IA a todo el público hasta que se solucionen las fallas que poseen los softwares. Para eso, solamente tienen acceso los gigantes tecnológicos que forman parte del Proyecto Glasswing: Amazon Web Services, Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, la Fundación Linux, Microsoft, NVIDIA y Palo Alto Networks.

Así lo describe el comunicado: “Dado el ritmo de avance de la IA, no pasará mucho tiempo antes de que estas capacidades se extiendan, posiblemente más allá de los actores comprometidos con su implementación segura. Las consecuencias —para la economía, la seguridad pública y la seguridad nacional— podrían ser graves. El Proyecto Glasswing es un intento urgente de utilizar estas capacidades con fines defensivos”.

Por su parte, Marchano se permite dudar: “Creo que no lanzan la IA a todo el público porque hay una cuestión técnica que no se los permite. Claude Mythos Preview tiene 10 millones de parámetros, es decir el tamaño de esta IA es muy grande y termina siendo un modelo demasiado caro y que requiere de mucha energía y agua para poder funcionar”. Cuando el especialista habla de tamaño, se refiere a los valores que usa la IA para aprender y generar respuestas. Cada parámetro es como una perilla que se ajusta; cuantas más perillas, más capacidad tiene la IA para aprender patrones complejos.

Marchano continúa: “Además Anthropic no tiene su propio data center, sino que utiliza el de Google, y Google no tiene tanto hardware como sí lo tienen otras empresas como Nvidia. Entonces, la capacidad técnica no le está alcanzando para poder presentar esta IA y que sea usada por todo el mundo. Creo que si pudieran hacerlo, la publicarían sin pensar en la seguridad de los servidores. Aprovechan esa situación para posicionarse y decir ‘tengo una IA que es peligrosa’”.

Lo que está por detrás de Claude Mythos Preview probablemente se sepa más adelante, pero ya surgen dudas.


¿Te gustó esta noticia? ¡Compartila!
Scroll al inicio