Inteligencia artificial: Musk desafía a ChatGPT y convierte a su chatbot en código abierto
La decisión fue anunciada a través de X y entraría en vigencia esta semana. Así, el magnate se opone a la compañía que él mismo contribuyó a crear y se diferencia de sus antiguos socios.
Elon Musk anunció a través de su red social X que esta semana convertirá a Grok (un chatbot similar al famoso ChatGPT) en código abierto. Esta decisión le permitiría a cualquier persona acceder al código que está detrás de la tecnología y realizarle sus propias modificaciones al programa. En su batalla contra OpenAI, empresa desarrolladora del GPT, el magnate estadounidense dijo que “OpenAI es una mentira”. Así, se distancia de la empresa que conformó en sus inicios y opta por una estrategia de confrontación que además incluye burlas y memes en la ex Twitter. En más de una oportunidad, el magnate de Tesla había dicho que la inteligencia artificial no debía tener fines lucrativos. Por eso, la nueva apuesta es oponerse al código cerrado que es privado y denunciar que Open AI busca obtener “el máximo beneficio”.
“Que Grok, el chatbot desarrollado por la empresa xAI de Elon Musk y similar a GPT, pase a ser de código abierto significa que el código fuente de Grok se vuelva accesible para cualquier persona. Esto permite a desarrolladores de todo el mundo estudiar cómo funciona el chatbot, modificarlo, mejorar su código, o incluso integrar su tecnología en sus propios proyectos”, señala Emmanuel Iarussi, científico de Conicet y miembro del Laboratorio de Inteligencia Artificial de la Universidad Torcuato Di Tella, en diálogo con la Agencia de Noticias Científicas de la Universidad Nacional de Quilmes.
A su vez, Iarussi resalta que no es la primera vez que Elon Musk se involucra en desarrollos de este tipo. De hecho, el dueño de SpaceX y Tesla, es cofundador de OpenAI, una empresa que en sus orígenes también tenía el objetivo de crear modelos de código abierto (de ahí el Open en OpenAI).
Mientras que los defensores del código abierto celebran la noticia ya que podría acelerar los desarrollos al interior de Grok y de la inteligencia artificial en general, otros especialistas advierten que esta decisión podría servir para intereses espurios, como por ejemplo el desarrollo de armas biológicas.
¿Cómo regular la IA?
El propio Musk propuso en la Cumbre de Seguridad de la IA celebrada en 2023 un “arbitro externo” para supervisar los avances y alarmar en caso de preocupación. Incluso, en marzo de 2023 firmo una carta junto a otros líderes donde llamaba “a frenar los entrenamientos de la inteligencia artificial más potente que GPT-4 por seis meses”.
Al respecto, el científico del Conicet explica: “La idea de establecer un árbitro externo que supervise a las empresas que desarrollan inteligencia artificial es conceptualmente posible y podría ayudar a mitigar algunos de los riesgos asociados con el desarrollo y despliegue de tecnologías de IA avanzadas. Esa entidad podría funcionar de manera similar a cómo las agencias reguladoras supervisan otros sectores críticos, estableciendo estándares, realizando auditorías y asegurando que se cumplan las normas éticas y de seguridad”.
Sin embargo, para el especialista en inteligencia artificial, esta agencia es difícil de implementar ya que los productos basados en IA que se lanzan al mercado son más rápidos que las regulaciones e instituciones que definen dichos temas.
“La verdad” y la verdad
Más allá de ser dueño de múltiples empresas ligadas a nuevas tecnologías, Musk es un hombre que de forma pública se posiciona en términos políticos. De hecho, en enero tuiteó en favor de Javier Milei a raíz del discurso del presidente argentino en Davos, y públicamente apoyó a Trump y Bolsonaro. Es más, con el expresidente de Brasil firmó un acuerdo para llevar internet a 19 mil escuelas de la Amazonia.
Su anhelo por “la libertad” y lo que representan estos personajes en términos discursivos coincide con el deseo que expresó en el lanzamiento de su empresa de inteligencia artificial en 2023. Allí, Musk dijo que sería una “IA que busque la máxima verdad”.
“Hay un tema con la verdad en el discurso de personajes de derecha como Musk o Trump. Recordemos que el expresidente de Estados Unidos es dueño de una red social que se llama Truth Social. No soy especialista, pero tiendo a pensar que se habla de la verdad como una forma de reclamar autoridad moral o intelectual. Cuando Musk habla de desarrollar una IA que busque la máxima verdad, se adentra en un territorio que no sólo es tecnológico sino también filosófico, ético, y que resulta funcional a su discurso político”, reflexiona el miembro del Laboratorio de Inteligencia Artificial de la Universidad Torcuato Di Tella.
No obstante, Iarussi subraya que la premisa de “verdad” está alejada de la realidad tecnológica actual. “Los algoritmos de IA se entrenan con conjuntos de datos que contienen sesgos y las decisiones sobre qué datos se incluyen o excluyen, así como cómo se ponderan diferentes tipos de información, pueden influir en la verdad que la IA refleja. Además, la interpretación de qué constituye la máxima verdad puede variar ampliamente entre diferentes grupos ideológicos, lo que complica aún más desde el punto de vista técnico el objetivo de desarrollar algo así”.