El Papa trapero, Trump detenido y Biden de fiesta: ¿cómo desinforma la inteligencia artificial?
Si bien existen algunas técnicas para detectar una imagen manipulada, esta tecnología se perfecciona cada día y vuelve necesaria la regulación estatal.
La Inteligencia Artificial avanza y a través de sus herramientas genera fotografías que se asemejan mucho a la realidad. Esto se evidencia, por ejemplo, con las fotos del Papa vistiendo un abrigo blanco similar al que usan los traperos; o con las del supuesto arresto de Donald Trump. Estas imágenes, publicadas de manera reciente, dieron lugar a discusiones en las redes sociales y abren un interrogante: ¿de qué manera la Inteligencia Artificial contribuye a la desinformación? La Agencia de Noticias Científicas de la UNQ dialogó con Emmanuel Iarussi, científico de Conicet y miembro del Laboratorio de Inteligencia Artificial de la Universidad Torcuato Di Tella, que afirma: “No hay antecedentes de una tecnología que nos permita crear imágenes tan reales y de manera tan masiva”.
“Imágenes photoshopeadas tenemos desde principios del 2000. Hay algunos expertos que controlaban esas tecnologías y que las personas requerían de varias habilidades para poder crear cosas, entonces no todo el mundo podía manipular una imagen”, explica Iarussi y continúa: “Ahora con solo saber escribir y tener la tecnología ya podes hacer cosas. Pones un texto de lo que querés y después de un par de pruebas generás la imagen”.
Si bien la viralización de la foto del Papa terminó siendo algo lúdico, la manipulación de imágenes pueden incluir personalidades de gran relevancia en el mundo que lleve a la confusión y a la desinformación. Tal es el caso de las fotos de la supuesta detención del expresidente estadounidense Donald Trump o el video que circuló en 2022 en el que se ve al presidente ucraniano Volodymyr Zelensky pidiendo a sus tropas que se rindan en la guerra con Rusia, donde tanto su voz como su imagen habían sido alteradas.
“Se llaman deepfakes porque son creadas con redes neuronales profundas que buscan imitar la apariencia humana. En Argentina, por ejemplo, está el usuario Tutanka que sube vídeos de Cristina Fernández cantando canciones de moda”, ejemplifica el científico. Además, explica que el uso de la Inteligencia Artificial puede ser peligroso al contribuir a manipular la realidad y desacreditar a ciertas instituciones o personas y “sobretodo si existe algún tipo de polarización preexistente. No sería raro que esto contribuya a profundizar esas diferencias porque hay una porción de la sociedad dispuesta a creer cierto contenido de la contraparte aunque sea falso”, detalla a la Agencia.
Una distopía muy cercana
Hoy en día existen algunas técnicas para detectar si una imagen es real o fue hecha por inteligencia artificial, como prestar atención a las manos que suelen ser algo deformes o mirar los ojos ya que los iris no son tan redondos si fue manipulada la imagen. Sin embargo, el especialista considera que se trata de algo transitorio hasta que esta tecnología mejore.
“Nos pueden servir para detectar algunas cosas pero estamos obligados a pensar que estas imágenes pueden llegar a ser perfectas. Los algoritmos están siendo entrenados para ser indistinguibles, entonces es necesario que guardemos una dosis sana de escepticismo. Quizás de acá a 20 años estemos tan acostumbrados que digamos ‘Ah, sí, esto está generado’ pero ahora estamos viviendo un momento de transición y debemos acostumbrarnos a dudar de la verdad. La tecnología va avanzar y van a existir cada vez menos contenidos reales”, manifiesta.
De la misma manera sucede con el texto, un ejemplo claro es el Chat GPT: “Uno lee los textos y parece que lo escribió cualquier persona porque justamente están entrenados con textos que escribió cualquiera en internet. Son buenos en hacerse pasar por alguien, en imitar”, dice.
Por su parte, las redes sociales que ocupan un lugar central en la viralización de estos contenidos pusieron en funcionamiento algunas herramientas (aunque suena a poco) para detectar contenidos falsos, como advertencias o repreguntas en casos de compartir contenido sin leerlo.
¿Cuál es el límite?
Casi como si fuera un capítulo de la serie Black Mirror, la tecnología avanza sin control y a disposición de todo el mundo. Según Iarussi, hay un cambio de paradigma que sucede de una manera muy veloz.
“Si hace cinco años nos preguntaban si veíamos esto posible, hubiésemos dicho que no. El cambio está pasando aunque casi no lo podamos ver porque es muy fuerte. Mi consejo es no creer de manera impulsiva todo lo que vemos ni compartir aquello que nos genere dudas, pero la responsabilidad mayor la tienen los Estados y las empresas que hacen disponibles estas tecnologías y que impactan fuertemente en el trabajo, la economía, la educación y en el modo de informarse”, sostiene el especialista.
Y agrega: “Nuestro rol tiene que estar en exigir una regulación. ¿Cuántas decisiones de los gobiernos tardan años en los parlamentos pero estas tecnologías las pone una empresa a disposición y pone el mundo patas para arriba sin ningún tipo de regulación? Está bueno que la tecnología exista pero no hay ningún límite ni horizonte temporal de ponerlas a disposición cada cierto tiempo para evaluar los impactos. Es un ‘tenemos esta tecnología, vamos a jugar’. Al no haber una planificación, vamos juntando por atrás los pedacitos de las cosas que se rompen”.
La inteligencia artificial es una herramienta poderosa que invita (y obliga) a la sociedad a informarse y plantear discusiones: ¿Cómo se usa esta tecnología? ¿Para qué? ¿Vale todo? A simple vista parecen interrogantes del futuro, pero en verdad corresponden a un presente que se escribe de modo continuo.