El boom de Nano Banana: ¿es necesaria otra IA que genere fotos?

Google actualizó su app para crear imágenes y se suma a la carrera por superar a Photoshop. Lo que podría pasar con los derechos de los usuarios.

Esta herramienta permite combinar varias imágenes en una sola, mantener contexto de los personajes tras varias indicaciones del usuario y realizar transformaciones específicas. Créditos: Vandal.
Esta herramienta permite combinar varias imágenes en una sola, mantener contexto de los personajes tras varias indicaciones del usuario y realizar transformaciones específicas. Créditos: Vandal.

Un nuevo fenómeno surgió en Internet con las creaciones de Nano Banana, el editor y generador de imágenes con inteligencia artificial (IA) que lanzó Google y que forma parte de su plataforma de IA, Gemini. Esta actualización permite combinar varias imágenes en una sola, mantener el contexto y la coherencia de los personajes de una foto tras varios pedidos del usuario y realizar transformaciones específicas, como cambiar la pose de una persona. Ahora bien, esta herramienta se suma a otras opciones existentes como Chat GPT, Grok o Midjourney (esta última creadora de las imágenes falsas de Donald Trump detenido o el Papa en su versión de cantante de trap). Con esto y más, ¿es necesaria otra Inteligencia Artificial que genere imágenes? ¿Qué impacto tienen? ¿Están protegidos los derechos de los usuarios?

En diálogo con la Agencia de Noticias Científicas, Emmanuel Iarussi, especialista en Inteligencia Artificial relata: “No hace falta ‘otra’, pero sí mejores: más controlables, más transparentes, que respeten derechos y datos, con sesgos reducidos, costos bajos y focos específicos, como lenguas locales o uso offline. Por ahora, de todos estos frentes, las grandes empresas parecen priorizar, sobre todo, el control por parte del usuario; es decir, que haga exactamente lo que uno pide“. El lanzamiento de ‘Nano Banana’ va en esa línea: trae mejoras sobre comandos más finos y usabilidad, pero, en términos de Iarussi, no es un salto radical ni algo completamente nuevo:” la mayoría son iteraciones sobre lo ya existente”.

Según desarolla Google, Nano Banana –su nombre técnico es Gemini 2.5 Flash Image– tiene capacidad para entender los prompts mejor que sus competencias. Un prompt es una instrucción, guía o pregunta que se le hace a una IA. Además, permite mantener la coherencia de los personajes, es decir, tras múltiples ediciones e indicaciones, la apariencia del personaje u objeto se sostiene y puede ser mostrado desde distintos ángulos o en diferentes contextos. Inclusive, con una instrucción, el modelo puede desenfocar o cambiar el fondo de una imagen, alterar la pose de un sujeto o añadir color a una foto en blanco y negro.

Así y todo, con mayor o menor nitidez, ofrece opciones que ya figuran en otras plataformas de IA, como Chat GPT o Midjourney, y en apps de edición de fotos, como Photoshop o alguna que se pueda descargar de PlayStore. “Detrás del boom hay un combo: modelos de IA ya entrenados que son fáciles de licenciar, servicios en la nube ‘baratos’, código abierto y capital de riesgo buscando qué producto tiene éxito y se convierte en el próximo Photoshop. Muchas aplicaciones son re-empaquetados del mismo software con otra interfaz de usuario, lo que realmente cambia suele ser los datos con el que se entrenan, la experiencia de uso y cuánto control te dan sobre la edición de la imagen”, explica Iarussi.

Por su parte, Tomás Pomar, integrante del Observatorio de Derecho Informático Argentino, aporta ante la Agencia: “Detrás de estas apps no hay generosidad ni acceso libre al arte: hay un modelo de negocio. Lo que parece gratuito es, en realidad, una forma de que los usuarios entrenen, sin saberlo, modelos de inteligencia artificial privados”. Asimismo, detalla que cada vez que un usuario sube una foto o escribe un prompt, ayuda a mejorar los sistemas de empresas que luego comercializan esos resultados. “El usuario aporta creatividad, tiempo y datos; la empresa se queda con el modelo mejorado”, afirma.

¿Tienen derechos los usuarios?

Muchas de estas aplicaciones afirman proteger los datos personales, sin embargo, en la práctica los términos de uso suelen ser amplios y opacos, y resulta difícil saber qué ocurre realmente con la información que el usuario entrega. En este marco, las personas se enfrentan a riesgos que pocas veces conocen.

Iarussi nombra, por ejemplo, que el derecho a la privacidad y el uso de datos pueden verse afectados. “Al subir una foto para ‘retocar el fondo’, puede estar aceptando que esa imagen se use luego para entrenar el modelo. De igual manera, sucede con propiedad intelectual: pedir una imagen ‘al estilo de una caricaturista famosa’ o subir el logo de tu empresa puede chocar con derechos de autor y de marca”, manifiesta.

También, muchas veces se utilizan estas herramientas para generar deepfakes, como el video falso de una figura pública en campaña, estafas con rostros o incluso pornografía. Inclusive, el costo ambiental afecta los derechos de las personas: ejecutar cientos de evaluaciones con imágenes de alta resolución multiplica la huella de carbono.

“El riesgo no está solo en lo que subimos, sino también en cómo usamos la app. Cada prompt que escribimos, cada preferencia estética que elegimos o cada cambio que hacemos a una imagen, va dejando un registro de comportamiento. Esa información es valiosa: permite perfilar al usuario, anticipar decisiones, y alimentar modelos que aprenden no solo a generar imágenes, sino a leer deseos, hábitos y estilos de pensamiento”, desgloza Pomar.

Y asevera: “Necesitamos mayor transparencia y control judicial sobre cómo se entrenan estos modelos, así como políticas públicas que prioricen los derechos digitales y la soberanía tecnológica. De lo contrario, seguimos alimentando tecnologías que operan bajo una lógica de acumulación de datos y poder que escapa al control ciudadano e institucional”.


¿Te gustó esta noticia? ¡Compartila!
Scroll al inicio