
En diálogo con la Agencia de Noticias Científicas, Emmanuel Iarussi, especialista en Inteligencia Artificial relata: “No hace falta ‘otra’, pero sí mejores: más controlables, más transparentes, que respeten derechos y datos, con sesgos reducidos, costos bajos y focos específicos, como lenguas locales o uso offline. Por ahora, de todos estos frentes, las grandes empresas parecen priorizar, sobre todo, el control por parte del usuario; es decir, que haga exactamente lo que uno pide“. El lanzamiento de ‘Nano Banana’ va en esa línea: trae mejoras sobre comandos más finos y usabilidad, pero, en términos de Iarussi, no es un salto radical ni algo completamente nuevo:” la mayoría son iteraciones sobre lo ya existente”.
Según desarolla Google, Nano Banana –su nombre técnico es Gemini 2.5 Flash Image– tiene capacidad para entender los prompts mejor que sus competencias. Un prompt es una instrucción, guía o pregunta que se le hace a una IA. Además, permite mantener la coherencia de los personajes, es decir, tras múltiples ediciones e indicaciones, la apariencia del personaje u objeto se sostiene y puede ser mostrado desde distintos ángulos o en diferentes contextos. Inclusive, con una instrucción, el modelo puede desenfocar o cambiar el fondo de una imagen, alterar la pose de un sujeto o añadir color a una foto en blanco y negro.
Así y todo, con mayor o menor nitidez, ofrece opciones que ya figuran en otras plataformas de IA, como Chat GPT o Midjourney, y en apps de edición de fotos, como Photoshop o alguna que se pueda descargar de PlayStore. “Detrás del boom hay un combo: modelos de IA ya entrenados que son fáciles de licenciar, servicios en la nube ‘baratos’, código abierto y capital de riesgo buscando qué producto tiene éxito y se convierte en el próximo Photoshop. Muchas aplicaciones son re-empaquetados del mismo software con otra interfaz de usuario, lo que realmente cambia suele ser los datos con el que se entrenan, la experiencia de uso y cuánto control te dan sobre la edición de la imagen”, explica Iarussi.
Por su parte, Tomás Pomar, integrante del Observatorio de Derecho Informático Argentino, aporta ante la Agencia: “Detrás de estas apps no hay generosidad ni acceso libre al arte: hay un modelo de negocio. Lo que parece gratuito es, en realidad, una forma de que los usuarios entrenen, sin saberlo, modelos de inteligencia artificial privados”. Asimismo, detalla que cada vez que un usuario sube una foto o escribe un prompt, ayuda a mejorar los sistemas de empresas que luego comercializan esos resultados. “El usuario aporta creatividad, tiempo y datos; la empresa se queda con el modelo mejorado”, afirma.
¿Tienen derechos los usuarios?
Muchas de estas aplicaciones afirman proteger los datos personales, sin embargo, en la práctica los términos de uso suelen ser amplios y opacos, y resulta difícil saber qué ocurre realmente con la información que el usuario entrega. En este marco, las personas se enfrentan a riesgos que pocas veces conocen.
Iarussi nombra, por ejemplo, que el derecho a la privacidad y el uso de datos pueden verse afectados. “Al subir una foto para ‘retocar el fondo’, puede estar aceptando que esa imagen se use luego para entrenar el modelo. De igual manera, sucede con propiedad intelectual: pedir una imagen ‘al estilo de una caricaturista famosa’ o subir el logo de tu empresa puede chocar con derechos de autor y de marca”, manifiesta.
También, muchas veces se utilizan estas herramientas para generar deepfakes, como el video falso de una figura pública en campaña, estafas con rostros o incluso pornografía. Inclusive, el costo ambiental afecta los derechos de las personas: ejecutar cientos de evaluaciones con imágenes de alta resolución multiplica la huella de carbono.

