
Perplexity es una empresa de San Francisco fundada en 2022 por un exingeniero de OpenAI y es una de las IAs más conocidas del mercado; de hecho, hace poco se conoció que Cristiano Ronaldo invirtió en la compañía para quedarse con algunas acciones. En paralelo, enfrenta diversas denuncias por utilizar contenido protegido bajo derechos de autor. Por ejemplo, el año pasado, Dow Jones, propietario de The Wall Street Journal y The New York Post, presentó demandas contra la startup. Asimismo, en un informe lanzado en noviembre de este año, la BBC y la Unión Europea de Radiodifusión analizaron a cuatro IAs, entre ellas Perplexity, Chat GPT y Gemini, y detectaron que el 45 por ciento de las noticias son falsas o tienen imprecisiones.
“El interés de los medios es establecer algún tipo de compensación económica. Es algo que no hicieron de entrada con Google y Facebook y ahora tratan de hacerlo con la IA, sobre todo porque está comprobado que los motores de estas nuevas plataformas quitan muchísimo tráfico a las páginas de los medios de comunicación, por lo que necesitan atacar rápido esta cuestión”, explica Agustín Espada, investigador del Conicet en el Centro de Industrias Culturales y Espacio Público de la UNQ, a la Agencia de Noticias Científicas.
En este marco, las denuncias presentadas por los medios manifiestan que Perplexity utilizó contenidos –en algunos casos, artículos completos– de los periódicos para construir su motor de búsqueda y dar respuesta a sus usuarios. De esta manera, la IA no sólo no tiene el permiso de los medios ni estos reciben una compensación, sino que además se perfila como una página web competitiva.
En su demanda, Chicago Tribune plantea: “Al copiar el contenido protegido por derechos de autor y usarlo para crear una producción sustitutiva derivada de sus obras, eliminando la necesidad de que los usuarios visiten el sitio web del Chicago Tribune o compren su periódico, Perplexity está apropiándose indebidamente de importantes oportunidades de ingresos por suscripciones, publicidad, licencias y afiliados que pertenecen legítima y exclusivamente al Chicago Tribune”. En la misma línea, The New York Times también acusó a Perplexity de dañar su marca. En algunos casos, detalla la demanda, la IA inventó información –lo que se conoce como “alucinaciones”– y se la atribuyó al diario.
En cuanto al aspecto legal, Tomás Pomar, integrante del Observatorio de Derecho Informático en Argentina (O.D.I.A), detalla a la Agencia: “Las demandas contra Perplexity se apoya en la idea de que el uso de sus artículos por parte de sistemas de IA debería considerarse una violación a los derechos de propiedad intelectual que posee sobre los contenidos producidos por sus periodistas”. Y continúa: “Sin embargo, esta posición no se presenta como de fácil resolución. Es previsible que Perplexity argumente ante la justicia que las respuestas generadas por sus sistemas constituyen producciones autónomas que, si bien pueden tomar como insumo notas periodísticas, dan lugar a un objeto completamente nuevo. Si lograra probar ese punto, entraría en juego lo que la doctrina norteamericana denomina “fair use” (uso justo), una figura que excluye la hipótesis de violación del derecho de autor“.
De todas maneras, la IA no sólo afecta a los grandes medios sino también a sus trabajadores: los periodistas. En términos de Espada, por un lado, podrían quedarse sin trabajo en el corto o mediano plazo ya que sus notas no recibirán visitas directamente porque las personas van a informarse a través de la IA. “Por otro lado, hay un aspecto simbólico y es que la IA no reproduce textualmente lo que escribió el periodista sino que genera una nueva versión de eso, lo cual puede provocar una distorsión sobre el trabajo periodístico. Es decir, el trabajo queda invisibilizado y distorsionado“, aporta el investigador.
No es la primera vez que los medios intentan poner un freno a las IAs para poder llegar a un acuerdo. En 2023, The New York Times demandó a OpenAI y a Microsoft, argumentando que las empresas entrenaron sus sistemas de IA utilizando millones de artículos sin ofrecerles compensación. Acusaciones que fueron refutadas por las empresas. Por otra parte, en septiembre de este año, la empresa Anthropic, dueña del chatbot Claude AI, aceptó pagar al menos 1.500 millones de dólares a un grupo de escritores que la acusaban de robar sus libros para entrenar la tecnología sin abonarles nada a cambio. “Para un futuro, lo ideal sería que se establezcan relaciones que reestructuren una simetría en entre los medios y las IAs, por ejemplo, establecer regulaciones del uso de contenido o que las plataformas pidan autorización a los medios. Aunque, personalmente, no creo que se evolucione en ese sentido”, define Espada.

