
“Hay un problema con la IA generativa, no sólo con Chat GPT, de que al basarse en los datos disponibles, incurre en lo que algunos llaman ‘bucles de retroalimentación’, dice Correa. Y explica: “Se sienten más seguros al responder lo que figura como más presente en internet y no en lo más certero. Con la brecha digital de género existente, sumado a una menor participación de las mujeres en los últimos tiempos en debates en las redes sociales y sin un claro entendimiento de los procesos que hay detrás de cada dato que muestra internet, los resultados salen sesgados”.
Según detalla Correa, coordinadora del posgrado sobre violencia de género en entornos digitales de la Facultad de Derecho de la UBA, el sesgo en lo que respecta a género es muy notorio. De hecho, un estudio reciente publicado por la Unesco pone de manifiesto que los Modelos de Lenguaje Grandes, como Chat GPT y Llama2, generan prejuicios de género y manifestaciones de homofobia y estereotipos raciales. Por ejemplo, muchas veces las mujeres son asociadas con términos como “hogar”, “familia” e “hijos”, mientras que los nombres masculinos se vinculan con palabras como “negocios”, “ejecutivo”, “salario” y “carrera”.
En este marco, OlivIA podría ser un oasis al poder detectar si una política pública tiene enfoque de género, analizar imágenes, campañas y discursos con mirada crítica, visibilizar desigualdades en la representación de mujeres y disidencias o aportar argumentos desde los derechos humanos para la revisión de textos jurídicos.
De todas maneras, “para que quede claro que ninguna respuesta es la verdad revelada, además de darte elementos”, OlivIA propone preguntas como “¿No estarás dejando afuera a una parte de la audiencia? ¿Chequeaste que los síntomas de determinada enfermedad son diferentes para mujeres que para hombres? ¿No te parece que falta una opinión aquí? ¿Querés que te ayude a buscarla?”.
Lejos de dar una respuesta final, OlivIA ayuda a los usuarios a cuestionar sus trabajos, sus hábitos, la información y las fuentes de información de donde son obtenidas las respuestas que da Chat GPT en general.
Entrenar una IA
Para entrenar esta inteligencia artificial creada dentro del ecosistema de Chat GPT, Correa le acercó estudios e instrumentos para que realice un ejercicio de autoevaluación y cuestionamiento que proporcionó la jurista Katharine T. Bartlett, en su artículo “Feminist Legal Methods”.
“Allí planteó una metodología clave para el análisis jurídico desde una perspectiva feminista. Una de sus principales herramientas es lo que ella denomina ‘la pregunta por las mujeres’ o también conocida como ‘preguntarse por la mujer’, la cual busca develar cómo las leyes, políticas o prácticas afectan de manera particular a las mujeres y reproducen desigualdades. Esto lo podemos aplicar desde a la organización de un evento, hasta a una entrevista periodística y también a un artículo académico”, desarrolla Correa ante la Agencia.
De todas maneras, aunque está entrenada con información, investigaciones y datos, OlivIA no esta exenta de cometer errores. En palabras de su creadora, nada reemplaza el análisis de las personas humanas especializadas en el tema.