Los primeros estudios sobre Chat GPT aseguran que genera más aislamiento y dependencia emocional

Aquellos usuarios que dialogan con la IA durante un tiempo prolongado pueden sufrir efectos negativos en su bienestar psicosocial.

Créditos: Getty Images
Créditos: Getty Images

Según Brad Lightcap, director de operaciones de OpenAI, ChatGPT cuenta con 400 millones de usuarios semanales. En este sentido, se vuelve cada vez más necesario indagar qué efectos genera en el bienestar de las personas la interacción con esta Inteligencia Artificial (IA). Así, OpenAI y MIT Media Lab realizaron dos estudios en conjunto y detectaron que así como estas charlas pueden ayudar a las personas a aliviar la soledad, también puede aumentar la dependencia emocional y el aislamiento social.

En los estudios se evaluaron, por un lado, los usos de la plataforma y, por el otro, el impacto en los usuarios. El primero, llevado a cabo por la empresa OpenAi creadora de ChatGPT, incluyó el análisis de más de cuatro millones de conversaciones en busca de señales afectivas (es decir, indicadores de empatía, afecto o apoyo) y la encuesta a más de 4 mil usuarios sobre sus percepciones alrededor de ChatGPT.

Por otra parte, la segunda investigación realizada por el equipo de MIT Media Lab en colaboración con OpenAI, apuntó a revelar si existe una relación entre el uso de la plataforma y el bienestar emocional. Para ello, realizó un ensayo con casi mil participantes que utilizaron ChatGPT durante cuatro semanas y al menos cinco minutos por día. El objetivo era examinar si las características de la IA, como el tipo de voz y el tipo de conversación, podía afectar los estados psicosociales informados por los usuarios. 

Desde el MIT Media Lab, se centraron principalmente en aspectos como la soledad, la interacción social con personas reales, la dependencia emocional de la IA y el uso problemático de ella. De esta manera, descubrieron que si bien los usuarios que utilizan ChatGPT con fines emocionales son solo un grupo, los participantes que confiaban más en esta IA y dialogaban con frecuencia con ella eran más propensos que otros a sentirse solos y tener más dependencia. A su vez, quienes interactúan con la IA en un tiempo breve sintieron un mayor bienestar.

Que la charla con ChatGPT genere efectos positivos y negativos varía también según si la conversación es de texto o de manera oral. Así, detallaron que las personas que se comunican por mensaje de texto con la IA muestran más señales afectivas que quienes tienen conversaciones habladas. En cuanto al tipo de voz, no hubo cambios significativos respecto a si la voz era atractiva o neutra. 

Asimismo, aquellas conversaciones que incluían una mayor expresión de emociones tanto del usuario como del modelo de IA se asociaron con niveles más altos de soledad, pero con menor dependencia emocional y uso problemático. Por el contrario, las charlas no personales tendieron a aumentar la dependencia emocional.

Además, los investigadores encontraron diferencias en cómo los hombres y las mujeres responden al uso de ChatGPT. Después de usar el chatbot durante cuatro meses, ellas fueron menos propensas a socializar con personas que ellos. Mientras que los participantes que interactuaron con el modo de voz de la IA en un género que no era el suyo, reportaron niveles significativamente más altos de soledad y dependencia emocional hacia el final del experimento.

Una IA responsable para los humanos

“ChatGPT no está diseñado para reemplazar ni imitar las relaciones humanas, pero las personas pueden optar por usarlo de esa manera debido a su estilo conversacional y sus amplias capacidades”, advierte OpenAI. En línea con lo que plantean estos estudios, el hecho de que las IAs sean grandes modelos de lenguaje hace que sea necesario investigar el impacto que tienen en los seres humanos.

No obstante, los autores reconocen sus limitaciones, por ejemplo que no fueron revisados aún por pares científicos o que se basan únicamente en ChatGPT. Es decir que los usuarios de otras plataformas de chatbots pueden tener experiencias distintas. Esto último cobra aún más importancia si se recuerda el caso del adolescente Sewell Setzer que se suicidó tras enamorarse de una IA de la plataforma Character.AI.


¿Te gustó esta noticia? ¡Compartila!
Scroll al inicio