www.zonamovilidad.es
El uso de chatbots puede suponer un alivio emocional o una fuente de soledad
Ampliar

El uso de chatbots puede suponer un alivio emocional o una fuente de soledad

lunes 24 de marzo de 2025, 15:37h

Escucha la noticia

Hablar con un chatbot sobre cosas personales o para pedir consejo se ha vuelto un hábito para muchas personas, lo que antes podía sonar una “locura”, es algo más normal de lo que parece. Y es que, ahora la idea de consultar dudas a chatbots Chat GPT ha dejado de ser un tabú.

Aunque hablar con un chatbot pueda ser en muchos casos liberador, el uso de esta herramienta puede generar mayor soledad para las personas, ya que disminuye el tiempo que emplean para socializar con otras personas. Así lo indica una nueva investigación de OpenAI en colaboración con el Instituto Tecnológico de Massachusetts.

Quienes dedicaban más tiempo a escribir o hablar con ChatGPT a diario tendían a reportar mayores niveles de dependencia emocional y un uso problemático del chatbot, así como mayores niveles de soledad, según una investigación publicada el viernes. Los hallazgos formaron parte de dos estudios realizados por investigadores de ambas organizaciones y no han sido revisados ​​por pares.

El lanzamiento de ChatGPT a finales de 2022 desató un frenesí por la inteligencia artificial generativa. Desde entonces, se han utilizado chatbots para todo, desde programación hasta sesiones de terapia. Con el desarrollo de modelos más sofisticados y funciones de voz que imitan mejor la comunicación humana, hay un mayor potencial para establecer relaciones parasociales con estos chatbots.

Recientemente, ha resurgido la preocupación por los posibles daños emocionales de esta tecnología, especialmente entre los usuarios más jóvenes y las personas con problemas de salud mental. Character Technologies Inc. enfrentó una demanda el año pasado después de que su chatbot supuestamente fomentara la ideación suicida en conversaciones con menores, incluyendo a un joven de 14 años que se quitó la vida.

OpenAI, con sede en San Francisco, considera los nuevos estudios como una forma de comprender mejor cómo las personas interactúan con su popular chatbot y cómo se ven afectadas por él. "Algunos de nuestros objetivos han sido empoderar a las personas para que comprendan el significado de su uso y realizar este trabajo para fundamentar un diseño responsable", afirmó Sandhini Agarwal, quien dirige el equipo de IA de confianza de OpenAI y es coautora de la investigación.

Los hallazgos revelaron que aquellos que tienden a establecer vínculos emocionales más intensos en sus relaciones humanas y confían en el chatbot eran más propensos a experimentar soledad y dependencia emocional hacia ChatGPT. Curiosamente, los investigadores no encontraron que una voz más atractiva condujera a resultados negativos.

En un segundo estudio, se utilizó software para analizar 3 millones de conversaciones de usuarios con ChatGPT, además de encuestar a las personas sobre su interacción con el chatbot. Los resultados mostraron que muy pocos usuarios realmente emplean ChatGPT para mantener conversaciones emocionales.

Aún es temprano para determinar el impacto de esta investigación, y no está claro en qué medida los chatbots pueden contribuir a que las personas se sientan más solas, en comparación con cómo aquellos que ya se sienten solos y dependientes emocionalmente podrían ver exacerbados sus sentimientos por el uso de chatbots.

Cathy Mengying Fang, coautora del estudio y estudiante de posgrado del MIT, indicó que los investigadores son cautelosos en que quienes utilicen los hallazgos no concluyan que un mayor uso del chatbot necesariamente tendrá consecuencias negativas para los usuarios. El estudio no controló el tiempo de uso del chatbot como un factor principal, ni se comparó con un grupo de control que no utiliza chatbots.

Los investigadores esperan que este trabajo conduzca a más estudios sobre cómo los humanos interactúan con la IA. "Centrarse en la IA en sí es interesante", afirmó Pat Pataranutaporn, coautor del estudio e investigador postdoctoral en el MIT. "Pero lo realmente crucial, especialmente cuando la IA se implementa a gran escala, es comprender su impacto en las personas".

¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios