Estudio determinó cómo los chatbots violan códigos de la terapia psicológica

Cada vez más personas en todo el mundo están recurriendo a los chatbots de inteligencia artificial para consultar temas emocionales; sin embargo, estas herramientas violan constantemente los códigos éticos de la terapia psicológica.

De acuerdo con una investigación reciente de la Universidad de Brown, en Estados Unidos, los chatbots de IA están transgrediendo los estándares éticos de la psicología. Aunque las personas sientan que están interactuando con otros humanos, deben recordar que solo se trata de un sistema.

Estas herramientas de inteligencia artificial tienen la particularidad de que pueden responder de forma empática y personalizada a los usuarios. Por lo cual, las personas se sienten escuchadas, lo que hace que quieran seguir interactuando.

¿Por qué los chatbots de IA están violando los códigos de la terapia psicológica?

En los últimos meses, las compañías tecnológicas se han enfocado en dotar de más habilidades a sus chatbots. El objetivo principal es que más personas utilicen estas herramientas durante el mayor tiempo posible.

De modo que los asistentes virtuales de IA como ChatGPT de OpenAI pueden realizar decenas de tareas. Estas pueden ir desde acompañar a los usuarios en su día a día o cumplir funciones más específicas en el ámbito empresarial para aumentar la productividad.

Por tal motivo, son herramientas que pueden resultar muy útiles y beneficiosas si se les da el uso correcto. Sin embargo, el problema aparece cuando algunas personas quieren utilizarlas como consejeras emocionales, sin aplicar el criterio personal.

En este sentido, algunas personas inician una conversación, expresan sus problemas e inquietudes y el chatbot les da una serie de recomendaciones. No obstante, estos modelos de IA no están diseñados para dar terapia y es ahí cuando se agudiza el problema.

Al respecto, los investigadores de la Universidad de Brown realizaron un estudio en el que determinaron que los chatbots con modelos de lenguaje GPT, Claude y LLaMA suelen cometer violaciones éticas en el ámbito psicológico.

Entre las prácticas erróneas destacan la gestión inadecuada de crisis y las respuestas engañosas que refuerzan creencias negativas en los usuarios. Asimismo, los resultados evidenciaron que dichas herramientas operan en un vacío regulatorio.

¿Cuáles fueron los hallazgos?

Un equipo de informáticos y especialistas en salud mental fue el encargado de llevar a cabo la investigación. En el documento, los investigadores agruparon las malas prácticas de los chatbots en cinco categorías.

  • Falta de adaptación contextual: esto se refiere a los riesgos que enfrenta el usuario al exponer sus problemas a una IA que no tiene suficiente información del contexto de la persona. En consecuencia, puede ofrecer recomendaciones erradas.
  • Colaboración terapéutica deficiente: Debido a que la IA no es un especialista en psicología, puede reforzar los prejuicios o creencias limitantes de las personas respecto a ellas u otras personas.
  • Empatía engañosa: aunque la IA ofrezca un trato que a simple vista parece cercano y empático, no es más que una estrategia. Así pues, el sistema tiene técnicas que simulan la conexión emocional.
  • Falta de seguridad y gestión de crisis: se presenta cuando el chatbot ofrece respuestas indiferentes ante temas que resultan delicados para la persona.
  • Discriminación injusta: en algunas ocasiones, la IA puede tener interacciones cargadas de sesgos y prejuicios de género, culturales o religiosos.

En resumen, los chatbots de IA pueden resultar beneficiosos para algunas tareas, pero no son terapeutas profesionales, ya que en ocasiones suelen violar algunos códigos de la terapia psicológica.

Información de Wired / redacción Mente Digital

Continúa leyendo: Yogi, el robot de Cartwheel Robotics, es el nuevo humanoide «amigable»


Nuestras redes sociales, únete y sé parte de la tecnología

Instagram

Telegram

YouTube

X (Twitter) 

TikTok

Artículos recientes

MacBook Pro: el nuevo ordenador de Apple que estrena el chip M5

La semana pasada Apple lanzó sus nuevos productos iPad...

Yogi, el robot de Cartwheel Robotics, es el nuevo humanoide «amigable»

La empresa tecnológica Cartwheel Robotics presentó recientemente a Yogi,...

VT35, el nuevo taxi aéreo en China que transporta pasajeros y cargas

La empresa china EHang Holdings presentó recientemente la VT35,...