chatbots

¿Pueden los chatbots ser terapeutas?

 

Una gerente de la firma de inteligencia artificial OpenAI causó consternación recientemente al escribir que acababa de tener «una conversación personal bastante emotiva» con el chatbot viral ChatGPT de su firma.

«Nunca antes habías probado la terapia, pero ¿probablemente sea esto?» Lilian Weng publicó en X, anteriormente Twitter, lo que provocó un torrente de comentarios negativos que la acusaban de restar importancia a las enfermedades mentales .

Sin embargo, la visión de Weng sobre su interacción con ChatGPT puede explicarse por una versión del efecto placebo descrito esta semana por una investigación en la revista Nature Machine Intelligence .

Un equipo del Instituto Tecnológico de Massachusetts (MIT) y la Universidad Estatal de Arizona pidió a más de 300 participantes que interactuaran con programas de inteligencia artificial de salud mental y les preparó qué esperar.

A algunos se les dijo que el chatbot era empático, a otros que era manipulador y a un tercer grupo que era neutral.

Aquellos a quienes se les dijo que estaban hablando con un chatbot cariñoso tenían muchas más probabilidades que los otros grupos de considerar a sus terapeutas de chatbot como dignos de confianza.

«A partir de este estudio, vemos que, hasta cierto punto, la IA es la IA del espectador», dijo el coautor del informe Pat Pataranutaporn.

Las nuevas empresas de moda han estado impulsando aplicaciones de inteligencia artificial que ofrecen terapia, compañía y otros apoyos para la salud mental durante años, y es un gran negocio.

Pero el campo sigue siendo un pararrayos de controversia.

‘Extraño, vacío’

Como cualquier otro sector que la IA amenaza con perturbar, a los críticos les preocupa que los bots eventualmente reemplacen a los trabajadores humanos en lugar de complementarlos.

Y en el caso de la salud mental, la preocupación es que es poco probable que los bots hagan un gran trabajo.

«La terapia es para el bienestar mental y es un trabajo duro», escribió Cher Scarlett, activista y programadora, en respuesta a la publicación inicial de Weng en X.

«Vibrar contigo mismo está bien y todo, pero no es lo mismo».

Para agravar el temor general sobre la IA, algunas aplicaciones en el ámbito de la salud mental tienen una historia reciente accidentada.

Los usuarios de Replika, un popular compañero de IA que a veces se comercializa como beneficioso para la salud mental, se han quejado durante mucho tiempo de que el robot puede estar obsesionado con el sexo y ser abusivo.

Por otra parte, una organización sin fines de lucro estadounidense llamada Koko realizó un experimento en febrero con 4.000 clientes ofreciendo asesoramiento utilizando GPT-3 y descubrió que las respuestas automatizadas simplemente no funcionaban como terapia.

«La empatía simulada se siente extraña, vacía», escribió en X el cofundador de la empresa, Rob Morris.

Sus hallazgos fueron similares a los de los investigadores del MIT/Arizona, quienes dijeron que algunos participantes compararon la experiencia del chatbot con «hablar con una pared de ladrillos».

Pero más tarde Morris se vio obligado a defenderse tras las críticas generalizadas a su experimento, principalmente porque no estaba claro si sus clientes estaban al tanto de su participación.

‘Menores expectativas’

David Shaw, de la Universidad de Basilea, que no participó en el estudio del MIT/Arizona, dijo a la AFP que los resultados no eran sorprendentes.

Pero señaló: «Parece que a ninguno de los participantes se le dijeron tonterías sobre los chatbots».

Ésa, dijo, puede ser la guía más precisa de todas.

Sin embargo, la idea del chatbot como terapeuta está entrelazada con las raíces de la tecnología en la década de 1960.

ELIZA, el primer chatbot, fue desarrollado para simular un tipo de psicoterapia.

Los investigadores del MIT/Arizona utilizaron ELIZA para la mitad de los participantes y GPT-3 para la otra mitad.

Aunque el efecto fue mucho más fuerte con GPT-3, los usuarios preparados para la positividad todavía consideraban a ELIZA como confiable.

Por lo tanto, no sorprende que Weng esté entusiasmada con sus interacciones con ChatGPT: trabaja para la empresa que lo fabrica.

Los investigadores del MIT/Arizona dijeron que la sociedad necesitaba controlar las narrativas en torno a la IA.

«La forma en que se presenta la IA a la sociedad es importante porque cambia la forma en que se experimenta la IA», argumenta el documento.

«Puede ser deseable preparar al usuario para que tenga expectativas más bajas o más negativas».

Más información:

  1. Pat Pataranutaporn et al, Influencing human–AI interaction by priming beliefs about AI can increase perceived trustworthiness, empathy and effectiveness, Nature Machine Intelligence (2023). DOI: 10.1038/s42256-023-00720-7