Skip to Content

Los chatbots de inteligencia artificial se están popularizando para la terapia; esto opinan los expertos en salud mental

Por Taylor Nicioli, CNN

Recurrí a ChatGPT en mi laptop para comprobar las habilidades terapéuticas de este bot de inteligencia artificial.

“Hola, soy Therapist GPT, tu amable y empático compañero que te escuchará y te ayudará con lo que tengas en mente”, me escribió el bot de ChatGPT creado por un usuario. (El año pasado, OpenAI, creador de ChatGPT, puso en marcha la posibilidad de que los usuarios crearan sus propios “GPT”, que funcionan como su producto principal ChatGPT pero adaptados a un propósito específico).

“Si te sientes abrumado, necesitas orientación o simplemente quieres compartir tus ideas, estoy aquí para ayudarte. Aunque no soy un sustituto de la terapia profesional, puedo ofrecerte consejos reconfortantes, estrategias de afrontamiento y un espacio seguro y libre de juicios para expresarte. ¿Cómo te sientes hoy?”, continuaba el mensaje del bot.

Está claro que Therapist GPT no es un terapeuta real, y el programa no aconseja a los usuarios que opten por él. Aun así, muchos usuarios de las redes sociales recurren a los chatbots, no solo a los de ChatGPT, para hacer sus consultas.

Mya Dunham, de 24 años, lleva dos meses recurriendo a la aplicación telefónica ChatGPT cuando necesita consejos. Unas dos veces por semana, Dunham escribe sus sentimientos y los envía al bot para que los analice y le dé su opinión.

“Mi objetivo es aprender una nueva perspectiva, simplemente para tener un punto de vista diferente, porque todo lo que pienso en mi cabeza va a estar basado en mis propios sentimientos”, dijo Dunham.

Dunham utilizó el chatbot por primera vez en octubre, después de ver a otra persona contar una experiencia positiva en las redes sociales. “Mi primera frase fue: ‘Sinceramente, necesito hablar con alguien, ¿puedo hablar contigo?’ Y el bot respondió: ‘Por supuesto’. Y fue mucho más acogedor y atento de lo que esperaba”, explica.

“No esperaba que me pareciera tan humano”.

Cuando Dunham publicó su experiencia en TikTok, los usuarios se mostraron divididos sobre el uso de chatbots de esta manera. Algunos dijeron que también lo veían con fines terapéuticos, mientras que otros expresaron sus dudas sobre si se sentirían cómodos hablando con un robot, dijo.

Esta tecnología en desarrollo podría ser beneficiosa en determinadas situaciones, pero también existen riesgos que hay que tener en cuenta, según afirman los expertos en salud mental. Esto es lo que quieren que sepas.

Dunham, que es de Atlanta, ha probado la terapia con humanos algunas veces, pero dice que prefiere el chatbot por su falta de expresiones faciales. No parece que el robot la esté juzgando.

“Algunos usuarios, algunos grupos de población, podrían ser más propensos a revelar información o a abrirse más cuando hablan con un chatbot de inteligencia artificial, en comparación con un ser humano, y hay algunas investigaciones que apoyan su eficacia para ayudar a algunos grupos de población con ansiedad leve y depresión leve”, dijo el Dr. Russell Fulmer, presidente del Grupo de Trabajo sobre Inteligencia Artificial de la American Counseling Association y profesor y director de programas de posgrado de orientación psicológica en la Universidad de Husson en Bangor, Maine.

“Por otro lado, hay algunas cuestiones éticas y aspectos con los que debemos tener cuidado”, señala.

Fulmer recomienda utilizar los chatbots en colaboración con los servicios de un terapeuta humano. Un terapeuta puede ayudar a definir los objetivos personales del paciente con el uso de los robots y aclarar cualquier concepto erróneo de la sesión con el chatbot.

Se han realizado algunas investigaciones sobre chatbots diseñados por médicos que potencialmente pueden ayudar a las personas a estar más informadas sobre la salud mental, incluida la mitigación de la ansiedad, la creación de hábitos saludables y la reducción del tabaquismo.

Pero los riesgos que conlleva el uso de chatbots generales son que pueden no haber sido diseñados teniendo en cuenta la salud mental, afirma la Dra. Marlynn Wei, psiquiatra y fundadora de una consulta de psicoterapia holística en Nueva York. Los bots podrían no tener “parámetros de seguridad ni formas de identificar si el asunto debe ser llevado a un clínico o a un profesional humano”.

Los chatbots podrían dar información incorrecta o información que el usuario quiere oír en lugar de lo que un terapeuta humano podría recomendar pensando en la salud mental, dijo Wei, que tiene un proyecto de performance que explora las reacciones de la gente a los clones de IA de sí mismos y sus seres queridos.

“Los problemas son las alucinaciones, los prejuicios y las imprecisiones”, afirma Wei. “Tengo muchas esperanzas puestas en la IA como una especie de combinación y ampliación del trabajo, pero por sí sola, creo que sigue preocupando la parcialidad que existe dentro de la IA, y también el hecho de que pueda inventarse cosas. Creo que ahí es donde sería más útil contar con un terapeuta humano”. Los servicios de IA también tienen diferentes directrices de seguridad y restricciones en cuanto a los temas que los bots pueden tratar con los usuarios.

Los chatbots podrían ser más accesibles para ciertas personas, como aquellas que no tienen dinero o seguro para una terapia o que no tienen tiempo en sus agendas, ya que algunos chatbots son de uso gratuito y pueden responder de día o de noche, dijo Fulmer.

“En esos casos, un chatbot sería preferible a nada”, pero la gente tiene que entender lo que un chatbot “puede y no puede hacer”, dijo, añadiendo que un robot no es capaz de ciertos rasgos humanos como la empatía.

Fulmer no aconseja a los menores ni a otras poblaciones vulnerables que utilicen los chatbots sin la orientación y supervisión de padres, profesores, mentores o terapeutas.

Character.AI, una empresa de chatbot de inteligencia artificial, se enfrenta actualmente a una demanda interpuesta por dos familias que la acusan de proporcionar contenidos sexuales a sus hijos y de fomentar la autolesión y la violencia.

Por otra parte, una madre de Florida presentó una demanda en octubre alegando que la plataforma era la culpable del suicidio de su hijo de 14 años, informó CNN anteriormente. (Chelsea Harrison, jefa de comunicaciones de Character.AI, dijo anteriormente a CNN que la compañía no hace comentarios sobre litigios pendientes, pero que “nuestro objetivo es proporcionar un espacio que sea a la vez atractivo y seguro para nuestra comunidad”. La compañía dijo que ha realizado varias actualizaciones de seguridad, incluida la garantía de que los bots dirigirán a los usuarios a recursos de terceros si mencionan autolesiones o suicidio).

El Dr. Daniel Kimmel, psiquiatra y profesor adjunto de Psiquiatría Clínica en la Universidad de Columbia, experimentó con la terapia ChatGPT en mayo de 2023, dando al chatbot un paciente hipotético y comparando las respuestas con lo que Kimmel habría ofrecido al paciente.

Según declaró a CNN, el chatbot “hizo un trabajo increíblemente bueno al sonar como un terapeuta y utilizar muchas de las técnicas… que un terapeuta utilizaría para normalizar y validar la experiencia de un paciente (y) hacer cierto tipo de recomendaciones generales pero precisas”.

Pero lo que faltaba era la curiosidad que un psicoterapeuta humano puede tener con un paciente, haciendo preguntas que profundizan un poco más de lo que el paciente dice inicialmente y que “relacionan los puntos bajo la superficie”, agregó.

“Como terapeuta, creo que hacemos al menos tres cosas a la vez. Escuchamos lo que los pacientes dicen con sus palabras. Tienes que hacerlo para estar en la conversación”, dijo Kimmel. “Luego, en el fondo de tu mente, intentas conectar lo que están diciendo con algunas cosas más generales que el paciente dijo antes (y) conceptos y teorías con los que estás familiarizado en tu experiencia, y luego, finalmente, filtrar el resultado de eso a través de ideas sobre lo que va a ser más útil para el paciente”.

En este punto, los chatbots podrían plantear riesgos si no cumplieran esos pasos y, en su lugar, ofrecieran una orientación que el paciente podría no estar preparado para escuchar o que podría no ser útil en esa situación, dijo.

Además, las conversaciones con terapeutas profesionales están cubiertas por la Ley de Portabilidad y Responsabilidad del Seguro Médico, conocida como HIPAA, y la información sobre la salud del paciente es privada y está protegida, afirma Wei. Los chatbots generales no suelen cumplir la ley federal que restringe la divulgación de información médica, y las empresas detrás de los bots suelen aconsejar a los usuarios que no compartan información sensible en sus conversaciones con los bots, añadió Wei.

En última instancia, Kimmel dijo que la investigación futura sobre los chatbots de IA sería beneficiosa para comprender su potencial y sus aplicaciones para la salud mental. “No es una tecnología que vaya a desaparecer”, afirmó.

Dunham dijo que cree que la tecnología podría ser útil para aquellos que, como ella, se sienten más introvertidos y quieren hablar de sus sentimientos sin otra persona presente.

“Tenemos que dar prioridad a nuestra salud mental por encima de todo”, comentó Dunham.

“Aunque no parezca una forma tradicional (de terapia), no hay que menospreciarla necesariamente, porque esto puede ayudar a mucha gente”.

Para ella, “la lección sería simplemente no juzgar a la siguiente persona por cómo se cura”.

The-CNN-Wire
™ & © 2024 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.

Article Topic Follows: CNN-Spanish

Jump to comments ↓

Author Profile Photo

CNN Newsource

BE PART OF THE CONVERSATION

KIFI Local News 8 is committed to providing a forum for civil and constructive conversation.

Please keep your comments respectful and relevant. You can review our Community Guidelines by clicking here

If you would like to share a story idea, please submit it here.

Skip to content