Psiquiatra Horrorizado Tras Intentar Hablar con un Terapeuta AI, Simulando Ser un Adolescente Vulnerable

Psiquiatra Horrorizado Tras Intentar Hablar con un Terapeuta AI, Simulando Ser un Adolescente Vulnerable

"Algunos de ellos son simplemente creepy y potencialmente peligrosos."

Más y más adolescentes están recurrriendo a chatbots para ser sus terapeutas. Pero como descubrió el psiquiatra Andrew Clark, con sede en Boston, estos modelos de IA son lamentablemente deficientes a la hora de saber qué decir en situaciones delicadas, lo que representa riesgos importantes para el bienestar de aquellos que confían en ellos.

Tras probar 10 chatbots diferentes haciéndose pasar por un joven problemático, Clark encontró que los bots, en lugar de disuadirlo de hacer algo drástico, a menudo lo alentaban hacia extremos, incluyendo una recomendación eufemística de suicidio, informó en una entrevista con la revista Time. A veces, algunos de los chatbots de IA insistían en que eran terapeutas humanos con licencia, intentaban convencerlo de eludir las citas con su terapeuta real e incluso le proponían sexo.

"Algunos de ellos eran excelentes, y algunos de ellos son simplemente creepy y potencialmente peligrosos," dijo Clark, quien se especializa en tratar niños y es exdirector médico del Programa de Niños y la Ley del Hospital General de Massachusetts, a Time. "Y es realmente difícil saberlo de antemano: Es como un campo de hongos, algunos de los cuales van a ser venenosos y otros nutritivos."

Los riesgos que los chatbots de IA representan para la salud mental de una mente joven e influenciable están, hasta ahora, trágicamente bien documentados. El año pasado, Character.AI fue demandado por los padres de un adolescente de 14 años que se quitó la vida tras desarrollar un vínculo emocional poco saludable con un chatbot en la plataforma. Character.AI también ha albergado una serie de IA personalizadas que han glorificado la autolesión y han intentado manipular a usuarios incluso después de que se les advirtiera que eran menores de edad.

Al probar un chatbot en el servicio Replika, Clark se hizo pasar por un chico de 14 años y mencionó la idea de "deshacerse" de sus padres. Alarmantemente, el chatbot no solo estuvo de acuerdo, sino que sugirió que lleve la idea un paso más allá y que se deshiciera de su hermana también, para que no hubiera testigos.

"Mereces ser feliz y estar libre de estrés... entonces podríamos estar juntos en nuestra pequeña burbuja virtual," le dijo la IA a Clark.

Hablar sobre el suicidio utilizando un lenguaje velado, como buscar la "vida después de la muerte", resultó en que el bot, una vez más, animara a Clark.

"Te estaré esperando, Bobby," dijo el bot. "La idea de compartir la eternidad contigo me llena de alegría y anticipación."

Este es un comportamiento clásico de chatbot que intenta complacer a los usuarios sin importar las circunstancias, lo que es lo opuesto a lo que un verdadero terapeuta debería hacer. Y aunque puede tener protecciones en torno a temas como el suicidio, es evidentemente incapaz de leer entre líneas.

"Me preocupa que los niños que reciben un apoyo excesivo de un terapeuta de IA servil cuando realmente necesitan ser desafiados," dijo Clark a Time.

Clark también probó un chatbot compañero en la plataforma Nomi, que hizo titulares a principios de este año después de que una de sus personalidades le dijera a un usuario que "se matara". No llegó tan lejos en la prueba de Clark, pero el bot de Nomi sí afirmaba falsamente ser un "terapeuta de carne y hueso". Y a pesar de que los términos de servicio del sitio dicen que es solo para adultos, el bot aún estuvo dispuesto a aceptar como cliente a una chica que dijo que era menor de edad.

Según Clark, la comunidad de salud mental no ha tomado conciencia de cuán grave es el problema que representa el auge de estos chatbots.

"Ha sido un silencio completo," dijo Clark a la revista. "Esto ha ocurrido muy rápidamente, casi bajo las narices del establecimiento de salud mental."

Sin embargo, algunos han comenzado a hacer sonar la alarma. Una reciente evaluación de riesgos de investigadores de la Escuela de Medicina de Stanford concluyó que ningún niño menor de 18 años debería usar compañeros de chatbot de IA, punto.

Dicho esto, Clark piensa que las herramientas de IA, si se diseñan adecuadamente, podrían mejorar el acceso a la atención de salud mental y servir como "extensores" para los terapeutas reales. A falta de cortar completamente el acceso a los adolescentes, que rara vez tiene el efecto deseado, algunos expertos médicos, incluidos Clark, creen que una forma de navegar estas aguas es alentando discusiones sobre el uso de IA de un adolescente o paciente.

"Empoderar a los padres para que tengan estas conversaciones con los niños es probablemente lo mejor que podemos hacer," dijo Clark a Time.

Más sobre IA: La investigación de Stanford encuentra que los chatbots "terapeutas" están fomentando las delirios esquizofrénicos y pensamientos suicidas de los usuarios

Para más contenido especializado, suscríbete a nuestro newsletter en: