Video del Papa inteligencia artificial

Inteligencia Artificial (C) Pxhere

Los riesgos de la Inteligencia Artificial en la salud mental

En un mundo en el que 1 de cada 5 adultos sufre algún trastorno mental al año, y 1 de cada 5 niños padece depresión, este parece un escenario atractivo. ¿Quién necesita un terapeuta caro y difícil de encontrar cuando puedes tener una IA que escuche tu dolor 24 horas al día, 7 días a la semana?

Print Friendly, PDF & Email
Share this Entry

Erica Komisar

(ZENIT Noticias – International Family Studies / USA, 24.08.2023).- Es casi imposible abrir un periódico o encender la televisión sin oír algún tipo de comentario sobre las ventajas y los peligros del rápido avance de la tecnología de inteligencia artificial (IA). La aparición de esta tecnología está teniendo un impacto significativo en varios sectores laborales, lo que genera tanto oportunidades como preocupaciones. El ejemplo más obvio es el servicio de atención al cliente, donde los chatbots de IA están sustituyendo cada vez más a los agentes humanos debido a su eficiencia y rentabilidad. Sin embargo, aunque estos chatbots gestionan eficientemente las consultas rutinarias, carecen de la capacidad de comprender cuestiones complejas o emocionalmente delicadas. Esto a menudo provoca la frustración de los clientes y puede dañar a la marca en su conjunto. A medida que continúe esta adopción generalizada de la IA, lamentablemente veremos un mayor desplazamiento de puestos de trabajo, lo que dejará sin empleo a muchos trabajadores humanos cualificados y empeorará las desigualdades económicas.

Como psicoanalista, el uso más pronunciado y aterrador de la IA es como sustituto de la psicoterapia. Existen ramificaciones reales y significativas para la salud mental de aquellos que intentan confiar en los chatbots como sustitutos de la terapia. Por ejemplo, a principios de este año, la Asociación Nacional de Trastornos Alimentarios (NEDA, por sus siglas en inglés) retiró su chatbot de IA que se estaba utilizando para sustituir a los asesores humanos en una línea de ayuda debido a que proporcionaba información perjudicial a los usuarios, como dar consejos de dieta a los usuarios con trastornos alimentarios. La NEDA reconoció el riesgo que los chatbots de IA suponían para la salud mental de los pacientes y tomó medidas.

Tomemos, por ejemplo, empresas como Wysa y Woebot. Wysa ofrece a sus usuarios un chatbot virtual que es un «aliado personal de salud mental que te ayuda a volver a sentirte tú mismo» y aún está en fase experimental. Mientras, el compañero de IA de Woebot está en línea y asegura que «siempre está ahí para ayudarte a superarlo». En un mundo en el que 1 de cada 5 adultos sufre algún trastorno mental al año, y 1 de cada 5 niños padece depresión, este parece un escenario atractivo. ¿Quién necesita un terapeuta caro y difícil de encontrar cuando puedes tener una IA que escuche tu dolor 24 horas al día, 7 días a la semana? Aplicaciones como Wysa y Woebot pueden desempeñar funciones valiosas, como ofrecer sencillos ejercicios personalizados de comportamiento y auto-calmación, muy parecidos a los de una aplicación de mindfulness, que podrían ser relevantes para la angustia momentánea de un usuario determinado. Pero no sustituyen al contacto humano.

En un intento de comprender mejor a Woebot, entré en Internet para ver por mí misma las ventajas y los riesgos. Lo que descubrí fue realmente preocupante. Si un usuario le dice «me siento triste», Woebot no puede evaluar adecuadamente el nivel de tristeza ni el impacto de la tristeza en la vida cotidiana del usuario. Woebot no puede identificar las señales sociales y físicas ni los patrones de comportamiento que pueden mostrar las personas que padecen depresión y que muestran un aumento o una disminución de su capacidad para funcionar, como por ejemplo si no se han duchado en días o si están encorvados o tienen problemas para establecer contacto visual. En esencia, la IA no puede percibir los matices del proceso de evaluación terapéutica. En pocas palabras, Woebot no tiene la función cerebral derecha de un psicoterapeuta que puede leer las señales sociales y comprender las emociones estudiando factores como el lenguaje corporal, el tono de voz o las lágrimas. Woebot no puede comprender la complejidad profundamente personal de las enfermedades mentales que sólo puede aportar una auténtica relación terapéutica, como el historial de victorias y fracasos de una persona y sus relaciones con amigos, jefes y familiares. Existe el riesgo de que, a medida que la tecnología se vuelve más avanzada e interactiva y los «sustitutos de la terapia» se comercializan como más viables, este tipo de productos se promuevan como sustitutos de la psicoterapia, y el uso de la IA con este fin es un motivo legítimo de preocupación.

Como terapeuta, es importante reconocer que puedo tener prejuicios personales respecto a la IA. Sin embargo, a través de mi formación y experiencia en el campo del psicoanálisis, he visto que una relación profundamente personalizada y genuina entre un psicoterapeuta y un paciente es un ingrediente necesario para una psicoterapia eficaz, y esto no es algo que un chatbot pueda proporcionar. Muchos individuos acuden a psicoterapia debido a dificultades relacionales, y estas dificultades sólo pueden rectificarse en el desarrollo de una relación afectuosa y empática con otro humano. Formar un vínculo ilusorio con un terapeuta virtual no humano, una interfaz sintéticamente compasiva, no es un camino hacia la salud mental e incluso puede hacer retroceder a los pacientes debido a la superficialidad de las respuestas de la IA. Además, el apego a la IA puede ser y será contraproducente en los momentos en que los usuarios se den cuenta de que la fantasía del contacto es con una máquina y no con un ser humano, como cuando la IA «falla» o actualiza su personalidad. Esto puede provocar un profundo nivel de angustia y confusión en el «paciente» de una interfaz de IA.

Otra forma específica en la que estos chatbots pueden ser contraproducentes es ofreciendo una orientación que no esté bien alineada con las necesidades de un paciente. Tessa, el chatbot descatalogado por NEDA, ofrecía a los usuarios consejos guionizados e incluso consejos para perder peso que resultaban desencadenantes para las personas con trastornos alimentarios. Las formas en que influyo en mis pacientes se filtran a través de mi cerebro derecho emocionalmente inteligente, que puede percibir matices, leer señales sociales en el momento y ayudarme a entender cómo guiar respetuosamente mis interacciones con los pacientes sin hacer daño. Como terapeuta, tengo una gran influencia sobre mis pacientes, e incluso si una IA no pretende ser malévola, la falta de empatía humana genuina puede provocar inadvertidamente que oriente mal a sus usuarios o incluso que ofrezca consejos incorrectos, o consejos que sin matices pueden ser malinterpretados por sus usuarios.

Mieke De Ketelaere es profesora de la Escuela de Negocios Vlerick y una de las expertas belgas en los aspectos éticos, legales y sostenibles de la IA. Advierte en una carta abierta que «en cuanto las personas tienen la sensación de interactuar con una entidad subjetiva, crean un vínculo con este ‘interlocutor’ -incluso inconscientemente- que las expone a este riesgo y puede socavar su autonomía». Los pacientes que sufren depresión y ansiedad son especialmente vulnerables y susceptibles de ser manipulados por estas aplicaciones, sobre todo «los que carecen de una red social sólida, o los que se sienten solos o deprimidos, precisamente la categoría que, según los creadores de los chatbots, más «utilidad» puede sacar de estos sistemas.» Es decir, si estás solo, hambriento de contacto, posiblemente deprimido y muy impresionable, la IA puede tener un gran poder sobre la toma de decisiones, el autocontrol y las emociones.

La IA puede sustituir muchas profesiones y funciones de los seres humanos, pero el papel de los profesionales de la salud que trabajan con conceptos tan matizados como la enfermedad no puede ni debe ser sustituido por un chatbot. Intentarlo es peligroso y puede tener graves ramificaciones éticas y de salud mental ahora y en el futuro.

Erica Komisar, LCSW, es psicoanalista y autora de Being There: Why Prioritizing Motherhood in the First Three Years Matters y Chicken Little The Sky Isn’t Falling: Raising Resilient Adolescents in the New Age of Anxiety. Traducción del original en lengua inglesa realizada por el director editorial de ZENIT.

Print Friendly, PDF & Email
Share this Entry

Redacción zenit

Apoya ZENIT

Si este artículo le ha gustado puede apoyar a ZENIT con una donación