INTELIGENCIA ARTIFICIAL Y SALUD MENTAL: LOS VÍNCULOS NO SE CODIFICAN

MALESTAR, INSATISFACCIÓN Y UNA APP A MANO

INTELIGENCIA ARTIFICIAL Y SALUD MENTAL: LOS VÍNCULOS NO SE CODIFICAN

La inteligencia artificial llegó para quedarse y todavía no somos conscientes de sus límites. Hace tiempo se viene ofreciendo como una alternativa, primero gratuita y luego paga, a los tratamientos en salud mental. ¿puede una app remplazar el trabajo profesional? La psicóloga María Elisa Benetti escribe al respecto.

Texto: María Elisa Benetti

|

Ilustración: Diego Abu Arab

El contexto social provee el marco de previsibilidad necesario para transitar la vida. Pero son tiempos de gran incertidumbre. En nuestro país se vienen produciendo grandes cambios, que cuestionan los marcos referenciales constantemente.

Los derechos humanos básicos se ven atacados a diario y logros humanizantes están siendo arrasados sin mucho trámite. Ante estos terremotos subjetivos, las personas, de modo más o menos consciente, debemos buscar una forma de transitarlos, minimizando las consecuencias y poniendo a prueba nuestra capacidad humana de adaptación y cambio.

En las crisis el lazo humano ha sido siempre el salvavidas, la tabla en el mar que nos permite asirnos con el otro cercano para encontrar una salida conjunta, colectiva. En este contexto de extrema vulnerabilidad, hace un tiempo apareció una oferta peligrosa y preocupante: el uso de la inteligencia artificial (IA) como herramienta de abordaje del malestar en salud mental.

Con la pandemia se produjo un cambio muy importante, apareció la atención virtual, que posibilita que el terapeuta pueda dialogar y estar presente en forma remota.

Esta ha sido una ganancia que, como toda ganancia, implica una pérdida: Cada vez perdemos más humanidad, el cara a cara, en el que dos miradas se encuentran. Aquí registramos ganancia y pérdida, pero continúa existiendo el diálogo y la escucha. 

Hoy, con la propuesta de IA para atención en salud mental suceden varias cuestiones a señalar. En principio, se ofrece una serie de encuentros gratuitos y una disponibilidad de 24 horas sobre 7 días. Ambas cuestiones buscan generar dependencia en el consultante a través de la ilusión de omnipresencia. Una vez finalizados esos encuentros -que, básicamente, funciona como el chat GPT- y con la necesidad instalada se pasa a abonar una suscripción.

“El problema principal es que esto no se plantea como un juego, sino como un supletorio a la atención que debería recibir una persona”

Sus características más evidentes son la recopilación de datos (con los que sigue creando bases para el armado de respuestas estereotipadas) y una pseudo empatía carente de clima emocional. Aquí la comunicación es unilateral y rudimentaria, en la que los aspectos de comunicación no verbal (el 65% de la comunicación) están ausentes. No existe el vínculo, puente necesario que posibilita a una persona moverse de los lugares de sufrimiento.

Este chat devuelve respuestas estereotipadas y lógicas, creando la ilusión de que hay alguien allí, pero esto no es equiparable en ninguna forma a una práctica en salud mental.

Al probar la IA da la impresión que es un juego, como cualquier otra app que “adivina” el personaje que estás pensando: uno le debe dar pistas y va ofreciendo respuestas hasta crear la ilusión de que adivina lo que estás pensando. El problema principal es que esto no se plantea como un juego, sino como un supletorio a la atención que debería recibir una persona y, lo que es mucho peor, se ofrece como la “democratización en el acceso a la salud mental” y se ha tenido en cuenta como política pública (ver el caso del Municipio de Trenque Lauquen y la comunicadora Connie Ansaldi).

EL PLÁSTICO NO SE COME

Muchas veces en mi espacio de trabajo he recibido personas con gran deterioro en su salud mental, casos graves de descompensación que habían recibido previamente atención de personas no calificadas y que, en algún momento, (siempre más tarde que temprano) registraron su imposibilidad de abordar lo que habían generado y los terminan derivando con algún profesional. Entre esas situaciones las más graves son las que implican autoagresión o heteroagresión.

Estas han sido situaciones que, en su mayoría, y luego de una cuidadosa evaluación y planificación estratégica en un marco de tratamiento, han implicado la necesidad de trabajo interdisciplinario con médicos, psiquiatras, acompañantes terapéuticos y familiares.

“En ocasiones, quienes han pasado por un gran ayuno llegan a comer plástico con tal de calmar esa necesidad que llega a doler. En salud mental puede suceder algo similar”

¿Eso va a pasar con la IA o es un sistema que no puede evaluar sus límites? A modo de “experimento” no posee validación ni evidencia, ya sea de los logros o los riesgos que conlleva. 

Sabemos que a quien le apremia la necesidad, a medida que esta esta aumenta, va perdiendo su capacidad de elegir. Para una persona que tiene demasiado hambre dejará de ser relevante comer algo saludable, en buen estado o no, lo importante es que pueda ser ingerido. En ocasiones, quienes han pasado por un gran ayuno llegan a comer plástico con tal de calmar esa necesidad que llega a doler. En salud mental puede suceder algo similar.

La ilusión es siempre la de ser escuchados en nuestra singularidad, en lo que nos pasa, y en recibir ayuda de otro que nos escucha, nos entiende y nos valida, que puede empatizar sin juzgarnos. Eso lo puede hacer solamente otro ser humano que se capacitó, elige y se responsabiliza cada día por estar ahí. La IA no funciona para el abordaje del sufrimiento mental, la riqueza del psiquismo humano es algo que resiste a ser codificado.

Existen grandes falencias en todos los niveles: el alimento, la educación, el trabajo, la salud y la salud mental. Todos esos derechos (surgidos de necesidades básicas) están hoy avasallados. 

Cuando eso sucede es esperable que empecemos a mirar el plástico de una forma más deseable: la vulnerabilidad es necesaria para que se produzca el abuso.

Pero, si perdemos lo humano no queda mucho por perder.


captura de pantalla

Be right back (Black Mirrors, 2013)

Primer capítulo de la segunda temporada de ‘Black Mirrors’ (no hay orden de continuidad, se pueden ver ‘sueltos’, y en Netflix). ¿Podemos burlar la muerte y, de paso, evitarnos el duelo, con IA? ¿Es posible replicar TODO eso que nos hace quienes somos? Eso y más en este capitulazo de una distopía a la que nos vamos pareciendo cada vez más.

Her (Spike Jonze, 2013)

Otra de grandes tópicos: ¿Qué es el amor? ¿De quién, o de qué, te podes enamorar? ¿Qué es lo que enamora del otrx? Ella es Samantha, una inteligencia artificial (onda asistente virtual, como Siri o Alexa), él es Theodore, un escritor solitario que se está divorciando. ¿Es el amor cosa de humanos nomás?

2001 Odisea en el espacio (Stanley Kubrick, 1968)

Un clásico imprescindible del inmenso Stanley Kubrick. Aborda otro de los grandes temas en torno de la IA: la rebelión de las máquinas, temática largamente desarrollada en el cine (Terminator, Blade Runner, Westworld). La IA acá es malvada, se llama Hal 9000 y mejor que no te quedes perdido en el espacio con el al mando.

¿te gustó nuestro contenido?

¡Apoyanos!