La aparición de Ori, una herramienta basada en Inteligencia Artificial (IA) que busca orientar a familias y docentes ante problemáticas de salud mental adolescente, abrió un debate muy fuerte en la provincia. Mientras desde el Estado lo presentaron como un recurso de información y acompañamiento temprano, diversos profesionales advierten que su implementación expone tensiones más profundas: falta de inversión en salud mental, precarización de los dispositivos públicos y la ausencia de consulta a quienes trabajan cotidianamente en el territorio de la provincia de Entre Ríos, que refleja la tasa más alta de suicidios a nivel nacional.
Desde el Colegio de Profesionales de la Psicología de Entre Ríos (Coper) la respuesta fue clara: en un comunicado, cuestionaron tanto el modo en que se diseñó la herramienta como el lugar que se le otorga dentro de las políticas públicas destinadas a abordar problemáticas complejas de la salud mental entrerriana.
Para conocer más acerca de esas críticas y los riesgos que, según el sector, implica trasladar la “primera escucha” a un sistema automatizado, La Mala conversó con la licenciada María Elisa Benetti, secretaria general del Coper Regional Sur, quien, junto a miembros de la comisión directiva y colaboradores, analizaron los límites de la IA en salud mental, el valor del vínculo terapéutico y la necesidad (urgente) de políticas públicas con presencia real en el territorio.
EL COPER Y SUS INCUMBENCIAS
“El Coper, creado por la Ley Provincial Nº 7456, es una persona jurídica con funciones públicas delegadas por el Estado. Esto significa que no solo agrupa profesionales, sino que también regula, representa y participa en cuestiones de interés público vinculadas a la salud mental. El Colegio es la voz colectiva de la profesión en la provincia, representa a todos los y las colegas que por estar matriculados en la provincia se encuentran habilitados para ejercer la profesión”, explicó. Al tiempo que destacó que, además, el Colegio funciona como actor técnico-político, aportando conocimiento profesional al diseño de políticas y asesorando a la comunidad en relación a temáticas y problemáticas de Salud Mental.
“Es considerado totalmente inadecuado que profesionales sin matrícula en la provincia ni inserción local diseñen políticas públicas sin ningún tipo de consulta a actores influyentes en Salud Mental, como lo es el Coper y las y los colegas con amplia trayectoria en nuestra región” resaltó Benetti, sobre el proceso de elaboración de Ori. “Una de las máximas de la salud mental comunitaria afirma que no se puede trabajar en una comunidad sin ser parte de ella”, apuntó.
“Es considerado totalmente inadecuado que profesionales sin matrícula en la provincia ni inserción local diseñen políticas públicas sin ningún tipo de consulta a actores influyentes en Salud Mental”
Según los profesionales, el malestar ante la introducción de esta IA se asienta en varias razones de peso que combinan lo legal, ético y técnico: Inicialmente, apuntaron a la falta de legitimidad institucional, ya que la matrícula no es sólo un trámite formal, sino que habilita legalmente el ejercicio profesional. Quien no está matriculado no está sujeto a control ético ni disciplinario en esta provincia.
En segundo lugar, remarcaron que las políticas públicas requieren una lectura situada y el conocimiento de realidades socioeconómicas específicas, redes institucionales existentes, recursos disponibles, como hospitales, equipos, programas, y problemáticas propias del territorio.
“Cuando el diseño no incluye aportes de actores locales, insertos y conocedores de la comunidad se aplican modelos descontextualizados y se subestiman factores culturales y territoriales claves”, marcaron desde el Coper. Y añadieron: “Aun siendo un ChatBot informativo, se lo presenta como parte de una respuesta a una problemática crítica, como lo es el suicidio adolescente. Desde el campo profesional se considera que eso puede ser insuficiente, inapropiado e incluso riesgoso si no está integrado en una política pública más amplia, con dispositivos clínicos reales”.
En adición, enumeraron la falta de articulación con el sistema local, ya que el diseño de políticas públicas no es solo técnico, también es operativo y relacional: “Requiere coordinación con equipos de salud, escuelas, municipios, organizaciones comunitarias. Quienes no trabajan en la provincia, no conocen los circuitos reales y no tienen vínculos institucionales”.
La cuarta razón que enunciaron las y los profesionales fue el riesgo ético y de calidad profesional: “el Coper no tiene ninguna incidencia en profesionales no matriculados en la provincia. La matrícula implica la adhesión a un código de ética, la supervisión por parte del colegio y la responsabilidad ante posibles daños. Sin estos marcos no hay control sobre la calidad de las recomendaciones”.
Finalmente, subrayaron el desplazamiento de actores locales, ya que “plantear con respuesta a la complejidad de la Salud Mental un ChatBot debilita la voz de los profesionales locales, implicando una pérdida de ese valioso conocimiento construido en territorio”.
LOS LÍMITES DE UN CHATBOT EN SALUD MENTAL
“Esta herramienta particular consiste en un ChatBot orientativo acerca de dónde acudir, no contiene información (al menos hasta el momento) del funcionamiento de los dispositivos ni las vías o forma de acceso”, señalaron. Según describieron, el sistema ofrece respuestas estandarizadas, algo que, en el campo de la Salud Mental genera fuertes cuestionamientos.
Desde el Coper subrayaron que el trabajo clínico se basa en la singularidad de cada situación. En ese sentido, acentuaron una serie de riesgos que, según su mirada, pueden derivarse del uso de este tipo de herramientas. Entre ellos, mencionaron la posible descontextualización del malestar: “La información general no alcanza para comprender una situación subjetiva. Entre familias y adolescentes hay un entramado vincular que una herramienta tecnológica no puede captar”.
También advirtieron sobre la posibilidad de que se produzca una confusión entre información y asistencia real. “Una familia puede interpretar que ya está siendo asistida”, manifestaron, y apuntaron otro punto crítico, que tiene que ver con la detección de situaciones urgentes: “no siempre se puede identificar adecuadamente riesgo suicida inminente porque la complejidad de las consultas en Salud Mental hace que se deba escuchar lo que el consultante explicita, pero especialmente lo que está implícito, lo complejo, los entre líneas, en las palabras, en los gestos, en las inflexiones de la voz”.
Para las y los profesionales entrevistados, incluso si se plantea como una herramienta meramente informativa, la orientación en salud mental nunca es neutral. “En salud mental la orientación ya es intervención”, dijo Benetti. “Estamos hablando de la vía de entrada, la primera escucha la hace un sistema informático recomendando acciones a través de frases clichés y vacías: ‘escuchalo’, ‘comprendelo’”.
Desde esta perspectiva, el problema aparece cuando una herramienta informativa se presenta como una respuesta suficiente ante problemáticas complejas: “Puede influir en decisiones, tiempos y modos de pedir ayuda. Si se presenta como respuesta estatal, puede transmitir la idea de que eso alcanza, cuando en realidad se necesitan intervenciones complejas y sostenidas”
CUÁNDO LA TECNOLOGÍA PUEDE SERVIR (Y CUÁNDO NO)
Lejos de plantear un rechazo absoluto a las herramientas digitales, desde el Coper refirieron que pueden tener un rol útil si se utilizan dentro de ciertos límites: “lo digital puede ser útil para psicoeducación, para difundir información general validada, para el acceso a información y difusión de leyes vinculadas a la salud mental o para la promoción de hábitos saludables”.
Sin embargo, marcaron con claridad qué tipo de intervenciones no deberían quedar en manos de sistemas automatizados: la evaluación clínica, el diagnóstico, manejo de crisis emocionales o situaciones de riesgo como autolesiones, violencia, abuso o ideación suicida.
“Lo más importante es el uso”, remarcaron. Y agregaron que una utilización responsable debería incluir supervisión profesional, límites claros de funcionamiento, integración con el sistema de salud y protocolos de derivación inmediata ante situaciones graves.
Para Benetti, el punto central del debate tiene que ver con algo que la tecnología no puede reproducir: el vínculo terapéutico. “En esta situación no podríamos hablar de vínculo. Mucho menos terapéutico”, indicó, mientras que explicó que la práctica psicológica se sostiene en elementos que exceden cualquier algoritmo: confianza, empatía real, lectura del lenguaje verbal y no verbal y una construcción subjetiva del proceso que depende específicamente de lo humano.
UN SISTEMA DE SALUD TENSIONADO
Otro de los puntos señalados durante la entrevista tiene que ver con la situación actual de los dispositivos públicos de atención. “Lo más preocupante son las respuestas inadecuadas o insuficientes”, explicaron desde el colegio profesional.
“El ChatBot te manda a consultar a un CAPS donde hay 40 personas en línea de espera o al hospital público que cuenta con profesionales agotados, del cual un gran número son residentes que se encuentran cursando una formación educativa”, enfatizaron.
Incluso, “cuando se obtiene un turno es a largo plazo y con frecuencias no adecuadas a la singularidad de la situación”. Para Benetti, este escenario refleja un problema estructural más amplio: “Es el tejido social el que está desintegrándose y no hay Salud Mental que aguante. Junto a pérdida de derechos y posibilidades también perdemos salud. Y perdemos personas”.
“El ChatBot te manda a consultar a un CAPS donde hay 40 personas en línea de espera o al hospital público que cuenta con profesionales agotados”
Consultada sobre qué tipo de políticas públicas considera necesarias, Benetti enumeró una serie de medidas que, según explicó, podrían fortalecer el sistema de atención. Entre ellas, mencionó mayor inversión en salud mental comunitaria, redes territoriales de contención, equipos interdisciplinarios en escuelas, acceso real a atención psicológica gratuita, programas de prevención y detección temprana de riesgos y formación docente en salud mental.
También hizo hincapié en el cuidado de quienes acompañan a niños y adolescentes: “Atención y cuidado a las personas que acompañan infancias y adolescencias: docentes, cuidadores, referentes comunitarios”.
Además, la psicóloga resaltó la situación laboral de los trabajadores del área. “No podemos desconocer la realidad de los trabajadores de la salud. Los equipos se han desarmado, las condiciones de trabajo son paupérrimas y la gravedad de las problemáticas implican un aumento en el desgaste y la frustración”, cuestionó, en este sentido.
Finalmente, desde el Coper aclararon que la discusión no se centra únicamente en la tecnología: “La IA en sí no es el problema, el problema es cómo se usa y en qué contexto”. Según las y los psicólogos, el riesgo aparece cuando se implementa como reemplazo (y no complemento) de políticas públicas reales, ya que puede transformarse en una respuesta superficial a una problemática profunda”.
