Desde hace muchos años, decir que alguien hace terapia dejó de ser un sinónimo de un problema y se transformó en un signo de la búsqueda de mejora de la salud mental. Argentina es uno de los países con mayor presencia de psicólogos en la población (222 psicólogos por cada 100.000 habitantes, según la OMS), los recortes que se realizaron desde el Estado al sistema de salud impactaron de lleno en este campo y muchos ciudadanos acuden a otras metodologías, como la aplicación llamada “CUX”, destinada a brindar asistencia psicológica mediante el uso de la Inteligencia Artificial creada por la periodista e influencer Connie Ansaldi.
Tras conocerse que el municipio de Trenque Lauquen contrató a esa plataforma en un informe de El Trece, las alarmas no tardaron en encenderse y se acusó a CUX de ejercicio ilegal de la medicina, además de señalar que la aplicación generaba una estafa, tanto por no estar autorizada como por ser paga. “CUX” tiene la lógica del famoso ChatGPT, pero a la aplicación se le debe pagar un abono mensual de $3.500, lo que habilita al usuario a chatear el sistema todos los días todo el día. Cabe aclarar que no hay asistencia humana en el proceso.
MÁS INFO
Julieta Calmels, psicóloga, subsecretaria de salud mental de la provincia de Buenos Aires, afirmó en diálogo con El Destape que el crecimiento de estas propuestas se debe “por un lado, al contexto actual, porque las condiciones económicas y todo el retiro de financiamiento y presencia estatal en la salud genera un impacto en la salud de las personas graves y un aumento mayor de los síntomas de salud mental, que ya venían después de la pandemia en escalada”.
En esta línea, la funcionaria afirmó que “esta plataforma estaba antes de la asunción del gobierno de Milei, pero uno podría decir que hace juego con una manera en la que se retira el Estado, aparece el mercado y hay una lógica mercantil para pensar la salud”, y destacó que “hace mucho tiempo se insiste con que la salud no puede estar regulada por el mercado, no solo por cuestiones ideológicas, sino porque lo que circula no son bienes de uso y de consumo como el resto de las mercancías”.
MÁS INFO
Ante la consulta de El Destape a CUX sobre su funcionamiento, la empresa respondió que actualmente no dan notas. En su lugar, emitió un comunicado en el que aseguraban que la plataforma "es una herramienta de apoyo emocional que utiliza inteligencia artificial y fue desarrollada en base a la experiencia de un equipo de profesionales en psicología de larga trayectoria”.
Ante la consulta de El Destape a CUX sobre su funcionamiento, la empresa respondió que actualmente no dan notas. En su lugar, emitió un comunicado en el que aseguraban que la plataforma "es una herramienta de apoyo emocional que utiliza inteligencia artificial y fue desarrollada en base a la experiencia de un equipo de profesionales en psicología de larga trayectoria”.
Calmels, como profesional, cree que no es casualidad que estas propuestas surjan en estos contextos: “Es muy curioso que haya vuelto a tomar tanta visibilidad justo en la misma semana que el presidente habla en una reunión con el dueño de la IA y que afirmó que se va a poder educar a través de eso, que se van a hacer ciertas reformas del Estado a través de la IA”. A su vez, destacó que “es este el contexto donde empieza a tener mucha más difusión una plataforma que estaba desde hace mucho, que no es buena, no es exitosa y no aporta nada en materia de salud, más bien aporta un riesgo”. En ese marco, recordó que “el municipio de Trenque Lauquen propuso y compró esa plataforma y, por supuesto, el mismo día que lo anunció llovieron notas de todos los colegios de psicólogos y entidades de salud con una alarma de que se estaba haciendo algo muy peligroso y la retiraron”.
MÁS INFO
Papeles flojos
Calmels aseguró que la aplicación “primero que nada es ilegal, ya que la Inteligencia artificial no puede generar servicios de salud, eso no es legal en Argentina”, y agregó que “no tiene habilitación sanitaria, porque no hay seres humanos y cualquier evaluación de salud necesita seres humanos, ya que lo que se evalúa en una situación clínica no es estrictamente lo que la persona dice, se indagan otras cuestiones que tienen que ver con la observación”.
Entre las preocupaciones de la funcionaria y profesional de la salud mental, se destacó que “es curioso que imaginemos que, como seres humanos, no merecemos ni siquiera un tratamiento de otro ser humano que estudió para cuidarnos”, y reflexionó que “realmente es un poco de ciencia ficción la sola idea de que algo de esto pueda suceder, además el tema en salud mental no se trata tanto de inteligencia, ya que el conocimiento se adquiere a partir del trabajo y el sistema de formación”.
MÁS INFO
“Se pueden tener chatbots para orientar, para generar redes, nosotros tenemos una apuesta enorme en la provincia sobre la salud y se trata de utilizar todo lo que la tecnología sirva, pero nunca este reemplazo de lo que un profesional pueda hacer. Siquiera llegamos a tener un dilema. Esto más que un atajo, es darse por vencido, entregar la ciencia el conocimiento el cuidado y darse por vencido”, concluyó.
En esa misma línea, Claudio Ojeda, psicólogo clínico actualmente coordinador del Programa de Actualización en Psicodrama, posgrado de la Facultad de Psicología de la UBA, opinó que “lo primero que cabe de preguntarse en cualquier tipo de intervención orientada a la salud mental es sobre cuál es su validación”, y subrayó: “Cómo está validado, guardado, qué garantías hay. Me parece que es una app que está basada en ChatGPT. Si vos esto lo ofreces como un modo de asistencia en salud mental, aunque digas que es el primer paso de la asistencia y que minimices el valor de eso, no tiene ninguna validación ni científica ni profesional”.
MÁS INFO
En tanto, indicó que en algunos servicios europeos hay un bot de sala de espera, pero que solo pide datos para que el profesional, al atender el paciente, tenga una ficha con datos técnicos. Ojeda explicó que en Argentina hay un organismo que valida cualquier instrumento químico o físico que se use para la salud u orientado a algún tipo de asistencia, que es la Administración Nacional de Medicamentos, Alimentos y Tecnología Médica (ANMAT).
“Estos perfiles de IA adoptan pseudo personalidades, esquemas de personalidades, Connie Ansaldi dijo que le había dado su personalidad, lo cual es hilarante”, criticó el profesional de la salud y advirtió que “es peligroso, porque es un instrumento que se ofrece frente a una situación de crisis en salud mental”.
En nuestro país, detalló Ojeda, se exacerba este sistema porque, salvo excepciones, no hay muchas experiencias en el desarrollo estatal en el sistema de salud mental. La complejidad del sistema y los insumos que se requieren hacen muy difícil que el sistema de asistencia al público de una respuesta acorde a la crisis. “La misma Organización Mundial de la Salud dice que estamos ante una epidemia de ansiedad y depresión”, remarcó.
“Es como si alguien comenzara a vender un líquido a la alegría sin ningún tipo de control y ni de autorización, en ese caso me dirían que soy un chanta, aunque sea inocua. Si se vende algo y es falso, es una estafa”, finalizó.
MÁS INFO
La respuesta de la empresa
“Estamos felices con el trabajo realizado y quienes interactúan con nosotros también, dado que 8 de cada 10 personas que probaron CUX manifestaron altos niveles de satisfacción”, afirmaron en un comunicado como respuesta a las críticas y destacaron: “No brinda ni pretende brindar o sustituir tratamientos o servicios médicos de ningún tipo. No reemplaza ni pretende reemplazar a los profesionales de la salud. No realiza diagnósticos. Protege los datos personales de los usuarios y no los comparte con terceros. En aquellos casos en los que se evidencian situaciones de abuso, violencia o riesgo de vida, la plataforma sugiere a los usuarios que se pongan en contacto con un profesional de la salud para recibir ayuda y brinda la información oficial para hacerlo”.
No cabe duda que en un contexto de crisis económica los recursos son limitados y aquellos que no logran acceder a un tratamiento psicológico con un profesional buscarán distintas formas de tratar su problemática. Ante esto, hay que preguntarse dónde está en la plataforma el trabajo del profesional y quién asume los riesgos en el caso de que ocurra una tragedia por medio de la intervención de una IA.
Ansaldi afirmó en sus redes que Cux brinda “soporte emocional a través de packs”, en una clara mercantilización de los estados emocionales humanos y banalización de la salud mental, lo cual puede ser muy peligroso, como siempre, para aquellos que estén en una situación vulnerable.