En el mundo real, cada encuentro constituye una bifurcación posible.

(Boris Cyrulnik)

“Lo que cura es el afecto, no hay terapia sin simpatía” afirmaba el psicoanalista Sandor Ferenczi, recordándonos que el camino hacia la sanación se da en el vinculo y en la experiencia humana que contiene, que repara y que se sostiene en algo que va mucho más allá del saber teórico. Por algo cuando vino la moda de quitar la parte práctica a las carreras de psicología (con el fin de acortarlas) fuimos muchos los que cuestionamos esta forma al observar que se estaba priorizando un saber que no necesariamente se traduciría en un saber hacer, estar, conectar con la singularidad del otro.

Y es en este sentido que aun cuando la integración de la inteligencia artificial (IA) en el campo de la psicología puede tener un potencial a nivel de diagnóstico, también plantea una serie de sesgos, riesgos y desafíos que deben ser abordados cuidadosamente, partiendo de la base de reconocer que la relación entre el terapeuta y el paciente es un componente fundamental del proceso terapéutico, al punto de que lo que puede asegurar en mayor medida la elaboración de un trauma es la presencia de otro.

Cuando pienso en el vínculo terapéutico desde mi experiencia, entiendo que la interacción con una máquina puede carecer del calor humano, de la empatía y la comprensión sensible y singular que un ser humano puede ofrecer a la hora de escuchar a otro. En este sentido, me pregunto sobre los efectos negativos que podría conllevar esta falta de conexión emocional y un actuar basado en datos, donde la singularidad de las narrativas personales puede verse ignorada.

Pensemos que los algoritmos de IA se entrenan con datos históricos que pueden contener sesgos inherentes, produciendo que estos sesgos puedan perpetuarse y amplificarse a la hora de evaluar a otro humano. Si hasta ahora las estadísticas nos alejaron de la comprensión de nuestra diversidad y singularidad como raza humana plateando una idea de lo normal en base a estadísticas que no consideran en muchos casos lo multicausal ni los factores de riesgo normalizados, me pregunto lo que puede llegar a pasar con una IA que justamente se basa en datos, por ejemplo con respecto a las tendencias crecientes en depresión, autismo y otros… ¿Es lo normal lo más sano? Aunque la IA puede ayudar en el diagnóstico de trastornos mentales, existe el riesgo de que los diagnósticos automatizados sean incorrectos. Los sistemas de IA pueden malinterpretar síntomas o no considerar el contexto completo de un paciente, lo que puede llevar a diagnósticos erróneos y tratamientos inapropiados.

Ojalá la mente humana fuera tan sencilla, y el vínculo fuera una cosa de algoritmos, pero nada más lejano a eso si hablamos de desarrollo en la salud, en la complejidad y en la importancia de un ambiente que nutra al sujeto. Junto a ello, este tipo de innovaciones conlleva otro riesgo, cuando considero que un principio ético en mi disciplina es la confidencialidad, en este sentido, me pregunto: ¿hasta qué punto compartir información sensible con algoritmos no rompe ese principio básico? En este sentido, el uso de IA en la psicología implica la recopilación y el análisis de datos personales altamente sensibles que chocan con el secreto profesional que implica el ejercicio de nuestra profesión.

Al entregar esta información a algoritmos, me pregunto hasta qué punto estamos respetando este principio básico, e incluso, hasta qué punto estamos creando un entorno seguro si la confidencialidad ya no depende totalmente de nuestro silencio, si no que puede ser expuesta debido a ciber ataques, caída del sistema y otros. Junto a lo anterior, aparece otro riesgo, cuando consideramos que quienes están detrás son empresas que pueden no tener formación vinculada a la salud y cuya data no necesariamente puede ser usada para ayudar al ser humano.

Junto a ello, es importante reflexionar sobre las implicancia que tendría por ejemplo a nivel del trabajo en problemas vinculares, la interacción con sistemas de IA en vez de un psicólogo humano. La percepción de ser “tratado” por una máquina puede aumentar los sentimientos de deshumanización y confianza en lo humano, y en este sentido, soy de las que cree en la necesidad de buscar la forma de utilizar la tecnología a favor de lo humano, pero a mi parecer, esto que les comparto es opuesto a este objetivo.

Una IA te puede hacer sentir genial, pero te mantiene el síntoma, por algo aquí no hablamos de otro humano que ayuda a generar un espacio terapéutico que repare el daño, si no del reemplazo de este por una tecnología. Si dejamos que esta experiencia íntima sea con una máquina, estamos dejando que el síntoma se haga cuerpo en vez de atacar lo que nos está llevando a este tipo de innovaciones. En este sentido, si queremos ayudar a la salud mental, si sabemos que la misma depende del vínculo, la función es conectar o facilitar la conexión, no desconectar más de lo humano.