Los nuevos escenarios tecnológicos están dejando en evidencia la necesidad de definir lo humano desde el reconocimiento de nuestra naturaleza, con el fin de salvaguardar a nuestra especie, su singularidad y la naturaleza compleja y social que nos constituye.
Hoy les comparto esta reflexión, entre copias de voz e imágenes por inteligencia artificial (IA), entre robots que buscan asemejarse al ser humano para promover su aceptación y en un contexto donde el valor de la raza humana y nuestros vínculos se devalúan cada vez más, mientras que la IA está avanzando a pasos agigantados en los últimos años. En un contexto en el que, aunque podemos ser conscientes de los beneficios que trae, sería utópico no observar los riesgos que se hacen cada vez más manifiestos en una sociedad que apunta cada vez más de forma evidente a la deshumanización.
Aun cuando los avances tecnológicos nos pueden ayudar a superar algunas de los desafíos que hoy tenemos, su implementación sin criterios y reglas claras puede agravar las problemáticas en relación con lo humano, propias de nuestro tiempo. Es en este sentido que me refiero a la deshumanización, donde hoy quiero llevarte. Hace algunos años atrás no nos cansamos de repetir que el lenguaje crea realidades, llevando incluso a lo concreto este tremendo aporte de Lacan al punto de omitir la palabra “crisis” de los foros empresariales como si eso invisibilizara lo que realmente estaba pasando. Actualmente, esa negación conlleva otro tremendo riesgo, ya que la realidad que comienza a dibujarse en nuestro lenguaje habla de una confusión que invita a la disolución de los límites entre la realidad humana y las simulaciones de la inteligencia humana, como también a nivel de la construcción de humanoides que imitan hasta la piel humana y sus gestos. Esta confusión no es trivial y plantea importantes cuestiones éticas dentro de lo que llamo la responsabilidad social humana.
Entre la apariencia y el ser: ¿a tu imagen y semejanza?
Hace un tiempo atrás miraba el cómo los filtros en redes sociales nos invitan a normalizar una imagen cada vez más plástica de nuestro aspecto, sumado a la repetición de movimientos seriados a los que nos invitan plataformas como TikTok, o de un lenguaje limitado y mecanizado como en un inicio fueron los caracteres en las mal llamadas “redes sociales”. Me preguntaba cómo esto facilitaría la entrada y aceptación de la IA y de los llamados humanoides con apariencia cada vez más cercana a la de los seres humanos, cuyo pensamiento simulado parecía ser más concreto y sin afecto y con movimientos que aun siendo rígidos se asemejan cada vez más a las personas.
Comenté esto en un encuentro, y alguien me dijo que no era que los humanoides se parecieran cada vez más a las personas, somos las personas quienes nos parecemos cada vez más a los humanoides. Esta reflexión abrió un debate sobre las implicancias que conllevan estas observaciones a nivel de la configuración de la idea de nosotros mismos y de nuestra raza, porque, si finalmente el ideal de lo humano se comienza a asemejar más a un robot que a nuestra naturaleza: ¿Dónde quedó la naturaleza humana? ¿Por qué una simulación pareciera querer pasar a ser el punto de origen hoy desde una idea de poder hacer las cosas mejor que nosotros? O ¿en qué momento se devaluó tanto el potencial humano y se le redujo a una serie de circuitos y características? ¿Qué implica esta idea de superioridad que hoy comienza a entrar de la mano a estos avances?
Se trata de innovaciones cuyo motor en algún punto me recuerda a los dibujos del cuerpo humano de Da Vinci y a la exploración de las medidas que para algunos representaba la perfección de lo humano. En síntesis, a la búsqueda, ya en otros tiempos de forma extrema, de una raza superior de manera brutalmente inhumana y, actualmente, a la obsesión de creer que lo humano puede reducirse a su cerebro y funcionamiento en pro de un desempeño nuevamente “superior”. Tanta idea y búsqueda de superioridad creo que nos está nublando la humanidad y entre ello se asoma un límite riesgoso donde la historia da cuenta de finales poco humanos.
Hace un tiempo afirmé que desde mi parecer nos equivocamos si buscamos la proporción ideal de lo humano en el cuerpo, como hoy algunos buscan mapear el cerebro, olvidando que en ambos habitan sujetos que se constituyen desde los afectos, que no se puede mirar el cuerpo como una entidad aparte del territorio ni de la experiencia de quien lo habita, experiencia subjetiva, afectiva y vincular, social, cultural y política. Como expresa Damasio, “la comprensión global de la mente humana debe relacionarse con un organismo completo, formado por la integración del cuerpo propiamente dicho y el cerebro, y completamente interactivo con un ambiente físico y social”.
En este sentido, olvidamos que la búsqueda de lo perfecto nos aleja de lo humano y niega la singularidad, como el reconocimiento de nuestra vulnerabilidad e interdependencia y, por tanto, de nuestra posibilidad real de evolución, aquella que nos invita a estar cerca como mecanismo de supervivencia. Olvidamos que lo perfecto no cabe en el terreno de los afectos ni pensamientos, como la ilusión de lo completo no cabe en el camino de querer evolucionar.
Y es así que entre tanta búsqueda de superioridad, eficacia y eficiencia, el reconocimiento de la naturaleza biopsicosocial de lo humano y el reconocimiento de cómo influye el entorno en nuestro desarrollo sigue brillando por su ausencia, para en cambio enaltecer ideologías disfrazadas de ciencia que nos están llevando a olvidar la complejidad de lo humano, su naturaleza afectiva y social, e incluso su mundo espiritual.
Me pregunto si lo humano no merece un trato más humanizado y por tanto más real. Uno que reconozca su naturaleza biopsicosocial como su singularidad, más que seguir buscando negar, estandarizar, controlar, simular, la naturaleza humana. ¿La invitación no debería ser a facilitar su desarrollo?
La necesidad de reglar: entre la imitación y el lenguaje
Soy de la idea de que, mientras la vida humana, sus capacidades y vinculación sigan siendo devaluadas, deberían existir criterios claros delimitantes, directrices que pongan límites a la idea de fabricar un robot con apariencia y formas cada vez más humanas, al considerar que estas invenciones plantean ideales que contrastan con la naturalización y normalización de la afectación humana propia de nuestro tiempo. Ya que todos estos avances ocurren mientras seguimos normalizando la violencia entre personas y la ruptura del tejido social, mientras seguimos sin educar en lo emocional y en el afecto a nuestras sociedades... La verdad, no sé si sea buena idea dejar que algoritmos marquen el paso evolutivo de nuestra humanidad, mientras lo humano ocupa un lugar denostado e invalidado desde la propia experiencia humana en nuestras sociedades.
En este sentido, como hace un tiempo afirmé, es llamativo que en nuestras sociedades se proteja cualquier creación con patentes, propiedad intelectual y otros, pero en contraste observar que la copia de lo humano, su representación, y uso de nuestra singularidad como especie pareciera no requerir reglamentación alguna, aun cuando estas nuevas invenciones están conllevando un desdibujamiento de nuestra naturaleza, de lo que es un ser humano y por tanto de la protección de nuestra evolución.
De cara a la construcción de robots, hoy llamados “humanoides” (palabra que además remite en un punto a lo humano en su forma y fondo, lo acerca, acortando la distancia para su aceptación y equiparación a la raza humana) cabe destacar que tenemos que considerar que cuando una IA o un robot se presenta de una manera que sugiere humanidad desde el punto de vista psicológico se lleva a las personas de forma inconsciente a atribuir cualidades humanas a lo que es, en realidad, una simulación.
Junto a ello, el uso equivoco del lenguaje que diluye las diferencias puede llevar a un proceso de atribuciones y percepción errónea de que estas simulaciones cuentan con habilidades y cualidades humanas intrínsecas.
Con respecto a este punto de la aceptación de robots con apariencia humana, cabe destacar que en 1970 Masahiro Mori, experto en robótica, acuñó el término “Uncanny Valley”, que da cuenta de la diferencia de respuesta positiva o negativa que podemos tener los seres humanos ante robots con apariencia y comportamientos casi humanos versus otros de apariencia y comportamientos casi totalmente humanos. En este sentido, el concepto da cuenta en parte de que cuando la apariencia de un robot es más humana, la respuesta emocional de una persona ante el robot se irá haciendo cada vez más positiva y empática.
Es decir, mientras menos distinguible sea su apariencia y forma a la de un ser humano, la respuesta emocional se volvería más positiva. Caso contrario ocurriría cuando percibimos que el robot es una réplica muy realista, pero no perfectamente humana, o cuando le atribuimos capacidad de pensamiento propio o de sentir como los seres humanos. En estos casos la tendencia se inclinaría hacia el rechazo y actitudes aversivas. Si observamos los desarrollos que hoy están llevando a cabo países como China de forma masiva, se observa que existe una búsqueda cada vez mas real de robot que se asemejen a los seres humanos, incluyendo incluso la piel y textura.
Aunque la tesis de Mori ha sido ampliamente debatida y aún queda un largo camino de investigación con respecto a este tema, pensando que estamos ante un mercado nuevo y de alto crecimiento, este fenómeno resalta la importancia de mantener una distinción clara entre humanos y simulaciones de IA y robots que intentan simular al ser humano para promover la aceptación de estas tecnologías, que a la base de lo planteado, podrían conllevar ciertos grados de manipulación emocional que podrían incidir en el consumo y uso de los mismos e incluso su preferencia por encima de las relaciones humanas.
Partamos de la base de que ningún ser humano puede estar disponible para otro 24/7, una IA o un humanoide sí. En una sociedad que a su vez poco tiempo nos deja para compartir y que niega la importancia de los vínculos humanos, si reconocemos nuestra naturaleza social, creo que es fácil imaginar los niveles de dependencia que estas tecnologías pueden llegar a generar. Voy más lejos: ¿Qué ocurrirá cuando la figura de confianza significativa de un humano pase a ser un robot, una IA … en manos de quién estamos dejando la socialización de lo humano? ¿Por qué omitimos la función clave del afecto en nuestro desarrollo?
La necesidad de claridad en el lenguaje
Escucha a tu DJ impulsado por IA.
Ven a nuestra clínica donde médicos impulsados por IA van a tratarte.
Los subtítulos señalados aquí son ejemplos de formas que actualmente estamos encontrando en servicios ofrecidos con IA, donde no estamos hablando de seres humanos si no de simulaciones que han sido entrenadas en base a los conocimientos técnicos de determinadas disciplinas. El lenguaje pareciera diluir la jerarquía entre una máquina que requiere ser supervisada y un humano cuya inteligencia es imitada. Observamos que la palabra simulación es remplazada por profesiones que discursivamente parecieran implicar a otro humano por detrás, difuminando límites y con ello influyendo en nuestra percepción y apertura ante estos servicios, olvidando que no se trata de médicos sino de simulaciones entrenadas en base a conocimientos médicos, o simulaciones de DJ entrenados en base a conocimientos musicales, y en los cuales en algunos casos no media intervención humana.
Es fundamental recordar que la IA, por muy sofisticada que sea, no es más que una simulación del pensamiento humano, entrenada con millones de datos cuyo fin es replicar patrones y comportamientos humanos en el procesamiento del lenguaje, la toma de decisiones y otras tareas complejas. A pesar de su capacidad para imitar el razonamiento y la conversación humana, es una imitación incompleta ya que estos sistemas no poseen conciencia, emociones ni entendimiento real de la complejidad de nuestra existencia y sociedad.
Puede que para los seguidores de Descartes estos nuevos inventos sean la panacea -pues conlleva de forma implícita la separación entre mente cuerpo, razón y emoción, e implica en parte la negación de la importancia de los vínculos y emociones humanas en nuestro bienestar, desarrollo e incluso supervivencia-, volviendo a levantar en pleno 2024 nuevamente algo que durante muchos años ha acompañado una visión de lo humano dualista desde la relación entre mente y cuerpo “no pensante” del “Pienso, luego existo”, o la dicotomía razón-emoción, afirmando algunos autores en la antigüedad que la emoción humana es algo que puede llegar a obnubilar la razón. Sin embargo, hablamos de invenciones incompletas que se presentan como completas olvidando que la inteligencia es finalmente también el resultado de procesos afectivos y vinculares dentro de un contexto específico que sientan las bases para procesos cognitivos más complejos; por algo el ser humano se constituye desde los afectos y de la relación con otros. Incluso hablando del establecimiento de redes neuronales, a nivel de nuestro desarrollo los afectos tienen una función clave.
Las distorsiones no son nuevas y la negación ideológica de nuestra naturaleza tampoco. En su momento ya nos enseñaron que competir era lo que hacía a las sociedades más desarrolladas, aun cuando nuestra naturaleza habla de colaboración. Maturana nos dejó un mensaje claro con respecto a este punto en lo que respecta a nuestra historia evolutiva. Hoy nos enseñan que una IA puede hacer las cosas mejor que todos nosotros juntos, cuando antes nos enseñaron a no trabajar juntos… Me pregunto: ¿Cuál será el siguiente paso en la búsqueda de aceptación de un modelo ideológico en sociedades donde se ha primado el crecimiento del mercado a costa de la vulnerabilización de lo humano y nuestras capacidades?
Equiparar la IA con la inteligencia humana puede contribuir a la deshumanización, porque hablamos de instancias que hoy también comienzan a configurarse como espacios de socialización de lo humano sin afectos, sin empatía, sin otro que genere una experiencia humana. Porque si empezamos a considerar a las máquinas como equivalentes a los humanos en contextos sociales y profesionales, corremos el riesgo de minimizar la importancia de las interacciones humanas en nuestra evolución y bienestar. El síntoma se hace cuerpo en la IA.
Para abordar algunas de estas preocupaciones, es esencial que la sociedad establezca una distinción clara entre los humanos y las simulaciones de IA y los humanoides. Esto implica no solo un cambio en el lenguaje, sino también a nivel de leyes y en la forma en que educamos al público sobre la IA y sus aplicaciones dentro de un marco ético y normativo que guíe el desarrollo y la implementación de la IA y la creación de robots. Esto para mí implica también por tanto reglar el uso imitativo.
Uno de los puntos con respecto a esto es el uso de terminología precisa, donde claramente se diferencie entre humanos y sistemas de IA y robots. En este sentido, en lugar de “médicos impulsados por IA”, se podría decir “simulación entrenada con conocimientos médicos”, subrayando su naturaleza simulada y no equivalencia. Otro aspecto fundamental relacionado a este punto es transparentar su naturaleza limitada con respecto a qué tipo de datos y algoritmos se utilizan. Esto incluye aclarar que, aunque la IA puede imitar ciertos aspectos del pensamiento humano, no es consciente ni posee juicio propio ni emociones.
La falta de claridad en el lenguaje también plantea problemas de responsabilidad. En un entorno donde la IA se presenta como casi una experiencia humana, la atribución de responsabilidades ante fallos puede volverse un espacio confuso. Pensemos en lo que hoy ocurre con los call center externalizados y sistemas de apoyo a clientes de algunas compañías donde una grabación o un bot te da respuestas limitadas, no poniéndose en tu lugar y generando grandes cuotas de frustración ante reclamaciones que finalmente no son respondidas, sin mostrar un ápice de responsabilidad.
¿Qué ocurrirá cuando los problemas ante servicios los controle una IA? ¿Podrá ponerse en tu lugar mostrando empatía? Pienso que difícilmente, porque una cosa es usar las palabras correctas para generar una respuesta emocional positiva y otra la implicación que desde la empatía podemos tener los seres humanos en la búsqueda de soluciones e incluso asunción de responsabilidades desde el desarrollo moral. En este sentido, es importante destacar que aun cuando existen algunas líneas de investigación que plantean una mayor percepción de justicia por parte de usuarios de servicios proporcionados por tecnologías como IA, en comparación con la atención de seres humanos, creo que sería importante la autocrítica en el momento en que reconocemos que las malas prácticas empresariales en terrenos como la atención de servicio a clientes y captación de clientes han sido normalizadas.
¿Hasta qué punto el interés del usuario y consumidor es algo que se cuida y se protege desde lo humano y qué pasara mañana cuando terminemos peleando con una maquina? Lo pregunto desde un país en el que no prosperó la facultad sancionadora y normativa ante el abuso de empresas que debería tener el servicio de defensa al consumidor, y donde los derechos de estos suelen quedar en tierra de nadie si no tienes los recursos económicos para apelar…
Más IE en lo prioritario y menos IA me digo…