Las redes de inteligencia del mundo occidental (e.g., Five Eyes, Mossad, BND) recopilan la información más próxima a la realidad y la verdad, porque sus bases de comunicación y datos son la verificación y colección de reportes sobre hechos que -por su complejidad- en el análisis de los datos para la toma de decisiones, no deben ser distorsionados. Sin embargo, esta afirmación puede estar amenazada por la evolución de la Inteligencia Artificial (IA), que en su expansión de capacidades puede reconfigurar los hechos y falsear la realidad, engañando a la inteligencia occidental.
No solo en la comunicación y la propaganda la IA tiene implicaciones severas para la influencia sobre los sentidos humanos, sino en las Relaciones Internacionales (RI) y el poder internacional, porque la influencia en el análisis de datos afecta la toma de decisiones efectiva; no solo es la creación de inseguridad y confusión, sino la creación de hechos e información que no existen, pero que influyen en el escrutinio de los agentes de inteligencia que están condicionados por sesgos cognitivos naturales, pero ahora también por recreaciones y alteraciones de lo real.
La IA no solo actúa en el campo tecnológico de aplicación armamentística que es hard power, sino en la influencia y persuasión que es soft power (Coeckelbergh, 2022b). De hecho, los campos de acción de la IA son: la ciberseguridad, el ciberataque, la desinformación y la guerra híbrida. Y a pesar, de que el uso de la IA ha perfeccionado la velocidad y precisión en el análisis para la seguridad en lectura de datos provenientes del GEOINT, HUMINT, OSINT, y SIGINT, la IA también está siendo usada para la contrainteligencia y la anticipación de amenazas directas y potenciales.
Por lo que, la IA no solo es omnipresente en el campo de la seguridad, sino que las redes neuronales profundas, el procesamiento natural del lenguaje (Natural Language Processing), el aprendizaje automático (Machine Learning) y el aprendizaje profundo (Deep Learning) son un replanteamiento de las herramientas básicas del conflicto global entre estados bajo la anarquía internacional, porque la ampliación de las variables de análisis en base al Big Data construye patrones de comportamiento que son una lectura compleja y profunda de los aliados y enemigos, algo que solo se puede hacer desde la IA. Razón por la que los hegemones trabajan e invierten en el desarrollo de sus sistemas de IA para avanzar en sus capacidades de anticipación del movimiento de sus adversarios.
Esto tiene otro resultado de poca previsibilidad, la redefinición de la inteligencia en si misma; el ingreso abierto de sistemas como BARD y GPT-4 no solo revelaron el aprendizaje automático en base a la absorción de toda la información de fuente abierta de la internet, sino que demostró que es un proceso en desarrollo que en otras versiones como MidJourney absorben todas las imágenes de la red para un aprendizaje profundo de sus modelos que crean en base a todo lo absorbido como fuente para sus resultados.
De esta manera, la capacidad de predictibilidad en base a una masiva base de datos implica también una lectura enormemente superior del comportamiento humano, que puede ser y es manipulado por armas de influencia (Coeckelbergh, 2022b); perfeccionadas en el procesamiento de cientos de millones de datos sobre comportamientos y respuestas humanas (e.g., Cambridge Analytica). Permitiéndose así, la construcción de relatos coherentes pero unilaterales sobre el entorno del sujeto. Esto va más allá, considérese el caso de las IA, Alpha Go, Alpha Zero y Alpha Star en el aprendizaje autodidacta de estrategias no humanas que les permitieron ganar a los mejores del mundo en el ajedrez, el go, y StarCraft. Lo que es una muestra de que ya no solo trabajan con reglas y campos de percepción de la experiencia humana, sino en otros campos de percepción que le permiten desarrollar sus propias experiencias no humanas y aplicarlas en la búsqueda multifactorial que lleve al éxito, sea en un juego complejo como el go, o en la búsqueda de un antibiótico como la halicina (Kissinger et al., 2021).
No solo se trata de psicología de la manipulación en base a algoritmos de procesamiento de datos, sino de la construcción de armas letales autónomas (Lethal Autonomous Weapons), enjambres de drones y robots móviles autónomos que se despliegan para la colección de inteligencia, reconocimiento y ataque –e.g., drones MQ-1 Predator, MQ-9 Reaper, Phoenix Ghost–.
Por lo que, estamos viendo la llegada de una ola de creaciones en base a la IA de consecuencias inimaginables. Razón por la que, es en la abundante masa de datos que la IA actúa para su procesamiento, estructuración de patrones, y una articulación lógica que establece una inteligencia de datos (diplomáticos, industriales y militares) que compiten con las articulaciones de otras IA de los hegemones, siendo así, un replanteamiento completo de los términos de la guerra y la vida humana.
Esto es, por lo tanto, una carrera tecnológica que responde parcialmente el interés de China por Taiwán y TSMC, superando lo meramente nacionalista, por la apropiación y control tecnológico de los semiconductores que son requeridos por los GPU de la californiana NVIDIA (Suleyman & Bhaskar, 2023). Esta intención de control y despliegue tecnológico es evidente en la Guerra de Ucrania, donde el programa de reconocimiento facial Clearview AI ya se ejecuta con su base de más de 10 mil millones de fotos colectadas de la internet, para reconocer atacantes y fallecidos.
Siendo muy claro también que, toda la información que los humanos han depositado y compartido en la internet abierta en 20 años ha sido usada para entrenar grandes aplicaciones tecnológicas predictivas –e.g., Gotham de Palantir Technologies– en base a la absorción de millones de variables en tiempo real para la recreación de modelos de guerra muy avanzados que hoy reconfiguran el campo de la estrategia y la información. No solo ello, los drones Bayraktar TB2 usados por Ucrania son de origen turco, mientras que los rusos usan drones semiautónomos Lantset, testeados antes en Siria; ello plantea a la guerra como campo de aplicación de procesos previamente articulados y desarrollados, y todo esto no se algo nuevo, considérese que el concepto de la IA se remonta más de medio siglo atrás, con Alan Turing en los años 50.
Por lo que reflexionar sobre la IA y sus consecuencias en RI, nos lleva a criticar la incapacidad directa del institucionalismo liberal en la regulación de armas autónomas y tecnologías basadas en IA que puedan causar conflictos directos por su uso dual; esto a raíz de la ineficiencia normativa internacional sobre otro tipo de armamentos y acciones ejecutadas a pesar de las declaraciones de los distintos órganos de la ONU y organizaciones multilaterales que destacan por su idealismo frente al campo real de las decisiones y consecuencias de una estructura global que es menos influenciada por actores no estatales que estatales y sus pulsiones de guerra permanentes.
En consecuencia, también se trata de entender que la IA en las sociedades iliberales tienen el potencial de entregar información para el sabotaje, el ataque por parte de grupos terroristas, ciber-terroristas y de desinformación. Versiones clonadas de ChatGPT que tengan limitaciones, pero ninguna restricción para articular respuestas con consecuencias dañinas, pueden servir para el entrenamiento de atacantes y seguidores radicalizados en países occidentales. De hecho, es posible el desarrollo de nuevas armas químicas perfeccionadas y de diferentes fórmulas para moléculas toxicas iguales o superiores al agente VX, como informó el experto en IA Fabio Urbina en 2022.
De hecho, un terrorista puede recopilar datos o robarlos para procesarlos con IA y depurar la información irrelevante, consiguiendo ver las vulnerabilidades de su objetivo, para establecer un ataque, que puede ser un tipo de malware para su infiltración y daño de infraestructura del objetivo establecido, y para ello solo requiere conexión a internet, tenacidad y convicción en sus acciones.
Así, ya que es imposible desinventar, deshacer y desmantelar la IA, queda establecer protocolos de ejecución para el mundo occidental libre, queda la negociación y la diplomacia en términos realistas con el mundo iliberal para frenar posibles desenlaces catastróficos en la proliferación de IA militar, lo que deberá ser minimizado por medios disuasivos y coercitivos (Kissinger et al., 2021); a diferencia de la Guerra Fría en la que la colección de información por parte de la Stasi y la KGB era realizada en innumerables carpetas archivadas manualmente y casi totalmente obtenida por HumInt, la colección de datos contemporánea es tan minuciosa que se puede construir un avatar de un sujeto con precisión y conocerlo mejor de lo que el sujeto se conoce a sí mismo (Coeckelbergh, 2022a) y sus sesgos cognitivos individuales.
Otro elemento a tomar en cuenta es que las grandes potencias no occidentales, no se alinearán a normativas internacionales regulatorias, ello solo es posible en el mundo occidental, sin embargo, es preciso que la IA más avanzada sea controlada por Estados Unidos y no por China, menos aún por algún Estado fundamentalista. Se trata de escoger el menor de los males, y no caer en la dualidad maniquea del bien y del mal que proviene de la idealización y el sesgo colectivo de grupo y pertenencia a causas y mitos.
La vía diplomática también nos plantea la resolución ante el sesgo del pensamiento dualista, el cual es una ilusión en sí mismo, que nos debe acercar más bien a la búsqueda de la solución más efectiva, porque los poderes occidentales deberán negociar con actores antinómicos a las sociedades abiertas, actores fundamentalistas, actores que buscan el poder proveniente del control y la dominación; por lo que el idealismo se antepone como un estorbo más que como una opción en un entorno enrevesado y caótico, donde las ilusiones son muchas, pero las vías reales de solución son muy pocas.
Siendo así que, es la diplomacia realista la que comprende que los enemigos de occidente están colectando información y no dejarán de colectarla para entrenar sus versiones de IA; a pesar de lo anterior, si pueden ser neutralizados en conocimiento de sus sesgos colectivos primarios y su pasado histórico, haciéndoles saber que los opuestos a occidente no serán liberalizados, ni transformados, dejándolos vivir bajo sus costumbres. Dejando al tiempo demostrar cual versión civilizatoria es la más resiliente.
Se trata también, de poder ver a los humanos como los eslabones más débiles de cualquier cadena tecnológica de seguridad con nodos cerrados, eslabones débiles de los que se puede explotar sus vulnerabilidades y reducir sus fuerzas, convirtiendo a sus aliados en enemigos y luego en agresores. A su vez, es importante reflexionar que la IA no posee ética, no tiene leyes de Asimov implícitas, no tiene Estado, identidad, dioses, ni sentimiento de pertenencia, solo es un avance de uso dual importante que plantea posiblemente el máximo desafío en múltiples frentes a la especie humana.
Ahí el realismo clásico y el realismo estructural tienen mucho que aportar, por su lectura de los hegemones que controlan las fronteras de despliegue real de las empresas tecnológicas que han creado y dominan el campo de la IA, por ello una autoridad auditora de la IA en el escenario internacional similar al Organismo Internacional de Energía Atómica podría establecer marcos regulatorios para occidente, si bien esto es institucionalismo, está dentro del marco realista de herramientas que deben aplicarse diplomáticamente hacia los estados, en contención de las prácticas de la IA por fuera de occidente.
También es ahí donde el realismo aporta desde su lectura de la naturaleza humana y sus pulsiones básicas, que se pueden entender aun con Seneca y Marco Aurelio a pesar de los más de 1800 años desde la muerte de ambas figuras del estoicismo. Esto porque el humano, aún sigue siendo un ser padeciente, un sapiens moderno que tiene más tecnología, pero no por ello más sabiduría. Como consecuencia, ante la IA seguimos siendo una especie biológica limitada, mientras que la IA está en camino a ser nuestra última invención, nosotros seguimos siendo homínidos evolucionados que viven en colectividades, bajo sesgos comunes, y dentro de prejuicios que impiden acompañar la hiper-evolución (Suleyman & Bhaskar, 2023) que significa la IA.
Finalmente, es únicamente la especie humana la que puede limitar su creación, y esta limitación solo puede originarse en el entendimiento de las graves consecuencias que se pueden desatar si el realismo duro no está presente en el momento de establecer los marcos de defensa de la sociedad occidental frente a la irracionalidad de sus enemigos, siguiendo pautas esenciales, como el establecimiento de valores comunes entre los lideres globales para evitar escenarios bélicos, abordar el posible escenario de una guerra nuclear influenciada por la IA, el establecimiento de doctrinas y límites de la IA, mayor protección contra armas cibernéticas, maximización del tiempo de decisiones durante situaciones de alta tensión y mayor limitación de la IA militar desplegando esfuerzos diplomáticos (Kissinger et al., 2021). Así, será en la diplomacia y desde el realismo que occidente deberá ejecutar un Smart Power que aproveche todas las herramientas de contención para limitar a sus adversarios y usar la IA en beneficio del futuro humano.
Bibliografía
Coeckelbergh, M. (2022a). Self-improvement. Technologies of the soul in the age of artificial intelligence. Columbia University Press.
Coeckelbergh, M. (2022b). The Political Philosophy of AI. An Introduction. Polity Press.
Kissinger, H. A.; Schmidt, E. & Huttenlocher, D. (2021). The Age of AI and our Human Future. John Murray.
Suleyman, M. & Bhaskar, M. (2023). The Coming Wave. Technology, power, and the twenty-first century’s greatest dilemma. Crown.