Hace tiempo en este mismo espacio hablamos sobre la posibilidad de un estancamiento de la IA en cuestiones muy específicas referentes al comportamiento y a los modelos de desarrollo que podrían tardar mucho tiempo en evolucionar y generar innovaciones impactantes en el campo. Sin embargo, esto no quiere decir que las técnicas de IA disponibles actualmente no sirvan como herramientas para mejorar los productos y servicios (como en el campo de la ciberseguridad), pero con el uso exponencial en los últimos años de estas IA y la cantidad de dispositivos conectados a la red con acceso a nuestra información personal y financiera, es de esperarse ver a la industria del cibercrimen aprovechar estos recursos para llevar a cabo ataques mucho más efectivos y masivos.
Si nos detenemos a pensar con cuidado este es sin duda un escenario de pesadilla para la seguridad computacional, porque un programa malicioso con IA incluida, puede aprender y adaptarse a muchas metodologías defensivas y de ofuscación. Los bloques de construcción gratuitos de inteligencia artificial para programas de entrenamiento están disponibles en el buscador de Google y otras fuentes online, y las ideas funcionan demasiado bien en la práctica, solo es cuestión de tiempo para comenzar a ver una propagación masiva que nos ponga en jaque a todos los usuarios desconocedores casi siempre de estos temas.
Quien lidere la IA gobernará el mundo
Las connotaciones que existen en la expansión global de la IA van desde apocalípticas hasta bastante optimistas, dependiendo de cómo se vea. La IA está abriendo la puerta a un sinfín de nuevas aplicaciones como los vehículos autónomos, el reconocimiento facial y de voz (con un muy controvertido uso referente a la generación de fake news) análisis de imágenes y datos e incluso hoy día podemos dar por sentado que la IA es una parte muy importante para medir el poder de una nación en el orbe y modificar sus balanzas en términos políticos o económicos. Pero es un hecho que cuanto más avanza y prolifera la IA mayor es su superficie de ataque. Técnicas como el machine learning avanzado, y las redes neuronales permiten que el malware encuentre e interprete patrones para su ventaja, por supuesto a partir de aquí también pueden encontrar y explotar un sinfín de vulnerabilidades en sus objetivos.
Por ejemplo, traemos a colación el concepto de hivenet, que consiste en infectar a un conjunto de dispositivos formando una colmena entre ellos y que junto con las técnicas mencionadas anteriormente más su poder computacional, encuentren la manera de atacar el objetivo más rápida y masivamente de lo que antes hubieran podido. Debido a la cantidad de dispositivos que usamos a diario, este concepto representa una amenaza de grandes dimensiones, sobre todo por la versatilidad que le puede dar la IA al hivenet embebiendo un malware muy poderoso, utilizando modelos de aprendizaje, siendo polimórfico, multifacético y recuperándose ante cualquier embiste para evadir defensas y mejorar continuamente su efectividad. En pocas palabras aprende a medida que se propaga y se coordina a sí mismo para ejecutar operaciones globales o upgrades necesarios para su evolución.
Lo anterior suena totalmente a ciencia ficción aunque ya es una realidad, pero además y como lo dejamos entrever las habilidades de los sistemas de IA nos pueden llevar a escenarios de suplantación de identidad y deepfakes mucho más complejos y difíciles de dilucidar. Para ello le pido al lector que vea el video fake sobre Barack Obama, donde se logró suplantar de una manera extraordinaria «la persona» del exmandatario para mandar un mensaje falso totalmente creíble y con una voz y articulación idénticas. Son bots que suplantan enteramente a las personas, capaces de imitar la voz de cualquiera y aprender a hablar de la misma manera, incluso usando las mismas expresiones verbales. Se me ocurre que si un hacker pusiera a su bot a llamar de forma ininterrumpida a una base de datos de personas, podría tener contraseñas, claves de acceso a cuentas bancarias o números de tarjetas de miles de personas en muy poco tiempo.
Otro caso es Grover, el mejor generador de noticias fake del momento. El sistema ha aprendido mediante entrenamiento online a crear noticias falsas a partir de un titular. En base a eso, es capaz de generar imágenes de supuestos artículos de medios como The Washington Post y The New York Times, que luego pueden ser compartidos en redes sociales. Grover es capaz de cambiar su estilo a cada medio para que no resulte evidente que el artículo no ha sido publicado en su web; por ejemplo, copiando la manera en la que un autor ha iniciado un artículo real.
Usando esta herramienta, los investigadores crearon artículos falsos del The Washington Post que afirmaba que el Congreso de los Estados Unidos había votado para sacar a Donald Trump de la presidencia. Entre el estilo del artículo, la supuesta «información» (como los votos a favor y en contra) y el uso de citas, realmente parece un artículo real. Y aunque las noticias falsas pueden ser un problema muy real, también son un problema muy «nuevo» y sobre todo los actuales esfuerzos para detectar fake news son bastante peligrosos, ya que únicamente se limitan a mover nuestra confianza de unas máquinas a otras, sin obligarnos a asumir el costo de la búsqueda de información veraz y confiable.
Confiar en sistemas automatizados para censurar texto generado por IA implicaría terminar censurando también comentarios realizados por humanos, puesto que gran parte de los actos comunicativos que generamos hoy en Internet son meros «balbuceos» o hilos gramaticales muy banales (vean todo Twitter o Facebook) ideas repetidas sin que medie comprensión o profundidad. Exactamente lo que ya puede generar la IA.
Un caso de malware actual con IA es sin lugar a dudas DeepLocker, un tipo de amenaza que se transmite por softwares de videoconferencia permaneciendo inactivo hasta que llega a una víctima específica, identificada a través de factores que incluyen reconocimiento facial, geolocalización, reconocimiento de voz y potencialmente el análisis de datos recopilados de fuentes como los rastreadores en línea y redes sociales. El modelo de red neuronal profunda (DNN) de DeepLocker estipula las condiciones de activación para ejecutar una carga útil. Si no se cumplen estas condiciones, y el objetivo no se encuentra, entonces el malware permanece bloqueado, algo perfectamente bien definido dentro del entorno de la IA.
Para finalizar este breve texto, cuya intención era poner en la órbita del lector este tema tan importante para el futuro de la humanidad sin dudas, podemos indicar algunos puntos clave acerca de los objetivos o propósitos que puede lograr la IA si se utiliza de forma negativa y que causarían grandes estragos globales, algunos ya mencionados en el texto:
La capacidad de generación de imágenes puede dar lugar a suplantaciones de identidad o la publicación de contenido falso llegando a crear pánico, caos y confusión social, dependiendo del nivel de profundidad al que se logre usar.
Los programas que buscan vulnerabilidades en dispositivos y redes pueden usarse para atacar y aprovechar dichas vulnerabilidades generando penetraciones automáticas a gran escala.
Los drones autónomos que se están desarrollando para reparto de mercancías, como los de Amazon, pueden ser hackeados para transportar bombas o armas con la misma facilidad.
La automatización de tareas impide que factores psicológicos como la empatía entren en juego a la hora de tomar decisiones. Al mismo tiempo, se refuerza el anonimato lo cual puede ser una navaja de doble filo.
Son siempre sistemas eficientes y escalables. Cuanto más se usen, más aprenderán. Lo que implica que una vez que proliferen frameworks o sistemas de IA, los cibercriminales encontrarán una mina de oro para desenvolverse debido a las capacidades ilimitadas de polivalencia que ofrecen esta clase de herramientas y su inversión es más que redituable.
Aunado a lo anterior existen pocos (casi nulos) motores de antimalware que puedan hacer algo en contra de un malware con IA. Están completamente rebasados y ya ni hablemos de firewalls o IDS/IPS.
Al final si se sigue investigando en este campo y las empresas invierten en él para aumentar sus ganancias con menos personal, en un plazo todavía indeterminado, la IA acabará superando al ser humano en todos los campos.