O ressurgimento do interesse em IA desde a virada do milênio foi impulsionado por rápidos avanços em um subcampo chamado aprendizado de máquina. As técnicas de aprendizado de máquina representam uma abordagem diferente em comparação com a "Boa e Velha IA" (GOFAI).

GOFAI enfatiza a prova de teoremas dedutivos e a otimização de pesquisas. O aprendizado de máquina, por outro lado, é uma forma de previsão estatística, que é o processo de usar dados existentes para gerar indutivamente informações ausentes.

Estudos recentes sobre inteligência artificial (IA) e segurança internacional enfocam as consequências políticas e éticas da substituição de soldados humanos por máquinas. No entanto, a IA não é um simples substituto para a tomada de decisão humana. Os avanços no aprendizado de máquina comercial que estão reduzindo os custos da previsão estatística estão aumentando simultaneamente o valor dos dados — que permitem a previsão — e do julgamento — que determina por que a previsão é importante.

Esses complementos-chave — dados de qualidade e julgamento claro — podem não estar presentes no mesmo grau no negócio incerto e conflituoso da guerra. Isso tem duas implicações estratégicas importantes.

Primeiro, as organizações militares que adotam a IA tendem a se tornar mais complexas para acomodar os desafios de dados e julgamento em uma variedade de tarefas de tomada de decisão. Em segundo lugar, dados e julgamento tendem a se tornar alvos atraentes na competição estratégica.

Como resultado, os conflitos envolvendo complementos de IA provavelmente se desenrolarão de maneira muito diferente do que as visões de substituição de IA sugeririam. Em vez de guerras robóticas rápidas e mudanças decisivas no poder militar, o conflito habilitado para IA provavelmente envolverá incerteza significativa, atrito organizacional e controvérsia crônica.

Uma maior dependência militar da IA tornará, portanto, o elemento humano na guerra ainda mais importante, não menos.

A capacidade de uma máquina de perceber, avaliar e agir com mais rapidez e precisão do que um humano representa uma vantagem competitiva em qualquer campo — civil ou militar. As tecnologias de IA serão uma fonte de enorme poder para as empresas e países que as aproveitam.

A falta de clareza sobre os conceitos básicos, no entanto, complica a avaliação das implicações de segurança da IA. A IA também tem vários significados, desde big data, aprendizado de máquina, robótica e drones letais até uma "quarta revolução industrial" abrangente. É prematuro supor que a IA substituirá os seres humanos na guerra ou em qualquer outro empreendimento competitivo.

Para entender o impacto da IA em qualquer campo, é importante desagregar a tomada de decisão em seus componentes: dados, julgamento, previsão e ação. Uma perspectiva econômica sobre IA vê o aprendizado de máquina como uma previsão mais eficiente (e a robótica como uma ação mais eficiente), o que torna os dados e o julgamento humano mais valiosos.

Isso quer dizer que a inovação em algoritmos e poder de computação é necessária, mas não suficiente para o desempenho da IA.

Argumenta-se que o contexto da tomada de decisão — onde e como as organizações usam a IA e para quais finalidades — determina se a automação é possível ou desejável. A complementaridade de dados e julgamento, por sua vez, tem implicações importantes para a preparação e condução da guerra habilitada por IA.

O ambiente estratégico molda a qualidade dos dados, e as instituições organizacionais moldam a dificuldade de julgamento, o que dá origem a quatro categorias diferentes de desempenho de IA em tarefas militares.

Dados de qualidade e julgamento claro permitem a "tomada de decisão automatizada", que é mais viável para tarefas administrativas e logísticas burocraticamente restritas. Dados de baixa qualidade e julgamentos difíceis, comuns em tarefas de estratégia e comando, exigem "tomada de decisão humana".

Julgamentos claros aplicados a dados de baixa qualidade criam riscos de "automação prematura", especialmente quando os sistemas de IA são autorizados a executar tarefas de fogo e manobra. Dados de qualidade e julgamentos difíceis podem ser combinados em "equipes homem-máquina", que podem ser usadas para melhorar as tarefas de inteligência e planejamento.

Da mesma forma, tarefas de comando altamente sutis que parecem se encaixar na categoria de "tomada de decisão humana" geralmente podem ser divididas em um subconjunto de tarefas que podem se beneficiar de auxílios à decisão de IA.

A maioria dos profissionais que implementa sistemas militares de IA está ciente dos riscos da "automação prematura" em fogo e manobra, em parte devido à apreensão generalizada sobre "robôs assassinos". Para determinar a divisão apropriada do trabalho entre humanos e máquinas, portanto, os humanos devem decidir o que prever e devem criar políticas de dados e planos de aprendizado de IA que detalhem quem deve fazer o quê com essas previsões.

As circunstâncias dinâmicas das operações militares exigirão um refinamento contínuo da relação homem-máquina.

A IA é potencialmente transformadora, porém é crucial determinar sobre o que essa transformação pode ser. Em geral, espera-se que a complexidade estratégica, organizacional e ética da guerra aumente na era da IA.

Quando a previsão mais barata é aplicada em um contexto político tão desafiador e incerto quanto a guerra, dados de qualidade e bom senso tornam-se extremamente valiosos. Os adversários, por sua vez, tomarão medidas para minar a qualidade dos dados e do julgamento, manipulando informações e violando as expectativas.

A correção de contramedidas contraditórias aumentará ainda mais a complexidade do julgamento, o que exacerba o atrito e a frustração inerentes à guerra. O foco deve ser a IA estreita, particularmente as melhorias no aprendizado de máquina que levarão a previsões melhores, mais rápidas e mais baratas.

Os recentes avanços na IA que levaram à atenção da mídia, aplicações comerciais e ansiedade sobre as liberdades civis têm muito pouco a ver com a AGI — inteligência semelhante à humana e capacidade de autoaprendizado. Alguns especialistas acreditam que a AGI acabará acontecendo, mas não é disso que se trata todo o hype atual da IA.

Outros especialistas, como Brian Cantwell Smith, são totalmente pessimistas: "Nem o aprendizado profundo, nem outras formas de IA de segunda onda, nem quaisquer propostas ainda avançadas para a terceira onda, levarão a uma inteligência genuína". De fato, a metáfora da "inteligência" é muito enganosa quando se trata de entender o que o aprendizado de máquina realmente faz.

Os avanços na IA estreita, por outro lado, levaram a previsões melhores, mais rápidas e mais baratas. Esses sistemas de IA são específicos da tarefa. Se a AGI se tornar uma realidade, essa máquina também fornecerá seu próprio julgamento. Então, a AGI seria capaz de realizar todo o ciclo de decisão por si só. Nesse caso, não está claro qual papel os humanos teriam na guerra além de sofrer as consequências da guerra.

A especulação da AGI leva o tema da substituição da IA ao extremo, por meio do qual uma máquina seria capaz de enganar, dominar e eliminar qualquer ator que tentasse impedi-la de atingir seu objetivo.

Esse cenário apocalíptico é frequentemente comparado ao segmento "Aprendiz de Feiticeiro" do filme Fantasia, no qual o aprendiz homônimo, interpretado por Mickey Mouse, encanta uma vassoura e a direciona para buscar água no poço. Quando Mickey adormece, a vassoura acaba inundando todo o castelo. Mickey acorda alarmado e tenta desesperadamente cortar a vassoura, mas isso só resulta em mais e melhores vassouras que sobrecarregam suas habilidades.

Por conseguinte, uma tarefa tática eminentemente útil acaba se transformando em um desastre estratégico por causa de um objetivo mal especificado.

No entanto, o cenário do Aprendiz de Feiticeiro dramatiza a importância do julgamento para qualquer tipo de IA.

Uma IA que se preocupa apenas em otimizar um objetivo — mesmo que esse objetivo tenha sido definido por um humano — não considerará o importante contexto pragmático com o qual os humanos podem se preocupar.

Portanto, o julgamento militar abrange não apenas os traços clausewitzianos de coragem, determinação e golpe de estado, mas também a capacidade de justiça, empatia e outras qualidades indescritíveis.

Algumas situações de guerra merecem crueldade, desonestidade e inimizade, enquanto outras exigem misericórdia, franqueza e compaixão. A esses traços de caráter devem ser adicionadas as virtudes de engenharia da curiosidade, criatividade e elegância, na medida em que o pessoal terá que reconfigurar os sistemas de IA no campo. Espera-se que a lógica geral da complementaridade continue a aplicar-se a este nível mais refinado.

Qualquer IA futura que seja capaz de automatizar alguns aspectos do julgamento, portanto, tornará outros aspectos ainda mais valiosos. Além disso, a rica fenomenologia do julgamento, que a IA torna mais valiosa, tem implicações importantes para a educação militar profissional.

Mais tecnologia não deve significar mais tecnocracia. Pelo contrário, o pessoal seria sábio em se envolver mais com as humanidades e refletir sobre as virtudes humanas à medida que os militares se tornam mais dependentes da IA. Em geral, a confiança na IA tenderá a ampliar a importância da liderança humana e os fundamentos da arte militar.

Conforme argumentado por Erving Goffman, a capacidade humana de fazer julgamentos sobre a adequação contextual está no centro do desempenho social. Se alguma vez existiu uma inteligência geral em todo o cérebro, foi a capacidade humana de fazer julgamentos sociais sintonizados.

Os avanços na IA provavelmente tornarão o julgamento humano ainda mais essencial na guerra, mesmo quando os componentes da guerra que envolvem julgamento humano mudarem.