À medida que o mercado de IA se expande e os casos de uso de IA permeiam todos os setores, de vez em quando ouço a pergunta: quando a singularidade da IA ocorrerá?

Para aqueles que não estão familiarizados com esse termo, a singularidade da IA se refere a um evento em que as IAs em nossas vidas se tornam autoconscientes ou alcançam uma capacidade de melhoria contínua tão poderosa que evoluirá além do nosso controle. Ou seja, a singularidade tecnológica é o evento onde a verdadeira inteligência artificial vem a existir, autoconsciente, e começa a auto melhoria recursiva criando entidades melhores do que ela mesma. Não há dúvida na mente de muitas pessoas de que o evento de singularidade técnica seria disruptivo, talvez o mais disruptivo de todos os avanços tecnológicos.

Escritores de ficção científica têm explorado o potencial da IA para desastres e coisas boas (principalmente desastres) por décadas. Filmes bem conhecidos relacionados a robôs que fazem robôs melhores têm clichês agora profundamente enraizados na consciência popular coletiva. Mas como poderíamos chegar até lá? É aí que entra o campo da Inteligência Artificial. E nunca foi tão forte e movimentado. IA é o estudo e a criação de entidades inteligentes que melhoram e maximizam continuamente suas chances de sucesso. O problema, agora, é que máquinas "inteligentes", entidades, o que quer que seja, precisam ser informadas sobre o que fazer. E, por humanos.

Um risco potencial de uma IA autoconsciente é não conseguir manter uma governança adequada sobre ela. Se a IA se tornar autoconsciente e ultrapassar a inteligência humana, ela pode não seguir ordens humanas ou aderir a diretrizes éticas. Isso pode levar a consequências desastrosas, como tomar decisões prejudiciais à humanidade ou se envolver em atividades que são contra os valores humanos.

Alguns especialistas temem que, se ela se tornar mais inteligente do que os humanos, ela pode nos ver como inferiores ou até mesmo uma ameaça, levando a conflitos ou exploração. Há também o risco de consequências não intencionais de suas ações. Se ela não for programada para considerar toda a gama de implicações éticas e morais de suas ações, ela pode tomar decisões prejudiciais ou não intencionais. Uma preocupação em torno da singularidade é a questão da consciência humana.

Algumas pessoas temem que, uma vez que a IA se torne autoconsciente, ela pode não possuir os mesmos valores morais ou senso de ética que seus criadores humanos. Isso pode levá-la a tomar decisões que não são do melhor interesse ou ativamente perigosas para a humanidade. Mesmo assim, os avanços e a compreensão de como construir uma máquina pensante melhor parecem estar chegando em taxas cada vez maiores, e às vezes tem resultado em conversas perturbadoras com robôs de aprendizagem, sobre "noções de pensamento", ou "autoconsciência".

As noções de "pensamento" e "autoconsciência" são apenas parte do quadro geral. Por muito tempo, os humanos refletiram sobre como testar uma máquina, para ver se ela cruzou a fronteira de apenas ser programada para pensar por conta própria em algum nível de autoconsciência.

O lendário Teste de Turing tem como objetivo que uma máquina se envolva em conversas de forma tão convincente que um juiz não consiga dizer se é um humano ou uma máquina. Atualmente, estamos muito longe de atingir o nível de algoritmos de IA ou poder de processamento computacional necessário para que isso ocorra, mas a Lei de Moore indica que eventualmente chegaremos lá. Gordon Moore, cofundador da Intel, disse em 1965 que o número de transistores em um chip de computador dobraria aproximadamente a cada dois anos, levando a aumentos exponenciais no poder de computação e reduções no custo. Essa previsão tem se mantido amplamente verdadeira nas últimas cinco décadas, levando ao rápido desenvolvimento e proliferação da tecnologia no mundo moderno.

Muitos cientistas previram ao longo do tempo quando a singularidade tecnológica iria aparecer. E alguns emitiram avisos terríveis sobre a adoção muito rápida da IA e para onde a IA está indo. Um mundo diferente não é necessariamente ruim. Pode ser bom. Mas definitivamente haverá ruptura e certamente perigos se uma IA de reprodução em massa decidir que os humanos são descartáveis ou atrapalham.

E quanto aos diversos benefícios potenciais? Assim como acontece com muitos avanços tecnológicos na história da humanidade, ele não só trará potenciais efeitos negativos, mas também muitos efeitos benéficos, dependendo de como o usarmos.

  • Melhor tomada de decisão: ajudando humanos a tomar melhores decisões fornecendo análises de dados mais precisas e abrangentes.

  • Melhores resultados de saúde: melhorando os cuidados de saúde por meio do diagnóstico mais preciso de doenças e do desenvolvimento de planos de tratamento personalizados.

  • Redução de erro humano: redução do risco de erro humano em setores como aviação, transporte e manufatura.

Embora essa seja uma preocupação razoável no futuro, argumento que há preocupações muito mais urgentes no presente, em particular que a IA atingiu um ponto de inflexão. Um ponto de inflexão é um estado em que uma tecnologia cresce e permeia nossas vidas muito rapidamente, construindo sobre si mesma. A distinção entre a singularidade e o ponto de inflexão, é que o ponto de inflexão se concentra na permeação, não na inteligência.

As IAs com as quais convivemos hoje não são particularmente inteligentes quando comparadas ao cérebro humano. No entanto, elas estão em todos os lugares, desde o alarme que nos acorda até a rota que tomamos para o trabalho até inúmeras decisões tomadas nos bastidores por corporações e governos que afetam a economia. Talvez quando a singularidade tecnológica acontecer, isso seja notícia velha devido à familiaridade da IA quase em todos os lugares até então.

Porém, à medida que a IA se espalha, eu diria que precisamos de um nível semelhante de educação - Alfabetização em IA, já que a IA, pode ter começado como uma tecnologia de ciência da computação, mas agora está diretamente ao alcance de nossas vidas e de nossa saúde.

Concluindo, muito antes de atingirmos qualquer singularidade de IA, espero que nossos desafios imediatos sejam com a imersão total da IA em nossas vidas diárias. Como todos nós aprendemos sobre IA e nos tornamos alfabetizados em IA, afetará, por sua vez, o desenvolvimento da tecnologia e qualquer singularidade que venha, se isso ocorrer, esperamos que não seja de grande impacto.