Na Universidade de São Paulo (USP), um projeto de pesquisa está lançando luz sobre as intersecções entre arte, inteligência artificial e decolonização. Trata-se do projeto Demonumenta, que tem entre seus objetivos repensar as políticas de memória, utilizando modelos impulsionados por Inteligência Artificial (IA). Como resultado, o grupo de pesquisa espera subverter as estruturas já consolidadas na organização de acervos de arte e na criação de conjuntos de dados, tornando-os mais inclusivos e abertos à diversidade humana.

Recentemente, os pesquisadores envolvidos no projeto conduziram uma série de experimentos, dos quais fizeram parte algumas obras do Museu Paulista da USP. Como ponto de partida, o grupo desenvolveu um dataset (banco de dados) de caráter colaborativo e transparente. A construção do dataset teve como princípio a seleção cuidadosa e estratégica de obras de arte que possibilitassem a criação de narrativas não convencionais.

Enquanto conduziam o projeto, os pesquisadores se depararam com uma série de desafios, especialmente ao tentar integrar os campos da história da arte e da IA. No entanto, a busca por pontes entre esses domínios revelou questões muito mais complexas e urgentes, que estão além dos problemas epistemológicos de cada uma das disciplinas envolvidas.

Entre os problemas encontrados, os pesquisadores relataram a precarização das condições de trabalho enfrentadas diariamente pelos indivíduos na produção desses conjuntos de dados. Para os pesquisadores, a exploração sofrida pelos trabalhadores, como os turkers da Amazon Mechanical Turk, cuja remuneração é inadequada e cujas condições de trabalho são degradantes, suscita graves preocupações éticas quanto ao uso de tecnologias provenientes da indústria da IA.

Na prática, uma série de experimentos foram conduzidos pelos pesquisadores para analisar diferentes métodos de tageamento de obras de arte. Em uma das experiências, o grupo produziu 50 tags amplas, variando conceitos como “céu” e “fauna” e outros mais específicos, como “homem branco”, “mulher negra” e “criança indígena”.

Os resultados revelaram que, ao buscar pela tag “homem branco”, o modelo de IA associou predominantemente figuras como “bandeirante”, “cafeicultor”, “político” e “militar”, sugerindo uma inclinação para categorias de posição de prestígio e poder. Curiosamente (ou não!), essa tendência não foi observada ao analisar categorias como “homem indígena” ou “homem negro”.

Outro ponto intrigante levantado pelo grupo foi a confirmação de que certas categorias, como “quilombo”, por exemplo, não produziram nenhum resultado. Tal constatação sugere que, além de reforçar alguns padrões discriminatórios, os modelos de categorização podem inadvertidamente contribuir para o apagamento histórico de grupos marginalizados pela narrativa da história da arte.

A compreensão dessas nuances é fundamental não apenas para a análise de dados, mas também para uma reflexão mais ampla sobre as estruturas de poder e representação que moldam nossa compreensão do mundo, inclusive pela arte. Em termos pragmáticos, isso quer dizer que, se um curador de arte ou mesmo um historiador faz uso desavisado de modelos inteligentes que não consideram os padrões de viés, será bastante provável que sua pesquisa ou exposição de arte replique os padrões discriminatórios da própria criação do banco de dados.

Conscientes dessa questão, a escolha produzida pelo dataset do Demonumenta é muito mais do que uma simples coleção de imagens; é, antes de mais nada, um reflexo consciente das complexidades históricas e sociais intrínsecas à arte e à cultura. Ao contrário dos datasets convencionais que vêm sendo produzidos de maneira passiva pela indústria de IA, este projeto age para mitigar o viés.

Historicamente, a indústria da IA tem sido dominada por homens brancos do Norte Global, resultando, obviamente, em resultados enviesados por poderes consolidados. No entanto, o Demonumenta desafia essa norma ao conduzir uma abordagem mais inclusiva e consciente, reconhecendo que a diversidade de dados é essencial para uma representação verdadeiramente justa e equitativa.

Em última análise, este projeto representa um passo significativo em direção a uma indústria de inteligência artificial mais ética e responsável, onde as vozes de todos os envolvidos são ouvidas e valorizadas.