Numa era definida por tecnologia digital em constante evolução e técnicas de manipulação cada vez mais sofisticadas, a propagação de deep fakes vai certamente continuar a colocar desafios profundos ao conceito de autenticidade. Deep fakes, criadas com ferramentas de inteligência artificial, são conteúdos mediáticos convincentes, mas inteiramente fabricados, representando ameaças substanciais no seu potencial para a desinformação, e o enfraquecimento das fontes de informação genuínas.
Consequentemente, à medida que esta tendência se generaliza, torna-se imperativa a necessidade de desenvolver sistemas de autenticação abrangentes que possam estabelecer a confiança e verificar a autenticidade dos meios digitais. Esses quadros desempenharão um papel fundamental na avaliação da credibilidade e na garantia da integridade da informação face a estas ameaças emergentes.
De facto, estamos a caminhar para um mundo em que tudo o que encontramos visual, audível e textualmente pode ser uma completa fabricação. Embora isto possa representar uma oportunidade para a educação no que diz respeito às competências de pensamento crítico, o panorama da informação em constante evolução pode exigir uma revisão completa, com sistemas de confiança e segurança implementados para nos ajudar a verificar e dar credibilidade à informação que consumimos.
No entanto, a criação de um quadro deste tipo apresenta desafios imensos e acarreta os seus próprios riscos. A criação de um sistema de autenticação robusto e fiável exige uma análise cuidadosa das complexidades técnicas, das implicações éticas e das potenciais vulnerabilidades. Encontrar o equilíbrio correto entre garantir a autenticidade e salvaguardar a privacidade e a liberdade de expressão é um esforço delicado que exige uma análise minuciosa e uma implementação ponderada.
Um dos principais desafios no desenvolvimento de sistemas de autenticação para combater deep fakes é a constante evolução da própria tecnologia. À medida que os algoritmos de deep fakes continuam a avançar, o mesmo acontece com os métodos utilizados para detectar e autenticar conteúdos manipulados. Isto exige investigação e desenvolvimento contínuos para nos mantermos um passo à frente dos agentes maliciosos e das suas técnicas enganadoras.
As instituições educativas, as organizações de comunicação social e as empresas de tecnologia têm todas um papel importante a desempenhar na promoção da literacia digital. A integração de programas de literacia mediática nos currículos, o fornecimento de recursos acessíveis para as pessoas aprenderem sobre deep fakes e as suas implicações, e a promoção de parcerias entre criadores de tecnologia e educadores podem contribuir para uma sociedade mais informada e resiliente.
A colaboração entre as diferentes partes interessadas também é fundamental. Os governos, os peritos da indústria e os investigadores devem trabalhar em conjunto para estabelecer as melhores práticas e normas para os sistemas de autenticação. As abordagens interdisciplinares que combinam conhecimentos de domínios como a inteligência artificial, as ciências da computação, a psicologia e a ética podem conduzir a soluções abrangentes que abordem os aspectos técnicos e sociais do desafio apresentados pela propagação de deep fakes.
Além disso, as campanhas de sensibilização do público podem ajudar a aumentar a consciencialização sobre as falsificações profundas e as suas potenciais consequências. Estas campanhas podem educar o público sobre a existência e o impacto das falsificações profundas, promovendo a partilha responsável de informações e incentivando o cepticismo quando se depara com conteúdos suspeitos. Ao promover uma cultura de vigilância digital, os indivíduos podem contribuir para o esforço colectivo de combate à desinformação e preservação da autenticidade.
E não devemos perder de vista a responsabilidade individual nesta equação. Os cidadãos devidamente formados devem desempenhar um papel neste cenário, uma vez que, em última análise, os que concebem e implementam esses sistemas devem, eles próprios, estar sujeitos a escrutínio e responsabilização. De facto, as questões da desinformação e da informação incorrecta são, na sua essência, questões humanas e, como tal, a evolução das tecnologias e os obstáculos por elas apresentados não devem ser uma desculpa para que as pessoas não cumpram as suas obrigações de se educarem, de praticarem um cepticismo saudável e de contribuírem para a melhoria da sociedade.
Iniciativas Europeias de I&D
O projecto FERMI (Fake nEws Risk MItigator) é uma iniciativa liderada por um consórcio, incluindo o INOV - INESC, concebida para enfrentar os desafios da desinformação e das notícias falsas (D&FN) no mundo digital.
Com um foco principal na assistência às autoridades policiais da UE, o FERMI visa detectar e monitorizar a propagação de falsificações profundas e desinformação, ao mesmo tempo que implementa contramedidas de segurança. Tirando partido de métodos tecnológicos avançados, o FERMI monitoriza cuidadosamente a disseminação de D&FN em vários locais e segmentos da sociedade.
O FERMI vai para além da mera identificação e combate aos conteúdos manipulados. Coloca uma ênfase significativa na capacitação das partes interessadas através do desenvolvimento e distribuição de materiais de formação adaptados. Estes materiais destinam-se às autoridades policiais europeias, aos profissionais, às partes interessadas e aos cidadãos da UE, dotando-os dos conhecimentos e competências necessários para reconhecer e responder eficazmente à propagação de D&FN.
Na sua essência, o FERMI é impulsionado pelo compromisso de promover a confiança digital e combater o impacto nocivo da desinformação. O projecto adopta uma abordagem holística, combinando a análise de fontes de D&FN com factores socioeconómicos, para criar um quadro abrangente para compreender e mitigar a propagação da desinformação. Através da integração da tecnologia, da colaboração e da educação, o FERMI visa promover uma sociedade digital mais resiliente, capaz de enfrentar eficazmente os desafios colocados pela D&FN, fomentando uma maior consciencialização e confiança na autenticidade da informação.
Para os interessados em saber mais sobre este projecto europeu e os seus esforços para combater as notícias falsas e a desinformação, podem ser encontrados recursos valiosos no website do projeto e nas suas redes sociais. Estas plataformas partilham frequentemente informações e materiais importantes relacionados com o tema, fornecendo mais informações sobre os objectivos e o progresso do projecto FERMI.
É também importante notar que este projecto em curso não é a primeira vez que os investigadores do INOV exploram soluções inovadoras no domínio dos meios de comunicação social e da verificação da informação.
Têm um historial de se aventurarem em projectos de ponta que visam dar resposta aos desafios colocados pelo panorama digital. O EUNOMIA, por exemplo, é um exemplo notável. O EUNOMIA foi um projecto de redes sociais orientado para o utilizador, seguro e descentralizado que visava criar uma aplicação complementar para telemóvel e computador. O projecto realizou testes em plataformas de media descentralizadas conhecidas pelas suas comunidades centradas na privacidade, natureza de código aberto e complexidade tecnológica, como o Mastodon e o Diaspora.
O projeto EUNOMIA incentivou a participação democrática dos cidadãos na verificação de conteúdos, votando na fiabilidade e influenciando a reputação dos geradores e partilhadores de conteúdos. Utilizou a tecnologia blockchain para garantir a transparência e a integridade do processo de pontuação, evitando a modificação da informação em cascata. Aproveitando os seus conhecimentos especializados e a experiência adquirida em empreendimentos anteriores, os investigadores do INOV têm procurado constantemente criar abordagens inovadoras para enfrentar os desafios em evolução das redes sociais e da e da verificação da informação.
O website do projecto é um excelente recurso para aqueles que desejam aprofundar este assunto.
Em última análise, a batalha contra os deep fakes, as fake news e a desinformação exige uma abordagem multifacetada que combine avanços tecnológicos, iniciativas educativas, esforços de colaboração e uma maior sensibilização do público. Embora os avanços tecnológicos e os desafios em evolução não possam servir de desculpa para os indivíduos negligenciarem a sua responsabilidade, a educação adequada e o cepticismo saudável continuam a ser fundamentais. Ao adotar essas estratégias, podemos navegar na era das falsificações profundas com maior resiliência, proteger a integridade da informação e defender a importância da autenticidade no nosso mundo digital em rápida evolução.