Como todos sabemos, a inteligência artificial (IA) está a avançar a um ritmo que contrasta com a fragilidade da sua regulamentação. Este descompasso não ocorre num vazio: coincide com um período marcado por múltiplos conflitos geopolíticos, tensões económicas e uma crescente digitalização da guerra e da sociedade.
É precisamente neste contexto que a ausência de um enquadramento legal mais forte e globalmente assente, se torna mais preocupante, criando um quase vácuo legislativo onde as regras ainda estão por definir, mas as consequências tornam-se cada vez mais reais. Estados e empresas sabem que a cooperação seria o caminho mais seguro, no entanto, o incentivo individual para avançar rapidamente ou ganhar vantagem tecnológica e/ou militar, acaba por prevalecer. O resultado é uma corrida onde ninguém quer ficar para trás, mesmo que todos reconheçam os riscos de um sistema desregulado.
Ao mesmo tempo, no domínio civil, os algoritmos tornaram-se entidades opacas que moldam comportamentos e decisões sem o escrutínio ideal. Estes sistemas perfilam consumidores, antecipam desejos e influenciam escolhas, desde o que compramos até à forma como pensamos. A personalização extrema da informação, incluindo publicidade e conteúdos criados por IA, levanta a questão fundamental de, até que ponto a autonomia individual não se vai desvanecendo.
A ideia de “ter opção” começa a aproximar-se de um conceito cada vez mais utópico. Se não compreendemos os sistemas que nos influenciam, dificilmente podemos dizer que os controlamos e, cada vez mais a transparência deixa de ser uma questão técnica, tornando-se antes, uma questão democrática.
Contudo, é no domínio da defesa que as implicações se tornam mais inquietantes. A introdução da IA em sistemas militares, algo que vemos cada vez mais a acontecer, levanta uma questão decisiva: o ser humano continuará no centro da tomada de decisão, ou será progressivamente afastado do processo? A possibilidade de “human out of the loop” não é apenas um cenário teórico, mas talvez uma tendência emergente. Delegar decisões críticas, potencialmente letais, a sistemas automatizados representa uma mudança profunda na natureza da guerra.
A este cenário junta-se ainda a crescente privatização do conflito, já que, empresas tecnológicas com capacidades avançadas de análise de dados e desenvolvimento de IA estão a assumir papéis cada vez mais relevantes em contextos de defesa e, em muitos casos, isso não só é inevitável como desejável. Estas entidades concentram um conhecimento técnico altamente especializado, essencial para decisões informadas num domínio cada vez mais complexo. Em determinadas circunstâncias, podem até atuar alinhadas com valores democráticos e com o interesse público.
No entanto, é precisamente aqui que emergem as questões críticas: como garantir esse alinhamento? Que mecanismos de supervisão, transparência e responsabilização asseguram que interesses privados não se sobrepõem ao bem comum? À medida que parte do poder tradicional dos Estados se desloca para estas entidades, a guerra deixa de ser exclusivamente um instrumento estatal e passa a ser, em parte, um serviço cuja governação permanece, em larga medida, por definir.
Perante tudo isto, a questão já não é se devemos regular a IA, mas sim se o conseguiremos fazer a tempo. A história demonstra que a tecnologia raramente espera pela lei e que a ausência de regras tende a amplificar desigualdades, riscos e abusos.
Num mundo onde os algoritmos decidem, influenciam e até combatem entre si, a transparência, a responsabilidade e o controlo humano não podem ser opcionais. São, cada vez mais, condições essenciais para preservar não apenas a segurança, mas a própria autonomia e soberania das sociedades.