A crescente utilização da Inteligência Artificial (IA) no setor da defesa tem gerado um intenso debate sobre os limites éticos e legais da tecnologia. Recentemente, a tensão entre a empresa de IA Anthropic e o Pentágono destacou a complexidade desta relação. Enquanto os conflitos no Médio Oriente, como os ataques dos EUA e Israel ao Irão, dominam as notícias, a discussão sobre o uso da IA em contextos militares parece uma nota de rodapé, mas é tudo menos isso.
A Anthropic está a enfrentar o desafio de definir os limites do uso da sua tecnologia em situações de guerra. O Pentágono, por sua vez, defende um acesso irrestrito à IA, considerando-a uma ferramenta essencial para a sua operação. Esta situação remete-nos para o passado, quando a utilização de drones e as restrições impostas a certas empresas eram o foco da discussão. Contudo, as fronteiras do que é aceitável estão a tornar-se cada vez mais difusas.
Nos últimos anos, a tecnologia de IA evoluiu de forma exponencial, tornando-se uma peça-chave nas operações de defesa. O Pentágono anunciou que, em apenas quatro dias, conseguiu atacar 2.000 alvos no Irão, um número que espelha a rapidez e eficiência que a IA pode proporcionar em cenários de combate. Este aumento na utilização da IA levanta questões sobre a responsabilidade e os limites éticos que as empresas devem considerar.
A colaboração entre grandes tecnológicas e o setor militar está a aumentar. O Google, por exemplo, está a disponibilizar o seu modelo Gemini para uso militar, permitindo que os militares desenvolvam agentes de IA para projetos não classificados. A OpenAI também se encontra em parceria com o Pentágono, enquanto a Palantir desempenha um papel crucial nas operações militares americanas no Médio Oriente. No entanto, a questão central permanece: até que ponto as empresas devem permitir o acesso à sua tecnologia sem restrições?
As preocupações sobre a vigilância massiva e a tomada de decisões automatizadas são válidas. Recentemente, a Anthropic processou o Pentágono após ser excluída da lista de fornecedores, levantando questões sobre o controle que os Estados devem ter sobre as inovações tecnológicas. Adolfo Mesquita Nunes, advogado, sublinha a necessidade de um enquadramento claro e coerente nas relações entre Estados e empresas privadas, especialmente em áreas sensíveis como a defesa.
Na Europa, onde a regulação é uma prioridade, a situação não é diferente. A falta de um quadro específico para a utilização da IA em contextos militares torna a questão ainda mais complexa. O jurista destaca que as empresas europeias que operam na defesa precisam de uma governança robusta, que inclua desde a elaboração contratual até a execução técnica. A resposta europeia deve ser clara e antecipar potenciais conflitos antes que estes se tornem crises públicas.
A interseção entre a Inteligência Artificial e a defesa é um tema que merece ser debatido com seriedade. À medida que a tecnologia avança, é fundamental que se estabeleçam limites éticos e legais que protejam os direitos fundamentais e garantam uma utilização responsável da IA.
Leia também: O impacto da IA na economia global.
Inteligência Artificial Inteligência Artificial Inteligência Artificial Nota: análise relacionada com Inteligência Artificial.
Leia também: DBRS mantém rating da EDP em “BBB” com perspetiva estável
Fonte: ECO





