Anthropic recusa uso de IA Claude pela Casa Branca para fins militares

A empresa de inteligência artificial Anthropic anunciou a sua recusa em permitir que a Casa Branca utilize a sua ferramenta de IA, Claude, para fins militares. Esta decisão surge num contexto em que outras gigantes da tecnologia, como a Google e a OpenAI, também enfrentam pressões internas para não colaborarem com o Departamento de Defesa dos Estados Unidos.

Recentemente, a administração Biden manifestou interesse em explorar o uso de armas autónomas, o que gerou preocupações entre as empresas que desenvolvem sistemas de inteligência artificial com contratos com o Pentágono. A Anthropic, responsável pelo desenvolvimento do chatbot Claude, foi a primeira a expressar publicamente a sua oposição a esta possibilidade, afirmando que não permitirá que a sua tecnologia seja utilizada para fins bélicos.

Dario Amodei, CEO da Anthropic, comentou que a empresa “não pode, de boa fé, aceitar o pedido” do Departamento de Defesa. Ele sublinhou que permitir o uso da IA Claude para desenvolver armas autónomas ou para vigilância em massa seria “incompatível com os valores democráticos”. Amodei enfatizou a importância de utilizar a inteligência artificial para proteger os Estados Unidos e outras democracias, mas não à custa de comprometer princípios éticos fundamentais.

O secretário de Defesa norte-americano, Pete Hegseth, deu um prazo até 27 de fevereiro para que o Pentágono tenha acesso total à tecnologia da Anthropic. Caso contrário, ameaçou cancelar contratos no valor de 200 milhões de dólares e classificar a empresa como um “risco para a cadeia de abastecimento”. A resposta de Amodei a estas ameaças foi clara: “Estas ameaças não alteram a nossa posição”.

A declaração de Dario Amodei teve um impacto significativo em Silicon Valley. No mesmo dia, cerca de uma centena de trabalhadores da Google que estão a desenvolver IA assinaram uma carta dirigida a Jeff Dean, responsável pela Google DeepMind, expressando a sua preocupação com os planos da empresa de colaborar com o Pentágono. Este movimento reflete um crescente descontentamento entre os profissionais da tecnologia em relação à utilização de inteligência artificial em contextos militares.

Leia também  Adoção de IA em Portugal: desafios e oportunidades

A recusa da Anthropic em permitir o uso da IA Claude para fins militares levanta questões importantes sobre a ética na tecnologia e a responsabilidade das empresas que a desenvolvem. À medida que a discussão sobre o uso de IA em contextos bélicos avança, será crucial que as empresas se posicionem de forma clara e responsável.

Leia também: O impacto da IA na segurança nacional e as suas implicações éticas.

IA Claude IA Claude IA Claude Nota: análise relacionada com IA Claude.

Leia também: Montenegro empossa presidentes das CCDR e descarta regionalização

Fonte: Sapo

Simular quanto pode poupar nos seus seguros!

Não percas as principais notícias e dicas de Poupança

Não enviamos spam! Leia a nossa política de privacidade para mais informações.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Back To Top