Na noite de quarta-feira, os Estados-Membros da União Europeia (UE) e o Parlamento Europeu chegaram a um consenso sobre a proibição de serviços de inteligência artificial (IA) que possam gerar imagens de teor sexual sem o consentimento das pessoas. Esta decisão surge após a polémica gerada por uma funcionalidade do assistente de IA Grok, na rede social X, que permitia a criação de montagens hiper-realistas, conhecidas como ‘deepfakes’, envolvendo tanto adultos como crianças.
A situação provocou uma onda de indignação em vários países europeus, levando a UE a iniciar uma investigação sobre o uso indevido da tecnologia. A primeira-ministra italiana, Giorgia Meloni, expressou a sua condenação em relação a imagens falsas de si geradas por IA, caracterizando os ‘deepfakes’ como uma “ferramenta perigosa” que pode comprometer a integridade das pessoas.
De acordo com o Parlamento Europeu, a nova legislação visa proibir a criação de imagens, vídeos e sons de natureza pornográfica que envolvam crianças ou que apresentem partes íntimas de indivíduos identificáveis, ou ainda que mostrem essas pessoas em atividades sexuais sem o seu consentimento. As novas regras entrarão em vigor a partir de 2 de dezembro, obrigando os sistemas de IA a implementar medidas de segurança que impeçam a geração deste tipo de conteúdo.
Esta proibição de IA é parte de uma revisão mais ampla da legislação europeia sobre inteligência artificial, conhecida como Lei da IA, que foi aprovada formalmente há dois anos. Na altura, os 27 Estados-Membros e os eurodeputados concordaram em adiar a implementação de novas regras que regulam sistemas de IA considerados de alto risco, que operam em áreas sensíveis como segurança, saúde e direitos fundamentais.
Embora as novas regras deveriam ter entrado em vigor em agosto, a Comissão Europeia optou por dar mais tempo às empresas para se adaptarem ao novo quadro regulatório. A principal alteração em relação à proposta inicial foi a definição de datas fixas para o adiamento, ao contrário do calendário mais flexível anteriormente sugerido por Bruxelas. Assim, a nova data para os sistemas “autónomos” de alto risco é 2 de dezembro de 2027, enquanto os sistemas integrados em outros produtos terão até 2 de agosto de 2028 para se adequarem.
Este acordo foi alcançado num momento em que as preocupações sobre os riscos associados à IA voltaram a ser debatidas na UE, especialmente com o lançamento do Mythos, um novo modelo da startup norte-americana Anthropic. A empresa decidiu limitar o acesso ao Mythos a um grupo restrito de empresas, devido à sua capacidade de identificar vulnerabilidades críticas de programação, que poderiam resultar em crises de cibersegurança.
Leia também: O impacto da IA na privacidade e segurança dos cidadãos.
proibição de IA proibição de IA proibição de IA proibição de IA Nota: análise relacionada com proibição de IA.
Leia também: Banco Asiático de Desenvolvimento investe 70 mil milhões em energia
Fonte: Sapo





