As empresas estão a desconsiderar os riscos legais associados à utilização da Inteligência Artificial (IA), uma situação que pode ter consequências graves. Recentemente, casos trágicos, como o suicídio de um adolescente após interações com um chatbot, evidenciam a necessidade de uma abordagem mais cautelosa. Adolfo Mesquita Nunes, advogado da Pérez-Llorca e membro do Conselho Consultivo para a Digitalização na Administração Pública, alerta para os desafios jurídicos que a IA impõe.
Os chatbots, embora sejam ferramentas úteis e disponíveis 24 horas por dia, não possuem a capacidade de raciocínio humano. Eles geram respostas com base em padrões de linguagem, o que pode levar a erros. Se um chatbot fornecer informações incorretas ou recolher dados pessoais sem consentimento, a empresa pode enfrentar responsabilidades civis e contratuais, além de possíveis violações de proteção de dados. A reputação da empresa também pode ser afetada negativamente.
A dimensão emocional da interação com chatbots é outro ponto a considerar. Muitas pessoas tratam esses sistemas como amigos, sem perceber que estão a comunicar com uma máquina. Casos de suicídio relacionados com conselhos de chatbots sublinham a gravidade dos riscos envolvidos. O AI Act, que classifica os chatbots como sistemas de risco limitado, impõe obrigações de transparência, mas não abrange todos os aspectos legais. É essencial que as empresas compreendam que a utilização de IA pode ter implicações jurídicas significativas que vão além do AI Act.
Adolfo Mesquita Nunes enfatiza a importância de mapear riscos, rever contratos e estabelecer mecanismos internos de prevenção. A responsabilidade não pode ser transferida apenas para o fornecedor do chatbot, pois a empresa que o utiliza continua a ser responsável. Um exemplo claro é o caso Moffatt v. Air Canada, onde a companhia aérea foi condenada a indemnizar um passageiro devido a informações erradas fornecidas pelo seu chatbot.
O AI Act introduz regras que afetam todas as empresas na União Europeia, exigindo a classificação dos sistemas de IA utilizados e a implementação de medidas de gestão de riscos. Sistemas de alto risco, como os usados em saúde e educação, requerem auditorias e documentação técnica. Mesmo as empresas que utilizam IA desenvolvida por terceiros devem garantir conformidade com várias leis, incluindo o RGPD e normas de consumo.
A questão que se coloca é se o ordenamento jurídico está preparado para lidar com os desafios que a IA apresenta. Segundo Adolfo Mesquita Nunes, a resposta é negativa. O atual quadro legal é fragmentado e não aborda adequadamente as implicações da IA em diversas áreas do Direito. Há uma necessidade urgente de atualizar legislações, especialmente no que diz respeito à responsabilidade civil e à proteção de dados.
As empresas devem encarar a IA como um tema estratégico e não apenas como uma ferramenta tecnológica. A gestão de riscos legais associados à IA deve ser uma prioridade, garantindo assim a proteção legal e a conformidade com as normas vigentes. Leia também: O impacto da IA na legislação portuguesa.
riscos legais IA riscos legais IA riscos legais IA riscos legais IA riscos legais IA Nota: análise relacionada com riscos legais IA.
Leia também: Trabalhadores do Novobanco excluídos de prémios da venda
Fonte: Sapo





