Nos últimos meses, a confiança em chatbots tem sido colocada à prova. Apesar das promessas de que os grandes modelos de linguagem não “memorizam” ou “aprendem” com os utilizadores, investigadores das Universidades de Stanford e Yale trouxeram à luz uma realidade preocupante: sob certas condições, esses modelos conseguem reproduzir excertos quase literais de dados de treino, incluindo informações identificáveis. Esta situação levanta questões cruciais sobre a segurança e a privacidade dos dados.
A utilização de chatbots tem crescido exponencialmente em diversos setores. Empresas, gestores, juristas e profissionais de saúde recorrem a estas ferramentas para gerar relatórios, sintetizar planos estratégicos e até para apoio ao diagnóstico clínico. Contudo, a interface amigável que os chatbots oferecem esconde uma infraestrutura tecnológica centralizada, gerida por um número restrito de empresas globais. Estas empresas afirmam que não “aprendem” com os dados dos utilizadores, mas essa afirmação é apenas uma parte da verdade.
Os modelos de linguagem são alimentados por enormes volumes de dados, cuja origem é frequentemente contestada. Além disso, já existem provas de que, quando pressionados, esses modelos podem reproduzir trechos específicos do material de treino. Mesmo que as interações não alimentem diretamente o treino do modelo, elas são ainda assim registadas e analisadas. A questão central é que, ao inserir informações num chatbot, o utilizador perde o controlo sobre esses dados.
Esta realidade deve ser um sinal de alerta para qualquer gestor prudente. A concentração de interações entre milhões de utilizadores e um pequeno número de modelos globais gera padrões de comportamento e linguagem que podem ser explorados. A centralização de dados não apenas cria assimetrias de poder, mas também levanta questões éticas sobre a utilização da informação.
A confiança nas empresas que gerem esses chatbots não deve ser cega. A regra de ouro deve ser clara: se não se sentir confortável em partilhar determinada informação numa conferência, deve pensar duas vezes antes de a inserir num chatbot. A linguagem pode parecer privada, mas a infraestrutura que a suporta não é.
Os chatbots têm o potencial de transformar a produtividade e a eficiência administrativa. No entanto, a sua adoção deve ser feita com cautela. A história já nos ensinou que a concentração de dados pode ter custos estruturais significativos. A inovação é necessária, mas deve ser acompanhada de prudência. Na era da inteligência artificial, cada interação pode ser um ativo estratégico que deve ser protegido, não exposto.
Leia também: A importância da privacidade na era digital.
Leia também: Incumprimento da reestruturação da SATA pode levar a devolução de ajudas
Fonte: Sapo





