Impacto da inteligência artificial na cibersegurança

Nos últimos anos, a inteligência artificial (IA) tem avançado a passos largos, impulsionada pela maior disponibilidade de capacidade de computação e pelo desenvolvimento de técnicas de aprendizagem automática. Ferramentas como os grandes modelos de linguagem (LLM), incluindo o ChatGPT, têm revolucionado a forma como interagimos com a tecnologia, aumentando a eficiência em diversas tarefas do dia a dia. No entanto, este progresso traz consigo riscos significativos, especialmente no que toca à cibersegurança.

A crescente dependência da sociedade em sistemas de informação torna empresas e cidadãos alvos atrativos para grupos de cibercrime. O ransomware, um tipo de ataque em que os criminosos bloqueiam o acesso a dados e exigem um resgate, afeta tanto grandes corporações como pequenas empresas, causando interrupções e perdas financeiras consideráveis. A utilização de inteligência artificial, incluindo LLM, pode aumentar a exposição a novos tipos de ciberataques. Por exemplo, um chatbot baseado em LLM pode ser manipulado por um utilizador malicioso para realizar operações não autorizadas, uma técnica conhecida como “adversarial prompt injection”.

Além disso, os utilizadores que interagem com LLM também devem estar cientes dos riscos. Ao solicitar que um LLM procure informações, podem inadvertidamente expor-se a ataques, uma vez que instruções maliciosas podem estar ocultas em textos ou imagens. Assim, é fundamental que tanto empresas como utilizadores avaliem cuidadosamente os dados que permitem que os LLM acedam, evitando assim a exposição a potenciais ameaças.

O problema agrava-se com o surgimento de navegadores equipados com IA, como o Microsoft Edge CoPilot e o ChatGPT Atlas. Estes navegadores, ao serem o ambiente natural de utilização da internet, podem ter acesso a informações sensíveis, como senhas e dados de cartões de crédito. A proteção contra esses riscos é possível, através do desenvolvimento de “guardrails” que aumentam a resistência dos LLM a manipulações. Contudo, a pressão para lançar produtos inovadores rapidamente muitas vezes leva as empresas a negligenciar a segurança.

Leia também  Previsões da Broadcom afetam comércio de IA no Nasdaq

Não são apenas os LLM que enfrentam vulnerabilidades; outras tecnologias de IA, como as usadas em reconhecimento de imagem e deteção de ataques cibernéticos, também estão suscetíveis a manipulações. O INESC INOV, através do projeto STARLIGHT, investiga como as tecnologias de IA utilizadas pelas forças de segurança podem ser vulneráveis e desenvolve técnicas para detetar e neutralizar esses ataques.

O impacto da inteligência artificial na cibersegurança será profundo nos próximos anos, introduzindo novas vulnerabilidades, mas também possibilitando soluções inovadoras de segurança. À medida que a tecnologia avança, é crucial que os utilizadores compreendam as suas limitações e façam escolhas informadas para evitar serem vítimas de abusos.

Leia também: O futuro da cibersegurança na era da inteligência artificial.

inteligência artificial Nota: análise relacionada com inteligência artificial.

Leia também: Desinformação na internet é um grande risco para a sociedade

Fonte: ECO

Simular quanto pode poupar nos seus seguros!

Não percas as principais notícias e dicas de Poupança

Não enviamos spam! Leia a nossa política de privacidade para mais informações.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Back To Top