A Inteligência Artificial (IA) tem sido um tema em destaque em todas as áreas da tecnologia, reconhecida pela sua capacidade de automatizar tarefas repetitivas, analisar conjuntos de dados massivos com maior rapidez, auxiliar na tomada de decisões, melhorar o atendimento ao cliente e até gerar conteúdos criativos. No entanto, no campo da cibersegurança, o tema assume um rumo dúbio: embora a IA possa servir como uma poderosa aliada aos analistas de cibersegurança, também pode capacitar agentes maliciosos a serem mais eficazes. O uso indevido da IA como auxiliar no cibercrime está a acelerar o ritmo, a escala e a sofisticação dos ataques, e as medidas de segurança tradicionais muitas vezes têm dificuldade em detetar ou combater estas ameaças em tempo real.
A IA tem sido utilizada de formas preocupantes, como no campo da engenharia social, onde a manipulação psicológica é usada para enganar indivíduos, levando-os a revelar informações sensíveis ou a realizar ações que podem ser prejudiciais. Tradicionalmente, a engenharia social dependia fortemente do esforço humano: burlões a criar e-mails de phishing manualmente, vigaristas a fazer chamadas telefónicas persuasivas ou a editar documentos falsos, por exemplo. Hoje, a IA automatiza e aperfeiçoa estes processos. Agentes maliciosos podem gerar mensagens de phishing altamente personalizadas que imitam o estilo de escrita do chefe, amigo ou colega da vítima. Modelos de linguagem de larga escala (LLMs) conseguem adaptar instantaneamente o conteúdo com base em dados recolhidos das redes sociais, tornando as mensagens mais autênticas e relevantes. Existem até LLMs maliciosos criados especificamente para este fim, mas modelos legítimos, como o ChatGPT e o DeepSeek, também podem ser manipulados através de prompts cuidadosamente elaborados para produzir outputs que possam ser usados para phishing ou outros fins nocivos.
A tecnologia deepfake eleva este tipo de fraude a outro nível. A IA consegue agora produzir vídeos e gravações de áudio sintéticos que reproduzem o rosto, a voz e os maneirismos de uma pessoa real com uma precisão quase perfeita. Num caso que ficou conhecido, um trabalhador da área financeira de uma multinacional em Hong Kong foi enganado a transferir mais de 25 milhões de dólares após participar numa videoconferência onde todos os “colegas” eram deepfakes gerados por IA com base em pessoas reais. O ataque funcionou não devido a uma vulnerabilidade técnica, mas porque os atacantes conseguiram simular a presença humana de forma tão convincente que eliminou qualquer suspeita.
Além da falsificação de pessoas reais, a IA também é capaz de manipular e gerar imagens completamente originais que não podem ser rastreadas através de métodos tradicionais de verificação, como a pesquisa reversa de imagens. Ferramentas como o TinEye ou o Google Lens são eficazes para detetar se uma imagem foi alterada ou copiada de outro local da internet, mas conteúdos gerados por IA, muitas vezes, não têm qualquer fonte prévia. Estas imagens e vídeos sintéticos são criados de raiz, tornando impossível determinar a sua origem ou confirmar a sua autenticidade através dos meios convencionais. Esta capacidade tem sido cada vez mais explorada para fins fraudulentos, permitindo fabricar provas falsas, encenar eventos fictícios ou criar identidades falsas que parecem genuínas, mas que não existem no mundo real.
A engenharia social, no entanto, é apenas uma parte do potencial malicioso da IA. Os atacantes também a têm utilizado para realizar scans automatizados, o que lhes permite analisar vastas redes para a busca de sistemas vulneráveis em minutos, reduzindo drasticamente o tempo de que os defensores dispõem para aplicar patches de segurança. Uma vez identificadas as vulnerabilidades, a IA pode ajudar a criar malware polimórfico: software malicioso que altera continuamente o seu código para evitar a deteção por ferramentas de segurança tradicionais, como antivírus ou anti-malwares.
Outra questão preocupante é a forma como a IA reduziu a barreira de entrada para o cibercrime. Em vez de exigir competências técnicas avançadas, os atacantes podem agora recorrer a ferramentas de IA que estão disponíveis no mercado negro, como o FraudGPT e WolfGPT, que são vendidas em fóruns da dark web e funcionam como assistentes maliciosos multifuncionais. Estas ferramentas conseguem gerar e-mails de phishing convincentes, criar código malicioso e até fornecer instruções passo a passo para explorar vulnerabilidades.
Combater as ameaças cibernéticas potenciadas por IA
Defender-se de ataques potenciados por IA exige mais do que medidas reativas, requer uma abordagem estratégica e proativa. As organizações devem começar por definir objetivos claros para a utilização da IA nas suas operações de segurança, garantindo que esta apoia metas defensivas específicas e mensuráveis. A IA deve ser integrada com as ferramentas de segurança existentes, reforçando, e não substituindo, as medidas de proteção estabelecidas — embora alguns profissionais de cibersegurança defendam que a IA também deve ser tratada como um potencial intruso e monitorizada de forma equivalente, dada a sua capacidade de ser manipulada ou explorada.
A transparência é fundamental: é preciso dar prioridade a sistemas de IA explicáveis, para que os analistas compreendam como as decisões são tomadas, de forma a haver alguma previsibilidade nas ações da IA e ser possível analisar a sua performance. Acima de tudo, é necessário manter o controlo humano, a IA deve apoiar as equipas de cibersegurança, e não tomar decisões sem supervisão. Por fim, é essencial atualizar e monitorizar regularmente os sistemas de IA para que se adaptem às ameaças emergentes, tal como os atacantes estão constantemente a evoluir os seus métodos.
Artigo de Louise Altvater, analista de cibersegurança da Fundação para a Ciência e a Tecnologia, na equipa de CSIRT da FCCN, para a campanha “Cybersecurity expert’s opinion” da revista Connect da GÉANT, no âmbito do mês da cibersegurança.











