A Inteligência Artificial (IA) tem, assim como uma moeda, duas faces. Se por um lado transforma profundamente a forma como comunicamos, trabalhamos e vivemos, tornando-se mais eficiente e inovadora, por outro lado, é um recurso muito útil para cibercriminosos, que têm conseguido criar esquemas cada vez mais difíceis de identificar.

Vozes clonadas, mensagens automáticas altamente personalizadas e vídeos falsos com aparência real são apenas alguns exemplos de fraudes que tiram partido da IA para manipular emoções e explorar a confiança das vítimas. O objetivo é quase sempre o mesmo: levá-las a partilhar informações confidenciais, efetuar transferências financeiras ou clicar em ligações maliciosas com o fim de roubar dados pessoais, por exemplo.

Entre os tipos de fraude mais comuns, já reconhecidos e identificados, estão as falsificações, em inglês deepfakes, os ataques com clonagem de voz, havendo até exemplos de vozes próximas à pessoa alvo, os golpes através de relações online e os emails empresariais falsos. Estas ameaças utilizam dados que estão, muitas vezes, disponíveis publicamente para criar conteúdos convincentes e utilizam o carácter de urgência para dificultar a capacidade de clareza e a distinção entre o real e o falso.

Para se proteger, mantenha sempre uma postura vigilante:

  • Pare e verifique, antes de agir perante pedidos urgentes ou fora do comum.
  • Confirme identidades, através de contactos diretos e canais oficiais.
  • Limite a partilha de dados pessoais nas redes sociais.
  • Utilize palavras de segurança entre familiares ou equipas de trabalho.
  • Denuncie situações suspeitas aos serviços de apoio cibernético ou às autoridades competentes.

Este artigo integra a campanha de cibersegurança da GÉANT “Be mindful. Stay safe”, que visa sensibilizar utilizadores e organizações para os riscos associados a fraudes digitais impulsionadas por IA. A FCCN, unidade de serviços digitais da FCT, participa nesta parceria de divulgação, reforçando o seu compromisso com a segurança digital da comunidade académica e científica em Portugal.

Num mundo onde a manipulação digital se torna cada vez mais convincente, a atenção e a verificação continuam a ser as melhores ferramentas de proteção.

Outros artigos relacionados