Notícias da Gate, mensagens: a inteligência artificial de deepfakes avançados está a tornar-se uma nova ameaça que enfrenta os sistemas de KYC de bancos e plataformas de criptomoedas. Relatórios recentes indicam que atacantes da dark web já desenvolveram e estão a vender uma ferramenta que combina deepfakes e clonagem de voz em tempo real, capaz de contornar as verificações de identidade tradicionais. A ferramenta não só consegue gerar identidades sintéticas altamente convincentes, como também simular movimentos faciais naturais e respostas de voz, tornando difícil para os revisores de KYC distinguirem o verdadeiro do falso.
O surgimento de fraudes em KYC baseadas em inteligência artificial quebrou os padrões tradicionais de validação. Bancos e plataformas cripto dependem da verificação de documentos, do reconhecimento facial e de testes de liveness, mas esta ferramenta consegue contornar as três camadas de segurança em simultâneo. Os atacantes já não precisam de roubar informações de identidade reais; em vez disso, conseguem gerar rapidamente várias identidades virtuais e realizar, num curto espaço de tempo, registos em massa e atividades fraudulentas.
Especialistas em fintech alertam que, em grande parte, os sistemas de KYC existentes não conseguem identificar totalmente comportamentos avançados de deepfakes. Algumas empresas já começaram a implementar ferramentas de deteção baseadas em inteligência artificial, analisando microexpressões e anomalias de comportamento para melhorar a taxa de deteção, mas os atacantes também estão a atualizar continuamente a tecnologia. A rápida evolução da inteligência artificial para fraude de identidade cria uma competição contínua entre defesa e ataque, aumentando a pressão de segurança sobre as plataformas de finanças digitais.
Especialistas recomendam que as empresas criem um sistema de defesa em múltiplas camadas, combinando monitorização por inteligência artificial e revisão manual, e ao mesmo tempo introduzam meios de análise de comportamento para acompanhar atividades suspeitas após o registo do utilizador. Esta estratégia dinâmica de proteção ajuda a detetar continuamente potenciais fraudes para além da fase de verificação. À medida que as ferramentas de deepfakes baseadas em inteligência artificial continuam a evoluir, os riscos de segurança enfrentados pelos sistemas de KYC vão persistir a longo prazo.
Este desenvolvimento serve como um alerta para as instituições financeiras: um único método de verificação já não consegue garantir a segurança da identidade digital, sendo necessário reforçar o investimento em deteção inteligente e em defesa adaptativa para fazer face à vaga de fraudes impulsionadas por inteligência artificial e criar um ambiente fiável para as plataformas de finanças digitais.
Related Articles
Rhea Finance sofre ataque da Oracle e perde US$ 18,40 milhões: ZachXBT alerta, Tether congela USDT de 4,34 milhões e o atacante devolve parte dos fundos
DNS do eth.limo sofre ataque; Vitalik pede que usuários pausar o acesso e mudar para o IPFS
Corretora sancionada Grinex atingida por hack de US$ 13,7 milhões; acusa serviços de inteligência estrangeiros
Figure enfrenta acusações de short seller sobre alegações de integração blockchain; ações da FIGR caem 53% do pico de janeiro
Fraude Cripto de Houston: Golpista Condenado a 23 Anos por Esquema com $20M Meta-1 Coin
SlowMist Alerta sobre Ataque de Phishing Ativo Usando Falso Software "Harmony Voice"