Golpes ganham sofisticação com clonagem vocal ultrarrápida
Inteligência Artificial – A capacidade de replicar vozes humanas em poucos segundos já se transformou em uma ameaça concreta para consumidores e instituições financeiras, alertam analistas de segurança cibernética.
- Em resumo: hackers precisam de apenas 3 s de áudio para criar cópias fiéis de qualquer voz e usá-las em extorsões ou fraudes bancárias.
Ferramentas baratas colocam sua voz em risco
Softwares de clonagem vocal, antes restritos a laboratórios, hoje são oferecidos como serviços de baixo custo na internet. A popularização desses modelos generativos levou a especialistas em cibersegurança a classificarem a técnica como um novo vetor de “fraude de identidade acústica”.
“O mesmo áudio que você publica em redes sociais pode ser usado para simular emoções, sotaque e ritmo de fala com verossimilhança assustadora”, conclui um estudo global da McAfee envolvendo 7 mil entrevistados.
Mercado financeiro já calcula prejuízos bilionários
A Deloitte Center for Financial Services estima perdas de US$ 40 bilhões até 2027 somente em golpes baseados em voz clonada, valor que supera a soma de danos causados por phishing tradicional em 2022. Instituições americanas começam a testar autenticação multifatorial com biometria de comportamento – como latência na fala e hesitações – para conter o avanço dos criminosos.
Enquanto isso, bancos brasileiros analisam incorporar análise espectrográfica em centrais de atendimento, movimento alinhado com decisões da Federal Trade Commission (FTC) que incentivam provedores de telefonia a bloquear chamadas suspeitas na origem.
O que você acha? Está pronto para adotar palavras-chave de segurança com amigos e familiares? Para mais detalhes, acesse nossa editoria especializada.
Crédito da imagem: Reprodução / Freepik