Disparada de deepfakes pressiona regulamentação e plataformas
Observatório Lupa – Um estudo recente apontou que a circulação de conteúdos falsos criados por IA no Brasil saltou 308% entre 2024 e 2025, evidenciando como a tecnologia vem sendo instrumentalizada para fraudes financeiras e manipulação política às vésperas das eleições de 2026.
- Em resumo: Deepfakes de celebridades e anúncios fictícios já drenam bilhões de big techs e confundem consumidores.
Golpes ganham “qualidade de estúdio” com GenAI
A precisão de modelos como Seedance 2.0 aproxima vídeos sintéticos da estética cinematográfica, dificultando a detecção humana. Segundo reportagem da MIT Technology Review, o custo de criação de um deepfake caiu 70% em dois anos, abrindo espaço para operações de phishing em massa.
“É como se milhares de experimentos rodassem ao mesmo tempo para descobrir qual versão convence melhor o usuário”, alerta o consultor Paulo Aguiar.
Mercado e legislação correm atrás do prejuízo
Plataformas como Meta e Google já removeram, juntas, mais de 360 milhões de anúncios enganosos em 2025. Ainda assim, a Meta estima que 10% de sua receita de 2024 – cerca de US$ 16 bilhões – veio de publicidade fraudulenta. O recém-aprovado Marco Legal da IA (PL 2.338/23) exige avaliação prévia de riscos, mas analistas apontam que a eficácia dependerá de normas infralegais e de um órgão regulador robusto.
Para mitigar a crise, especialistas sugerem certificação de origem de mídia (“content provenance”) via blockchain, fingerprinting de voz e rotulagem visual obrigatória de material gerado por IA. Gigantes de cloud, como AWS e Azure, já oferecem APIs de detecção que cruzam biometria facial com bancos de dados forenses, ampliando o arsenal contra fraudes.
O que você acha? A rotulagem obrigatória de conteúdo sintético será suficiente para conter golpes? Para mais análises sobre IA e segurança, acesse nossa editoria especializada.
Crédito da imagem: Reprodução / Instagram