Funcionários alimentam chatbots com informações internas e expõem segredos
Canaltech Podcast – Recentemente, um especialista em segurança advertiu que o simples hábito de empregados recorrerem a contas pessoais de inteligência artificial durante o expediente já basta para abrir uma brecha silenciosa e perigosa nos dados estratégicos das empresas.
- Em resumo: prompts enviados a chatbots privados fogem do radar de TI e podem comprometer segredos comerciais.
Como a pergunta ao chatbot vira um vazamento invisível
Ao copiar um trecho de código proprietário ou um contrato confidencial para “pedir ajuda” a ferramentas como ChatGPT, o colaborador, sem notar, repassa o conteúdo a serviços hospedados em nuvens públicas fora do perímetro corporativo. Casos recentes — como o episódio da divulgação acidental de código-fonte da Samsung relatado pelo The Hacker News — mostraram que as informações podem ser armazenadas e, eventualmente, usadas para treinar modelos futuros.
Especialista explica como contas pessoais de IA podem gerar vazamento de dados e riscos para empresas, mesmo sem ataque hacker.
Por que o compliance precisa agir agora
Empresas de todos os portes vêm adotando políticas de data loss prevention (DLP) e conceitos de zero trust para controlar uploads. No entanto, quando o tráfego parte de dispositivos móveis conectados a contas pessoais, esses mecanismos perdem eficácia. Levantamento da Gartner indica que, até 2025, 50% das violações ligadas a IA corporativa ocorrerão justamente por uso não gerenciado de ferramentas externas.
Para mitigar o risco, especialistas recomendam: consolidar versões empresariais dos principais chatbots, bloquear domínios de IA não homologados no firewall e conduzir treinamentos de conscientização contínua. Bancos e seguradoras já exigem a anonimização automática de qualquer dado sensível antes do envio a plataformas externas, prática que tende a se tornar padrão regulatório.
O que você acha? Sua organização já controla o uso de IA pessoal? Para mais análises sobre cibersegurança, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Canaltech