Cegos ganham aliado de IA, mas confiança irrestrita ainda é risco
Be My Eyes — A plataforma de acessibilidade adicionou o módulo Be My AI, baseado no GPT-4, que descreve telas e alerta sobre páginas falsas, ampliando a autonomia de 900 mil usuários, mas expondo limites de confiabilidade.
- Em resumo: A IA já identifica domínios suspeitos e e-mails de phishing, mas pode “alucinar” e aconselhar ações inseguras.
GPT-4 filtra golpes visuais que leitores de tela ignoram
No teste conduzido pela equipe da Kaspersky, uma captura de um login fraudulento do Facebook foi submetida ao Be My AI. O assistente descreveu o layout, localizou o erro no domínio e sugeriu fechar a página — ação alinhada às melhores práticas de cibersegurança recomendadas pelo The Hacker News.
“A IA identificou o domínio incorreto, recomendou abandonar o site e digitar a URL oficial”, relata o estudo publicado pela Kaspersky.
Por que a solução ainda exige camadas extras de proteção
Embora o modelo linguístico eleve o patamar de acessibilidade, ele herda vulnerabilidades clássicas das LLMs, como alucinações e ataques de prompt injection. Segundo a MIT Technology Review, 15% dos prompts mal-intencionados conseguem burlar filtros de grandes modelos, o que reforça a necessidade de software antiphishing dedicado.
Outro ponto crítico é a privacidade. Imagens são enviadas a servidores nos EUA e armazenadas por até 30 dias. Para documentos sensíveis, especialistas indicam apps de leitura local como Seeing AI ou Lookout, além de gestores de senhas — recurso que preenche credenciais apenas em domínios legítimos.
De acordo com a Organização Mundial da Saúde, existem 285 milhões de pessoas com deficiência visual; iniciativas que unem IA e voluntariado atacam um gargalo real, mas não substituem firewalls nem verificações humanas qualificadas.
O que você acha? Inovações como Be My AI eliminam barreiras ou criam nova superfície de ataque? Para mais análises, acesse nossa editoria especializada em cibersegurança.
Crédito da imagem: Divulgação / Kaspersky