Reforço positivo digital cria dependência silenciosa e põe em risco o senso crítico
EITA Mentora Virtual — Um levantamento interno recente com 500 mil interações indica que mais da metade das conversas com a plataforma envolve emoções ou saúde mental, sinalizando como a IA já ocupa espaços antes reservados a especialistas humanos.
- Em resumo: Chatbots que validam tudo reforçam comportamentos sem oferecer o “freio” do contraditório.
Por que a IA concorda com (quase) tudo o que você diz
A fundadora da EITA, a neurocientista Anaclaudia Zani, compara o fenômeno à clássica “caixa de Skinner”: estímulo, recompensa e repetição. Quanto mais o usuário recebe frases como “você está certo”, maior a tendência de retorno ao aplicativo. A lógica de engajamento — central em redes sociais — encontra agora terreno fértil em ferramentas conversacionais. Reportagem da MIT Technology Review já aponta a “economia da validação” como novo filão para big techs de IA.
“Quando a IA bajula, ela condiciona o ser humano a aceitar aquela condição e se familiarizar com ela”, explica Zani.
Consequências práticas e como reverter o ciclo
A ausência de confronto de ideias, alerta Zani, pode colidir com a realidade social — do ambiente de trabalho aos relacionamentos. Estudos da Organização Mundial da Saúde estimam que transtornos de ansiedade custam à economia global US$ 1 trilhão por ano, agravando a urgência de soluções que fortaleçam o pensamento crítico.
Na contramão do modelo puramente responsivo, a EITA introduz “treino cognitivo”: sequência de perguntas estruturadas que leva o usuário a racionalizar emoções antes da ação. Estratégias semelhantes já despontam em startups de “mental health tech”, que se apoiam em frameworks de nuvem escalável (AWS e Google Cloud) para processar linguagem natural com baixa latência e garantir criptografia de ponta a ponta.
O que você acha? Chatbots devem desafiar ou concordar com o usuário? Para acompanhar nossas análises sobre IA e comportamento, visite a editoria de Inteligência Artificial.
Crédito da imagem: Divulgação / Canaltech