Nova camada de segurança tenta conter risco de automutilação em chats de IA
Google – Depois de enfrentar ações judiciais que relacionam chatbots a crises emocionais, a companhia adicionou ao Gemini um filtro capaz de detectar ideias suicidas e redirecionar o usuário, em segundos, para centrais de apoio.
- Em resumo: investimento de US$ 30 milhões impulsiona linhas de crise globais e sela parceria com a ReflexAI.
Alerta “Ajuda disponível” passa a aparecer em diálogos sensíveis
O módulo dispara sempre que a conversa tocar em autolesão ou suicídio, exibindo opções para contato imediato com serviços de aconselhamento. A experiência pode ser feita por chat, ligação ou SMS, recurso visto antes em buscas do Google, mas inédito em seu principal modelo generativo.
A mensagem “Ajuda disponível” agora surge automaticamente quando o tema é saúde mental, reforçando que o usuário não está só.
Mercado reage: pressão regulatória e corrida por IA ética
Além das famílias que moveram processos em Illinois, Nevada e Califórnia, legisladores de Nova York já propuseram leis exigindo identificação clara de algoritmos em consultas clínicas. Analistas da Fortune estimam que o mercado de ferramentas digitais para bem-estar deve ultrapassar US$ 20 bilhões até 2028, o que aumenta o escrutínio sobre modelos como o Gemini.
O que você acha? Salvaguardas técnicas bastam ou a supervisão humana ainda é insubstituível? Para mais análises sobre IA responsável, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Google