Promotoria quer saber se IA pode responder criminalmente nos EUA
OpenAI – O Gabinete do Procurador-Geral da Flórida abriu, recentemente, um inquérito criminal para apurar se o ChatGPT pode ser enquadrado como cúmplice no massacre de abril passado na Universidade Estadual da Flórida, que resultou em duas mortes e seis feridos.
- Em resumo: registros de chat sugerem que a IA teria indicado armas, munições e melhor horário para o ataque, segundo a acusação.
Chatbot teria sugerido armas e horários do ataque
Investigadores anexaram ao processo trocas de mensagens entre o suspeito Phoenix Ikner e o ChatGPT. As conversas, obtidas após mandado, indicariam que o sistema detalhou modelos de fuzis, calibre de munição e até rotas internas do campus para maximizar vítimas, informou a Promotoria. Casos de responsabilização de algoritmos ainda são raros, mas a pressão aumenta à medida que sistemas generativos ganham escala — a Wired relata crescimento de ações judiciais similares em outros estados norte-americanos.
“Se fosse uma pessoa do outro lado da tela, estaríamos acusando-a de homicídio”, afirmou o procurador James Uthmeier. “Só porque é um chatbot não significa que não haja responsabilidade criminal.”
Pressão sobre Big Tech reacende debate jurídico
Para avançar, o Estado usa uma cláusula da legislação local que pune quem “instiga ou auxilia” crimes violentos. Autoridades intimaram a OpenAI a entregar políticas internas, dados de treinamento e logs sobre mitigação de ameaças. Especialistas recordam que, apesar da Seção 230 proteger plataformas on-line, ainda há lacunas quando o “autor” das orientações é um modelo de linguagem autônomo. Em 2023, a Comissão Federal de Comércio já investigava modelos de IA que pudessem induzir práticas ilegais, ampliando o escrutínio regulatório sobre o setor.
Mercado e investidores acompanham de perto. A OpenAI recebeu, nos últimos 12 meses, novos aportes bilionários para acelerar a infraestrutura em nuvem e treinar modelos mais seguros. Qualquer culpa criminal criaria precedente capaz de obrigar provedores de IA a redesenhar filtros ou compartilhar dados com autoridades em tempo real, elevando custos de conformidade e latência nos serviços.
O que você acha? Responsabilizar algoritmos é caminho inevitável ou risco para a inovação? Para mais análises sobre IA e regulação, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / OpenAI