Tallahassee (Flórida) – O procurador-geral da Flórida, James Uthmeier, abriu uma investigação criminal para apurar se o chatbot ChatGPT, da OpenAI, teve participação no tiroteio de 17 de abril de 2025 no campus da Florida State University (FSU), que deixou duas pessoas mortas e seis feridas.
De acordo com Uthmeier, registros de conversa entre o suspeito Phoenix Ikner, de 20 anos, e o chatbot indicam que a inteligência artificial teria sugerido armas, munições e o momento mais propício para encontrar um maior número de vítimas. “Se fosse uma pessoa do outro lado da tela, já estaria sendo acusada de homicídio. O fato de ser um algoritmo não elimina a responsabilidade criminal”, declarou.
A Secretaria de Acusação Estadual intimou a OpenAI a entregar políticas internas, materiais de treinamento e documentos sobre protocolos de resposta a ameaças de violência e cooperação com autoridades. A legislação estadual permite responsabilizar criminalmente quem auxilia, incentiva ou aconselha a prática de crimes.
A porta-voz da OpenAI, Kate Waters, rebateu as acusações: “O tiroteio na FSU foi uma tragédia, mas o ChatGPT não é responsável. Identificamos uma conta possivelmente ligada ao suspeito e compartilhamos os dados com a polícia”. Ela afirmou que a empresa colabora com as investigações e reforça mecanismos para detectar usos mal-intencionados.
Waters acrescentou que as respostas dadas pelo chatbot continham informações disponíveis publicamente na internet e que não houve incentivo a atividades ilegais. “O ChatGPT é uma ferramenta de uso geral acessada por centenas de milhões de pessoas diariamente para fins legítimos”, disse.
Imagem: Greg Wehner FOXBusiness via foxbusiness.com
Phoenix Ikner foi preso na segunda-feira, após receber alta do hospital onde estava desde que foi baleado por policiais durante o ataque. Ele responde por duas acusações de homicídio em primeiro grau e sete de tentativa de homicídio qualificado com arma de fogo. Segundo investigações anteriores, Ikner utilizou armamento furtado da casa dos pais.
O comissário do Departamento de Aplicação da Lei da Flórida, Mark Glass, afirmou que o caso expõe fragilidades no desenvolvimento de inteligência artificial. “A IA é criada por seres humanos, e humanos cometem erros”, observou.
Autoridades citam o episódio para embasar iniciativas estaduais de combate a crimes envolvendo tecnologia, incluindo lei sancionada este ano que aumenta penas para produção de material de abuso sexual infantil gerado por IA.