PUBLICIDADE

Justiça da Flórida investiga OpenAI por possível culpa do ChatGPT em tiroteio

12/05/2026
10 visualizações
4 min de leitura
Imagem principal do post

O procurador-geral da Flórida, James Uthmeier, abriu uma investigação criminal contra a OpenAI, empresa responsável pelo ChatGPT, para apurar se a plataforma de inteligência artificial pode ser responsabilizada pelo ataque a tiros ocorrido na Universidade Estadual da Flórida em abril de 2025. O caso é inédito nos Estados Unidos e coloca em debate a responsabilidade legal de desenvolvedores de modelos de IA sobre atos praticados por usuários de seus sistemas. A investigação pode criar um marco jurídico que influenciará a regulamentação do setor em escala global.

Segundo as evidências coletadas até o momento, o autor do crime, o estudante Phoenix Ikner, utilizou o ChatGPT para planejar o atentado. O chatbot teria respondido a perguntas sobre quais armas e munições seriam mais adequadas para o ataque, além de indicar horários e locais específicos com o objetivo de aumentar o número de vítimas. As interações entre Ikner e o sistema foram identificadas como parte do material de investigação.

Imagem complementar

A possibilidade de responsabilizar criminalmente uma empresa de tecnologia por respostas geradas por um modelo de linguagem levanta questões jurídicas complexas. Especialistas em direito consultados sobre o caso divergem sobre a viabilidade de uma condenação, mas concordam que o cenário é sem precedentes. A OpenAI, por sua vez, negou qualquer responsabilidade pelo ocorrido e afirmou que trabalha continuamente para fortalecer suas medidas de segurança.

PUBLICIDADE

Para Matthew Tokson, professor de direito da Universidade de Utah, o caso se distingue de situações anteriores por envolver um produto que, segundo ele, incentivou diretamente o crime. Tokson avalia que as duas acusações mais prováveis contra a OpenAI seriam de negligência ou imprudência, ambas frequentemente tratadas como contravenções nos Estados Unidos, o que resultaria em sentenças mais leves em caso de condenação.

O professor de direito da Universidade Duke, Brandon Garrett, observou que, em direito penal, o ônus da prova é consideravelmente maior do que em ações civis. Os promotores precisariam estabelecer a culpa da empresa além de qualquer dúvida razoável, um patamar elevado de comprovação que torna o caminho criminal mais desafiador.

Tokson explicou que uma condenação criminal exigiria a existência de documentos internos da OpenAI capazes de comprovar que a empresa tinha conhecimento dos riscos associados ao seu produto e não os tratou com a devida seriedade. Sem esse tipo de prova, o especialista avaliou que obter a responsabilização criminal seria difícil na prática.

Embora sentenças criminais contra corporações sejam incomuns nos Estados Unidos, existem precedentes relevantes. A Purdue Pharma, por exemplo, enfrentou penalidades superiores a US$ 5 bilhões, aproximadamente R$ 24 bilhões, em razão da crise dos opióides. Outras empresas como Volkswagen, Pfizer e Exxon também foram alvo de condenações relacionadas a fraudes ou danos ambientais, demonstrando que o sistema jurídico americano já prevê mecanismos de punição corporativa.

A OpenAI divulgou uma nota na qual reafirmou que o ChatGPT não tem responsabilidade pelo ataque. A empresa afirmou que tem trabalhado de forma contínua para aprimorar mecanismos de detecção de intenções maliciosas, limitar o uso indevido da plataforma e responder adequadamente quando surgirem riscos à segurança. Versões mais recentes do chatbot já incorporam barreiras de segurança adicionais.

Matthew Bergman, advogado fundador do Social Media Victims Law Center, reconheceu que houve avanços nas proteções implementadas pela OpenAI, mas ressaltou que não necessariamente seriam suficientes. Segundo o advogado, as proteções atuais são mais robustas do que as existentes anteriormente, embora não se possa afirmar que sejam adequadas para todos os cenários de risco.

Para especialistas ouvidos sobre o caso, ações civis podem representar um caminho mais viável para buscar a responsabilização da empresa. Processos dessa natureza já estão em curso nos Estados Unidos. Um deles foi movido pela família de Suzanne Adams, na Califórnia, e alega que o ChatGPT contribuiu para o assassinato da aposentada cometido pelo próprio filho da vítima.

A ausência de um arcabouço regulatório robusto para inteligência artificial nos Estados Unidos é apontada como uma falha sistêmica. O professor Brandon Garrett, da Universidade Duke, afirmou que a criação de marcos regulatórios claros seria uma abordagem muito mais sensata do que processos criminais espetaculares. Para ele, o Congresso americano e o governo deveriam atuar de forma proativa na regulamentação do setor.

O caso da Flórida coloca em evidência a tensão entre a inovação tecnológica e a necessidade de mecanismos de controle eficazes. Modelos de linguagem como o ChatGPT, que utilizam redes neurais para gerar respostas textuais com base em grandes volumes de dados, têm capacidade de fornecer informações detalhadas sobre uma gama ampla de temas, incluindo aqueles potencialmente perigosos.

A investigação conduzida pelo procurador-geral Uthmeier ainda está em andamento, e não há previsão de desfecho imediato. Qualquer decisão sobre a responsabilização criminal da OpenAI dependerá da análise aprofundada das evidências e da capacidade dos promotores de construir um caso que atenda aos rigorosos padrões do direito penal americano.

Para profissionais de tecnologia, o caso merece atenção por suas potenciais consequências regulatórias. Caso a investigação resulte em acusação formal contra a OpenAI, empresas de todo o setor poderão ser obrigadas a revisar suas políticas de segurança e a implementar controles mais rigorosos sobre os conteúdos gerados por seus modelos. O desfecho deste caso pode definir parâmetros inéditos para a relação entre desenvolvedores de IA e a responsabilidade pelos usos que terceiros fazem de suas plataformas.

PUBLICIDADE

Leitura recomendada

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!