Início Ciência e tecnologia Famílias processam empresa do ChatGPT por omissão em ataque fatal no Canadá

Famílias processam empresa do ChatGPT por omissão em ataque fatal no Canadá


Da redação

Familiares das vítimas de um ataque violento ocorrido em fevereiro de 2026, em British Columbia, no Canadá, ingressaram com processos judiciais nos Estados Unidos contra a empresa responsável pelo ChatGPT. Eles alegam que a companhia falhou em adotar medidas para evitar a tragédia, levantando questões inéditas sobre a responsabilidade de plataformas de inteligência artificial.

Segundo consta na denúncia, a empresa teria identificado interações preocupantes do autor do ataque com o chatbot meses antes do ocorrido, porém não comunicou as autoridades competentes. Para os familiares das vítimas, essa suposta omissão pode ter contribuído para o desfecho fatal no Canadá, que resultou em mortos e feridos, incluindo crianças.

Os advogados que representam as famílias afirmam que sistemas internos chegaram a sinalizar o comportamento do usuário como uma possível ameaça real. Ainda assim, a empresa decidiu não acionar a polícia. A acusação sustenta que a decisão teria por objetivo preservar a reputação da companhia e evitar prejuízos aos seus negócios.

Outro ponto destacado no processo é que, mesmo após o bloqueio de uma conta por violação de regras, o responsável pelo ataque conseguiu criar outro perfil na plataforma. Segundo a ação, isso teria permitido que o planejamento do crime continuasse, sem uma intervenção mais efetiva da empresa.

As famílias dos atingidos pedem indenizações e também mudanças nas políticas de segurança da companhia responsável pelo ChatGPT. Entre as exigências está a obrigação de comunicar as autoridades sempre que houver risco concreto de violência detectado pelos sistemas da plataforma de inteligência artificial.

Em resposta, a empresa classificou o episódio como uma tragédia e afirmou que já implementou melhorias na segurança do ChatGPT, como reforço na identificação de comportamentos de risco, respostas mais rigorosas a conteúdos sensíveis e ampliação da conexão com serviços de apoio em saúde mental. O caso é considerado um possível marco, podendo criar precedentes sobre a responsabilização de empresas de tecnologia nesse tipo de ocorrência.