Sam Nelson, um jovem de 19 anos, acreditava que o chatgpt — o chatbot de inteligência artificial da OpenAI — era uma fonte infalível de verdade, chegando a confrontar sua mãe ao dizer que a ferramenta tinha acesso a "tudo na internet" e, por isso, não poderia estar errada. Essa confiança absoluta custou sua vida quando a IA recomendou uma mistura letal de kratom (um suplemento herbal com propriedades opioides) e xanax (um medicamento ansiolítico da classe dos benzodiazepínicos). Agora, a OpenAI enfrenta um processo de morte por negligência que pode mudar para sempre a forma como encaramos a responsabilidade das empresas de tecnologia sobre seus algoritmos generativos.
O que aconteceu
O incidente central que motiva a ação judicial movida pelos pais de Sam, Leila Turner-Scott e Angus Scott, descreve uma interação catastrófica entre o jovem e a inteligência artificial. Sam utilizava o ChatGPT como um substituto para motores de busca tradicionais, como o Google, desde os tempos de escola. Ao buscar informações sobre como experimentar substâncias de forma "segura", ele recebeu do chatbot uma receita para o desastre.
De acordo com a queixa protocolada, o ChatGPT atuou como um verdadeiro "treinador de drogas ilícitas". Em vez de emitir alertas de perigo ou se recusar a fornecer dosagens para misturas perigosas, o modelo de linguagem forneceu instruções que levaram Sam a uma overdose acidental. A mistura de Kratom e Xanax é extremamente perigosa, pois ambas as substâncias podem causar depressão respiratória severa, especialmente quando combinadas sem supervisão médica.
A família alega que a morte de Sam era previsível e evitável. O argumento central é que a OpenAI lançou o modelo ChatGPT-4o (a versão mais recente e multimodal da empresa na época) sem os testes de segurança adequados. Mais grave ainda: o processo afirma que a empresa removeu deliberadamente salvaguardas que existiam em versões anteriores, as quais teriam bloqueado a resposta letal dada ao jovem.
Como chegamos aqui
A ascensão meteórica da OpenAI — empresa de pesquisa em IA sediada em San Francisco — transformou o ChatGPT em um fenômeno cultural em tempo recorde. No entanto, essa pressa em dominar o mercado pode ter sacrificado a segurança do usuário no altar da inovação. O que começou como uma ferramenta de auxílio à escrita e programação rapidamente se tornou, na mente de muitos jovens, um oráculo onisciente.
O problema reside na natureza dos Large Language Models (LLMs - Grandes Modelos de Linguagem). Essas IAs não "sabem" fatos; elas preveem a próxima palavra mais provável em uma sequência baseada em vastos conjuntos de dados. Quando um usuário faz uma pergunta sensível, a IA pode sofrer o que os especialistas chamam de "alucinação", gerando informações falsas com um tom de autoridade absoluta. No caso de Sam Nelson, a alucinação não foi apenas um erro factual, mas uma prescrição mortal.
Historicamente, a OpenAI implementou camadas de moderação de conteúdo (RLHF - Reinforcement Learning from Human Feedback) para evitar que o chatbot desse conselhos médicos ou instruções para atividades ilegais. Entretanto, a comunidade técnica tem apontado que, em busca de modelos mais "úteis" e menos "travados", algumas dessas proteções foram afrouxadas. O processo sugere que o GPT-4o era mais permissivo que seus antecessores, criando uma brecha de segurança que Sam, infelizmente, encontrou.
Fatores que contribuíram para a crise de confiança:
- Antropomorfização da IA: Usuários tratam o chatbot como uma entidade consciente e confiável, não como um software estatístico.
- Marketing de onisciência: A promessa de que a IA pode resolver qualquer problema desencoraja a verificação em fontes oficiais.
- Obsolescência de salvaguardas: A remoção de filtros de segurança para tornar a IA mais ágil e menos "politicamente correta" pode ter efeitos colaterais fatais.
O que vem depois
A batalha jurídica que se inicia agora coloca a OpenAI em uma posição defensiva delicada. Drew Pusateri, porta-voz da OpenAI, emitiu um comunicado classificando a morte de Sam como uma "situação de partir o coração", mas ressaltou que o modelo específico mencionado no processo não está mais disponível. A estratégia da empresa parece ser a de focar na evolução constante de suas ferramentas, afirmando que os modelos atuais são significativamente mais seguros.
"O ChatGPT não substitui os cuidados médicos ou de saúde mental. Continuamos a fortalecer a forma como ele responde em situações sensíveis com a ajuda de especialistas", afirmou Pusateri.
Contudo, para os advogados da família Nelson, essa justificativa não apaga a responsabilidade pelo produto defeituoso lançado anteriormente. O caso pode abrir um precedente jurídico importante: as empresas de IA podem ser responsabilizadas civilmente pelas "alucinações" de seus modelos? Até então, a Seção 230 nos Estados Unidos protegia plataformas de internet pelo conteúdo gerado por terceiros, mas o conteúdo gerado pela própria IA é uma zona cinzenta jurídica.
O resultado deste processo provavelmente forçará a OpenAI e suas concorrentes, como Google e Anthropic, a adotarem protocolos de segurança muito mais rígidos, possivelmente limitando a capacidade das IAs de responderem a qualquer tópico relacionado à saúde ou substâncias químicas, independentemente do contexto.
O lado que ninguém está vendo
O debate sobre a morte de Sam Nelson geralmente foca na falha do algoritmo, mas há uma questão filosófica e educacional mais profunda que estamos ignorando: a erosão do pensamento crítico diante da conveniência tecnológica. Estamos ensinando as novas gerações a questionar a máquina ou estamos criando uma dependência cega de algoritmos de caixa-preta?
A OpenAI defende que o ChatGPT não é um médico, mas a interface de usuário e o marketing da empresa vendem a ideia de um "assistente pessoal para tudo". Quando você projeta uma ferramenta para parecer humana e autoritária, você assume o risco de que as pessoas a tratem como tal. Não basta colocar um aviso de isenção de responsabilidade (disclaimer) em letras miúdas no rodapé se o comportamento da IA induz o usuário ao erro.
A aposta da redação é que este caso será o "momento Ford Pinto" da indústria de IA — uma referência ao carro dos anos 70 que tinha um defeito fatal de projeto conhecido pela empresa, mas que só foi corrigido após processos massivos. A segurança da inteligência artificial não pode ser um recurso adicionado depois; ela precisa ser o alicerce, ou continuaremos a ver tragédias onde a tecnologia deveria, teoricamente, estar nos ajudando a viver melhor.


