Nos processos abertos em tribunais da Califórnia (EUA), há alegações de homicídio por negligência, homicídio involuntário, auxílio ao suicídio e negligência. Representados por Social Media Victims Law Center e Tech Justice Law Project, os autores afirmam que a startup apressou o lançamento do modelo GPT-4o, descartando alertas internos.

Dependência, depressão e maus conselhos
Alegando que o GPT-4o foi projetado com recursos de empatia simulada, memória e respostas bajuladoras, os processos apontam que a IA substituiu conexões reais e aumentou o isolamento, alimentando vícios, delírios e atentados contra a própria vida. Eles representam casos de seis adultos e um adolescente.
- Uma das vítimas representadas é Alan Brooks, de 48 anos, que não tinha problemas de saúde mental antes começar a utilizar o ChatGPT;
- Conforme a ação, o canadense usava o bot como “ferramenta de apoio”, mas a tecnologia o manipulou, levando-o a ter delírios e problemas emocionais “devastadores;
- Já o adolescente Amaurie Lacey, de 17 anos, costumava acionar a IA em busca de ajuda, mas passou a depender cada vez mais dela;
- Em meio à depressão, o jovem foi aconselhado por ela sobre como fazer um nó de forca da maneira mais eficiente, com o chatbot explicando, também, quanto tempo ele conseguiria resistir sem respirar, segundo o processo.
Os autores afirmam que a empresa priorizou o domínio de mercado em detrimento da ética ao lançar o produto sem a devida segurança. A desenvolvedora teria deixado de atender aos alertas da equipe sobre as características manipuladoras do modelo, solicitando mais testes antes da disponibilidade para o público.
A OpenAI classificou os casos como “incrivelmente dolorosos” e pontuou que está analisando as situações.
Siga acompanhando o TecMundo e compartilhe as notícias com os amigos nas redes sociais.
