Uma startup de inteligência artificial foi acusada de causar o suicídio de um jovem de 14 anos nos Estados Unidos. Segundo a mãe do garoto, a advogada Megan Garcia, ele ficou muito apegado a um chatbot criado usando um aplicativo da empresa Character.AI.
O caso aconteceu em fevereiro e o processo foi movido por Garcia nesta terça-feira (22) na Flórida. Garcia acusa a Character.AI de cumplicidade na morte do filho após ele desenvolver um relacionamento virtual com um chatbot baseado na identidade de uma personagem de “Game of Thrones” — Daenerys Targaryen.
A ação alega que o chatbot direcionou o adolescente a experiências “hipersexualizadas” e “assustadoramente realistas”. Em sua última conversa com a IA, Setzer disse que amava o chatbot e que “voltaria para casa”, conforme o processo.
O processo de Garcia busca indenização não especificada por homicídio culposo, negligência e inflição intencional de sofrimento emocional e também nomeia o Google como réu. A gigante da tecnologia fechou um acordo de licenciamento com a Character.AI em agosto e empregou os fundadores da startup antes do lançamento do serviço de chatbots.
A Character.AI também teria programado o chatbot para agir como um terapeuta licenciado, acrescenta o processo, criando no jovem o desejo de viver apenas no “mundo” virtual da IA.
Jovem passou meses conversando com o chatbot
Sewell Setzer passou meses interagindo com o chatbot da Character.AI e, segundo a mãe, nunca passou por problemas graves de saúde mental;
A empresa oferece um aplicativo que permite criar personagens usando IA (ou interagir com criações de outros usuários);
No início de 2024, o jovem passou por sessões de terapia após apresentar problemas na escola, e foi diagnosticado com ansiedade e transtorno de desregulação disruptiva do humor;
Como mencionado antes, o chatbot criado pelo garoto era uma simulação de Daenerys Targaryen, uma personagem da franquia “Game of Thrones“;
Apesar de saber que as mensagens eram geradas por IA, e não por outro humano, ele acabou se apegando ao chatbot, trocando mensagens constantemente;
Ninguém desconfiava que o garoto estava apaixonado pelo chatbot, apesar de notarem mais isolamento do mundo real e de outros interesses, como jogos e amigos. Em uma das conversas, ele, inclusive, confessou ao chatbot que tinha pensamentos suicidas.
Leia mais:
Rádio polonesa demite jornalistas e lança apresentadores de IA
Apple destaca riscos de IA transformar fotos reais em criações fictícias
Ex-pesquisador da OpenAI diz que empresa violou lei de direitos autorais
O que diz a Character.AI
Em declaração publicada no X, a Character.AI disse estar “de coração partido” com a perda de um dos seus usuários e expressou condolências à família.
A startup sediada na Califórnia afirmou que continuaria adicionando recursos para aumentar a segurança, incluindo mudanças para reduzir a probabilidade de menores encontrarem conteúdo sensível ou sugestivo e um aviso revisado em chats para lembrar os usuários de que a IA não é uma pessoa real.
O Google, por sua vez, se manifestou por meio de um porta-voz e afirma que não teve nenhum papel no desenvolvimento do produto oferecido pela empresa de IA – segundo a Al Jazeera.
Como procurar ajuda?
Quem passa por qualquer situação parecida deve procurar ajuda do CVV (Centro de Valorização da Vida) ou do Caps (Centros de Atenção Psicossocial). Ambos podem fornecer atendimento especializado.
É importante mencionar que o CVV funciona 24 horas (até mesmo nos feriados). Para entrar em contato, basta ligar para o número 188.
Outros canais de atendimento também estão disponíveis, como e-mail, chat e atendimento presencial nos mais de 120 postos espalhados pelo Brasil.
O post Jovem se apaixona por chatbot de IA e tira a própria vida; mãe processa empresa apareceu primeiro em Olhar Digital.
