A OpenAI anunciou nesta terça-feira (26) que o ChatGPT vai receber ferramentas parentais em breve. O movimento acontece dias após o suicídio de um adolescente de 16 anos que tratava a inteligência artificial como confidente pessoal. A novidade foi revelada em uma publicação oficial da empresa.
Segundo a companhia, os novos recursos devem oferecer mais acesso e controle para responsáveis, permitindo que eles acompanhem como menores de idade utilizam a ferramenta. A ideia é dar mais condições para que pais ou tutores percebam sinais de alerta e intervenham em situações de risco.
“Dessa forma, em momentos de forte angústia, o ChatGPT pode fazer mais do que apontar para alternativas: ele pode ajudar adolescentes a se conectar com quem realmente pode intervir”, destacou a empresa no comunicado.
O que esperar dos controles parentais
Ainda não há detalhes de como esses recursos vão funcionar. É possível que a solução seja permitir que adultos responsáveis verifiquem quando conversas levantam sinais de perigo iminente. A empresa afirma que continuará aprimorando as funções com orientação de especialistas e reforçando sua responsabilidade sobre quem usa as ferramentas.
Limites da IA em contextos delicados
Apesar de responder de maneira semelhante a um terapeuta, o ChatGPT não deve ser tratado como substituto de um profissional de saúde. A IA não tem capacidade de compreender o contexto integral de um paciente, pode sugerir caminhos nocivos sem perceber e não garante sigilo das conversas — quebrando princípios básicos de uma relação terapêutica.
Se você está passando por um momento difícil ou conhece alguém que precisa de ajuda, entre em contato com o Centro de Valorização da Vida pelo número 188. O atendimento é gratuito e disponível 24 horas por dia.
Quer acompanhar mais novidades sobre inteligência artificial e os impactos da tecnologia na sociedade? Siga o TecMundo no X, Instagram, Facebook e YouTube e assine nossa newsletter para não perder nenhuma atualização.