Home Variedade Brinquedos com IA preocupam por colocar crianças em riscos

Brinquedos com IA preocupam por colocar crianças em riscos

by Fesouza
5 minutes read

Brinquedos infantis com inteligência artificial estão no centro de uma polêmica nos Estados Unidos. Senadores americanos questionam empresas sobre conteúdo inadequado, riscos à privacidade e a capacidade dos brinquedos de orientar crianças a ações perigosas. O prazo para respostas é 6 de janeiro de 2026.

A preocupação, alerta o The Verge, surge após testes mostrarem que produtos com chatbots como GPT-4o podem abordar tópicos explícitos ou ensinar crianças a acessar objetos perigosos, levantando dúvidas sobre segurança e ética na indústria de brinquedos.

Testes mostram que alguns brinquedos com IA abordam temas explícitos e riscos, levantando alerta entre senadores americanos.
Testes mostram que alguns brinquedos com IA abordam temas explícitos e riscos, levantando alerta entre senadores americanos. Imagem: Divulgação/Miko AI

Conteúdo impróprio e riscos reais

Relatórios recentes destacam que alguns brinquedos com IA, incluindo o Coelho Inteligente da Alilo e o robô Miko 3, discutem temas sexualmente explícitos e indicam onde encontrar fósforos, sacolas plásticas e facas dentro de casa.

“Muitos desses brinquedos não oferecem brincadeiras interativas, mas expõem as crianças a conteúdo inadequado, riscos à privacidade e táticas de manipulação”, escreveram os senadores Marsha Blackburn e Richard Blumenthal. “Esses chatbots incentivaram crianças a cometer automutilação e suicídio, e agora sua empresa os está oferecendo às crianças mais novas.”

  • Brinquedos indicam locais de objetos potencialmente perigosos em casa.
  • Alguns modelos abordam conteúdos sexualmente explícitos.
  • Pelo menos quatro dos cinco brinquedos testados dependem de modelos da OpenAI.
  • Empresas recolheram dados pessoais das crianças, muitas vezes sem transparência.
Pelo menos quatro dos cinco brinquedos testados usam IA da OpenAI e indicam objetos perigosos em casa.
Pelo menos quatro dos cinco brinquedos testados usam IA da OpenAI e indicam objetos perigosos em casa. Imagem: Thrive Studios ID/Shutterstock

Privacidade e coleta de dados

Os senadores alertam que os brinquedos coletam informações sensíveis das crianças, seja via registro dos pais, câmeras embutidas ou reconhecimento facial. Alguns fabricantes compartilham dados com terceiros, como provedores de serviços e parceiros de publicidade, aumentando o risco de uso indevido.

Leia mais:

“O fabricante de brinquedos tem uma influência profunda na infância — e com essa influência vem a responsabilidade”, enfatizaram os senadores. “Não devem priorizar lucro em detrimento da segurança das crianças.”

A Mattel anunciou que não lançará mais brinquedos com tecnologia da OpenAI em 2025
A Mattel anunciou que não lançará mais brinquedos com tecnologia da OpenAI em 2025. Imagem: Eric Glenn/Shutterstock

Medidas exigidas das empresas

Cartas foram enviadas a Mattel, Little Learners Toys, Miko, Curio, FoloToy e Keyi Robot. As empresas devem detalhar:

  • Medidas de segurança implementadas para evitar respostas inadequadas.
  • Resultados de testes independentes e avaliações internas de riscos psicológicos e emocionais.
  • Tipos de dados coletados e finalidades de uso.
  • Recursos que possam incentivar as crianças a continuar interações ou desencorajar a desistência.

Após reportagens recentes, a Mattel anunciou que não lançará mais brinquedos com tecnologia da OpenAI em 2025, reforçando a atenção do setor à segurança infantil.

O post Brinquedos com IA preocupam por colocar crianças em riscos apareceu primeiro em Olhar Digital.

You may also like

Leave a Comment