O estado norte-americano de Illinois tomou uma medida inédita ao proibir o uso de inteligência artificial (IA) como terapeuta, regulamentando o uso dessas tecnologias no âmbito da saúde mental.
A lei, chamada Wellness and Oversight for Psychological Resources (WOPR), foi sancionada pelo governador JB Pritzker e impede que aplicativos ou serviços baseados em IA realizem decisões clínicas, como diagnósticos ou tratamentos psicológicos. A multa para quem desrespeitar essa regra pode chegar a US$ 10 mil (cerca de R$ 54 mil na atual cotação).
A iniciativa surge em meio ao crescente uso da IA por pessoas que buscam suporte emocional ou mesmo companhia, o que preocupa profissionais da área da saúde mental. Psicólogos e assistentes sociais defendem a regulação para proteger o público de possíveis danos causados por algoritmos que se passam por especialistas sem a qualificação adequada. A nova lei garante que apenas profissionais licenciados possam exercer tais funções clínicas.
Apesar da proibição para decisões terapêuticas, a lei permite que terapeutas usem IA para tarefas administrativas, como elaboração de anotações e planejamento. Aplicativos de bem-estar que oferecem meditação ou suporte não clínico, como Calm, continuam liberados.
No entanto, serviços que se posicionam como substitutos de terapia, como o Ash Therapy, não podem operar em Illinois e já bloqueiam o acesso a usuários do estado.
Principais pontos da lei WOPR e contexto:
- Proíbe IA de realizar diagnósticos ou decisões terapêuticas;
- Multa de até US$ 10 mil para infratores;
- IA permitida apenas para tarefas administrativas em clínicas;
- Aplicativos de bem-estar sem função clínica não são afetados;
- Serviços de terapia com IA, como Ash, não operam em Illinois;
Além disso, a controvérsia se intensifica com relatos de usuários que desenvolvem delírios após interações prolongadas com chatbots, e a própria OpenAI anunciou medidas para reduzir possíveis efeitos adversos, como pausas obrigatórias durante o uso prolongado do ChatGPT. O debate destaca a complexidade de integrar IA em áreas delicadas como a saúde mental, buscando equilíbrio entre inovação e segurança do usuário.