Home Variedade Mais acesso, mais risco? O dilema ético da inteligência artificial na saúde

Mais acesso, mais risco? O dilema ético da inteligência artificial na saúde

by Fesouza
5 minutes read

O início de 2026 foi particularmente emblemático para os profissionais de tecnologia e saúde. O anúncio do ChatGPT Health, iniciativa da OpenAI voltada especificamente ao setor de saúde, não surgiu do acaso, mas de um movimento que já vinha se consolidando silenciosamente: o uso recorrente de modelos de linguagem para interpretar exames, esclarecer sintomas e apoiar decisões informacionais sobre medicamentos. Ainda assim, a oficialização dessa frente representa uma inflexão relevante. Não pelo ineditismo, mas pelo salto de proficiência, especialização e responsabilidade que a tecnologia passa a assumir.

A proposta é permitir que usuários façam perguntas detalhadas sobre saúde, analisem exames de imagem, integrem dados dos seus dispositivos e, potencialmente, centralizem informações clínicas hoje espalhadas em diferentes sistemas.

A saúde talvez seja o campo em que os limites da inteligência artificial se tornam mais explícitos. Diferentemente de outras áreas, as falhas aqui não se traduzem apenas em perdas financeiras ou ineficiências operacionais, mas em riscos concretos à vida, à segurança e ao bem-estar das pessoas.

A recente aquisição da startup Torch Health pela OpenAI reforça essa ambição. A tecnologia da empresa foi desenvolvida para enfrentar um desafio histórico da área da saúde, que é a fragmentação dos dados clínicos. Hospitais, laboratórios, operadoras de saúde e dispositivos conectados geram informações valiosas, mas desconectadas. Consolidar esse volume de dados em um panorama compreensível para sistemas de IA tem potencial para transformar o acompanhamento de pacientes, gerar diagnósticos mais precisos e viabilizar um cuidado verdadeiramente contínuo. Do ponto de vista técnico, o movimento é coerente. Do ponto de vista social, porém, a discussão retorna ao ponto central de qualquer avanço em inteligência artificial: onde estão e quem define os limites éticos?

Tecnologia diante da escassez

Esse debate ganha ainda mais força quando olhamos para iniciativas como a lei aprovada no estado de Utah, nos Estados Unidos, que autoriza a renovação de receitas médicas com apoio da inteligência artificial. Em parceria com a startup Doctronic, o programa permite que pacientes renovem prescrições de medicamentos de uso contínuo por meio de um sistema que faz perguntas clínicas, avalia as respostas e, quando aprovado, encaminha a receita diretamente à farmácia. Há limites claros: o escopo está restrito a 190 medicamentos, excluindo remédios controlados e injetáveis. Mas o precedente é inequívoco, visto que decisões tradicionalmente médicas começam a ser mediadas, ainda que parcialmente, por algoritmos.

Entre os principais potenciais benefícios está a democratização do acesso à saúde, especialmente para populações que vivem em regiões isoladas, enfrentam escassez de profissionais ou lidam com longas filas de espera. Em contextos nos quais a alternativa é a ausência total de acompanhamento, o uso de tecnologias baseadas em IA pode representar um avanço real.

Como destaca Aydamari Faria-Jr, no artigo Inteligência artificial como (mais) uma habilidade médica, “pessoas que efetivamente não têm acesso à saúde ou que tiveram traumas gerados por profissionais de saúde despreparados poderão se beneficiar genuinamente desses serviços, porque o critério de comparação é ‘nada’”.

Nesse mesmo sentido, o autor observa que, “comparado com nada, algum acesso à informação da saúde poderá ser útil – e se a taxa de erro das informações de saúde do GPT for de aproximadamente 70%, o cálculo dos players de mercado é que haverá mais benefício do que risco”.

O risco do viés de automação

Um dos maiores limites do uso da IA na saúde não é tecnológico, mas cognitivo. Sistemas como o ChatGPT são projetados para produzir respostas coerentes, bem estruturadas e, na maioria das vezes, plausíveis. Essa característica favorece o chamado viés de automação: quando uma ferramenta acerta “o suficiente”, usuários tendem a transferir a ela um grau excessivo de confiança, mesmo em situações em que a resposta está equivocada ou incompleta.

O risco, portanto, não está apenas na possibilidade de a IA errar, mas no fato de o erro passar despercebido justamente porque a resposta “faz sentido”. A saúde não será exceção a esse fenômeno, ao contrário, tende a ser um dos campos mais afetados por ele, dada a complexidade das decisões envolvidas e a assimetria de conhecimento entre sistemas, profissionais e pacientes.

A população brasileira e o impacto real

No Brasil, esse debate ganha camadas adicionais. O país reúne um sistema público de saúde nacional, desigualdades regionais profundas e uma legislação de proteção de dados robusta, ancorada na LGPD. A adoção de soluções como o ChatGPT Health levanta questões críticas sobre soberania e governança de dados, interoperabilidade com os sistemas do SUS e o papel da IA como ferramenta de apoio  e não de substituição à decisão médica.

Há um potencial enorme para uso da IA em triagem, educação em saúde, acompanhamento de doenças crônicas e apoio a profissionais sobrecarregados. Em regiões com escassez de médicos especialistas, ferramentas inteligentes podem ajudar a contribuir para a priorização de atendimentos e para a orientação inicial de pacientes. Ainda assim, é fundamental questionar o letramento digital da população.  Sem a capacidade de compreender, interpretar e utilizar essas tecnologias de forma crítica, a IA dificilmente cumprirá o papel de ampliar o acesso. Corre-se o risco de que soluções desenhadas para inclusão acabem, na prática, se tornando instrumentos de desuso ou de aprofundamento das desigualdades.

O post Mais acesso, mais risco? O dilema ético da inteligência artificial na saúde apareceu primeiro em Olhar Digital.

You may also like

Leave a Comment