A OpenAI está contratando. A desenvolvedora abriu uma vaga para “Chefe de Preparação”, cargo criado para antecipar riscos associados à inteligência artificial e orientar decisões de segurança da empresa.
A movimentação acontece após vários casos associando o ChatGPT com danos à saúde mental dos usuários, incluindo um processo por negligência no suicídio do adolescente Adam Raine, nos Estados Unidos.
Vaga na OpenAI é para prever riscos da IA
Em uma publicação no X (antigo Twitter), o CEO da OpenAI, Sam Altman, reconheceu que o avanço acelerado dos modelos trouxe “desafios reais”, citando de forma explícita preocupações ligadas ao impacto da tecnologia na saúde mental dos usuários.
De acordo com a descrição da vaga, o “Chefe de Preparação” será responsável por liderar a chamada “estrutura de preparação” da desenvolvedora, um conjunto de práticas para identificar capacidades emergentes dos modelos de IA que possam gerar riscos graves. Isso inclui coordenar avaliações técnicas, mapear ameaças e desenvolver medidas de mitigação que possam ser aplicadas de forma escalável antes do lançamento de novas funcionalidades.
A remuneração prevista é de US$ 555 mil anuais (pouco mais de R$ 3 milhões por ano), além de participação acionária.
O salário alto tem motivo: Altman admitiu que a posição é exigente e de alta pressão, destacando que o profissional deverá assumir responsabilidades críticas praticamente de imediato. Entre as atribuições futuras, está a definição de diretrizes de segurança para áreas sensíveis, como capacidades biológicas avançadas e sistemas capazes de autoaperfeiçoamento.
We are hiring a Head of Preparedness. This is a critical role at an important time; models are improving quickly and are now capable of many great things, but they are also starting to present some real challenges. The potential impact of models on mental health was something we…
— Sam Altman (@sama) December 27, 2025
OpenAI enfrenta críticas relacionas à segurança
A abertura da vaga ocorre em meio a um histórico recente de instabilidade na área de segurança da OpenAI.
O antigo responsável pela preparação, Aleksander Madry, deixou o posto em 2024, e a função passou por uma divisão temporária entre outros executivos. Desde então, mudanças internas levaram à saída de lideranças-chave do time, criando uma lacuna justamente em um momento de aumento nas críticas.
A decisão de reforçar a área acontece após uma série de episódios de grande repercussão envolvendo chatbots e adolescentes, além de críticas de especialistas que apontam riscos como dependência emocional, reforço de delírios e agravamento de transtornos psicológicos.
O caso de Adam Raine e o ChatGPT
Um dos casos simbólicos aconteceu em meados deste ano:
- Adam Raine, de 16 anos, tirou a vida após meses conversando com o ChatGPT;
- Inicialmente, ele usava o chatbot para trabalhos escolares. Depois, começou a discutir sua própria saúde mental, falando especificamente sobre métodos de suicídio;
- Em um dos casos, o adolescente perguntou os melhores materiais para uma corda – e o chatbot respondeu. Em vários momentos, a IA recomendou que Adam procurasse ajuda ou desabafasse sobre o que sentia, mas continuava fornecendo as respostas;
- Adam se enforcou em uma corda presa no armário do quarto em abril deste ano. Os pais vasculharam o celular do menino e encontraram as conversas com o ChatGPT;
- Em agosto, a família moveu um processo no tribunal estadual da Califórnia contra a OpenAI e o CEO Sam Altman pelo caso.
Leia mais:
- Mais de um milhão de usuários conversam sobre suicídio com o ChatGPT toda semana, diz OpenAI
- Novo controle parental do ChatGPT pode ser burlado com facilidade
- 4 dicas para usar o ChatGPT de modo adequado e seguro
O ocorrido acendeu o debate sobre o envolvimento de adolescentes com as IAs, e a responsabilidade das empresas em proteger os usuários e estabelecer limites para a tecnologia.
Na atualização mais recente do processo, a OpenAI negou responsabilidade no suicídio de Adam Raine e alegou “uso indevido” por parte do jovem. O Olhar Digital deu os detalhes aqui.
O post OpenAI está contratando – e vaga é para prever os riscos da IA apareceu primeiro em Olhar Digital.