A OpenAI terá que compartilhar milhões de logs de interações de usuários com o ChatGPT como parte de um processo em que é acusada de usar materiais protegidos por direitos autorais no treinamento da IA. A decisão foi divulgada pela juíza federal de Nova York (Estados Unidos), Ona Wang, na última quarta-feira (03).
Conforme a magistrada, a análise desse material é essencial para a checagem de possíveis violações legais por parte da startup, como alega o The New York Times, responsável pela denúncia. A disputa judicial teve início em 2023, com o jornal acusando a empresa de usar seus conteúdos sem autorização.
Dados deverão ser anonimizados antes da entrega
Após a negativa ao pedido para manter em segredo os logs de chats, a OpenAI tem prazo de sete dias para compartilhar com a justiça os dados de 20 milhões de conversas com o ChatGPT. Porém, a desenvolvedora precisará remover informações que facilitem a identificação de pessoas envolvidas nas conversas.
- A possibilidade de expor informações privadas ao divulgar o conteúdo era uma das justificativas da empresa para manter o material em sigilo;
- Essa exigência “desconsidera proteções de privacidade de longa data”, conforme o diretor de Segurança da Informação da companhia, Dane Stuckey;
- No entanto, a juíza ressaltou que a entrega das informações não resultará em violação à privacidade dos usuários;
- “Existem múltiplas camadas de proteção neste caso justamente por causa da natureza altamente sensível e privada de grande parte da descoberta”; declarou Wang.

A decisão foi comemorada pelo diretor executivo do MediaNews Group, Frank Pine, envolvido no processo. Em comunicado, ele disse que os líderes da OpenAI “alucinaram quando achavam que poderiam esconder evidências sobre como seu modelo de negócios depende de roubar de jornalistas trabalhadores”.
O caso entre o NYT e a startup é apenas um dos vários processos do tipo movidos contra ela e outras gigantes da tecnologia, como Meta e Microsoft. Os autores apontam que essas empresas estão usando conteúdos de sua propriedade para treinar modelos de IA sem autorização.
Provas desta prática poderão ser encontradas na análise dos logs de chats, que ajudarão a determinar se o bot reproduz os conteúdos protegidos, contrariando a tese defendida pela acusada.
Curtiu o conteúdo? Continue acompanhando o TecMundo e interaja com a gente nas redes sociais.
