Dados ‘envenenados’ podem comprometer segurança da IA

A eficácia de tecnologias baseadas em inteligência artificial depende da qualidade dos dados usados para treiná-las. E em meio a um ambiente digital vulnerável a ataques cibernéticos, tornou-se fundamental criar mecanismos de proteção desses sistemas.

Por isso, três pesquisadores da Universidade Internacional da Flórida, em Miami, nos EUA, estão trabalhando em mecanismos que podem evitar (ou minimizar) o que eles chamam de “dados envenenados” de inteligência artificial. 

Em um artigo no site The Conversation, Hadi Amini e Ervin Moore relembram o caso de envenenamento do chatbot Tay, da Microsoft. Poucas horas após o lançamento, em 2016, usuários começaram a alimentar o sistema com termos inapropriados — palavras que foram repetidas por Tay e acabaram assustando os demais clientes. A ferramenta precisou ser desativada e a empresa se desculpou publicamente pelo ocorrido.

Invasores podem comprometer segurança de dados usados no treinamento de modelos de IA (Imagem: Phimprapha Kitaiamphaisan/iStock)

Dá para se proteger?

Atualmente, a dupla está focando em medidas que priorizam o aprendizado federado, um tipo de abordagem que permite que os modelos de IA sejam treinados a partir de fontes descentralizadas, sem coletar dados em um único local.

Segundo os autores, esse conceito oferece uma “camada valiosa de proteção”, já que eventuais informações contaminadas não afetariam o modelo de IA como um todo. Ainda assim, o sistema continua vulnerável, caso as informações sejam agregadas.

A solução mais popular para esse tipo de problema, de acordo com o artigo, é o blockchain. A tecnologia é capaz de registrar de forma transparente a maneira como os dados são compartilhados e verificados.

Blockchains registram de forma transparente a maneira como os dados são verificados (Imagem: peshkov/iStock)

Leia Mais:

Como funciona na prática?

Treinamentos de IA protegidos por blockchain podem ajudar no processo de identificação de anomalias que envenenam os dados (talvez antes mesmo de o problema se espalhar pelo modelo).

Além disso, blockchains são formadas por blocos interligados que “conversam entre si”: se uma rede detectar um padrão desconhecido, ela poderá “avisar” as demais. Sua estrutura com data e hora facilita o rastreio de entradas envenenadas, facilitando a reversão do dano.

Blockchains são formadas por blocos interligados que “conversam entre si” (Imagem: KanawatTH/iStock)

Os autores criaram uma ferramenta baseada no aprendizado federado e que aplica blockchain para evitar a contaminação de dados usados em modelos de IA. Eles garantem que agentes mal-intencionados foram eliminados do processo de treinamento por meio de uma técnica de detecção de outliers.

O artigo com detalhes da pesquisa foi publicado no periódico científico IEEE Transactions on Artificial Intelligence. “Este artigo apresenta um modelo de aprendizado federado entre dispositivos que garante confiabilidade, imparcialidade e autenticidade no processo de treinamento do aprendizado federado subjacente”, escrevem.

O post Dados ‘envenenados’ podem comprometer segurança da IA apareceu primeiro em Olhar Digital.

Related posts

Ucrânia desmonta drone kamikaze russo e descobre chip poderoso

Google Voos testa ferramenta que mostra viagens com desconto

Caçadores brasileiros de asteroides recebem bolsas da The Planetary Society