A eficácia de tecnologias baseadas em inteligência artificial depende da qualidade dos dados usados para treiná-las. E em meio a um ambiente digital vulnerável a ataques cibernéticos, tornou-se fundamental criar mecanismos de proteção desses sistemas.
Por isso, três pesquisadores da Universidade Internacional da Flórida, em Miami, nos EUA, estão trabalhando em mecanismos que podem evitar (ou minimizar) o que eles chamam de “dados envenenados” de inteligência artificial.
Em um artigo no site The Conversation, Hadi Amini e Ervin Moore relembram o caso de envenenamento do chatbot Tay, da Microsoft. Poucas horas após o lançamento, em 2016, usuários começaram a alimentar o sistema com termos inapropriados — palavras que foram repetidas por Tay e acabaram assustando os demais clientes. A ferramenta precisou ser desativada e a empresa se desculpou publicamente pelo ocorrido.
Dá para se proteger?
Atualmente, a dupla está focando em medidas que priorizam o aprendizado federado, um tipo de abordagem que permite que os modelos de IA sejam treinados a partir de fontes descentralizadas, sem coletar dados em um único local.
Segundo os autores, esse conceito oferece uma “camada valiosa de proteção”, já que eventuais informações contaminadas não afetariam o modelo de IA como um todo. Ainda assim, o sistema continua vulnerável, caso as informações sejam agregadas.
A solução mais popular para esse tipo de problema, de acordo com o artigo, é o blockchain. A tecnologia é capaz de registrar de forma transparente a maneira como os dados são compartilhados e verificados.
Leia Mais:
- Por que chatbots erram… e não sabem explicar o motivo?
- Meta AI: documento interno expõe brechas para conteúdo sexual e racista
- Falta de regras para IA ameaça direitos humanos na Austrália, diz comissária
Como funciona na prática?
Treinamentos de IA protegidos por blockchain podem ajudar no processo de identificação de anomalias que envenenam os dados (talvez antes mesmo de o problema se espalhar pelo modelo).
Além disso, blockchains são formadas por blocos interligados que “conversam entre si”: se uma rede detectar um padrão desconhecido, ela poderá “avisar” as demais. Sua estrutura com data e hora facilita o rastreio de entradas envenenadas, facilitando a reversão do dano.
Os autores criaram uma ferramenta baseada no aprendizado federado e que aplica blockchain para evitar a contaminação de dados usados em modelos de IA. Eles garantem que agentes mal-intencionados foram eliminados do processo de treinamento por meio de uma técnica de detecção de outliers.
O artigo com detalhes da pesquisa foi publicado no periódico científico IEEE Transactions on Artificial Intelligence. “Este artigo apresenta um modelo de aprendizado federado entre dispositivos que garante confiabilidade, imparcialidade e autenticidade no processo de treinamento do aprendizado federado subjacente”, escrevem.
O post Dados ‘envenenados’ podem comprometer segurança da IA apareceu primeiro em Olhar Digital.