O Brasil impediu que o Meta usasse postagens de brasileiros no Instagram e no Facebook para treinar seus modelos de inteligência artificial (IA).
Isso aconteceu semanas depois que a empresa abandonou planos semelhantes de usar postagens de usuários do Reino Unido e da Europa para o mesmo propósito.
Na terça-feira, a Agência Nacional de Proteção de Dados (ANPD) informou que suspenderia imediatamente a mais recente política de privacidade da Meta, que permite treinar modelos de IA generativos, como chatbots, com base em postagens de seus usuários.
Um porta-voz da Meta disse à BBC que a empresa estava “decepcionada com a decisão”, acrescentando que sua abordagem estava em conformidade com as leis de privacidade locais.
“Este é um retrocesso para a inovação, a competição no desenvolvimento de IA e mais atrasos na disponibilização dos benefícios da IA para as pessoas no Brasil”, acrescentou a empresa.
A Meta tem um mercado significativo no Brasil. Há 102 milhões de usuários do Facebook e mais de 113 milhões de usuários do Instagram no país.
A ANPD afirmou ter atuado diante do “risco iminente de dano grave e irreparável, ou de dificuldade de reparação de direitos fundamentais dos afetados”. [account] detentores”.
A Meta recebeu cinco dias úteis da decisão da ANPD para mostrar que alterou sua política de privacidade para excluir o uso de informações pessoais encontradas em postagens públicas para treinar IA generativa. Se não cumprir, enfrentará uma multa diária de R$ 50.000 (£ 6.935).
A política atualizada da empresa também foi foco de análise no Reino Unido e na União Europeia (UE).
De acordo com as mudanças na política de privacidade, que entrariam em vigor na região em 26 de junho, as informações dos usuários do Meta seriam usadas para “desenvolver e melhorar” seus produtos de IA.
Na Europa, a mudança de política incluiria postagens, imagens, legendas de imagens, comentários e histórias que usuários maiores de 18 anos compartilharam com um público no Facebook e Instagram, mas não mensagens privadas.
Mas isso foi suspenso depois que a Meta disse ter recebido uma solicitação da Comissão Irlandesa de Proteção de Dados (DPC) em nome de outras partes interessadas europeias para adiar seu treinamento de grandes modelos de linguagem (LLMs).
LLMs são um tipo de inteligência artificial que alimenta chatbots, como o ChatGPT da OpenAI e o Gemini do Google.
Em 14 de junho, quando anunciou o atraso, a Meta disse que isso era um “passo para trás” para a IA na Europa.
No entanto, a Meta decidiu prosseguir com a mudança de política no Brasil.
Pedro Martins, da Data Privacy Brasil, comemorou a decisão da ANPD. Ele disse à BBC que havia uma discrepância entre as medidas de proteção de dados da Meta para seus usuários brasileiros e europeus.
A Meta havia planejado usar postagens de crianças e adolescentes brasileiros para treinar seus modelos de IA, disse ele, enquanto na Europa ninguém com menos de 18 anos teria suas postagens usadas.
O regulador de proteção de dados do Brasil também descobriu que dados pessoais encontrados em postagens de crianças e adolescentes poderiam ser coletados e usados para treinar os sistemas de IA da Meta, o que poderia violar a lei de proteção de dados do país.
Além disso, disse o Sr. Martins, na Europa as medidas que os usuários podem tomar para impedir que a Meta use informações pessoais são mais simples do que no Brasil, onde, segundo ele, podem ser necessários até oito passos para que os usuários bloqueiem a empresa de usar suas postagens.
A BBC pediu que a Meta respondesse à alegação de que havia planejado usar postagens de crianças e adolescentes brasileiros para treinar seus modelos de IA e se impôs medidas mais onerosas para a exclusão de usuários no Brasil.