Governo manda Meta suspender, no Brasil, uso de dados de usuários para treinar lucidez sintético
Despacho da ANPD foi publicado nesta terça e prevê multa de R$ 50 milénio. Uso dos dados para treinar IA consta em novidade política de privacidade; Meta diz estar ‘desapontada’ com decisão. A Domínio Vernáculo de Proteção de Dados (ANPD) determinou que a Meta – big tech responsável pelo Facebook, Instagram e WhatsApp – suspenda a validade no Brasil da novidade política de privacidade da empresa sobre o uso dos dados pessoais dos brasileiros.
A decisão atinge especificamente a intenção da Meta de usar dados de usuários para “treinar” sistemas de lucidez sintético generativa – ou seja, para imaginar o banco de dados usado pelas IAs para gerar respostas automatizadas.
O g1 tenta contato com a Meta, que já defendeu a validade de sua política de dados em ocasiões anteriores (veja aquém).
O que a Meta diz sobre a coleta de dados para treinar IA e porquê desativar
Por que a prática está sendo questionada?
Porquê impedir Instagram e Facebook de usarem suas fotos para treinar IA
Meta passa a coletar dados das redes para IA. Saiba passo a passo para desativar
O despacho foi publicado no “Quotidiano Solene da União” desta terça-feira (2) e prevê multa de R$ 50 milénio por dia de descumprimento “em virtude do risco iminente de dano grave e irreparável ou de difícil reparação aos direitos fundamentais dos titulares afetados”.
A decisão foi tomada pelo Recomendação Diretor da ANPD, e o documento é assinado pelo diretor-presidente da mando, Waldemar Gonçalves. Segundo o despacho, a ordem é para cumprimento repentino.
No prazo de cinco dias, a partir de quando for intimada, a Meta deve apresentar ao governo:
documentação que ateste a mudança da Política de Privacidade dos serviços da empresa, para excluir esse trecho sobre o uso dos dados pessoais para treinar IAs generativas;
enunciação assinada por representante legítimo atestando que o uso dos dados foi suspenso.
Em nota, a Meta disse estar “desapontada” com a decisão da mando vernáculo e defendeu que a abordagem da empresa para a lucidez sintético está de harmonia com a legislação brasileira.
“Estamos desapontados com a decisão da ANPD. Treinamento de IA não é alguma coisa único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos,” diz o enviado.
“Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, prossegue a Meta.
Dados pessoais para ‘treinar’ IA
O caso ganhou atenção em 4 de junho, depois que a Meta informou na União Europeia e no Reino Uno que a sua política de privacidade passaria a prever a possibilidade de usar dados de usuários para treinar sua IA.
Com a repercussão negativa, a empresa voltou detrás e adiou a mudança da política na Europa – mas não fez o mesmo para o Brasil.
Quando o Instituto de Resguardo de Consumidores (Idec) acionou o governo contra a novidade política de privacidade desses serviços, a Meta afirmou que o uso das informações para treinar uma lucidez sintético é de seu legítimo interesse, muito porquê de seus usuários e outras pessoas.
“Estamos comprometidos em desenvolver a lucidez sintético na Meta – nossa coleção de recursos e experiências generativas de lucidez sintético junto com os modelos que os alimentam – de forma segura, responsável e atendendo as regulações de privacidade no Brasil”, disse a companhia ao g1 em 23 de junho.
Treinamentos de modelos de lucidez sintético envolvem o uso de grandes quantidades de dados e são necessários para que, em uma lanço seguinte, eles sejam capazes de estudar informações e até gerar teor por conta própria.
O passo a passo para desativar a coleta de informações no Instagram
g1
Grupo Orbe atualiza princípios editoriais para incluir uso de lucidez sintético