Meta: governo proíbe uso de dados dos usuários para treinamento de IA
A empresa Meta, responsável pelo Facebook, Instagram e WhatsApp, tem prazo de cinco dias para suspender uso de dados dos usuários
atualizado
Compartilhar notícia
O Ministério da Justiça e Segurança determinou que a Meta — empresa de Mark Zuckerberg, responsável pelo Facebook, Instagram e WhatsApp — suspenda, imediatamente, a nova política de privacidade da companhia, que usa dados pessoais dos usuários no treinamento de Inteligência Artificial (IA) generativa. Os dados seriam usados para compor banco de dados usados pelas IAs para gerar respostas automatizadas.
A decisão foi publicada na manhã desta terça-feira (2/7) no Diário Oficial da União e prevê multa de R$50 mil por dia em caso de descumprimento, “em virtude do risco iminente de dano grave e irreparável ou de difícil reparação aos direitos fundamentais dos titulares afetados.”
A empresa tem cinco dias úteis para acatar a medida. Ao fim do prazo, devem ser apresentadas documentações que comprovem mudança na Política de Privacidade dos serviços da empresa e uma declaração assinada por representante legal atestando que o uso dos dados foi suspenso.
Por meio de nota, a Meta afirmou estar desapontada com a decisão da Autoridade Nacional de Proteção de Dados Pessoais (ANPD), vinculada ao Ministério da Justiça. “Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos”, disse a empresa.
A Meta ainda ressaltou ao Metrópoles que a abordagem cumpre com as leis de privacidade e regulações no Brasil. “Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, ressaltou a Meta.
Treinamento de IA
Em 4 de junho, a Meta informou a União Europeia e o Reino Unido de que a nova política de privacidade da empresa possibilitava o uso de dados dos usuários no treinamento de IAs. Com repercussão negativa, a Meta voltou atrás e adiou a mudança na Europa, mas não no Brasil.
Ao ser acionada pelo Instituto de Defesa de Consumidores (Idec) contra a nova política de privacidade de seus serviços, a Meta alegou que o uso das informações para treinamento de uma inteligência artificial é de seu legítimo interesse, bem como de seus usuários e outras pessoas.
“Estamos comprometidos em desenvolver a inteligência artificial na Meta — nossa coleção de recursos e experiências generativas de inteligência artificial junto com os modelos que os alimentam — de forma segura, responsável e atendendo as regulações de privacidade no Brasil”, detalhou a companhia, ao g1, em 23 de junho.
Com o uso de grandes quantidades de dados de usuários, a IA seria capaz de analizar as informações e gerar conteúdo por conta própria.