Meta considera “retrocesso” proibição do uso de dados para treinar IA
O governo determinou que a Meta suspenda política que usa dados pessoais dos usuários no treinamento de Inteligência Artificial (IA)
atualizado
Compartilhar notícia
A Meta, empresa de Mark Zuckerberg, responsável pelo Facebook, Instagram e WhatsApp, considerou um “retrocesso” decisão do Ministério da Justiça e Segurança de mandar suspender, imediatamente, a nova política de privacidade da companhia, que usa dados pessoais dos usuários no treinamento de Inteligência Artificial (IA) generativa. As informações seriam destinadas para compor banco de dados usados pelas IAs para gerar respostas automatizadas.
A Autoridade Nacional de Proteção de Dados Pessoais (ANPD), vinculada ao ministéro, considerou que o uso de dados pessoais para fins de treinamento de sistemas de IA provoca “risco iminente de dano grave e irreparável ou de difícil reparação aos direitos fundamentais dos titulares afetados”.
A decisão foi publicada na manhã desta terça-feira (2/7) no Diário Oficial da União e prevê multa de R$50 mil por dia em caso de descumprimento da determinação.
A empresa tem cinco dias úteis para acatar a medida. Ao fim do prazo, devem ser apresentadas documentações que comprovem mudança na Política de Privacidade dos serviços da empresa e uma declaração assinada por representante legal atestando que o uso dos dados foi suspenso.
Em nota, a Meta informou que cumpre todas as decisões, leis e regulações de privacidade no Brasil, e ressaltou ao Metrópoles que a decisão da ANPD é “um retrocesso para a inovação e a competividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”.
A empresa mostrou-se desapontada com a determinação. “Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos”, alegou a empresa.
Treinamento de IA
Em 4 de junho, a Meta informou a União Europeia e o Reino Unido de que a nova política de privacidade da empresa possibilitava o uso de dados dos usuários no treinamento de IAs. Com repercussão negativa, a Meta voltou atrás e adiou a mudança na Europa, mas não no Brasil.
Ao ser acionada pelo Instituto de Defesa de Consumidores (Idec) contra a nova política de privacidade de seus serviços, a Meta alegou que o uso das informações para treinamento de uma inteligência artificial é de seu legítimo interesse, bem como de seus usuários e outras pessoas.
“Estamos comprometidos em desenvolver a inteligência artificial na Meta — nossa coleção de recursos e experiências generativas de inteligência artificial junto com os modelos que os alimentam — de forma segura, responsável e atendendo as regulações de privacidade no Brasil”, detalhou a companhia, ao g1, em 23 de junho.
Com o uso de grandes quantidades de dados de usuários, a IA seria capaz de analizar as informações e gerar conteúdo por conta própria.