Por que a Europa está em guerra com o ChatGPT
Crescimento do ChatGPT e IA generativa chamou atenção de reguladores na UE, que caminha para ter primeira regulação do mundo sobre o tema
atualizado
Compartilhar notícia
A União Europeia, que já passou neste ano regulação ampla sobre big techs, avança agora sobre a inteligência artificial. O uso cada vez mais corriqueiro do ChatGPT, mecanismo da chamada “IA generativa”, esquentou entre reguladores europeus um antigo projeto sobre como regular os serviços de IA oferecidos aos usuários.
O Parlamento europeu aprovou uma proposta inicial de lei sobre o tema em junho, marcando as primeiras regras do mundo sobre regulação de inteligência artificial. Bruxelas deve bater o martelo sobre o texto até o fim do ano e, depois disso, o projeto também terá de ser aprovado ainda nos parlamentos de cada país-membro, a quem caberá supervisionar a aplicação na prática.
Oficialmente, a proposta surgiu no Parlamento ainda em 2021, quando outros serviços com inteligência artificial já pipocavam, mas ganhou força com o avanço da IA generativa nos últimos meses. A tecnologia é a base do ChatGPT, lançado pela OpenAI neste ano, e de outros futuros produtos, como o Bard, ferramenta piloto desenvolvida pelo Google e ainda não disponível na Europa (e nem no Brasil).
Só o site que hospeda o ChatGPT – um modelo de IA que gera conteúdo a partir de estímulos dos usuários –, já recebe quase 2 bilhões de visitas por mês.
“Nós, como União, estamos fazendo algo que considero verdadeiramente histórico”, afirmou o parlamentar europeu Dragos Tudorache, da Romênia e um dos líderes do debate sobre o AI Act. “Não queremos vigilância em massa, não queremos pontuação social, não queremos policiamento preditivo na União Europeia, ponto final. Isso é o que a China faz, não nós”, chegou a dizer Tudorache.
As regras da Europa para IA
Em linhas gerais, o texto europeu – chamado de EU AI Act no termo em inglês – propõe que os sistemas de IA sejam analisados e classificados de acordo com seu risco.
São quatro grupos de risco: inaceitável, alto, limitado e mínimo. A UE afirma que o objetivo é que os sistemas de inteligência artificial usados no bloco “sejam seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do ambiente.”
As regras são mais rigorosas para os sistemas considerados de alto risco, como aqueles em setores críticos, incluindo saúde, transporte e segurança.
Como já ocorre no Digital Services Act, que a UE aprovou para regular redes sociais e outros serviços na internet, a tentativa de transparência é a base da disputa no AI Act: para os serviços classificados como de riscos “inaceitáveis”, os reguladores exigem entender como o sistema é feito e que tipo de parâmetros usa na geração das respostas. De posse dessas informações, reguladores autorizarão ou não o lançamento comercial.
As multas na UE poderão chegar a até 6% do faturamento global das companhias, com limite de US$ 33 bilhões. A fiscalização, inicialmente, ficaria a cargo dos governos locais.
Temas ainda sem consenso
Embora o ChatGPT seja a bola da vez no debate, muitos desses temas já estavam no radar de especialistas há anos. Há na regra europeia, por exemplo, limitação do uso de informações de IA em lugares públicos, como dados biométricos e de reconhecimento facial, ou do uso de dados dos usuários para fins de saúde.
O CEO da OpenAI, Sam Altman, chegou a ameaçar retirar o ChatGPT da Europa às vésperas da votação inicial sobre o projeto, que chamou de tentativa de “super regulação”. Dias depois, após conversas com eurodeputados, voltou atrás e disse que “não tem planos de deixar a Europa”. “Mas há limites técnicos do que é possível”, disse.
Uma das preocupações globais sobre a nova fase da IA é a desinformação, por exemplo, mas Altman tem defendido que redes sociais são mais importantes nesse processo. Com a proximidade das eleições nos Estados Unidos em 2024, o tema também pode crescer fora da Europa. “Você pode gerar toda a desinformação que quiser com o GPT-4, mas se não for espalhado, não vai adiantar muito”, disse.
Há ainda uma infinidade de temas sem consenso sobre um modelo ideal, como os direitos autorais de escritores e artistas cujo material foi usado para treinar inteligências artificiais de empresas. Associações têm protestado sobre o tema na Europa nos últimos meses.
Com a necessidade de um acordo final entre Parlamento da UE e Comissão Europeia (o braço executivo do bloco) e, depois, um debate nos 27 membros da UE, a expectativa é que a regulação só entre em vigor em 2025. Mas regras europeias tendem a lançar as bases para outras regulações globais desde já.
No Brasil, o presidente do Senado, Rodrigo Pacheco (PSD-MG), apresentou em abril um projeto de lei que inclui um marco legal da inteligência artificial, unindo quatro textos anteriores que existiam sobre o tema. O projeto ainda não avançou na tramitação.
Desde 2017, ao menos 60 países já adotaram políticas públicas contemplando algum aspecto do uso de inteligência artificial, embora nenhuma com o direcionamento específico da nova proposta europeia. Apesar disso, no caso da UE e do próprio Brasil, leis já existentes, como a Lei Geral de Proteção de Dados (LGPD) brasileira, também afetarão os limites de uso e desenvolvimento de IA nos próximos anos.
Com o ChatGPT usado por mais de 100 milhões de usuários globalmente, o debate só deve aumentar – na Europa e no resto do mundo.