A farra do fake: OpenAI cria (e limita) uso de recurso que clona vozes
Startup que lançou o ChatGPT mostrou, com restrições, nova ferramenta de inteligência artificial. Confira o potencial e os riscos do sistema
atualizado
Compartilhar notícia
A OpenAI, a empresa focada em inteligência artificial (IA) que criou o ChatGPT, divulgou nesta semana os primeiros resultados de uma ferramenta que clona, em tese “à perfeição”, vozes humanas – ou seja, sem aquele som entre o metálico e a taquara rachada.
Detalhes do recurso, chamado Voice Engine, foram apresentados a um grupo de apenas dez desenvolvedores. Isso porque há o temor de que a nova engenhoca possa dar vazão à uma avalanche de fake news (ou deep fakes, como são chamadas as mentiras de última geração, produzidas com o auxílio da IA).
A plataforma pode criar versões sintéticas a partir de uma amostra de 15 segundos da voz original. E faz isso mantendo as nuances emotivas. Há mais. O sistema consegue converter falas tanto no mesmo idioma do locutor como reproduzir as mesmas mensagens em outras línguas.
“A implantação em pequena escala estão ajudando a informar nossa abordagem, salvaguardas e pensamentos sobre como o Voice Engine poderia ser usado para o bem em vários setores”, informou a OpenAI, em uma postagem em blog de seu site, chamada “Navegando pelos desafios e oportunidades das vozes sintéticas”.
Usos do bem
Na publicação, a OpenAI traz uma série de potenciais usos “do bem” para a ferramenta Voice Engine, que começou a ser desenvolvida em 2022. São apresentados recursos para a assistência a pessoas que não sabem ler ou tem problemas com a fala. O blog traz ainda um exemplo impressionante de um texto lido pela mesma voz feminina em espanhol, mandarim, alemão, francês e japonês (confira neste link).
A OpenAI, contudo, também faz ressalvas sobre o uso do dispositivo. “Reconhecemos que gerar um discurso que se assemelhe à voz das pessoas acarreta sérios riscos, especialmente importantes num ano eleitoral (caso das eleições presidenciais neste ano nos Estados Unidos)”, diz a companhia. Ela observou que está envolvendo parceiros de diversos governos e de setores como mídia, entretenimento, educação e sociedade civil para “garantir a incorporação de comentários” à medida que a ferramenta é construída.
Medidas preventivas
A empresa defende medidas preventivas contra o uso indevido do sistema. Elas incluem a eliminação progressiva da autenticação baseada em voz como padrão de segurança para acesso a contas bancárias e a outras informações confidenciais.
Isso além da difusão de informações para o público em geral sobre a capacidade e limitações das tecnologias de IA, o que abrange a possibilidade de conteúdo enganoso. Além disso, a empresa recomenda o desenvolvimento de técnicas de rastreamento da origem do conteúdo audiovisual, para que fique claro quando alguém está interagindo com uma pessoa ou com uma máquina com dotes de IA.
Fake notória
Há registro de ao menos um caso notório do uso indevido de tecnologias de IA para falsificar vozes. Em um telefonema dado em janeiro, o presidente Joe Biden encorajou os eleitores de New Hampshire a não votar nas primárias do estado americano. “É importante que você guarde seu voto para a eleição de novembro…Votar nesta terça-feira apenas ajudará os republicanos em sua tentativa de eleger Donald Trump novamente”, disse a voz. Era tudo mentira, óbvio, produzida com a ajuda de IA.