metropoles.com

Eleições, IA e fake news: o complexo desafio do marketing

Fraudes na internet convocam cadeia de publicitários, publishers e redes sociais a unirem-se para preservar a qualidade do digital

atualizado

Compartilhar notícia

sesame/Getty Images
Eleições, IA e fake news o complexo desafio do marketing – Metrópoles
1 de 1 Eleições, IA e fake news o complexo desafio do marketing – Metrópoles - Foto: sesame/Getty Images

A proximidade das eleições municipais de 2024 no Brasil desperta incertezas a toda a cadeia de anunciantes, publishers e gestores de redes sociais sobre a provável enxurrada de conteúdos com mensagens acaloradas, polêmicas e desinformações.

O Tribunal Superior Eleitoral (TSE) determinou, em fevereiro, uma série de normas para a propaganda política na internet, incluindo a proibição de deep fakes e a obrigatoriedade de avisos para conteúdos gerados com IA, e também impôs o monitoramento em tempo real de anúncios políticos impulsionados durante o período de campanha.

Os impactos do período eleitoral sobre os anúncios digitais têm sido um tópico recorrente nas minhas conversas com anunciantes.

Eles sabem da influência que os consumidores mais engajados podem exercer sobre a imagem e reputação das marcas, assim como da vital importância de se apoiar sites de conteúdos e notícias, e da força incontrolável que têm as redes sociais para disseminar informações a qualquer parte do mundo.

Diante desses fatores, como então evitar que os anúncios digitais acabem indevidamente posicionados ao lado de conteúdos impróprios ou de desinformações.

Em outras palavras, evitar crises de imagem e reputação e desperdiçar investimento com campanhas mal distribuídas?

Desinformações em massa

Para ilustrar o potencial da ameaça, uma pesquisa do Instituto Locomotiva apontou que nove em cada 10 brasileiros admitem já ter acreditado em conteúdos falsos.

O maior receio desse público, conforme a pesquisa, é que a disseminação de notícias falsas promova a “eleição de maus políticos”- preocupação principal de 26% dos entrevistados.

Embora dois terços (63%) tenham dito que confiam em sua própria capacidade de identificar informações verdadeiras e falsas em um conteúdo, a experiência de ser enganado provoca emoções negativas, resultando em sentimentos de “ingenuidade” (35%), “raiva” (31%) e “vergonha” (22%).

Equilibrar segurança da marca com a promoção de campanhas de impacto tem sido um grande desafio para o setor de marketing.

Segundo o estudo “O Cenário de Brand Safety”, da IAS, 75% dos consumidores se disseram menos inclinados a comprar de marcas com anúncios em páginas notórias por veicularem desinformações enquanto que 72% disseram considerar que as próprias marcas são responsáveis pelos tipos de conteúdo na internet ao lado dos quais os anúncios digitais são posicionados.

Incertezas em escala

Os riscos de as fake news interferirem no processo eleitoral brasileiro canalizaram a atenção do Congresso Nacional para um longo debate sobre a regulamentação da distribuição de conteúdo digital.

Um projeto conhecido como a “Lei das Fake News” revelou as várias camadas de complexidade do tema, e levou o IAB Brasil a emitir um posicionamento no qual afirmou que a regulamentação da maneira como havia sido proposta não levava em conta a diversidade de agentes nesse mercado, podendo ocasionar novos problemas, em vez de mitigá-los.

Entre outros pontos, a entidade manifestou preocupação com definições sobre mídia programática, responsabilidades comerciais e novas regras para as empresas estrangeiras, medidas que poderiam desequilibrar o mercado publicitário.

Outro projeto de lei, proposto pelo Senado, visa a proibir a veiculação de anúncios digitais em sites que promovem notícias falsas e discurso de ódio— além de penalizar com multas as empresas de mídia programática que não cumprirem a regra, entre outras medidas.

Conforme a definição da Aliança Global para Mídia Responsável (GARM), considera-se desinformação um conteúdo comprovadamente inverídico ou alguma informação enganosa gerada de forma deliberada para causar danos a usuários ou à sociedade.

Da perspectiva do anunciante, ambos os casos configuram risco de Brand Safety (Segurança de Marca), com um impacto negativo em potencial para o posicionamento perante os consumidores.

O clima de desconfianças sobre os ambientes on-line despertou debates com relação a medidas e critério efetivos para a segurança de marca, fazendo com que muitos anunciantes removessem campanhas de diversos portais de conteúdos e notícias – inclusive os de boa reputação.

Esse novo cenário exige uma abordagem menos linear para o enfrentamento de ameaças on-line, principalmente quando se somam às desinformações e deep fakes outras adoções subversivas da IA – como para dar sofisticação às chamadas fraudes de anúncios, termo para atividades deliberadas para captação de anúncios com o objetivo de obter monetização, desviando-os do contexto e audiência reais – com a geração de páginas com características e aparências muito mais similares às reais.

Antídoto

As abordagens mais eficazes contra as fraudes de anúncios e uma melhor gestão de Brand Safety consistem na adoção da própria IA e de machine learning.

Elas têm sido empregadas no combate a fraudes, a partir de recursos como a análise de sentimento do usuário, que permite aos anunciantes identificarem nuances sobre posicionamento das mídias e sobre os conteúdos nos entornos, de forma a orientar decisões dos operadores.

A partir desses recursos, o estudo Election Lab, da IAS, verificou que os dias que antecedem grandes eventos políticos, como as prévias partidárias ou debates de candidatos, produzem picos de desinformações ligadas ao noticiário.

Além disso, as impressões sobre os conteúdos partidários alcançam picos de sentimento negativo.

Insights desse tipo permitem planejamento e atenção redobrada pelos gestores de campanhas nos períodos de maior risco.

Entre os recursos mais utilizados para combater ameaças on-line está o “bloqueio de palavras-chave”, uma abordagem de exclusão que impede o posicionamento de mídias junto a conteúdos que incluam os termos ou expressões previamente determinadas.

Embora esse método tenha ganhado popularidade, a prática resulta na identificação objetiva das palavras-chave, sem discernir contextos, sentimentos e emoções. Como resultado, as campanhas perdem alcance e acabam penalizando criadores de conteúdos e portais de notícias responsáveis, que teriam alta relevância para os consumidores.

Um dos principais aprendizados no mercado da publicidade é que parar de experimentar significa também parar de melhorar.

Pela preservação do ecossistema digital, cabe a nós enquanto setor trabalharmos em conjunto na busca por abordagens adequadas e ponderadas para evitar a desinformação, sem penalizar os publishers comprometidos com a qualidade.

É preciso capacitar anunciantes, publishers e plataformas a identificarem as notícias falsas de maneira ágil, e impedirem a disseminação.

Associações globais, como a Global Alliance for Responsible Media (GARM), podem nos orientar sobre os melhores caminhos, ao mesmo tempo em que contaremos com as virtudes da IA e dos dados acionáveis para identificar e nos antecipar às ameaças para as marcas.

Marcia Byrne é managing director para latam da IAS.

 

Compartilhar notícia

Quais assuntos você deseja receber?

sino

Parece que seu browser não está permitindo notificações. Siga os passos a baixo para habilitá-las:

1.

sino

Mais opções no Google Chrome

2.

sino

Configurações

3.

Configurações do site

4.

sino

Notificações

5.

sino

Os sites podem pedir para enviar notificações

metropoles.comNotícias Gerais

Você quer ficar por dentro das notícias mais importantes e receber notificações em tempo real?