Por Brunno Attorre (*)

Recentemente, anunciantes estão se vendo cada vez mais preocupados com o problema conhecido como “brand safety”. Para os que não estão familiarizados com o termo, “brand safe” é o jargão utilizado para indicar se um conteúdo é próprio para uma marca anunciar, ou seja, conteúdos que não contém nada ofensivo ou que podem ser vistos com maus olhos pelos espectadores.

Esse problema era quase inexistente na época em que publicidade era um processo mais manual, conduzido apenas em revistas, outdoors ou na televisão: os anunciantes diziam onde seus anúncios deveriam ir sem a preocupação de que sua marca iria ser relacionada a algum objeto ou tema ofensivo.

Brunno Attorre – CTO da URU

No entanto, avançando para o tempo atual e com o surgimento de gigantes como Facebook e Google, que fazem toda a sua propaganda de forma automática e programática, esses anunciantes se encontram numa situação delicada. Ao invés de ter total controle editorial, muitas dessas marcas e patrocinadores deixaram essa tarefa para ser realizada por algoritmos e softwares que cuidam de todo o processo. O problema disso é que, apesar dessa estratégia ser mais dinâmica e atingir um maior mercado, alguns desses anunciantes começaram a ver suas propagandas em locais totalmente inusitados: não somente próximo de vídeos de terrorismo ou anti-semitismo mas, também, próximo de conteúdos que nenhuma marca quer ter sua identidade associada como drogas ou bebidas alcoólicas.

Como solução, os anunciantes tem duas opções: ou deixam de usar essas plataformas ou começam a utilizar novas tecnologias para prevenir campanhas publicitárias de aparecer em lugares indevidos. É óbvio que a segunda opção é muito mais atrativa e, recente avanços no campo de reconhecimento de imagens e de inteligência artificial, estão tornando essa opção cada vez mais viável.

Reconhecimento de imagem, por exemplo, já vem sendo utilizado por plataformas de mídia social para filtrar conteúdo impróprio. A empresa Facebook começou a testes do uso de inteligência artificial para marcar conteúdos impróprios em vídeos ao vivo e, recentemente, anunciou que o mesmo algoritmo será utilizado para filtrar conteúdo extremista da plataforma. O Google também começou a usar inteligência artificial para encontrar conteúdo impróprio e ajudar os anunciantes a filtrarem eles de suas campanhas.

No entanto, apesar desses serem passos na direção de uma solução mais concreta para o tema, marcas não podem depender apenas das plataformas para resolver seus problemas. Os anunciantes devem (e precisam) tomar medidas para validar esses resultados e proteger a identidade das marcas que são o coração de seus negócios.

Uma solução multi-plataforma

O que esses anunciantes precisam é de uma solução multi-plataforma, que vai além do que já é feito individualmente por cada plataforma, e que utilize reconhecimento de voz, de imagem e outros algoritmos de inteligência artificial criados especialmente com o propósito de filtrar conteúdo próprio para anúncios. Essas ferramentas devem não só identificar temas ofensivos (como propagandas extremistas) mas, também, conteúdos que irão, de certa forma, afetar determinada marca, seja por conter objetos questionáveis ou por não fazer parte da mensagem que marca quer passar. E, o mais importante, é necessário fazer isso em grande escala.

Um importante aspecto da utilização dessas tecnologias é que elas precisam ir além de defender as marcas contra conteúdo impróprio: elas precisam entender qual o contexto que a marca quer se apresentar para sua audiência. Basicamente, essas tecnologias precisam ter um entendimento profundo da identidade da marca e o que sua audiência gosta e preza. Imagine um mundo onde anunciantes não somente podem mostrar seus anúncios sobre o conteúdo “brand safe” mas, também, sobre o anúncio que terá mais impacto sobre seu público alvo.

Vamos observar um exemplo: uma marca de roupas esportivas está criando uma campanha no YouTube. Por mais populares que vídeos engraçados de gatos sejam, eles não são particularmente o melhor lugar para essa marca anunciar: enquanto algumas pessoas que assistam esses vídeos podem acabar comprando uma roupa dessa marca, não existe nenhuma ligação entre o conteúdo e o que está se tentando vender. Por outro lado, uma maneira extremamente efetiva de realizar a mesma campanha é criar uma publicidade que só será mostrada sobre vídeos de esporte no YouTube, todos automaticamente detectados por um algoritmo de inteligência artificial.

Entendendo o conteúdo

No final de contas, tudo se resume a um maior entendimento. Marcas precisam ter mais cuidado e entender o conteúdo sobre o qual seu logo ou sua mensagem estão sendo associados. Fazendo isso, e com o auxílio de novas tecnologias, anunciantes serão capazes de se proteger e criar campanhas mais direcionadas, solucionando não somente o famigerado problema de “brand safety” como, também, criando melhores maneiras de atingir seus consumidores.

(*) Brunno Attorre é Mestre em Ciências da Computação pela universidade de Cornell e, atualmente, é o CTO e um dos fundadores da URU, empresa de Nova York que utiliza visão computacional e inteligência artificial para criar uma plataforma inteligente que aproxima anunciantes e criadores de conteúdo. Antes da URU, Brunno trabalhou com engenharia de software na empresa Buscapé e no banco JP Morgan.

Deixe seu comentário

Por favor inclua seu comentário
Digite seu nome aqui