A inteligência artificial pode até estar dominando o noticiário, mas quando o assunto é publicidade, o bom e velho “toque humano” ainda reina.
E não somos nós que estamos dizendo, quem trouxe esse retrato foi a Ipsos, com o estudo AI Monitor 2025, realizado em 30 países, incluindo o Brasil.
Spoiler: o brasileiro gosta de criatividade com CPF.
O que o estudo mostrou (e o que isso nos diz como agência)
A pesquisa revelou que 62% dos consumidores brasileiros preferem campanhas publicitárias criadas por pessoas, contra apenas 22% que optam por peças feitas com IA. E isso vale não só para os comerciais clássicos de TV, mas também para o conteúdo de plataformas como TikTok e YouTube.
Ou seja: mesmo com toda a potência das ferramentas generativas, a audiência ainda sente falta de um olhar mais humano, de ideias que carregam contexto, emoção, repertório e subjetividade, tudo aquilo que é difícil de sintetizar em prompts.
Apesar dos avanços impressionantes da IA, como a capacidade de gerar textos coerentes, criar imagens hiper-realistas e até roteiros inteiros em segundos, a sensação de autenticidade e intenção consciente ainda escapa dos algoritmos.
Ferramentas como GPT-4o, Claude e Gemini têm aprendido a simular tons de voz, adaptar-se a contextos culturais e até manter coerência narrativa em longos textos, mas ainda tropeçam em nuances sutis, referências contextuais e naquilo que só o “calo de quem viveu” consegue expressar.
Outro desafio latente está na consistência editorial com propósito. A IA consegue responder, informar e até entreter, mas falta à maioria dos conteúdos gerados artificialmente aquele algo a mais: a visão original, a tensão criativa, a contradição bem colocada, características que surgem da vivência, da bagagem subjetiva e até da intuição humana.
Em resumo, a IA já escreve bem. O que ela ainda não consegue é escrever com verdade, ou pelo menos, convencer a maioria de que aquilo é verdade. E no marketing, onde criar conexão emocional é parte essencial da estratégia, isso faz toda diferença.
👉 Precisa melhorar a produção de conteúdo para sua empresa? Confira nosso artigo sobre gestão de redes sociais
E quando a Inteligência Artificial ajuda, mas não domina?
O estudo também traz nuances importantes: 35% dos entrevistados dizem confiar mais em empresas que usam IA para melhorar imagens de produtos, por exemplo.
Isso mostra que o problema não é o uso da tecnologia em si, mas a forma como ela é aplicada e comunicada.
Em criações mais técnicas, como descrição de produtos, instruções ou até avaliações, o uso da IA é mais bem aceito. Mas, quando falamos em conteúdo criativo, como filmes, textos jornalísticos ou roteiros de séries, a preferência pela criação humana continua soberana.
E não é pouca coisa: 67% preferem notícias escritas por pessoas e 61% são contra IA criando conteúdo para sites de marketing.
O paradoxo do futuro: mais IA, mas mais desconfiança
A pesquisa da Ipsos escancara uma contradição que está cada vez mais evidente: o público sabe que a inteligência artificial vai dominar muitas frentes da criação de conteúdo e, mesmo assim, continua desconfiando profundamente disso.
Enquanto 72% dos brasileiros acreditam que a IA terá papel decisivo na publicidade, o que também se vê é uma inquietação crescente com os efeitos colaterais dessa automatização.
- 72% acreditam que a IA vai transformar profundamente a publicidade nos próximos anos;
- 70% acham provável que anúncios sejam cada vez mais personalizados por inteligência artificial;
- 69% apostam que ela será usada para escrever roteiros de filmes e séries.
Mas… tem um porém:
- 68% também temem o uso de IA em vídeos políticos manipulados;
- E a mesma porcentagem acha provável seu uso para campanhas de desinformação.
Ou seja, é como se o consumidor dissesse: “Eu sei que isso vai acontecer. Mas não sei se tô confortável com isso.”
E não é paranoia: a história recente tem mostrado por que há motivos legítimos para o pé atrás.
Deepfakes e fake news: quando o medo é real
Um dos maiores catalisadores da desconfiança pública em relação à IA é o uso de ferramentas generativas para produzir conteúdo falso com aparência de verdade, os famigerados deepfakes.
Casos como o vídeo falso de Barack Obama (criado em 2018, ainda como experimento) ou as montagens recentes envolvendo políticos brasileiros durante o período eleitoral acenderam o alerta global.
E isso vai além da política: celebridades, influenciadores e até campanhas publicitárias têm sido vítimas (ou cúmplices) desse tipo de manipulação.
O caso da campanha da Consul em Cannes, por exemplo, em que a agência DM9 usou deepfake sem transparência para ganhar um prêmio publicitário, causou alvoroço no setor e trouxe a discussão à tona: quando a IA é usada para manipular a realidade e conquistar atenção ou autoridade, onde está o limite ético?
Inteligência Artificial e desinformação: um terreno fértil
Segundo um levantamento da MIT Technology Review, conteúdos falsos gerados por IA têm seis vezes mais chance de viralizar do que conteúdos verificados. O motivo? Emoção, exagero e aparência de verdade, uma combinação perfeita para o caos informativo.
A OpenAI, por exemplo, já anunciou restrições ao uso político do ChatGPT após detectar tentativas de manipulação em escala, inclusive com estratégias de microtargeting via ferramentas de IA para influenciar votações.
E como ficam as marcas nesse cenário? No meio do fogo cruzado.
O público começa a se perguntar: “essa imagem é real?”, “esse depoimento é de verdade?”, “essa história foi vivida ou inventada por um robô?” e essa dúvida, mesmo que silenciosa, abala a confiança na marca.
A confiança ainda é uma construção humana
Se antes confiávamos por instinto, hoje o consumidor está mais crítico, mais cético e com ferramentas para investigar.
O botão “verificar com IA” do Google Search Generative Experience, por exemplo, mostra que o próprio ecossistema digital já reconhece que a abundância de informação gerada não vem acompanhada de credibilidade automática.
Por isso, o paradoxo se instala: sabemos que a IA vai tomar espaço, mas queremos que ela seja uma assistente, não uma impostora.
Em outras palavras, o público aceita bem a IA que organiza o feed, otimiza o tempo, sugere caminhos. Mas desconfia (com razão) da IA que finge ser humana para persuadir, vender ou influenciar sem avisar.
E é aqui que as marcas precisam fazer uma escolha clara: usar IA como aliada da transparência ou correr o risco de virar manchete pelos motivos errados.
O que as marcas precisam entender
Se tem algo que a pesquisa da Ipsos deixa claro é que o uso da inteligência artificial por si só não é um problema, o problema está na forma como ela é usada (e percebida).
A fala da Priscilla Branco, diretora da Ipsos Brasil, é certeira: não existe receita de bolo. Cada marca vai precisar construir sua própria política de uso de IA, levando em conta sua estrutura, seus valores e, principalmente, a relação que quer cultivar com o público.
E isso lembra muito outro momento recente da comunicação digital: a virada da privacidade dos dados. Lembra quando o marketing digital era movido a cookies e retargeting sem limites?
Pois é. A maré virou.
A entrada em vigor da LGPD (Lei Geral de Proteção de Dados) no Brasil e a GDPR na Europa forçaram as empresas a repensarem como lidavam com os dados dos usuários. O público começou a exigir mais clareza sobre o que estava sendo coletado, pra quê e com que direito. A transparência virou diferencial e, depois, obrigação.
A Apple foi um divisor de águas nessa transformação. Com o iOS 14.5, a empresa passou a exigir que os apps pedissem permissão explícita para rastrear os dados dos usuários.
Resultado? Uma quebradeira generalizada nos bastidores da publicidade digital. Plataformas como Facebook e Instagram viram suas estratégias de anúncios baseados em comportamento ficarem de joelhos e quem não se preparou, sentiu o baque no bolso.
Com a IA, o caminho deve ser parecido. Ainda não temos uma “LGPD da inteligência artificial”, mas já existe pressão do público, de especialistas e de governos para que as marcas assumam responsabilidade sobre o uso da tecnologia e estabeleçam limites éticos claros.
Algumas atitudes práticas que as marcas já deveriam considerar:
- Criação de políticas internas de uso de IA, incluindo diretrizes para criação de conteúdo, limites de automação e critérios para revisão humana;
- Comitês internos de ética em IA, com participação multidisciplinar (marketing, jurídico, tecnologia, reputação);
- Identificação clara quando o conteúdo for gerado com auxílio de IA, seja em campanhas, imagens, roteiros ou interações automatizadas;
- Auditorias regulares de risco e impacto reputacional, pensando especialmente no uso de IA em contextos sensíveis (política, saúde, inclusão, etc.);
- E claro, formação contínua dos times, para que todos saibam onde a IA ajuda — e onde ela pode atrapalhar (ou até comprometer a marca).
No fim das contas, a lição é simples: não é porque dá pra fazer, que a gente deve fazer.
As marcas que entenderem isso mais cedo sairão na frente. E não só tecnicamente, sairão na frente na construção de confiança, que é o ativo mais precioso (e mais difícil de recuperar) em tempos de ruído, fake news e conteúdo automatizado.
E o que isso tudo significa para nós, aqui na Auro?
Significa que a gente vai continuar usando a IA, sim, como apoio, como ferramenta, como acelerador. Mas sem abrir mão do que faz sentido de verdade:
👉 Estratégia com contexto.
👉 Conteúdo com personalidade.
👉 Marcas com alma, e não só com algoritmo.
No fim das contas, a IA pode até escrever, mas quem cria conexão de verdade ainda somos nós, humanos. E parece que o público segue preferindo assim. 😌
Curtiu o conteúdo? Aproveita e confere outros posts do nosso blog, tudo feito com inteligência (às vezes artificial, mas sempre com intenção).