Uma marca pode ser conhecida e ainda ser invisível
Uma marca pode ser reconhecida em 99,4% das interações com o ChatGPT e, ainda assim, aparecer em apenas 3,32% das consultas de descoberta orgânica. A proporção é de 30 para 1. O número não vem de um deck de consultoria, mas de um estudo empírico publicado por Sharma no início de 2026 (arXiv:2601.00912), que mediu sistematicamente a distância entre o que os modelos de linguagem sabem sobre uma marca e o que eles recomendam quando o usuário busca, sem citar nomes, uma solução para um problema. Sharma chamou esse fenômeno de Discovery Gap — e ele é, hoje, a métrica mais incômoda para qualquer CMO que tenha aprovado orçamento de GEO no último ano.
Eu vi essa métrica antes do paper sair. Em fevereiro de 2026, rodando o prompt bank semanal da Brasil GEO contra cinco engines, encontrei o mesmo padrão em mais de cem marcas brasileiras: presença esmagadora quando o nome é citado diretamente, ausência quase completa quando o usuário descreve o problema sem nomear ninguém. A primeira reação foi de incredulidade. A segunda, de revisão profunda do que estávamos vendendo como serviço. Este ensaio é o registro dessa revisão.
A descoberta tem implicações desconfortáveis. A primeira é estatística: nos dados de Sharma, o GEO score — a métrica que a indústria adotou como termômetro de "otimização para IA generativa" — apresenta correlação praticamente nula (r ≈ 0) com a descoberta efetiva. Em outras palavras, ranquear bem nos benchmarks de GEO não significa ser descoberto. A segunda implicação é estrutural: o que prediz descoberta são variáveis que estão fora do controle imediato dos times de SEO técnico. Referring domains explicam parte da variância (r = +0,319). Presença em Reddit explica mais ainda (r = +0,395, p = 0,002). A terceira implicação é estratégica, e é o argumento central deste texto: a maioria dos times de marketing no Brasil ainda está otimizando uma camada que não decide o jogo.
A ruptura estrutural de 2025-2026
A tentação de tratar GEO como "SEO com chatbot" é compreensível e errada. Compreensível porque a interface — uma caixa de busca, uma resposta — preserva a aparência do paradigma anterior. Errada porque a camada de decisão mudou de lugar. No SEO clássico, o algoritmo do Google recuperava documentos e o usuário escolhia entre eles. No GEO/AEO, o modelo de linguagem recupera, sintetiza, hierarquiza e responde — e o usuário, na maior parte das vezes, não clica em nada. Essa diferença de arquitetura não é cosmética; ela altera o que conta como "vencer".
Quatro frentes de pesquisa, publicadas em sequência rápida entre meados de 2025 e o primeiro trimestre de 2026, redefinem as regras. A primeira é o framework GEO-16 (arXiv:2509.08919), que propõe dezesseis pilares estruturais para a otimização de páginas voltadas a recuperação por LLMs. O achado quantitativo é o que importa: páginas com G ≥ 0,70 e ao menos doze pilares preenchidos atingem 78% de taxa de citação cruzada entre engines. O mesmo trabalho mostra uma assimetria reveladora — Brave Summary opera em G = 0,727, enquanto Perplexity, percebido como referência de qualidade, fica em G = 0,300. A heterogeneidade entre engines é a regra, não a exceção, e ela tem consequências práticas para qualquer estratégia que pretenda ser "otimizada para IA" no singular.
A segunda frente é o trabalho de Volpini e colegas sobre dados estruturados ligados, que demonstra um ganho de +29,6% de acurácia em pipelines RAG quando páginas de entidade são enriquecidas com Schema.org granular e ligações semânticas explícitas. O estudo de Dang e colegas em LLM4Schema.org (Sage, 2025) complementa o quadro com um dado que deveria ser desconfortável para qualquer auditoria técnica brasileira: aproximadamente 75% das páginas web no corpus analisado não possuem qualquer marcação Schema.org. A camada estrutural, em outras palavras, está vazia na maioria dos sites — e, para um modelo que depende de pistas explícitas para resolver entidades, ausência é invisibilidade.
A terceira frente é institucional. A constituição da Agentic AI Foundation sob a Linux Foundation, em 2025, e a consolidação dos protocolos MCP (Model Context Protocol), A2A (Agent-to-Agent) e AP2 (Agent Payments Protocol), sinalizam que a camada de interoperabilidade entre agentes está deixando o domínio da experimentação para entrar no domínio da padronização. Quando um stack recebe governança de fundação, ele deixa de ser tendência e passa a ser infraestrutura.
A quarta frente é o trabalho que mais perturba a narrativa otimista da indústria de GEO: o C-SEO Bench, apresentado no NeurIPS 2025 (arXiv:2506.11097). Os autores testaram a maior parte das técnicas de "SEO conversacional" hoje vendidas como diferenciais e mostraram que, isoladas, a maioria delas não produz ganho consistente de citação. O que funciona é a combinação clássica — SEO sólido — somada a sinais nativos de GEO. O benchmark também documenta um efeito de soma zero quando muitos atores adotam as mesmas táticas simultaneamente: o ganho marginal colapsa.
Tomados em conjunto, esses quatro corpos de evidência não descrevem uma evolução incremental. Descrevem uma reconfiguração de qual camada importa, quem controla cada uma delas e como as três interagem. É a partir daqui que o Discovery Gap deixa de ser curiosidade estatística e passa a ser o sintoma central do problema.
O Discovery Gap e por que o GEO técnico, sozinho, é ornamental
O dado de Sharma merece ser lido devagar. 99,4% de reconhecimento contra 3,32% de descoberta orgânica. A marca está no modelo. O modelo a conhece. E, no entanto, quando o usuário pergunta "qual a melhor solução para X", a marca raramente aparece. A distância entre saber e recomendar é o ponto onde se localiza, hoje, a maior parte do desperdício de orçamento de marketing direcionado a IA generativa.
A explicação não é misteriosa, mas exige abandonar uma premissa confortável. A premissa é a de que otimizar a página — meta tags, headings, Schema, llms.txt — é suficiente para mover o ponteiro da descoberta. Sharma mostra que não é. O GEO score, construído justamente para medir o quão bem otimizada uma página está para LLMs, não correlaciona com descoberta (r ≈ 0). É uma métrica de higiene técnica, não de demanda capturada. As variáveis que correlacionam são outras, e elas não vivem dentro do site da marca: referring domains externos (r = +0,319) e presença em Reddit (r = +0,395, p = 0,002).
O peso do Reddit, em particular, merece atenção. Não é coincidência: as bases de treinamento e os pipelines de RAG de várias engines de IA atribuem a fóruns de discussão um peso desproporcional, porque essas plataformas oferecem o que sites institucionais raramente oferecem — linguagem natural de usuários reais resolvendo problemas reais, com sinais sociais de validação (votos, respostas, threads longas). Para um modelo de linguagem que precisa decidir o que é "bom" sem clicar em nada, o Reddit é, em larga escala, um proxy de relevância vivida. A implicação prática é direta: presença em comunidades não é mais tática de brand love; é infraestrutura de descoberta.
O C-SEO Bench reforça o ponto pelo lado oposto. Quando os autores testaram técnicas isoladas de otimização conversacional — reformulação de respostas, injeção de palavras-chave em formato de pergunta, padrões de citação favoráveis — encontraram resultados predominantemente nulos ou marginais. O que produziu ganho foi a combinação de SEO clássico bem executado com sinais de GEO; nenhum dos dois venceu sozinho. E, mais incômodo: à medida que a adoção das técnicas se generaliza, o ganho relativo diminui. Em equilíbrio competitivo, o GEO técnico é uma condição de paridade, não de vantagem.
O que isso significa, operacionalmente, para um time de marketing? Significa que a camada técnica precisa estar resolvida — Schema.org granular, llms.txt, JSON-LD, GEO-16 — porque sua ausência é penalizadora. Mas resolver a camada técnica não move o ponteiro da descoberta. Move-se o ponteiro da descoberta investindo em autoridade ganha externamente: domínios que linkam, comunidades que mencionam, fóruns que discutem. É a inversão do diagrama mental do SEO da década passada, em que a página era o ativo central e os backlinks eram o reforço. No GEO, a página é o reforço; o ativo é a presença distribuída em fontes que o modelo trata como confiáveis.
Há uma frase que sintetiza o achado e merece ser dita com nitidez: otimização técnica sem mídia ganhada é ornamental. Ela explica por que tantos projetos de GEO no Brasil entregam relatórios bonitos e nenhum movimento real em descoberta. E ela prepara o terreno para a próxima pergunta — afinal, quais fontes o modelo trata como confiáveis?
A nova economia da autoridade: 67% em vinte fontes
Se a descoberta depende de autoridade ganha, a pergunta seguinte é onde, exatamente, ganhá-la. A resposta é desagradável para quem cresceu com a tese de que "qualquer link de qualidade ajuda". O trabalho News Source Citing Patterns (arXiv:2507.05301, 2025) analisou padrões de citação dos principais modelos comerciais e encontrou um nível de concentração que rivaliza — e em alguns casos supera — o que se observa nos resultados orgânicos do Google. Nos modelos da OpenAI, vinte fontes respondem por 67,3% das citações. Não setenta. Vinte.
A concentração tem uma estrutura. As autoras documentam clusters intra-família de modelos com cosseno de similaridade superior a 0,67, enquanto a similaridade cruzada entre famílias (OpenAI, Anthropic, Google, Perplexity) cai para menos de 0,33. Isso quer dizer que modelos da mesma família citam fontes muito parecidas entre si, mas famílias diferentes citam universos parcialmente disjuntos. Otimizar "para a IA" no singular é, portanto, uma falácia de design: não existe uma IA. Existem ecossistemas de citação concorrentes, cada um com sua hierarquia particular de fontes legitimadas.
O complemento desse dado vem do estudo Source Coverage and Citation Bias (arXiv:2512.09483, 2025), que mediu o grau de sobreposição entre os domínios citados por LLMs e os domínios que aparecem em resultados tradicionais de busca. O achado é estrutural: 37% dos domínios citados por LLMs nunca aparecem em resultados orgânicos relevantes do Google. Há, portanto, um subconjunto significativo da autoridade da era agêntica que é invisível para qualquer auditoria de SEO tradicional. Times que medem visibilidade exclusivamente por rankings no Google estão, literalmente, cegos para mais de um terço do território que importa.
Junte os dois achados e a economia da autoridade muda de forma. Não basta construir backlinks; é preciso construir presença nos clusters específicos que cada família de modelo trata como autoritativa. Não basta aparecer no Google; é preciso aparecer no subconjunto de fontes que os pipelines de recuperação dos LLMs efetivamente consultam. E, dada a baixa correlação entre famílias, qualquer estratégia séria precisa ponderar múltiplas engines, não otimizar para uma só.
Há também uma consequência política, no sentido amplo do termo. Quando vinte fontes concentram dois terços das citações de uma família de modelos, qualquer marca que não esteja presente nessas vinte fontes — diretamente ou através de menção — opera em desvantagem estrutural. Isso não se resolve com content marketing de blog próprio; resolve-se com presença em veículos do cluster dominante, com participação em comunidades que esses veículos referenciam, com produção de pesquisa primária que esses veículos citam. É o retorno, em chave nova, da velha lógica das relações públicas — só que agora a audiência primária não é o jornalista, e sim o crawler que abastece o modelo.
A pergunta que executivos brasileiros precisam fazer aos seus times, em uma reunião próxima, é simples e dura: das vinte fontes mais citadas pelas engines em que nosso público pesquisa, em quantas estamos presentes? Se a resposta for "não sabemos" ou "menos de cinco", o problema de descoberta não está na página. Está na ausência de presença distribuída. E nenhuma reescrita de meta description vai resolvê-lo.
Comércio agêntico e a mudança da unidade de competição
Até aqui, o argumento foi sobre descoberta. Mas a próxima fronteira não é descoberta — é decisão. O relatório da McKinsey publicado em janeiro de 2026 sobre a Automation Curve in Agentic Commerce propõe seis níveis de automação no funil de compra, do nível 1 (assistência ao usuário humano) ao nível 6 (delegação total a agentes autônomos com mandato fiduciário). O ponto de inflexão está no nível 4: a partir dele, o agente passa a executar partes substanciais da decisão de compra com autonomia, e a unidade de competição deixa de ser o clique do usuário para ser o lugar da marca no plano contínuo do agente.
A frase merece ser desempacotada. No paradigma do clique, a marca competia por atenção em um momento singular — o usuário viu, considerou, escolheu. No paradigma agêntico, o agente mantém um plano persistente: orçamentos, restrições, preferências, histórico. A marca não é considerada uma vez; é considerada continuamente, ou é excluída do conjunto considerado. Ganhar uma vez não significa nada; o que importa é não ser eliminada do plano.
O trabalho de Zhang e colegas (arXiv:2602.02961, 2026) sobre o caso de produção do Pinterest é o melhor estudo empírico disponível sobre o que acontece quando uma plataforma otimiza seriamente para legibilidade agêntica. Combinando Visual-Language Models com agentes de otimização de catálogo, o Pinterest reportou +20% de tráfego orgânico e +19% de alinhamento entre tópicos e queries. Os ganhos não vieram de truques de SEO; vieram de tornar o catálogo interpretável para sistemas que leem produtos como entidades estruturadas, não como páginas HTML.
Do lado da decisão de compra propriamente dita, o trabalho de pesquisadores da Columbia em parceria com a Microsoft (arXiv:2508.02630, 2025) sobre vieses de agentes em compras é instrutivo e desconfortável. Os autores documentam três efeitos sistemáticos: agentes penalizam consistentemente itens marcados como "sponsored"; recompensam endossos da própria plataforma (selos, badges, "escolha do editor"); e concentram demanda em produtos modais — ou seja, naquilo que aparece como padrão estatístico no catálogo. As implicações para marketing são profundas. Estratégias que dependem de mídia paga em formato de patrocínio explícito perdem eficácia. Conquistar selos de plataforma e badges curados torna-se mais valioso do que conquistar posição em carousel. E marcas em nichos longos — fora do produto modal — sofrem desvantagem agravada se não construírem sinais explícitos de diferenciação que o agente saiba ler.
A camada de protocolo amarra tudo isso. MCP (Model Context Protocol), A2A (Agent-to-Agent) e AP2 (Agent Payments Protocol) são os pilares que estão emergindo como o equivalente, no comércio agêntico, do que HTTP, HTML e SSL foram no comércio web. Quando esses protocolos se consolidam, a marca que não expõe seus dados de produto, estoque, preço e condições em formato consumível por agentes simplesmente desaparece do plano — não por ter perdido em ranking, mas por ser ilegível. A Linux Foundation Agentic AI Foundation, ao tomar posse da governança desses protocolos, sinaliza que essa não é uma especulação de cinco anos. É uma transição de doze a vinte e quatro meses.
Para o CMO brasileiro, o exercício mental útil é o seguinte: imagine que metade das compras da sua categoria, em três anos, será iniciada por um agente que mantém um plano persistente para o usuário. Em quantos desses planos sua marca está hoje? Qual a probabilidade de o agente recomprá-la sem que o humano intervenha? Que dado estruturado o seu sistema oferece para que essa decisão seja informada? Se as respostas dependem do site institucional e de campanhas de mídia, o problema não é de orçamento. É de arquitetura.
As três camadas que vencem
A síntese da literatura aponta para uma arquitetura de visibilidade composta por três camadas que precisam operar simultaneamente. Tratá-las como alternativas — ou como sequências — é o erro recorrente. As três são complementares e nenhuma delas, isolada, produz resultado consistente. Quando reorganizei a Brasil GEO em torno desse framework, na primeira semana de abril, o que mudou não foi o produto: foi a forma como cada engajamento é estruturado. Antes, vendíamos auditoria técnica. Agora, vendemos os três vetores como um único projeto, com governança única, e medimos cada um com indicadores próprios.
A primeira camada é estrutural e técnica. Schema.org granular, JSON-LD bem formado, llms.txt implementado, e os dezesseis pilares do framework GEO-16 executados acima do limiar G ≥ 0,70. Volpini e colegas demonstram que a granularidade de dados ligados produz +29,6% de acurácia em RAG; Dang e colegas mostram que três quartos das páginas estão omissas dessa camada. A camada técnica é, portanto, o piso — não o teto. Ela impede que a marca seja descartada por ilegibilidade, mas não a faz ser escolhida.
A segunda camada é autoridade ganha. Referring domains qualificados, presença ativa em Reddit e em fóruns de comunidade, menção e citação nos clusters que dominam cada família de modelos — os vinte que respondem por 67,3% das citações em modelos da OpenAI, e os equivalentes em Anthropic, Google e Perplexity, lembrando que a similaridade cruzada entre famílias é inferior a 0,33. Esta é a camada onde mora o Discovery Gap. É também a camada que demanda mais tempo, mais relacionamento e, em consequência, mais paciência orçamentária. Não é uma campanha; é uma infraestrutura. Um trimestre não move o ponteiro. Quatro a oito trimestres movem.
A terceira camada é legibilidade agêntica. Catálogo de produto exposto via APIs e MCP, dados estruturados de preço, estoque e atributos atualizados em tempo real, integração com os protocolos A2A e AP2 à medida que se consolidam, e — fundamental — remoção sistemática de anti-sinais: tags "sponsored" mal posicionadas, badges genéricos, descrições de produto que confundem o agente em vez de informá-lo. O caso Pinterest mostra o lado positivo (+20% de tráfego orgânico, +19% de alinhamento), e o estudo Columbia/Microsoft mostra o lado punitivo: agentes desclassificam ativamente o que parece patrocinado e recompensam o que parece endossado. Esta camada é, hoje, em sua maior parte, responsabilidade compartilhada entre marketing e produto/engenharia, e essa interface organizacional é frequentemente onde os projetos travam.
A imagem útil é a de um tripé. Sem a camada técnica, as outras duas não são lidas. Sem a autoridade ganha, a camada técnica é higiene sem demanda. Sem a legibilidade agêntica, as duas primeiras geram descoberta mas perdem na conversão. Os times que vencerão os próximos vinte e quatro meses serão os que tratarem as três como um único projeto, com governança única, e não como três iniciativas paralelas em três áreas que não se conversam. O playbook operacional dessa governança — com limiares quantitativos, checklists e tabela de campos JSON-LD por camada — está consolidado em As três camadas da visibilidade agêntica, publicado simultaneamente a este texto na Brasil GEO. Aqui, o foco é o porquê. Lá, é o como.
O que isso exige dos times de marketing brasileiros
A tradução para o contexto brasileiro requer três deslocamentos concretos, e nenhum deles é trivial em estruturas de marketing montadas sob a lógica de mídia paga e SEO clássico.
O primeiro deslocamento é mental. Abandonar o modelo "SEO + camada de IA" como metáfora operacional. A pesquisa empírica é inequívoca: as variáveis que predizem descoberta em LLMs e os padrões de citação dos modelos não são uma extensão das variáveis de SEO. São um sistema parcialmente disjunto. Continuar gerindo GEO como subdiretório do SEO é cometer um erro de classificação que produz, sistematicamente, alocação errada de orçamento. A primeira reunião de planejamento precisa começar com a pergunta: estamos medindo descoberta em LLMs com indicadores próprios, ou estamos extrapolando indicadores de Google?
O segundo deslocamento é orçamentário e temporal. Tratar mídia ganhada e presença em comunidade como infraestrutura, não como campanha. Reddit, fóruns de nicho, presença consistente em veículos do cluster dominante de cada família de modelos — isso não rende em três meses. Rende em ciclos longos, e exige uma linha orçamentária que sobreviva à pressão trimestral. No mercado brasileiro, onde a média de mandato de CMO é curta e a pressão por quick wins é alta, esta é a parte mais difícil. Mas é também a parte que efetivamente move o Discovery Gap. Os 30:1 de Sharma não fecham com otimização de página; fecham com presença distribuída sustentada.
O terceiro deslocamento é organizacional. Construir legibilidade agêntica como capacidade de produto, não como add-on de marketing. Isso significa que o catálogo, a API, o servidor MCP da marca, a integração com agentes terceiros, a estrutura de dados de produto — tudo isso precisa ter dono claro, e raramente esse dono está dentro do marketing tradicional. Marcas que esperarem o departamento de marketing resolver sozinho a legibilidade agêntica chegarão tarde. Marcas que tratarem isso como projeto cross-funcional, com patrocínio executivo direto, chegarão na janela.
Há um componente menos óbvio que merece menção: o trabalho de curadoria contínua da literatura. A pesquisa em GEO, AEO e comércio agêntico está se publicando em ritmo de duas a três contribuições relevantes por mês entre arXiv, NeurIPS, relatórios de fundação e estudos de caso de produção. Times que tentam acompanhar isso de forma reativa, à medida que ferramentas surgem, ficam permanentemente atrás. Na Brasil GEO mantemos uma base de conhecimento ativa que sintetiza 25+ papers em 30 instruções operacionais, 7 princípios mestres e tabelas de limiares quantitativos — atualizada trimestralmente. Sintetizar essa fronteira em um modelo operacional acionável para o contexto brasileiro é, hoje, uma das poucas atividades de staff estratégico cujo retorno marginal supera o de quase qualquer ferramenta nova adquirida.
O que “marketing” significa quando o agente é o leitor
Há uma redefinição em curso, e ela é mais profunda do que a indústria reconhece. Marketing, na era do clique, era o ofício de capturar atenção humana em uma janela curta de decisão. Marketing, na era agêntica, é o ofício de construir legibilidade duradoura para sistemas que decidem em nome de humanos. As habilidades não são as mesmas. As métricas não são as mesmas. E os ativos que se acumulam ao longo do tempo — autoridade nos clusters certos, dados estruturados confiáveis, presença distribuída em comunidades — não se compram em leilão de mídia.
A frase que sintetiza o argumento, e que mereceria estar no topo do deck de qualquer conselho que discuta orçamento de marketing em 2026, é simples: o GEO técnico é a condição de existência; a autoridade ganha é a condição de descoberta; a legibilidade agêntica é a condição de conversão. Quem otimiza apenas a primeira é invisível. Quem otimiza as três é encontrado, escolhido e mantido no plano. Os números — Sharma, C-SEO Bench, News Source Citing Patterns, Pinterest, Columbia/Microsoft — contam, em conjunto, essa única história.
A provocação final é estratégica. As marcas brasileiras que perceberem essa ruptura nos próximos doze meses construirão vantagem composta — porque autoridade ganha não é replicável em ciclo curto, e porque a janela competitiva, antes que o equilíbrio se forme e o efeito de soma zero do C-SEO Bench se generalize, está aberta agora. As que não perceberem continuarão otimizando meta tags enquanto o agente, silenciosamente, exclui sua marca do plano de outro usuário, e de mais outro, em um ciclo que não aparece no dashboard porque o clique nunca aconteceu para ser medido.
Você está medindo a camada certa? Sua organização é capaz de operar nas três simultaneamente?