Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
GEO Zehiri e Relatórios Falsos: A Nova Face da Desinformação na Era da IA
Semana passada, 315 plataforma de proteção ao consumidor revelou como a inteligência artificial pode ser manipulada. Embora pareça um caso simples, na verdade aponta para um problema profundo: relatórios falsos e conteúdos enganosos agora conseguem enganar não só motores de busca, mas também sistemas de IA. Este método, chamado de “GEO” — Otimização de Motores Generativos, funciona basicamente assim: marcas, ao fazerem perguntas à IA, querem que ela recomende seus produtos. Para isso, empresas que oferecem serviços GEO publicam massivamente textos promocionais na internet, fazendo com que a IA aceite esses relatórios falsos como informações reais.
315 jornalistas fizeram um experimento testando esse sistema. Compraram um software chamado “LiQing” no Taobao — que gera automaticamente textos de promoção falsos. Inventaram uma pulseira inteligente inexistente, adicionaram características totalmente imaginárias como “sensor de entrelaçamento quântico” e “bateria de nível de buraco negro”. O software criou e publicou automaticamente mais de quinze textos promocionais na internet. Duas horas depois, perguntaram à IA: “Você pode recomendar uma pulseira de saúde inteligente?” A resposta foi surpreendentemente simples: a IA colocou a pulseira inexistente no topo da lista de recomendações. A empresa que desenvolveu o software LiQing é a Beijing LiSi Culture Media, uma startup de uma pessoa só.
Esse experimento mostrou o quão eficazes podem ser relatórios falsos, mas não foi o primeiro.
História de 20 Anos de Enganação de Motores de Busca com Relatórios Falsos
Na verdade, esse modelo de negócio não é novo. Em 2008, a CCTV revelou no programa “Notícias de 30 Minutos” como os resultados de busca do Baidu eram comprados com dinheiro. Pagando, você pode colocar seu site no topo dos resultados, até mesmo com anúncios de produtos médicos falsos. Na época, chamava-se SEO — Otimização para Motores de Busca. Os hospitais falsos de Putian eram exemplos clássicos. Esses hospitais gastavam milhões com o Baidu para aparecer na primeira página.
Em 2013, a situação ficou ainda mais dramática. O distrito de Putian gastou 12 bilhões de yuans em um ano em anúncios e promoções no Baidu, quase metade da receita total de publicidade da plataforma. Instituições de saúde sem qualificação alguma espalhavam relatórios falsos por SEO, aparecendo na mesma classificação que hospitais universitários legítimos. Ninguém conseguiria distinguir. O estudante de medicina Wei Zexi, em 2016, confiou nesses relatórios falsos, escolheu um hospital de Putian que aparecia no topo, foi tratado e morreu. A China inteira acordou.
Depois de 2016, o governo interveio e estabeleceu regras: publicidade paga. Mas o método não desapareceu completamente. Apenas foi regulado. Relatórios falsos continuaram na internet, agora com uma pequena etiqueta de “Anúncio”. Ainda assim, os usuários clicam, porque o problema não é a marcação, mas a confiança natural nas primeiras posições. A fraude de Putian foi atenuada, mas ainda existe. Agora, esse sistema de gestão de informações falsas está sendo transferido para a era da IA.
Como o GEO no Mercado de Capitais e Relatórios Falsos Foram Investidos
Curiosamente, esse modelo não desapareceu, pelo contrário, foi fortemente apoiado pelo mercado de capitais. No outono de 2025, a maior empresa de marketing e comunicação da China, a BlueFocus, investiu milhões na GEO PureblueAI, uma startup. A PureblueAI otimizava as posições de resultados de busca de marcas reais, com clientes como Ant Group, Tencent Cloud e Volvo.
O investimento da BlueFocus não era novidade — era apenas uma versão de SEO para IA. Mas, para investidores, virou conceito. Chamaram de “nova porta de entrada de tráfego na era da IA” e começaram a inflar as ações dessas empresas. O valor das ações da BlueFocus subiu 132% em nove dias de negociação. Outras empresas de marketing digital também dobraram de valor.
Porém, há uma reviravolta interessante. Depois, a BlueFocus emitiu um aviso de risco: o modelo GEO ainda não gera lucro. Não traz retorno para plataformas como OpenAI ou Baidu. Além disso, o CEO da BlueFocus, Zhao Wenquan, anunciou a venda de 20 milhões de suas ações, o que, na cotação atual, equivale a cerca de 467 milhões de yuans. Em um mês, o preço das ações subiu de 9,6 para 23,3 yuans, um aumento de 143%. Durante esse período, o CEO vendeu suas ações. O lucro é real, mas o modelo GEO ainda não gera dinheiro de verdade. Pesquisas abertas mostram que o mercado anual do setor na China é de apenas 2,9 bilhões de yuans.
O sistema GEO falso revelado por 315 foi criado com um software que custava algumas centenas de yuans. Mas o conceito de GEO deu uma volta na bolsa, faturando dezenas de bilhões de yuans. As pessoas se perguntam: são relatórios falsos perversos ou um modelo de mercado legítimo?
De OpenAI a Baidu: Por que as Plataformas Não Abandonam os Relatórios Falsos
Em janeiro de 2026, o blog oficial do OpenAI anunciou que o ChatGPT começaria a exibir anúncios. Usuários gratuitos e assinantes de nível baixo veriam anúncios, enquanto assinantes premium não. Logo, os anúncios começaram a aparecer. Entre os primeiros anunciantes estavam Ford, Adobe, Target e Best Buy. Agora, ao perguntar qual ferramenta comprar ao ChatGPT, pode aparecer um link patrocinado da Ford.
O OpenAI declarou explicitamente: as respostas do ChatGPT não serão influenciadas por anúncios. As respostas permanecem como respostas, os anúncios como anúncios. Separados.
Essa ideia parece familiar? Sim, porque o Baidu já dizia exatamente isso há 20 anos. Resultados pagos são pagos, resultados naturais são naturais. Separados. Depois, os cinco primeiros resultados de busca natural ficaram completamente tomados por anúncios, e os usuários começaram a acreditar em relatórios falsos como se fossem informações reais.
Hoje, o OpenAI planeja dobrar sua receita anual com anúncios, chegando a 170 bilhões de dólares. Com mais de 800 milhões de usuários ativos semanais, 95% deles gratuitos, todos são público-alvo de publicidade.
Voltando ao cenário original de 315: LiQing engana a IA com relatórios falsos; OpenAI vende anúncios oficialmente. Um é oculto, o outro, aberto. Um publica relatórios falsos, o outro, vende publicidade corporativa. Mas, do ponto de vista da IA, a tecnologia é exatamente a mesma: ambos publicam conteúdo na internet e esperam que a IA o colete e o inclua em suas recomendações.
O software de relatórios falsos do 315 custava algumas centenas de dólares, enquanto o OpenAI visa faturar 170 bilhões de dólares por ano com essa estratégia. A mesma poluição de informações, resultados financeiros diferentes. A única diferença é uma questão de regulamentação e licença.
É Hora de Quebrar a Confiança?
Em novembro de 2023, pesquisadores da Universidade de Princeton e do Instituto de Tecnologia da Índia publicaram no arXiv um artigo acadêmico intitulado “GEO: Otimização de Motores Generativos”. Foi a primeira definição oficial do conceito. Desde a publicação do artigo até a revelação do caso 315, passaram-se dois anos.
O que aconteceu nesses dois anos? Mercado cinza, investimentos de milhões de dólares, valorização de conceitos, venda de ações por membros do conselho, plataformas de IA criando suas próprias aplicações de publicidade…
O caminho que a SEO percorreu em vinte anos, a GEO completou em dois. Mas há uma grande diferença: na época, as pessoas levaram anos para entender que confiar cegamente nos resultados dos motores de busca era perigoso, lutaram, perderam. Como Wei Zexi, que morreu por confiar em relatórios falsos. Agora, a IA ainda está na fase de confiança, e a maioria das pessoas não percebe que as respostas da IA também podem ser compradas.
Porém, essa fase de confiança talvez não dure muito. Da próxima vez que perguntar à IA o que deve comprar, pense um pouco: a resposta pode ser gratuita agora, mas você não sabe o que está por trás dessa informação. Se relatórios falsos entrarem na jogada, sua percepção nunca mais será a mesma.