a16z: Por que a próxima década de bilhões de utilizadores de IA irão aceder através de redes de confiança

作者:Sakina Arsiwala,a16z研究员;来源:a16z crypto;编译:Shaw 金色财经

YouTube的启示:内容是一种地缘政治武器

Há vários anos, fui responsável pela pesquisa internacional de produtos do Google e, em seguida, liderei a expansão internacional do YouTube, lançando o produto em 21 países em apenas 14 meses. O que eu fiz não foi apenas localização de produtos, mas sim construir parcerias de conteúdo locais, encontrando caminhos em meio a um campo minado de leis, políticas e barreiras de entrada no mercado. Recentemente, também fui responsável pela gestão da saúde da comunidade (confiança e segurança) do Twitch. Ao longo da minha carreira, fundei também duas startups.

Hoje, o campo da inteligência artificial (IA) apresenta semelhanças surpreendentes com a fase de crescimento inicial do Google e do YouTube. Minha carreira me fez perceber um fato: a globalização não é uma funcionalidade de produto, mas sim um jogo geopolítico. A lição mais profunda é que a promoção de canais nunca é apenas uma questão técnica. O crescimento depende de parceiros locais, comunicadores culturais e líderes de opinião comunitários, que constroem pontes entre plataformas globais e usuários locais.

Vivenciei a proibição de direitos autorais da GEMA na Alemanha: uma agência de direitos musicais quase excluiu todo um país do plano de promoção do YouTube na Europa. Passei pela controvérsia da ordem de prisão por desrespeito na Tailândia: como responsável externo do YouTube, enfrentei o risco de prisão devido a conteúdos considerados uma ofensa ao rei da Tailândia, até mesmo sendo incapaz de transitar pelo país. Vi o Paquistão desconectar a internet nacional para banir um vídeo. Lembro-me também de que, devido a conflitos entre algoritmos globais e tabus religiosos locais, nosso escritório na Índia foi alvo de um ataque pessoal.

O que realmente precisamos enfrentar nunca foram apenas questões de políticas ou infraestrutura, mas sim barreiras de confiança.

Em cada mercado, alguém precisa arcar com os custos inicialmente, esclarecendo quais conteúdos são seguros, aceitáveis e valiosos, para que os usuários se envolvam. Esses custos se acumulam continuamente, eventualmente formando um imposto de confiança: suportado inicialmente por um pequeno grupo e depois partilhado por todos.

Hoje, a mesma contradição está se repetindo no campo da inteligência artificial, mas a situação é mais grave, a evolução mais rápida e o impacto mais evidente. O governo federal dos EUA e a Anthropic recentemente entraram em um impasse, gerando grande debate público; a OpenAI enfrenta cada vez mais escrutínio devido às suas colaborações com o setor público. Estamos testemunhando uma mudança: a aceitação dos usuários não depende mais apenas da utilidade, a influência ideológica está se aprofundando. Neste ambiente, a confiança é extremamente frágil; um colapso de confiança aparentemente pequeno pode levar à perda rápida e em grande escala de usuários.

O Google está aumentando seus investimentos em sua estratégia de confiança profunda, aproveitando a familiaridade dos usuários com o ecossistema existente do Workspace e da busca para abrir o mercado, mas o cenário global está se dividindo cada vez mais. A rigorosa linha de regulamentação da União Europeia, a intensa competição no desenvolvimento de IA na China e o crescente nacionalismo em torno da IA estão mantendo todos em alta alerta.

A lição de 2026 é clara: a confiança institucional e o reconhecimento cultural estão hoje intrinsecamente ligados ao produto em si. Sem a confiança como base, não se pode construir um sistema operacional inteligente.

Esse é o obstáculo soberano — as fronteiras estruturais onde a inteligência artificial global colide com o controle local. E a partir da perspectiva do produto, isso se apresenta de forma mais direta: barreiras de confiança.

Toda expansão de sistemas globais de inteligência artificial acabará colidindo com esse muro. Nesse ponto crítico, a aceitação do usuário não depende mais da capacidade técnica, mas da confiança que usuários, instituições e governos têm nele em seu contexto próprio.

A internet costumava ser sem fronteiras. A inteligência artificial não será.

Exploradores: O fim de uma era

Os primeiros bilhões de usuários de inteligência artificial eram exploradores e otimistas tecnológicos. Mas a era dos exploradores já chegou ao fim. Nos últimos três anos, estivemos na era da engenharia de prompts e da alquimia digital, onde as pessoas abrem aplicativos populares como ChatGPT e Claude, como se fossem a um templo digital, testemunhando os milagres da inteligência generativa. Nesta era, o único indicador importante é a capacidade do modelo: quem está no topo dos testes de referência mais recentes? Quem tem o maior número de parâmetros?

Mas ao entrarmos em 2026, a fogueira da era dos exploradores está se apagando. Não estamos mais criando brinquedos para curiosos, mas sim voltando-nos para sistemas operacionais inteligentes — aqueles canais invisíveis e onipresentes que fornecem energia para empreendedores individuais em São Paulo, Brasil, e para trabalhadores de saúde comunitários em Jacarta, Indonésia.

Esses usuários não são exploradores, mas sim consumidores práticos. Eles não querem conversar com o “fantasma” dentro da máquina, apenas desejam uma ferramenta que os ajude a superar os obstáculos da vida real. Este é o verdadeiro momento de transição para conquistar a próxima bilhão de usuários. E é nesta fronteira ainda não totalmente explorada que o sonho global de APIs tão almejado pelo Vale do Silício colide com a realidade mais dura deste tempo: barreiras soberanas.

A mudança central é: a disseminação da inteligência artificial não é mais principalmente uma questão de capacidade do modelo, mas sim uma questão dedisseminação e confiança. Os laboratórios de ponta continuarão a melhorar o desempenho dos modelos, mas a chegada da próxima bilhão de usuários não será porque um modelo obteve uma pontuação mais alta em testes de referência, mas porque a inteligência artificial está alcançando-os através de instituições, criadores e comunidades que eles já confiam.

Realidade de 2026: A IA torna-se um tema de infraestrutura nacional

Em 2026, o desafio central da indústria não será tornar os modelos mais inteligentes, mas sim obter licença de acesso para eles. As barreiras soberanas são a fronteira onde a inteligência geral encontra a identidade nacional. Globalmente, essa barreira já está começando a se delinear: exigências de localização de dados, planos de computação de IA em nível nacional e projetos de modelos liderados por governos em locais como Índia, Emirados Árabes Unidos e Europa. As políticas iniciais de infraestrutura em nuvem estão rapidamente evoluindo para políticas de soberania inteligente. Dentro dessa estrutura, os países se recusam a se tornar “colônias de dados”, exigindo que sistemas inteligentes que servem seus cidadãos funcionem dentro de seus próprios armazéns de dados soberanos, preservando a cultura local e respeitando as fronteiras nacionais.

Quando você vê os CEOs do Google (Sundar Pichai), OpenAI (Sam Altman), Anthropic (Dario Amodei) e DeepMind (Demis Hassabis) compartilhando o palco com o Primeiro-Ministro indiano Modi na Cúpula de Influência da IA na Índia em 2026, o que você vê é a verdadeira manifestação das barreiras soberanas. A visão M.A.N.A.V. proposta pelo Primeiro-Ministro Modi (sistema de ética, governança responsável, soberania nacional, IA inclusiva, sistemas confiáveis) envia uma mensagem clara: se os laboratórios de ponta tentarem se expandir diretamente para os consumidores, acabarão sendo eliminados pela regulamentação. E a confiança é a única moeda que pode atravessar essas fronteiras.


A diminuição dos efeitos de rede e por que isso exige uma nova estratégia

Diferentemente das plataformas sociais, onde cada novo usuário pode aumentar o valor para todos os outros usuários, o valor da inteligência artificial é, em grande parte, localizado. A minha milésima solicitação não fará o sistema ser mais valioso para você. O ciclo de dados pode otimizar o modelo, mas a experiência do usuário é sempre personalizada, não social. A IA é uma ferramenta privada, que pode ter um tom emocional, mas seu núcleo é uma ferramenta prática.

Isso gera um problema estrutural: a IA não pode contar com o efeito de rede exponencial que sustentou a ascensão da geração anterior de plataformas. Na ausência de um mapa social nativo, a indústria só pode cair em um ciclo de alto consumo, perseguindo continuamente os primeiros usuários, jogadores intensivos e elites tecnológicas. Essa estratégia funcionou na era dos exploradores, mas não pode escalar para alcançar os próximos dois bilhões de usuários.

Mais importante ainda, esse modelo falhará completamente diante das barreiras soberanas. Porque quando o efeito de rede é fraco, a confiança não se forma espontaneamente, mas deve ser introduzida externamente.

Transformação: da eficácia da rede para a eficácia da confiança

Se a inteligência artificial não pode se promover através do efeito de rede social, deve dependender de outra força: uma rede de confiança. Esta é a mudança crucial:

De obter usuários a capacitar intermediários

O YouTube foi capaz de se expandir em escala porque aproveitou a rede de confiança humana pré-existente. A IA também deve fazer o mesmo. Em vez de tentar estabelecer uma relação direta com bilhões de usuários, a estratégia vencedora deve ser:

  • Capacitar aqueles que já têm relações com usuários;

  • Aproveitar a confiança que eles já acumularam;

  • Distribuir capacidades inteligentes através desses canais.

Por que isso é crucial

Em um mundo moldado por barreiras soberanas:

  • Os canais de distribuição são limitados;

  • O modelo voltado diretamente para o usuário é frágil;

  • A confiança é localizada, e não globalizada.

Sem um forte efeito de rede, a inteligência artificial não pode escalar pela força bruta; deve penetrar através da confiança. A inteligência artificial não tem efeito de rede; ela tem efeito de confiança.

Solução: A era dos intermediários chega

Como o YouTube conseguiu se firmar nos mercados internacionais? Não foi por meio de um reprodutor melhor, nem pela simples localização de textos de interface. A chave para o sucesso foi se tornar a plataforma preferida por aqueles que já possuem a confiança local. Em cada mercado, o ponto de partida para a aceitação do usuário não é o YouTube em si, mas sim âncoras de identidade — aquelas pessoas e comunidades que já dominam a narrativa cultural:

  • Fãs de Bollywood organizando raros clipes de Shah Rukh Khan para a comunidade de expatriados em Dubai

  • Fãs de anime nos EUA criando um ecossistema de conteúdo profundo que a mídia tradicional não cobriu

  • Comediantes, professores e criadores de montagens locais transformando conteúdo global em formas que se alinham à percepção cultural

Esses criadores não estão apenas fazendo upload de vídeos; eles estão interpretando a internet para o público, atuando como intermediários de confiança, construindo pontes entre plataformas estrangeiras e usuários locais. O sucesso do YouTube está em se tornar a infraestrutura invisível que sustenta essas âncoras de identidade.

A lógica central ignorada: o modelo voltado para o consumidor colide com barreiras soberanas

Hoje, a maioria das empresas de IA ainda adota uma mentalidade voltada para o consumidor: criar modelos melhores → apresentá-los em uma interface de chat → obter usuários diretamente.

Esse modelo é eficaz a curto prazo, mas difícil de sustentar a longo prazo. Porque, em mercados com alta fricção, os usuários não aceitarão novas tecnologias diretamente, mas sim através de pessoas em quem confiam.

A expansão global do YouTube não se baseou em persuadir bilhões de usuários um a um, mas sim em capacitar aqueles que já conquistaram a confiança do público. Este é o verdadeiro significado da infraestrutura invisível: você não possui as relações com os usuários; você oferece suporte a essas relações. E, em termos de escala, esse modelo oferece uma proteção mais robusta.

Da conversa para os agentes inteligentes: capacitando intermediários de confiança

Essa é a chave para a transição da interface de chat para os agentes inteligentes. A conversa é uma ferramenta voltada para o indivíduo, enquanto os agentes são alavancas para os intermediários. Se aplicarmos a filosofia da executiva da Anthropic, Amie Worrall — “criar produtos para as pessoas mais cansadas” — então, em muitos mercados, essas pessoas são os tradutores de confiança:

  • Educadores que adaptam conceitos estrangeiros

  • Empreendedores que lidam com sistemas burocráticos locais

  • Líderes comunitários que enfrentam a sobrecarga de informações

A chave para o sucesso é resolver o atraso de confiança que enfrentam — a lacuna entre a capacidade inteligente global e os cenários práticos locais. Isso requer um sistema de suporte a agentes que seja realmente viável:

  • Para educadores: Sora / GPT-5.2 reimaginando currículos — substituindo a analogia do futebol americano por críquete, mantendo o significado essencial enquanto se alinha à cultura local.

  • Para empreendedores individuais: agentes que não apenas interpretam formulários fiscais de Cingapura, mas também completam e enviam através de APIs locais.

  • Para líderes comunitários: adicionando uma função de memória contextual ao WhatsApp — extraindo itens de ação estruturados de dez mil mensagens, mantendo informações úteis e respeitando as normas da comunidade.

A viabilidade do modelo: resolver o atraso de confiança da última milha

Para entender por que esse modelo pode escalar, é preciso compreender o atraso de confiança. Em muitas regiões do mundo, o gargalo não é o acesso à tecnologia, mas sim o tempo, risco e incerteza necessários para estabelecer confiança. A difusão da tecnologia não depende de anúncios, mas sim de endossos.

O erro que a maioria das empresas de IA comete é tentar concentrar o pagamento do imposto de confiança por meio de marca, distribuição ou aprimoramento do produto, mas a confiança não pode ser escalada dessa forma.

O caminho mais rápido é externalizar o imposto de confiança para aqueles que já arcaram com esse custo — criadores, educadores e operadores enraizados localmente. Eles já experimentaram para o público, entendendo o que funciona, o que falha e o que é realmente importante, assumindo o risco em nome do público.

Ao capacitar esses intermediários de confiança:

  • O custo de aquisição de usuários se aproxima de zero: a distribuição depende de redes de confiança existentes;

  • O valor do ciclo de vida do usuário aumenta: funcionalidades práticas se alinham com as necessidades locais, e não são universalizadas;

  • A velocidade de disseminação aumenta: a confiança é herdada diretamente, sem necessidade de acumulação do zero.

As empresas obterão uma equipe de vendas global sem custo, cuja credibilidade, eficiência e profundidade de enraizamento superam quaisquer estratégias de promoção centralizadas. Você não está mais criando produtos para os usuários, mas sim fornecendo alavancas para aqueles em quem os usuários já confiam.

Esse é o caminho da expansão global do YouTube, e é a única maneira pela qual a inteligência artificial pode ultrapassar barreiras soberanas.

Armazéns de dados soberanos: a defesa geopolítica

O otimismo tecnológico defendido por Marc Andreessen não se destina a combater a regulamentação, mas sim a transformar a regulamentação em produtos. Em competição com o DeepSeek da China e o Kimi da Lua Escura, a vitória não virá da ignorância das fronteiras, mas do controle sobre os armazéns de dados.

O que é um armazém de dados soberano? É uma instância de localizações preferenciais do modelo, operando dentro de uma infraestrutura pública digital (DPI) de um país.

  • Defesa geopolítica: ao permitir que países como Índia e Brasil tenham soberania digital sobre modelos, pesos e dados, alteramos fundamentalmente o cenário de controle. As capacidades inteligentes não são mais mediadas por plataformas estrangeiras, mas são geridas autonomamente dentro das fronteiras nacionais. Isso não é uma “bloqueio” direto de concorrentes externos, mas sim um aumento significativo no custo de influência, reduzindo a dependência externa e diminuindo os riscos de controle, extração de dados ou intervenção unilateral.

  • Âncoras de identidade: vinculando profundamente o modelo à cultura local e à realidade legal, construindo uma defesa que a inteligência geral não pode ultrapassar.

  • Ciclo de feedback: resolver questões extremas de localização, como a licença fiscal da Malásia, não é uma distração, mas sim um acelerador do modelo. Isso proporciona flexibilidade cultural ao modelo básico, garantindo que ele mantenha níveis de inteligência de classe mundial.

Há uma contradição real aqui. A visão da inteligência artificial é alcançar a inteligência geral, mas a tendência à soberania está empurrando todo o ecossistema para a fragmentação. Se cada país construir sua própria pilha tecnológica, enfrentaremos riscos de sistemas incompatíveis, padrões de segurança irregulares e construção repetida de recursos. O desafio que os laboratórios de ponta enfrentam não é apenas aumentar a escala da inteligência, mas sim projetar uma arquitetura que permita controle local sem comprometer a vantagem da colaboração global.

Três mudanças estruturais na era dos intermediários

1. A distribuição da inteligência artificial entrará nas redes de confiança existentes

A inteligência artificial não escalará por meio de aplicativos independentes, mas será embutida em plataformas de comunicação instantânea, fluxos de trabalho de criadores, sistemas educacionais e infraestruturas de pequenas empresas — porque a confiança já foi estabelecida nesses cenários. Na ausência de um forte efeito de rede, a distribuição deve depender de redes interpessoais existentes.

2. Infraestruturas de IA em nível nacional se tornarão padrão

Os governos de vários países exigirão cada vez mais que sistemas de inteligência artificial críticos sejam implantados com modelos localizados, construções de poder soberano ou aceitem revisão regulatória, acelerando a implementação da arquitetura do armazém de dados soberano.

3. A economia de criadores se transformará em uma economia de agentes

Os criadores não apenas produzirão conteúdo, mas também implantarão agentes para executar tarefas reais em suas comunidades. Esses agentes se tornarão extensões de indivíduos confiáveis, herdando sua reputação e transmitindo capacidades inteligentes através de redes de confiança.

Naturalmente, existe a possibilidade de um futuro alternativo: um assistente que ocupa uma posição dominante, profundamente integrado em sistemas operacionais, navegadores e dispositivos, estabelecendo uma conexão direta entre usuários e modelos, contornando completamente os intermediários. Se isso acontecer, a camada de confiança será embutida diretamente nesse assistente.

Mas a experiência histórica aponta para um padrão mais diversificado. Mesmo as plataformas mais dominantes — de sistemas operacionais móveis a redes sociais — acabaram dependendo de ecossistemas para crescer. A inteligência pode ser universal, mas a confiança sempre será localizada. Independentemente de qual arquitetura prevalecer, o desafio central não mudará: a difusão da IA não é mais uma questão de modelo, mas sim uma questão de distribuição e confiança.

Conclusão: O mercado de nicho é o verdadeiro mercado global

O maior erro da era dos exploradores foi acreditar que a inteligência é um produto padronizado — uma única API global que se comporta exatamente da mesma maneira em salas de conferência em Manhattan e em vilarejos no Karnataka. As barreiras soberanas revelam uma verdade mais cruel: a inteligência pode ser universal, mas sua difusão não é.

Nações e instituições locais não desejam um sistema externo opaco; elas desejam controle, capacidade de adaptação ao cenário e o direito de moldar a inteligência dentro de suas próprias fronteiras. Elas não querem aplicativos prontos, mas sim canais de base — infraestrutura, sistemas de segurança e poder computacional que permitam que seus cidadãos construam de forma autônoma.

A lógica de crescimento de 2026 não será mais buscar uma experiência de usuário universal, mas sim flexibilidade de produto — permitindo que a inteligência se adapte aos cenários locais, regulamentações e culturas, sem perder a capacidade central. Se continuarmos a perseguir diretamente os consumidores globais, seremos sempre uma camada externa — frágil, substituível e propensa a enfrentar as mesmas turbulências que vivenciei no YouTube.

Mas quando nos voltamos para capacitar intermediários, o modelo muda completamente: da interface de chat para os agentes inteligentes, de persuadir usuários para empoderar intermediários de confiança, de combater regulamentações para transformar regulamentações em defesas.

A escalabilidade da inteligência artificial não depende do modelo, mas da confiança.

Os vencedores da corrida da inteligência artificial não serão as empresas com os modelos mais inteligentes, mas sim aquelas que conseguem multiplicar por dez as capacidades dos heróis locais — professores, contadores, líderes comunitários. Porque, no final das contas, a inteligência é transmitida dentro de sistemas, enquanto a difusão ocorre entre as pessoas.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar