Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Por trás do "Escândalo das Mentiras" da OpenAI: um exemplo clássico de fracasso sistémico
Escrevendo: Centro de Pesquisa Web 4
A maior questão filosófica não é “é possível confiar em alguém”, mas sim “como desenhar um sistema que torne a confiança desnecessária”. Caso contrário, estamos usando uma estrutura de governança do século XIX para lidar com um dos jogos de poder mais fortes do século XXI.
01 Uma reportagem de investigação que abalou o Vale do Silício
Em 6 de abril de 2026, a “The New Yorker” publicou uma reportagem aprofundada, concluída após 18 meses de investigação, que revelou um episódio até hoje ainda assustador para muitos insiders da OpenAI.
O núcleo dessa reportagem é um memorando interno de setenta páginas, compilado pelo ex-chefe de ciência da OpenAI, Ilya Sutskever, no outono de 2023, além de mais de duzentas páginas de notas pessoais do cofundador da Anthropic, Dario Amodei. Após a publicação, todas as evidências apontam para uma mesma conclusão: os líderes da OpenAI, especialmente Sam Altman, apresentam um padrão de comportamento de “mentiras constantes”.
Esta não é uma simples fofoca tecnológica. Trata-se de uma dúvida sistêmica sobre uma das maiores empresas de tecnologia da história da humanidade, questionando se seus principais gestores são confiáveis.
02 Não é só uma questão do Altman
Se você entender essa questão apenas por esse ângulo, estará perdendo o ponto mais importante.
A mídia mainstream pergunta: Altman merece confiança?
Mas a verdadeira questão é: quando uma tecnologia capaz de transformar a civilização humana é confiada a um sistema baseado na “auto-regulação”, a crise não é um acidente, mas uma consequência inevitável.
Chamamos esse fenômeno de: falha estrutural na governança da IA.
Não é só uma questão do Altman. É uma doença comum a toda a indústria de IA.
Confiança é uma das palavras mais frequentes no campo da IA. Quase todas as empresas de IA dizem: confiem em nós, priorizamos a segurança, nossas tecnologias beneficiarão a humanidade. Mas a investigação da “The New Yorker” revela uma dura realidade: a OpenAI nunca criou uma estrutura institucional que torne a confiança desnecessária.
A decisão central dessa organização é tomada por uma ou poucas pessoas. Sem freios externos. Sem mecanismos obrigatórios de transparência. Promessas são ferramentas, não restrições.
Camus escreveu em “O Mito de Sísifo”: “Julgar se a vida vale a pena ser vivida equivale a responder à questão filosófica fundamental.” O mesmo raciocínio vale para a IA: quando a tecnologia é capaz de mudar a civilização, mas os limites institucionais são frágeis, como podemos criar um sistema que não dependa da integridade pessoal?
03 Uma lista de promessas traídas
A reportagem da “The New Yorker” apresenta uma lista completa de “promessas traídas”.
A primeira foi a negociação com a Microsoft em 2019. Na época, a OpenAI estava se transformando de uma organização sem fins lucrativos para uma entidade de “lucro limitado”. Durante as negociações, Dario Amodei, cofundador da Anthropic, propôs uma cláusula de segurança central: “fusão e cooperação” — ou seja, se outra empresa estiver mais próxima de AGI em termos de segurança, a OpenAI deve parar de competir e se fundir com ela. Essa era sua linha de fundo na negociação. Após a assinatura do contrato, Amodei descobriu que a Microsoft tinha direito de veto sobre essa fusão, tornando a cláusula inócua. Quando confrontado pessoalmente por Altman, ele inicialmente negou a existência da cláusula, até que Amodei pediu que um colega confirmasse na hora, momento em que Altman admitiu e alegou “não se lembrar”. Amodei escreveu em notas privadas: “80% do estatuto foi traído.”
A segunda foi a promessa de capacidade computacional em 2023. A OpenAI anunciou com grande destaque a criação de uma “super equipe de alinhamento”, comprometendo-se a investir 20% de sua capacidade computacional nela. Mas fontes internas revelaram que essa equipe tinha na prática apenas 1% a 2% do poder de processamento, usando os chips mais antigos e de pior qualidade. Quando o responsável, Jan Leike, protestou, a resposta dos executivos foi fria e dura: “Essa promessa nunca foi realista.” Note aqui a memória seletiva: prometer 20%, entregar 1%-2%, e depois afirmar que “a promessa não era realista”. Não é um desvio de execução, mas um esquecimento sistêmico.
Isso não é uma questão de integridade. É uma manifestação inevitável da falha do sistema. Quando o poder se concentra em uma pessoa, e essa pessoa tem uma tendência inata a enfraquecer as restrições às promessas, elas serão sistematicamente esquecidas, redefinidas ou racionalizadas. Não é uma falha só do Altman, mas uma característica comum a qualquer estrutura de poder centralizado.
04 Por que os whistleblowers sempre fracassam
Ilya Sutskever escreveu em um memorando enviado ao conselho que: qualquer pessoa que tente desenvolver uma tecnologia capaz de mudar a civilização assumirá uma responsabilidade sem precedentes, mas, no final, quem ocupa esses cargos geralmente é alguém interessado em poder.
Existe uma profunda contradição: quem mais precisa de restrições é justamente quem mais deseja o poder. E o sistema atual não está preparado para essa contradição.
Quando Ilya decidiu emitir um alerta interno, ele não denunciou às autoridades externas, pois a indústria de IA quase não possui regulação externa; também não organizou uma ação coletiva dos funcionários, pois é um cientista, não um ativista. Sua única arma era um documento e a possibilidade de que o conselho tivesse uma consciência ética.
O resultado é conhecido: em novembro de 2023, o conselho de fato demitiu Altman, mas cinco dias depois, sob pressão de capital, opinião pública e interesses dos funcionários, o conselho se desfez, Altman voltou ao poder, e Ilya, que tentou denunciar, foi afastado do núcleo de poder.
Este não é apenas um caso de “Altman é muito poderoso”. É uma questão de design institucional: em uma organização altamente centralizada, o mecanismo de denúncia é estruturalmente ineficaz, não é por acaso. A razão é simples — o whistleblower arrisca sua reputação e carreira ao se opor ao empregador. Quando a organização nega, procrastina ou marginaliza, a pessoa quase não consegue resistir. A essência da centralização é criar um sistema onde vozes externas têm dificuldade de entrar, e internas, de serem amplificadas.
O mesmo aconteceu com Dario Amodei. Quando percebeu que não poderia mudar a cultura de segurança da OpenAI por dentro, escolheu outro caminho: saiu, fundou a Anthropic, e tentou praticar seus valores por meio de sua própria instituição. Uma retirada honrosa, mas não uma vitória sistêmica — pois depende da crença pessoal do fundador, não de garantias institucionais.
A questão central da governança da IA não é “como formar mais líderes éticos”, mas sim “como criar um sistema que funcione mesmo na ausência de liderança ética”.
05 Blockchain não é cura milagrosa, mas a peça que falta
Aqui proponho uma opinião que talvez surpreenda leitores de fora do universo blockchain: o valor central da blockchain não é emitir tokens, nem especular com Web 3, mas uma inovação paradigmática na governança — a externalização da confiança.
O que significa externalizar a confiança? Os sistemas tradicionais dependem de “confiar em uma instituição ou pessoa”. A blockchain propõe uma abordagem totalmente diferente: transferir a confiança de pessoas para regras e códigos. Não confiar em terceiros confiáveis, mas em regras transparentes e provas verificáveis.
As falhas na governança da IA residem justamente na ausência de mecanismos de externalização da confiança. As promessas da OpenAI são avaliadas por ela mesma. Isso não é regulação, é autoavaliação. O mundo externo não consegue verificar se eles realmente dedicaram 20% do poder de processamento à pesquisa de segurança, nem se o processo de liberação de modelos passou por uma comissão de segurança. Transparência é uma opção, não uma exigência estrutural.
A blockchain oferece um caminho possível. Não quer dizer que colocar modelos de IA na cadeia resolve tudo — tecnologia não resolve problemas de sistema — mas que registros transparentes e verificáveis podem tornar o comportamento do sistema de IA mais claro e auditável. Por exemplo, um log de decisões de IA baseado em blockchain, onde cada atualização de modelo ou decisão de alocação de recursos seja registrada na cadeia e imutável. Isso não tornará a IA perfeita, mas dificultará o esquecimento sistemático de promessas.
Claro, essa é apenas uma direção, não uma solução mágica. Tecnologia por si só não substitui governança. Mas, em uma era onde a governança de IA é quase inexistente, qualquer solução que torne o poder mais transparente e o sistema de freios mais estruturado merece ser discutida seriamente.
06 Uma reflexão mais profunda
A verdadeira lição da crise da OpenAI não é sobre quem é Altman.
E sim: quando uma tecnologia que pode decidir o rumo da civilização cai em um sistema baseado na “auto-regulação”, o risco não vem do controle tecnológico, mas da falha do sistema.
Na história da humanidade, toda grande revolução tecnológica foi acompanhada por uma evolução na governança. A energia nuclear trouxe a Agência Internacional de Energia Atômica e o regime de não proliferação. A internet trouxe leis de proteção de dados e segurança cibernética. Toda tecnologia capaz de alterar o poder exige que a humanidade crie novos sistemas de gestão.
AGI é a primeira tecnologia que pode mudar a civilização sem que tenhamos um sistema de governança eficaz. Esse sistema não pode depender de um fundador, nem de promessas de empresas. Precisa ser uma estrutura de equilíbrio, de controle, que não dependa de ninguém que seja auto-regulado.
E ainda não temos isso.
Sobre o memorando de 70 páginas de Ilya Sutskever, a investigação da “The New Yorker” revelou seu conteúdo central: Ilya deixou claro ao conselho que não achava que Altman deveria ser quem tivesse o controle do botão de AGI.
Esse documento foi o estopim do escândalo global da OpenAI em 2023. O conselho de fato tomou a decisão de demitir Altman, mas nos cinco dias seguintes, a estrutura de poder do setor escolheu seu caminho.
Não se trata de uma história de heróis versus vilões. É uma história de sistemas. Em um sistema bem desenhado, certas ações de Altman seriam controladas; em um sistema falho, até o mais bem-intencionado whistleblower sofre as consequências do poder.
A humanidade está entrando numa era em que a AGI pode mudar a civilização. E os sistemas que usamos para gerenciar essa era ainda estão presos ao século XIX.
Não é uma falha de uma pessoa só. É um exemplo clássico de falha de projeto institucional.
E a verdadeira lição não é “não confie no Altman” — mas sim “construa um sistema que permita questionar, equilibrar e tornar transparente qualquer pessoa”.
Confiança é necessária. Mas, na era da IA, confiança não basta. Precisamos de um sistema que torne a confiança redundante.
(Este artigo é uma síntese da reportagem da “The New Yorker” de 6 de abril de 2026, de declarações oficiais da OpenAI e de fontes públicas. Dados até abril de 2026.)