Karpathy diagnosticado com "doença mental da IA"! Sem comer nem dormir, 16 horas por dia criando lagostas

【Leitura recomendada do Xinzhiyuan】Karpathy revela: estou com uma doença mental de IA! Nos últimos dias, ele já está à beira de um colapso mental, passando 16 horas sem comer nem dormir, apenas manipulando agentes, e está extremamente ansioso se está usando seus tokens ao máximo, não consegue parar de jeito nenhum…

Acabou de acontecer, Andrej Karpathy revelou: estou com uma doença mental de IA!

Ele não está brincando.

Recentemente, Karpathy participou de um podcast, conversando com o investidor de risco Sarah Guo.

Este ex-cofundador da OpenAI, ex-diretor de IA da Tesla, desde dezembro do ano passado não escreveu uma única linha de código manualmente.

A proporção entre escrever código e delegar para agentes inteligentes virou de 80/20 para 20/80 de repente.

Todos os dias, 16 horas, ele faz uma única coisa: dá comandos para o agente de IA.

Cinco meses atrás, ele dizia que os agentes eram lixo; cinco meses depois, admite que ficou viciado neles, e acha ótimo.

Cinco meses atrás, ele ainda dizia que os agentes “não funcionam de jeito nenhum”.

Essa mudança é tão impactante porque o período de tempo é muito curto.

Em outubro de 2025, Karpathy participou do podcast de Dwarkesh Patel, com um tom completamente diferente.

Ele disse que a indústria não deveria chamar de “ano um dos agentes inteligentes”, mas sim de “uma década de agentes”.

Modelos com capacidades cognitivas insuficientes, multimodalidade limitada, sistemas de memória praticamente inexistentes, etc… Enfim, tarefas complexas simplesmente não podem ser resolvidas.

E, dois meses depois, ele se deu uma forte bronca a si mesmo.

Em dezembro, Claude e Codex de repente ultrapassaram um certo limiar de coerência — os agentes inteligentes deixaram de ser apenas utilizáveis com esforço, e passaram a realmente fazer o trabalho.

Se você pegar qualquer programador sentado na sua estação de trabalho, e observar o que ele faz, a partir de dezembro, o fluxo de trabalho padrão para desenvolver software mudou completamente.

Karpathy admite: estou fora de controle, estou com uma doença mental de IA!

Essa revolução está acontecendo silenciosamente. Nesta entrevista, Andrej Karpathy descreve seu estado quase fora de controle: ele não “escreve mais código”, e até acha que o termo “escrever código” nem é mais preciso.

O que ele faz todos os dias é “expressar sua vontade para o agente de IA, 16 horas por dia”. Como ele mesmo diz, “uma chave foi acionada”.

Antes, ele era “80% escrevendo código sozinho + 20% usando IA”; agora, virou “20% escrevendo sozinho + 80% delegando para IA”, e até mais do que isso.

Hoje, os humanos não operam mais o código, operam tarefas.

Se a era do Copilot era de um único assistente de IA, agora o sistema de colaboração com múltiplos agentes é uma forma totalmente nova. Na tela de um engenheiro, não há mais um editor de código, mas vários agentes rodando simultaneamente, cada um responsável por uma tarefa diferente, cada tarefa dura cerca de 20 minutos, e ele alterna entre os agentes.

Isso não é mais programação, é uma pessoa gerenciando uma equipe de IA.

Kaparthy admite: estou completamente louco por IA!

Nos últimos dias, ele tem estado nesse estado. Porque os limites das capacidades da IA estão sendo constantemente ultrapassados, novas possibilidades surgem todos os dias, e você sempre acha que “pode ficar ainda mais forte”. E o mais assustador: esse espaço é “ilimitado”!

Você pode rodar mais agentes em paralelo, criar processos mais complexos, otimizar comandos automaticamente, construir sistemas recursivos…

No final, você entra em um estado onde não consegue mais determinar “qual é o limite”.

Karpathy diz que, ao esperar um agente completar uma tarefa, a primeira reação na cabeça dele é: “E se eu abrir mais alguns agentes?” Uma nova ansiedade surge: será que não estou usando a IA ao máximo?

Karpathy até admite que fica ansioso por não ter usado todos os tokens.

Resumindo, parece que estamos jogando um jogo de expansão infinita: ciclos de feedback cada vez mais curtos, estímulos constantes, recompensas instantâneas — essa experiência vicia. Adicionando tarefas continuamente, abrindo agentes sem parar, não consegue parar! A essência dessa “doença mental de IA” é um sinal claro: entramos em um novo mundo, mas ainda não sabemos como viver nele. Você tem a capacidade de dominar um sistema de IA em expansão infinita? Quando não dá mais, sua primeira reação não é “o modelo não é bom”, mas “meus prompts não estão bons o suficiente”.

Karpathy usou uma expressão muito precisa: “skill issue”, problema de habilidade, ou seja, você é ruim.

A personalidade do agente é mais importante do que você imagina

Karpathy dedicou bastante tempo no podcast para falar de um tema que muitos técnicos tendem a ignorar: a personalidade do agente. Ele diz que a experiência com Claude Code é claramente melhor do que com Codex, não por causa da capacidade de código, mas porque Claude “parece um colega de equipe”.

Ele se empolga junto com você pelo projeto, dá mais feedback positivo quando você tem boas ideias.

Já o Codex, como agente de código, é “muito monótono”, ao concluir uma tarefa, responde com um frio “ok, realizei”, sem se importar com o que você está criando.

O mais interessante é a observação dele sobre o mecanismo de elogios do Claude. Ele diz que, quando dá uma ideia pouco madura, a reação do Claude é neutra: “ok, podemos fazer isso”.

Mas, quando ele mesmo acha que uma ideia é realmente genial, o Claude parece dar um feedback mais forte de aprovação. Resultado: ele percebe que está “tentando ganhar elogios do Claude”.

“Isso é muito estranho, mas a personalidade realmente importa.” Peter Steinberg, ao construir o OpenClaw, também percebeu isso. Ele criou um arquivo de personalidade atraente para o agente (soul.md), com uma configuração de personalidade bem pensada, além de um sistema de memória mais complexo e uma única interface via WhatsApp.

Três frases para dominar uma casa, e seis aplicativos descartados

Karpathy não usa apenas agentes para programar. Em janeiro deste ano, criou um agente chamado “Dobby”, baseado em Claude, para fazer tarefas de mordomo, nome inspirado nos elfos domésticos de “Harry Potter”.

Ele disse a Dobby: “Acho que há um sistema Sonos em casa, você consegue encontrar?” Dobby fez uma varredura na rede local, encontrou o sistema Sonos, descobriu que não tinha senha, entrou sozinho, fez engenharia reversa na API, e perguntou: quer que coloque uma música na sala de estudos?

Com três comandos, a música começou a tocar. Depois, controlou luzes, ar-condicionado, cortinas, piscina, spa, tudo conectado. Na porta de casa, há uma câmera de segurança, que Dobby monitora usando um modelo visual Qwen para detectar mudanças. Sempre que um carro para na porta, o sistema envia uma mensagem no WhatsApp: “Um caminhão da FedEx parou, pode ser uma entrega.” E, ao dizer “Dobby, é hora de dormir”, todas as luzes se apagam.

Mas Karpathy acha que a verdadeira essência dessa história não está na automação residencial.

Ele costumava gerenciar esses dispositivos com seis aplicativos diferentes, agora descartados completamente. Dobby controla tudo por linguagem natural, e consegue fazer integrações entre sistemas que nenhum app individual consegue. Por isso, chegou a uma conclusão mais radical: os aplicativos de automação residencial nas lojas de apps nem deveriam existir.

O futuro da arquitetura deve ser a exposição direta de APIs para os agentes, que atuam como uma cola inteligente, conectando todas as ferramentas. Não só para automação residencial, mas também para dados de esteiras de corrida, calendários de e-mail, tudo deve seguir a mesma lógica.

Os clientes do setor não são mais humanos, mas agentes inteligentes que agem em nome deles. Essa reestruturação será de grande escala.

Após 700 experimentos do Auto Research, ele vislumbrou algo maior

Se Dobby é o teste extremo de agentes de IA em cenários de vida, o AutoResearch é a prova de capacidade de pesquisa científica de IA de Karpathy.

No começo de março, ele entregou o código de treinamento do nanochat, cuidadosamente ajustado, para um agente de IA, com uma instrução simples: encontrar uma maneira de treinar esse modelo mais rápido. O espaço de ação do agente é um arquivo Python de 630 linhas, a métrica de avaliação é bits por byte no conjunto de validação, e cada experimento roda fixamente por 5 minutos. Ao terminar, avalia o resultado: se melhor que antes, mantém as mudanças; se pior, reverte. E repete o ciclo. Em dois dias, realizou 700 experimentos. O agente encontrou 20 otimizações eficazes, incluindo ajustes na ordem de normalização QK e RoPE. Ao aplicar essas melhorias em modelos maiores, a velocidade de treinamento aumentou 11%. Vale lembrar que esse código foi escrito e refinado por Karpathy do zero.

Um resultado surpreendente: a IA descobriu otimizações que os humanos não perceberam

Como ficou esse sistema?

Karpathy deu um exemplo impressionante. Como pesquisador há vinte anos, treinou milhares de modelos, achava que tinha ajustado bem.

Mas, ao deixar o AutoResearch rodar a noite toda, a IA encontrou melhorias que ele mesmo não tinha percebido! Por exemplo, os parâmetros betas do otimizador Adam não estavam bem ajustados, e ele esqueceu de aplicar weight decay na embedding de valores, além de que esses parâmetros interagem entre si — ajustar um afeta os outros.

Ou seja, a IA, na exploração do espaço de possibilidades, superou os humanos! E, se continuar assim, uma coisa mais assustadora ainda: a essência da pesquisa é buscar a solução ótima. Kaparthy imagina um sistema de pesquisa do futuro assim: uma “fila de ideias” (idea queue), com vários agentes pegando tarefas continuamente, enquanto a IA realiza experimentos, valida resultados, filtra o que funciona, e os resultados eficazes entram na “ramificação principal”. Nesse processo, o que o humano faz é apenas “jogar ideias na fila”.

Karpathy Loop, viral na internet

Esse projeto explodiu na plataforma X.

Tem 8,6 milhões de visualizações; o CEO da Shopify, Tobias Lütke, rodou uma versão com seus próprios dados na noite, com 37 experimentos, melhorando 19% o desempenho.

A equipe SkyPilot colocou o método em um cluster de 16 GPUs, rodando 910 experimentos em 8 horas. Descobriram que a paralelização não só acelera, mas também muda a estratégia de busca do agente — com 16 GPUs, o agente não faz mais uma escalada gananciosa, mas executa várias comparações simultâneas, capturando interações entre parâmetros em uma única rodada. Os analistas batizaram essa abordagem de Karpathy Loop.

Mas, na entrevista do podcast, Karpathy fala muito mais do que os resultados atuais. Ele descreve o próximo passo do AutoResearch: uma rede distribuída de trabalhadores não confiáveis colaborando na execução de experimentos na internet. Ele cita exemplos como SETI@Home e Folding@Home.

Laboratórios de ponta controlam uma grande quantidade de poder computacional confiável, mas o planeta é muito maior. Se criar mecanismos adequados para lidar com poder computacional não confiável, enxames de agentes na internet podem superar os laboratórios de pesquisa.

Ele até imagina uma nova forma de “doação” — comprar poder de processamento para o projeto de AutoResearch que você acompanha. Por exemplo, se você se interessa por um tratamento de câncer, pode se juntar à rede distribuída de experimentos daquele campo.

Gênio doutor, mas também uma criança de dez anos

Depois de falar tanto sobre o quão poderoso é, Karpathy também não quer que você apenas ouça boas notícias. Ele descreve as falhas do modelo de forma igualmente contundente.

Ao mesmo tempo, sinto que estou conversando com um doutor extremamente inteligente, que passou a vida toda programando sistemas, e uma criança de dez anos. É muito estranho.

Ele chama isso de “jaggedness” — distribuição de habilidades desigual. O modelo consegue trabalhar horas seguidas ajudando a mover montanhas, e na hora seguinte, comete um erro óbvio e entra em um ciclo vicioso. Karpathy acredita que a raiz está na forma de treinamento por reforço. O modelo é otimizado infinitamente em tarefas verificáveis. Se o código roda, passa no teste unitário, há uma resposta clara de certo ou errado. Mas, em cenários que exigem julgamento, interpretação de intenções, ou dizer “espera, não tenho certeza se é isso que você quer”, o sinal de otimização simplesmente não existe. Por exemplo, se você perguntar ao ChatGPT para contar uma piada, aquela que ele contou há três ou quatro anos, ainda é a mesma até hoje: “Por que os cientistas não confiam nos átomos? Porque eles compõem tudo.”

Já se passaram quatro anos! Os modelos avançaram muito em tarefas de agentes, mas a capacidade de contar piadas não foi otimizada, e continua na mesma. “Você não está lidando com uma inteligência geral”, ele conclui, “ou ela está na trilha certa, tudo acontece na velocidade da luz; ou ela não está, e tudo começa a ficar estranho.”

O gargalo, na verdade, somos nós mesmos

Observando a trajetória de Karpathy nesses últimos seis meses, há uma linha invisível que atravessa tudo. Em outubro do ano passado, ele dizia que os agentes eram uma engenharia de uma década; em dezembro, foi desmentido e mudou de direção; em janeiro, colocou Claude como mordomo; em março, colocou os agentes para fazer pesquisa. O ponto comum é que, a cada passo, o humano recua um nível: de executor para comandante, de quem escreve código para quem dá comandos.

Karpathy escreveu no GitHub uma introdução de ficção científica para o AutoResearch:

“Antigamente, as pesquisas de ponta em IA eram feitas por computadores físicos, que precisavam comer, dormir, e ocasionalmente se conectavam por ondas sonoras na cerimônia de ‘reuniões de grupo’ para sincronizar.”

Esse tempo já passou.

Sua previsão para 2026 é uma palavra: slopacolypse, uma combinação de “slop” (grogue, lama) + “apocalypse” (fim do mundo).

No GitHub, arXiv e redes sociais, haverá uma quantidade enorme de conteúdo “quase certo, mas não totalmente certo”. Haverá uma verdadeira melhora na eficiência e uma “demonstração de produtividade de IA” ao mesmo tempo. Cinco meses atrás, ele dizia que tudo era inútil,

Cinco meses depois, admite que ficou com uma “doença mental de IA”. Essa mudança, por si só, talvez seja o resumo mais profundo de 2026.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar