O autoresearch de Karpathy Permite que Agentes de IA Conduzam Pesquisas de Aprendizado de Máquina Enquanto Você Dorme
Resumo de Notícias
Março de 2026 (ET) — Andrej Karpathy, o aclamado pesquisador de IA e fundador da Eureka Labs, lançou um novo projeto de código aberto chamado autoresearch no GitHub. O projeto, anunciado em março de 2026, coloca um agente de IA encarregado de executar experimentos de aprendizado de máquina autonomamente em uma única GPU — substituindo efetivamente o pesquisador humano no ciclo experimental durante as execuções noturnas.
O Que É autoresearch?
O conceito é enganosamente simples: dar a um agente de IA um ambiente de treinamento de modelo de linguagem grande (LLM) pequeno, mas totalmente funcional, e deixá-lo iterar independentemente. O agente modifica o código de treinamento, executa um experimento de 5 minutos, verifica se o desempenho melhorou na métrica de validação e, em seguida, mantém ou descarta a alteração — repetindo esse ciclo durante a noite. Pela manhã, o usuário acorda com um registro completo de experimentos e, idealmente, um modelo significativamente melhor.
O projeto é construído sobre o trabalho anterior de Karpathy, nanochat, uma implementação de treinamento de LLM em GPU única. A base de código é deliberadamente mínima: apenas três arquivos importam. prepare.py lida com a preparação de dados e utilitários e nunca é tocado pelo agente. train.py é o único arquivo que o agente edita livremente — modificando qualquer coisa, desde a arquitetura do modelo e hiperparâmetros até o otimizador e o tamanho do lote. program.md é um arquivo de instrução em formato Markdown escrito pelo pesquisador humano para guiar o comportamento do agente, atuando efetivamente como uma "especificação de organização de pesquisa".
Orçamento de Tempo Fixo: O Núcleo Inteligente do Design
Uma das decisões de design mais notáveis no autoresearch é o rigoroso orçamento de tempo de relógio de 5 minutos para cada experimento. Independentemente do que o agente mude — tamanho do modelo, tamanho do lote, arquitetura — cada execução leva exatamente 5 minutos. Isso resulta em aproximadamente 12 experimentos por hora e cerca de 100 experimentos durante uma única noite de sono.
O benefício é que todas as execuções se tornam diretamente comparáveis, pois competem no mesmo orçamento de tempo, em vez de em computação flutuante. A contrapartida é que os resultados são específicos da plataforma: uma execução em uma NVIDIA H100 não será comparável a uma execução em uma GPU diferente. A métrica de avaliação é val_bpb (bits de validação por byte), uma medida independente do tamanho do vocabulário, garantindo comparações justas mesmo quando o agente altera a arquitetura do modelo.
Dependências Mínimas, Autonomia Máxima
Karpathy manteve o projeto autossuficiente, sem dependências de infraestrutura externa além do PyTorch e de um punhado de pequenos pacotes. Não há treinamento distribuído, nenhum sistema de configuração complexo e nenhum requisito de nuvem. Uma única GPU NVIDIA é tudo o que é necessário, com Python 3.10+ e o gerenciador de pacotes uv.
Para entrar no modo de pesquisa autônoma, os usuários simplesmente apontam seu agente de IA de escolha — Claude, Codex ou qualquer outro — para o repositório e o instruem a ler program.md e começar a experimentar. Karpathy observa que o arquivo program.md é uma "habilidade super leve" — uma interface de texto simples para programar a intenção de pesquisa.
Resposta da Comunidade e Impulso Inicial
Desde o seu lançamento, o repositório atraiu atenção significativa da comunidade, acumulando mais de 1.800 estrelas e 200 forks no GitHub no início de março de 2026. Vários forks impulsionados pela comunidade já apareceram, incluindo uma variante compatível com macOS. O projeto teve 20 commits e issues ativas abertas dias após o lançamento, sinalizando forte interesse dos desenvolvedores.
Um Vislumbre do Futuro da Pesquisa
Karpathy acompanhou o projeto com uma moldura filosófica caracteristicamente espirituosa, escrevendo: "Um dia, a pesquisa de ponta em IA costumava ser feita por computadores de carne entre comer, dormir, se divertir... Essa era já passou há muito tempo." Embora em tom de brincadeira, a declaração reflete uma mudança mais ampla na forma como a comunidade de IA está começando a pensar sobre pipelines de pesquisa automatizados e descoberta científica impulsionada por agentes.