autoresearch de Karpathy permite a los agentes de IA realizar investigaciones de aprendizaje automático mientras duermes

March 08, 2026
Andrej Karpathy
4 min

Resumen de Noticias

Marzo de 2026 (ET) — Andrej Karpathy, el aclamado investigador de IA y fundador de Eureka Labs, ha lanzado un nuevo proyecto de código abierto llamado autoresearch en GitHub. El proyecto, anunciado en marzo de 2026, pone a un agente de IA a cargo de ejecutar experimentos de aprendizaje automático de forma autónoma en una sola GPU, reemplazando efectivamente al investigador humano en el bucle experimental durante las ejecuciones nocturnas.

¿Qué es autoresearch?

El concepto es engañosamente simple: darle a un agente de IA un entorno de entrenamiento de modelo de lenguaje grande (LLM) pequeño pero completamente funcional y dejar que itere de forma independiente. El agente modifica el código de entrenamiento, ejecuta un experimento de 5 minutos, verifica si el rendimiento mejoró en la métrica de validación y luego mantiene o descarta el cambio, repitiendo este ciclo durante la noche. Por la mañana, el usuario se despierta con un registro completo de experimentos y, con suerte, un modelo significativamente mejor.

El proyecto se basa en el trabajo anterior de Karpathy, nanochat, una implementación de entrenamiento de LLM en una sola GPU. La base de código es deliberadamente mínima: solo tres archivos son importantes. prepare.py se encarga de la preparación de datos y las utilidades, y el agente nunca lo toca. train.py es el único archivo que el agente edita libremente, modificando cualquier cosa, desde la arquitectura del modelo e hiperparámetros hasta el optimizador y el tamaño del lote. program.md es un archivo de instrucciones en formato Markdown escrito por el investigador humano para guiar el comportamiento del agente, actuando efectivamente como una "especificación de organización de investigación".

Presupuesto de Tiempo Fijo: El Núcleo de Diseño Inteligente

Una de las decisiones de diseño más notables en autoresearch es el estricto presupuesto de tiempo de reloj de pared de 5 minutos para cada experimento. Independientemente de lo que cambie el agente (tamaño del modelo, tamaño del lote, arquitectura), cada ejecución dura exactamente 5 minutos. Esto produce aproximadamente 12 experimentos por hora y alrededor de 100 experimentos durante una sola noche de sueño.

El beneficio es que todas las ejecuciones se vuelven directamente comparables, ya que compiten con el mismo presupuesto de tiempo en lugar de con cómputo flotante. La contrapartida es que los resultados son específicos de la plataforma: una ejecución en una NVIDIA H100 no será comparable a una ejecución en una GPU diferente. La métrica de evaluación es val_bpb (bits de validación por byte), una medida independiente del tamaño del vocabulario, que garantiza comparaciones justas incluso cuando el agente cambia la arquitectura del modelo.

Dependencias Mínimas, Máxima Autonomía

Karpathy ha mantenido el proyecto autocontenido sin dependencias de infraestructura externa más allá de PyTorch y un puñado de paquetes pequeños. No hay entrenamiento distribuido, ni sistema de configuración complejo, ni requisitos en la nube. Solo se necesita una única GPU NVIDIA, con Python 3.10+ y el gestor de paquetes uv.

Para entrar en modo de investigación autónoma, los usuarios simplemente apuntan su agente de IA elegido (Claude, Codex o cualquier otro) al repositorio y le indican que lea program.md y comience a experimentar. Karpathy señala que el archivo program.md es una "habilidad súper ligera", una interfaz de texto plano para programar la intención de investigación.

Respuesta de la Comunidad y Momento Inicial

Desde su lanzamiento, el repositorio ha atraído una atención significativa de la comunidad, obteniendo más de 1.800 estrellas y 200 forks en GitHub a principios de marzo de 2026. Ya han aparecido múltiples forks impulsados por la comunidad, incluida una variante compatible con macOS. El proyecto tuvo 20 commits y problemas activos abiertos a los pocos días del lanzamiento, lo que indica un fuerte interés de los desarrolladores.

Una Mirada al Futuro de la Investigación

Karpathy acompañó el proyecto con un marco filosófico característicamente ingenioso, escribiendo: "Un día, la investigación de IA de vanguardia solía ser realizada por computadoras de carne entre comidas, dormir, divertirse... Esa era hace mucho que pasó." Aunque en tono de broma, la declaración refleja un cambio más amplio en la forma en que la comunidad de IA está comenzando a pensar sobre los pipelines de investigación automatizados y el descubrimiento científico impulsado por agentes.