Andrej Karpathy, cofundador de OpenAI y ex director de IA en Tesla, ha ofrecido una visión radicalmente distinta sobre el estado actual de la IA en una extensa entrevista con Dwarkesh Patel. Frente al optimismo desbordante, sostiene que los sistemas actuales son “fantasmas digitales” que imitan patrones humanos, no cerebros que evolucionan como los animales.
Su predicción: la AGI funcional llegará en 2035, no en 2026.
Por qué es importante. Las comparaciones entre IA y cerebros biológicos están dominando el discurso técnico y orientan muchas decisiones de inversión. Karpathy argumenta que esta analogía es “engañosa” y genera expectativas irreales.
Su experiencia dirigiendo la conducción autónoma en Tesla durante cinco años le ha dado una perspectiva única sobre la brecha entre demos brutales y productos realmente funcionales.
La diferencia. Los animales evolucionan durante millones de años, desarrollando instintos codificados en su ADN. Una cebra corre minutos después de nacer gracias a ese “hardware preinstalado”.
Los modelos de lenguaje aprenden imitando texto de internet sin anclar ese conocimiento en un cuerpo o una experiencia física. “No estamos construyendo animales”, afirma. “Estamos construyendo entidades etéreas que simulan comportamiento humano sin comprenderlo realmente”. Fantasmas.
El problema del aprendizaje por refuerzo. Karpathy dice que el RL (aprendizaje por refuerzo) actual es “terrible” porque recompensa trayectorias completas en lugar de pasos individuales.
Si un modelo resuelve un problema tras cien intentos erróneos, el sistema refuerza todo el camino, incluidos los errores.
Los humanos reflexionamos sobre cada paso y ajustamos.
El colapso. Los modelos sufren “colapso de entropía”:
Cuando generan datos sintéticos para autoentrenarse, producen respuestas que ocupan un espacio muy pequeño de posibilidades.
Pide a ChatGPT un chiste y obtendrás tres variantes repetidas.
La mala memoria humana es una ventaja: nos fuerza a abstraer.
Los LLM recuerdan perfectamente, lo que les permite recitar Wikipedia pero les impide razonar más allá de los datos memorizados.
Entre líneas. Karpathy vio que Claude Code y los agentes de OpenAI resultaron inútiles para código complejo durante el desarrollo de nanochat. Funcionan con código repetitivo que abunda en internet, pero fallan ante arquitecturas nuevas. “Las empresas generan slop”, ha dicho. “Quizás para levantar financiación”.
El núcleo. Su propuesta: construir modelos de mil millones de parámetros (enanos en comparación a los más usados hoy día) entrenados con datos impecables que contengan algoritmos de pensamiento, pero no conocimiento factual. El modelo buscaría información cuando la necesite, como hacemos nosotros.
“Internet está lleno de basura”, explica. Los modelos gigantes compensan esa suciedad con tamaño bruto. Con datos limpios, un modelo pequeño podría sentirse “muy inteligente”.