Tecnología

El fundador de OpenAI dice que la IA no imita al cerebro – En un click

El fundador de OpenAI dice que la IA no imita al cerebro

 – En un click

Andrej Karpathy, cofundador de OpenAI y exjefe de IA de Tesla, ha ofrecido una visión radicalmente diferente sobre el estado actual de la IA. en una extensa entrevista con Dwarkesh Patel. Ante un optimismo abrumador, sostiene que los sistemas actuales son «fantasmas digitales» que imitan patrones humanos, no cerebros que evolucionan como animales.

Su predicción: el AGI funcional llegará en 2035, no en 2026.

¿Por qué es importante?. Las comparaciones entre la IA y los cerebros biológicos dominan el discurso técnico y guían muchas decisiones de inversión. Karpathy sostiene que esta analogía es «engañosa» y genera expectativas poco realistas.

Su experiencia liderando la conducción autónoma en Tesla durante cinco años le ha dado una perspectiva única sobre la brecha entre demostraciones espectaculares y productos verdaderamente funcionales.

la diferencia. Los animales evolucionan a lo largo de millones de años y desarrollan instintos codificados en su ADN. Una cebra corre minutos después de nacer gracias a ese «hardware preinstalado».

Los modelos de lenguaje aprenden imitando textos de Internet sin anclar ese conocimiento en un cuerpo o una experiencia física. «No estamos construyendo animales», dice. «Estamos construyendo entidades etéreas que simulan el comportamiento humano sin comprenderlo realmente». Fantasmas.

El problema del aprendizaje por refuerzo. Karpathy dice que el RL (aprendizaje por refuerzo) actual es “terrible” porque recompensa trayectorias completas en lugar de pasos individuales.

  • Si un modelo resuelve un problema después de cien intentos fallidos, el sistema refuerza todo el camino, incluidos los errores.
  • Los humanos reflexionamos en cada paso y nos adaptamos.

El colapso. Los modelos sufren un «colapso de entropía»:

  • Cuando generan datos sintéticos para autoentrenarse, producen respuestas que ocupan un espacio muy pequeño de posibilidades.
  • Pídele un chiste a ChatGPT y obtendrás tres variantes repetidas.
  • La mala memoria humana es una ventaja: nos obliga a hacer abstracciones.
  • Los LLM recuerdan perfectamente, lo que les permite recitar Wikipedia pero les impide razonar más allá de los datos memorizados.

Entre líneas. Karpathy vio que los agentes Claude Code y OpenAI eran inútiles para código complejo durante el desarrollo de nanochat. Trabajan con código repetitivo que abunda en Internet, pero fallan ante nuevas arquitecturas. «Las empresas generan agua sucia«, dijo. «Quizás para conseguir financiación».

el núcleo. Su propuesta: construir modelos con mil millones de parámetros (pequeños en comparación con los más utilizados hoy) entrenados con datos impecables que contengan algoritmos de pensamiento, pero no conocimiento fáctico. El modelo buscaría información cuando la necesita, tal como lo hacemos nosotros.

«Internet está lleno de basura», explica. Los modelos gigantes compensan esa suciedad con tamaño bruto. Con datos limpios, un modelo pequeño podría parecer «muy inteligente».

El giro inesperado. Karpathy no espera ninguna explosión de inteligencia, sólo continuidad. Computadoras, teléfonos móviles, Internet: ninguno ha alterado la curva del PIB. Todo se diluye en el mismo crecimiento anual de ~2%.

«Estamos viviendo una explosión», afirmó, «pero la vemos en cámara lenta». Su predicción: la IA seguirá ese patrón, extendiéndose lentamente por la economía, sin provocar el salto abrupto al 20% de crecimiento que algunos han anticipado.

En | La privacidad está muriendo desde que llegó ChatGPT. Ahora nuestra obsesión es que la IA nos conozca lo mejor posible

Imagen destacada | Dwarkesh Patel

Redacción
About Author

Redacción