


Puedes estar en desacuerdo. Puede pensar que aún faltan mucho. Pero es difícil ignorar la dirección en la que avanzamos: una en la que Robots humanoides Serán parte de nuestra vida diaria. Cuando la tecnología es madura, cuando los costos dejan de ser un obstáculo, la decisión ya no será técnica. Será ético. ¿Hasta dónde pueden llegar los robots? ¿Y quién pondrá los límites?
Imagina los escenarios. Los robots se convirtieron en soldados, desplegados en conflictos, solo o al lado de las tropas humanas. Robots como compañeros emocionales, no solo para las personas mayores, sino para cualquiera que viva solo. Robots que limpian, cocinan, organizan. Robots en fábricas, incansables, constantes, reemplazando las tareas que hicimos antes.
Lo sorprendente es que todo esto ya está comenzando a suceder. Hoy, el robot Figura 02que desde el año pasado funciona en una fábrica de BMW, puede operar de forma autónoma, clasificar objetos y hacerlo con precisión gracias a lo que Sus desarrolladores llaman «Toque» y «memoria a corto plazo».
En 2018, ‘Detroit: Be Human’ parecía ciencia ficción. Incluso entonces, no es su creador, David CageHubiera optado que en 2025 estaríamos viendo algo así en el mundo real. Pero ha sucedido. Y lo más fascinante es que esa figura no camina sola. Detrás de sus gestos, hay algo más. Una red neuronal que, como veremos pronto, es el verdadero protagonista.
Helix, el ‘cerebro’ detrás de la figura 02
Esa red neuronal tiene su propio nombre: Helix. Es el cerebro detrás del robot. La persona responsable de sus movimientos se ve cada vez más natural. Y lo que ha logrado En solo tres meses En un entorno logístico es difícil de ignorar. Helix no solo ha aprendido a manipular objetos con habilidad. Ha aprendido a Comprender el contexto. Para adaptarse. Actuar como si recordara lo que hizo antes. Y lo más sorprendente: hacerlo mejor y mejor, más rápido y menos errores.
Al principio, Helix enfrentó un catálogo más simple. Pero poco a poco ha aprendido a trabajar con una mayor variedad de paquetes: De cajas rígidas a Sobres suaves o bolsas de plástico deformables, que son mucho más difíciles de sostener y posicionar. Algunas arrugas, otros se doblan, otros se deslizan fácilmente. Para un robot, ese es un verdadero desafío.
Y sin embargo, Helix se adapta. Ajuste la forma en que cada objeto toma, cambia su estrategia si el paquete es más plano o más suave, incluso sabe cuándo es conveniente tomar un pequeño giro o usar un tipo de abrazadera más preciso. Hace todo en el vuelo, sin que nadie le diga qué tipo de paquete tiene al frente.
El robot sabe cuándo es conveniente tomar un giro pequeño o usar un tipo de abrazadera más preciso
Ese comportamiento no ha sido programado por línea. Lo ha aprendido observando. En total, fue entrenado con 60 horas de manifestaciones humanas. Y con cada nuevo ejemplo, se entendió mejor qué hacer en cada caso. Gracias a eso, el tiempo promedio que lleva procesar un paquete ha disminuido significativamente.
Pero Helix no es solo rápido. También es necesario. Las etiquetas, que estaban orientadas anteriormente antes, ahora el 94.4 % del tiempo se colocan correctamente. ¿Como? Porque el robot ha aprendido, entre otras cosas, Pequeños sobres arrugados Antes de intentar escanear. Una ligera presión sobre el plástico es suficiente para que el código de barras sea visible. Es un gesto mínimo, pero muy revelador.
Ese aprendizaje se basa en algo fundamental: la memoria. Helix tiene un sistema de visión que no solo analiza lo que ve en ese momento, sino que recuerda lo que vio hace unos segundos. Es como si tuviera un Memoria visual a corto plazo. Gracias a ella, puedes tomar decisiones más inteligentes. Por ejemplo, si detecta que un paquete ya se giraba en un ángulo determinado, no lo vuelve a girar. Si no encontró la etiqueta al principio, recuerde dónde podría estar y probar en esa dirección.
Otro cambio clave ha sido incorporar la historia de sus propios movimientos. Antes, cada acción era un fragmento aislado: ver, actuar, ver nuevamente. Ahora, hélice Recuerda en que posición estaban tus brazosSu torso o su cabeza se hace un momento, lo que le permite moverse con más fluidez. Si algo deja el plan, si el paquete se desliza o el agarre no es perfecto, puede corregirse en tiempo real sin comenzar desde cero.
Y el más reciente: El sentido del tacto. No es un toque humano, por supuesto, sino una forma de detectar cuánta presión ejerce sobre un objeto. Esa retroalimentación de fuerza permite que Helix Pause sienta resistencia, o la ajuste si el objeto pesa menos de lo esperado. Gracias a esto, puede manipular con más cuidado y adaptarse a las diferencias de peso o rigidez.
Y esto no es teoría. La Figura 02 ya se ha puesto a prueba en condiciones reales. Durante una sesión de una hora, El robot operaba sin interrupciones En un entorno logístico, clasificando los paquetes de forma autónoma mientras usa todas sus nuevas capacidades: su sentido del tacto, su memoria visual a corto plazo, su capacidad para corregir errores en la marcha. Una demostración continua de trabajo fluido, preciso, sin intervención directa.
Las imágenes de esa sesión, que hemos incluido en el video que acompaña a este artículo, muestran más que un robot en ejecución. Muestran una red neuronal que enfrenta el caos del mundo físico y sale de Airy. Muestran la Figura 02 tomando decisiones, adaptándose, actuando con un nivel de autonomía que hasta hace muy poco habría parecido ciencia ficción.
Tesla tiene Optimus, Boston Dynamics to Atlas, Agility Robotics A Digit. Todos compiten para liderar la carrera del Robots humanoides. Pero en paralelo, la figura 02 avanza a través de un carril sin eventos, sin música de fondo, pero con resultados. Con el paso del tiempo veremos cómo evoluciona todo esto.
Imágenes | Figura AI
En | Google no quiere que la IA permanezca en la pantalla: Gemini Robotics es su plan para que los robots actúen en el mundo real
En | La supercomputadora de la Nvidia cuesta millones de dólares. Y para trabajar usamos un interruptor con tres kilómetros de cable