Tecnología

Alguien puso a Chatgpt, Gemini, Claude y Company para jugar un juego de estrategia. Cada uno desarrolló una personalidad muy diferente – En un click

Alguien puso a Chatgpt, Gemini, Claude y Company para jugar un juego de estrategia. Cada uno desarrolló una personalidad muy diferente

 – En un click

Durante 36 horas, siete de los modelos de IA más avanzados del mundo Se han enfrentado en varios juegos de diplomaciaUn juego de mesa de estrategia similar al riesgo. Fue un espejo que reveló las verdaderas personalidades algorítmicas de Chatgpt, Claude, Gemini y Company.

¿Por qué es importante?. Alex Duffy, programador e investigador, creó una diplomacia como nueva Punto de referencia Para evaluar los modelos de IA. El experimento terminó siendo otra cosa, una especie de prueba tecnológica de Rorschach que desnudaba sus sesgos de entrenamiento y nuestras propias proyecciones.

Lo que ha pasado. En docenas de juegos transmitidos por Twitch, cada modelo desarrolló sus propias estrategias de una manera que parecía reflejar diferentes personalidades humanas.

  • El O3 de OpenAi fue bastante maquiavélico, trabajando alianzas falsas para más de 40 turnos y creando «realidades paralelas» para diferentes jugadores.
  • Claude 4 Opus era una especie de pacifista autoestructivo, negándose a traicionar incluso cuando eso garantizaba su derrota.
  • R1 de Deepseek mostró un estilo extremadamente teatral, con amenazas no causadas ya que «su flota se quemará en el Mar Negro esta noche».
  • Gemini 2.5 Pro demostró ser un estratega sólido pero más vulnerable a las manipulaciones sofisticadas.
  • QWQ-32B de Alibaba sufrió análisis mediante análisis, escribiendo mensajes diplomáticos de 300 palabras que le costaron eliminaciones tempranas.

El contexto. La diplomacia es un juego de estrategia europeo establecido en 1901, donde siete poderes compiten para dominar el continente. A diferencia del riesgo, requiere una negociación constante, formación de alianzas y, inevitablemente, traiciones calculadas. No hay gracia dada, solo pura estrategia y manipulación psicológica.

Entre líneas. Cada «personalidad algorítmica» refleja los valores de sus creadores.

  • Claude mantiene los principios de la seguridad antrópica incluso cuando cuesta la victoria.
  • El O3 muestra una eficiencia despiadada valorada en Silicon Valley.
  • Deepseek exhibe un drama que refleja influencias culturales específicas.

Y también hay algo más profundo. Estos no son «elegidos» para ser cooperativos o competitivos. Reproducen patrones de sus datos de entrenamiento. Sus «decisiones» son nuestros prejuicios algoritados, convertidos en código.

Si, pero. Interpretamos traiciones en las que «solo» hay optimización de los parámetros y vemos lealtad donde hay restricciones de entrenamiento. Es por eso que el experimento también revela más sobre nosotros que sobre los modelos: antropomorfizamos los comportamientos porque necesitamos entender la IA en términos humanos.

En perspectiva. El experimento de Duffy vale más que un Punto de referencia Cualquier persona porque ha creado una ventana sobre cómo proyectamos la personalidad en sistemas que operan para patrones estadísticos. El curso de los juegos fue un recordatorio de que IA no tiene intenciones ocultas, solo refleja el nuestro.

El experimento, por cierto, Continuar transmitiendo en Twitch Para que cualquiera pueda ver cómo juegan nuestras creaciones digitales de acuerdo con las reglas que nosotros mismos escribimos en sus algoritmos.

En |

Imagen excepcional | Diplomacia de IA

Redacción
About Author

Redacción