Tecnología

Hay un pacto de no proliferación de armas nucleares. En 2025, lo que necesitamos es uno que evite robots asesinos

Hay un pacto de no proliferación de armas nucleares. En 2025, lo que necesitamos es uno que evite robots asesinos

En 1139, el Papa Innocente II prohibió el uso de la ballesta, describiéndola como «un arma detestable para Dios e indigna para los cristianos». Sin embargo, hizo una excepción permitiendo su uso en la lucha contra los infieles. A pesar de esta prohibición, la ballesta siguió siendo utilizada en los siglos siguientes, lo que pone de manifiesto que la historia de las armas ha estado marcada por una serie de prohibiciones que, en muchas ocasiones, no han sido respetadas. En el presente, hay un debate similar sobre unas armas especialmente controvertidas: los llamados «robots asesinos».

Armas prohibidas. El ejemplo de las ballestas es solo uno entre muchos que ha rodeado la evolución de las armas militares y su uso en conflictos bélicos. En 1970, se estableció un tratado de no proliferación nuclear con el objetivo de evitar la utilización de armas nucleares. De igual modo, el derecho internacional también prohíbe el uso de minas químicas, biológicas y antipersonas. Aunque estos acuerdos son firmados por la gran mayoría de los países, no todos los estados del mundo los ratifican, lo que plantea un desafío para la regulación y el control de armas en el ámbito internacional.

Tenga cuidado con las armas autónomas. Como se indica en Reuters, la Organización de las Naciones Unidas ha convocado una reunión para Regular el uso de armas autónomas controladas por inteligencia artificial. Este tipo de armamento se emplea cada vez más en los conflictos bélicos modernos, y los especialistas advierten que ya es hora de imponer límites a esta tecnología letal que plantea serias preocupaciones éticas y morales.

La guerra de Ucrania como ejemplo. La actual Guerra de Ucrania es un claro ejemplo de cómo se aplican las armas autónomas en el terreno de batalla. Drones y robots están siendo empleados de manera significativa en operaciones contra las fuerzas rusas, incluyendo el uso de drones que lanzan otros drones para atacar objetivos específicos. La importancia de este tipo de armamento ha sido además influenciada por la guerra comercial entre Estados Unidos y China, que amenaza la producción y exportación de vehículos autónomos. En The New York Times, se han emitido alertas sobre el incremento de los temibles «drones Kamikaze» y su participación en el conflicto.

Diez años hablando de prohibir robots asesinos. En hemos estado discutiendo el peligro que representan las armas con inteligencia artificial, que pueden llevar a la creación de los temidos «robots asesinos». Este estrecho debate sobre la posible prohibición de estos artefactos proviene de años atrás, con organizaciones como Human Rights Watch abogando por su prohibición antes de que sea demasiado tarde. Investigadores en inteligencia artificial ya habían manifestado su preocupación en 2017, y el presidente de Microsoft, Brad Smith, mencionó que estos robots asesinos son «imparables». No obstante, muchos países continúan con su desarrollo sin llegar a un consenso que establezca límites claros en esta área peligrosa.

Fecha límite. El Secretario General de las Naciones Unidas, Antonio Guterres, ha establecido el año 2026 como fecha límite para que todas las naciones establezcan normas claras en el uso de armas de inteligencia artificial. Sus afirmaciones son contundentes: estos sistemas de armamento autónomos son «políticamente inaceptables y moralmente desagradables» y, por lo tanto, deben ser prohibidos.

No hay consenso. El principal obstáculo es, precisamente, la falta de consenso. Alexander Kmentt, jefe de control de armamento en el Ministerio de Relaciones Exteriores de Austria, ha señalado: «El tiempo es urgente para detener las pesadillas que algunos de los expertos más renombrados auguran». Personalidades influyentes del mundo tecnológico, como Elon Musk o Demis Hassabis, ya han levantado la voz desde 2018, solicitando a la ONU que lleve a cabo una prohibición sobre las armas autónomas para evitar riesgos incontrolables.

El ejército se resiste. Enfrentando los esfuerzos diplomáticos, se encuentran los controles militares, que, según Reuters, se oponen a la regulación de estos sistemas por miedo a perder ventaja en el campo de batalla. La última reunión de la Convención sobre Armas Convencionales (CCW) es solo una de muchas discusiones celebradas desde 2014, donde se ha defendido la necesidad de un «tratado legalmente vinculante» para los estados miembros de la ONU.

Pero algunos países prefieren ir a su ritmo. Aunque muchos estados apoyan este acuerdo general, naciones como Estados Unidos, Rusia, China e India sienten que lo mejor sería establecer regulaciones a nivel nacional o aplicar leyes internacionales ya existentes, según Amnistía Internacional. Un portavoz del Pentágono estadounidense mencionó en Reuters que «no estamos convencidos de que las leyes actuales no sean suficientes», señalando que las armas autónomas podrían representar un menor riesgo para los civiles que las convencionales.

Y dado que no hay regulación, hay proliferación. La falta de límite en el desarrollo de estas tecnologías está llevando a un aumento notable en la proliferación de armas autónomas. Expertos del Instituto del Futuro de la Vida han identificado el despliegue de alrededor de 200 sistemas de armas autónomas en regiones como Ucrania, Oriente Medio y África. En información corroborada, las fuerzas rusas han utilizado aproximadamente 3.000 drones Kamikaze en Ucrania, convirtiéndolos en un elemento crucial para atacar objetivos rusos, como hemos mencionado en ocasiones anteriores en .

Dualidad. Como mencionó mi colega Javier Jiménez en un artículo de 2018 sobre este asunto, uno de los grandes problemas del debate es que «es complicado determinar qué debería ser prohibido y qué no en un mundo tan informatizado como el de la guerra». La clave reside en el uso de la tecnología, que puede tener aplicaciones tanto civiles como militares. En este sentido, la reflexión fue clara: «No se cederá un activo militar estratégico por un dilema ético», y, en consecuencia, se planteó la necesidad de «herramientas» que permitan identificar, monitorizar y controlar el crecimiento de estas armas, dado que «ni las buenas intenciones ni el autocontrol han demostrado ser efectivos en el pasado».

Mucho dinero en juego. Sin embargo, como en toda industria, uno de los factores que afecta esta situación es el enorme dinero involucrado, especialmente ahora que existe una renovada urgencia por incrementar los presupuestos de defensa. Laura Nolan, de la Organización Activista de Robots Stop Killer, ha enfatizado que no hay garantía de que las empresas de tecnología actúen de manera responsable al desarrollar estos sistemas; «En general, no confiamos en que las industrias estén autorreguladas; no hay justificación para pensar que las empresas de defensa o tecnología sean más confiables».

En | Ucrania ha encontrado una solución al veterinario de China.

En | Así, la guerra del futuro ve al maestro que defiende a los robots soldados.

Redacción
About Author

Redacción