Tecnología

Tienes que establecer una «líneas rojas» para que la IA no salga de control – En un click

Tienes que establecer una «líneas rojas» para que la IA no salga de control

 – En un click

El lunes, más de 200 personalidades y más de 70 organizaciones se unieron en una nueva iniciativa llamada Llamada global para líneas Red de IA (Llamado mundial para establecer líneas rojas en IA). El objetivo: trate de establecer límites claros que la IA nunca debe cruzar.

¿Por qué es importante?. Los avances generativos son frenéticos, pero una vez más, lo que se prioriza es que el desarrollo y la comercialización de estos modelos sin demasiadas reservas al hacerlo. Según los firmantes de la iniciativa,

«Algunos sistemas de IA avanzados ya han mostrado un comportamiento engañoso y dañino, y sin embargo, estos sistemas están dando más autonomía para actuar y tomar decisiones en el mundo. Si no está controlado, muchos expertos, incluidos aquellos que están a la vanguardia del desarrollo, advierten que será cada vez más difícil ejercer un control humano significativo en los próximos años».

Lo que se solicita. La iniciativa, iniciada durante la 80ª Asamblea General de las Naciones Unidas, solicita que los gobiernos actúen «con decisión» y lleguen a «un acuerdo internacional sobre líneas rojas claras y verificables para evitar riesgos universalmente inaceptables».

¿Cuáles son esas líneas rojas?. Lo que se propone es específicamente que algunos usos y comportamientos de la IA pueden terminar siendo peligrosos. Entre ellos serían, por ejemplo, prohibir:

Los que son. En ese grupo de más de 200 personalidades hay diez premios Nobel, expertos en IA, científicos, diplomáticos e incluso jefes de estado. Entre ellos se encuentran los nombres bien conocidos como los de los científicos Geoffrey Hinton y Yoshua Bengio que han estado advirtiendo sobre estos peligros durante algún tiempo. La lista es notable y también son expertos como Operai Co -Leaflet, Wojciech Zarama, o uno de los principales científicos de Deepmind, Ian Goodfellow.

Y los que no. Aunque en esta lista de personalidades hay nombres muy relevantes, también es significativo verificar que esta iniciativa no haya sido firmada por ningún CEO de una de las grandes compañías tecnológicas involucradas en el campo de la IA. Aunque a veces ha habido discursos que señalaron que también estaban preocupados por este problema y que la IA tuvo que estar regulada, en este caso no han participado en la iniciativa.

Mejor prevenir que curar. Charbel-Raphaël Segerie, responsable de una agencia francesa llamada Centro de Seguridad en AI (Cesia), «el objetivo no es reaccionar después de que ocurra un incidente importante, sino evitar riesgos en gran medida y potencialmente irreversibles antes de que ocurran».

El acto europeo va en esa línea. La Unión Europea ya creó su regulación y la lanzó en agosto de 2024, y la idea era establecer una serie de restricciones basadas en los niveles de riesgo. En este momento, el impacto de esta regulación ha sido negativo, especialmente porque ha restringido el uso y desarrollo de modelos de IA en la UE. Tanto es así que la UE ha decidido respaldar y suavizar sus regulaciones.

Y ya tenemos un precedente. Solo unos meses después del lanzamiento de ChatGPT, varios expertos hicieron una solicitud similar. Entre ellos estaban Elon Musk, que no ha firmado esta iniciativa, o Steve Wozniak, quien pidió detenerse durante seis meses el entrenamiento de los modelos de IA. Eso no llega a ninguna parte, y sin una prohibición explícita de que el desarrollo de los modelos de IA ha continuado imparable.

En | «Pasajeros estimados: cumpla con las reglas para evitar puntos negativos», China está implementando su crédito social

Redacción
About Author

Redacción