Tecnología

La primera ley que regula los ‘amigos de la IA’ ya está aquí – En un click

La primera ley que regula los ‘amigos de la IA’ ya está aquí

 – En un click

El debate sobre los efectos de la IA en la salud mental está empezando a transformarse en medidas tangibles. OpenAI anunció el control parental ChatGPT tras la demanda por el suicidio de un adolescente y ahora tenemos la primera ley que regula a los llamados amigos o Compañeros de IA popularizado por aplicaciones como Replika o Character.AI.

¿Qué ha pasado? El gobernador de California, Gavin Newsom, acaba de firmar la primera ley para controlar a los compañeros de IA, según informa en TechCrunch. «Podemos seguir liderando el campo de la inteligencia artificial y la tecnología, pero debemos hacerlo de manera responsable, protegiendo a nuestros niños en cada paso del camino. La seguridad de nuestros niños no está a la venta», dijo el gobernador en una declaración.

¿Por qué es importante?. Hay otras propuestas sobre la mesa en los Estados Unidos, pero California es el primer estado en convertir en ley la cuestión de los acompañantes de IA. Los riesgos de utilizar este tipo de chatbots, especialmente entre adolescentes, ya no son advertencias de expertosAhora habrá consecuencias legales. Las empresas que no cumplan con las reglas podrían enfrentar multas de hasta 250.000 dólares.

¿Qué es un compañero de IA?. Son chatbots que buscan replicar una conexión humana y pueden ofrecer desde apoyo emocional hasta relaciones íntimas. Por diseño, son la forma más sensible de IA en términos de posibles efectos sobre la salud mental. Las apps más populares son Replika y Character.AI, pero también hay quienes establecen este tipo de conexiones con chatbots de IA “normales” como ChatGPT o Claude. Incluso hay empresas que “resucitan” a un ser querido utilizando IA para ayudarle a afrontar el duelo (aunque los expertos creen que lograr todo lo contrario).

Lo que dice la ley. Entrará en vigor el 1 de enero de 2026 y está diseñado especialmente para proteger a los usuarios más jóvenes. Entre las medidas incluidas Existe la obligación de que las empresas integren sistemas de verificación de la edad. Además, deberán mostrar advertencias que dejen claro a los usuarios que las interacciones son generadas por IA, así como integrar protocolos de detección de suicidio o autolesiones.

Otras medidas. Como decíamos al principio, la demanda de los padres del adolescente que discutieron sus planes de suicidio con ChatGPT desató una crisis en OpenAI, que pronto anunció nuevas salvaguardas para ChatGPT como el control parental. Las aplicaciones complementarias de IA también están incorporando este tema a su discurso. El personaje AI ya tiene herramientas para padres y Replika aseguraron a TechCrunch que dedican muchos recursos a filtrar contenido y dirigir a los usuarios en situaciones complicadas a líneas de ayuda.

En | Los humanos se están enamorando de las IA y no son casos aislados: ya se cuentan por miles

Redacción
About Author

Redacción