

En la ciudad de Bémera (Valencia) han convertido el chatgpt en un empleado más. Lo dijo En el país Marcos Gallart, Secretario Adjunto de la Área de Planificación Urbana de dicha ciudad. Según él, AI ahorra «el 20% del tiempo en la escritura de informes». El Chatbot de Operai, como sus rivales, le permite, por supuesto, ganar tiempo a tiempo, pero hay un problema con esa adopción. O varios.
Tenga cuidado de ahorrar tiempo. Aunque ChatGPT puede, por supuesto, ayudar a realizar todo tipo de tareas administrativas, el propio Galartal explicó cómo se necesita capacitación, se necesita acompañamiento y qué tan lejos se puede usar este tipo de herramientas. Y existe el problema, porque la dimensión y la complejidad de la administración pública hacen que este tipo de procesos de adaptación y uso de nuevas tecnologías suponga un desafío colosal.
No hay estándares. A pesar de la obsesión regulatoria de la UE y España en el campo de la IA, no existe una regulación clara que guíe a los funcionarios sobre cómo usar la IA y cómo administrar los datos que se manejan con él. Aquí se incluyen maestros, personal de salud o jueces que forman parte de un grupo enorme (1.6 millones de trabajadores) que, por supuesto, pueden usar estas herramientas, pero con mucho cuidado.
Para decirle a la policía. En los últimos meses hemos demostrado cómo el uso indiscriminado de IA y confianza en estos sistemas puede ser un desastre real. La Policía Nacional, por ejemplo, había estado usando IA seis años para detectar falsas quejas, pero la verdadera confiabilidad del sistema era muy discutible. En el reciente caso de ‘Ábalos’, se usó una IA para transcribir las declaraciones de testigos y acusados en los interrogatorios, pero hubo párrafos que eran un galimatismos. Aún más serio fue lo que sucedió con el sistema IA Viogén, que estaba teóricamente destinado a resolver casos de violencia de género y ha terminado causando tragedias mortales.
España quiere en la administración. Mientras tanto, el Ministerio de Función Pública anuncio En estos días su intención de incorporar IA a la administración pública. Para hacer esto, planteó una «plataforma soberana de IA» con una inversión de 14 millones de euros. Su misión, entre otras cosas: acelerar los procedimientos en la administración para provocar una según el Ministro Óscar López será «la mayor revolución de la administración general de Internet».
Una pesadilla para la privacidad (y la seguridad). Alguien preguntó a ChatGPT sobre problemas personales ya es delicado para la respuesta, que puede no ser precisa o incluso correcta, y por el hecho de que el chatbot mantiene esos datos. La cosa es especialmente grave si un oficial presenta documentos de todo tipo en este u otros chatbots para resumirlos o analizarlos: si esos documentos contienen datos confidenciales o privados, están bajo el control de estos chatbots, que de hecho Pueden filtrarlos Por error a otros usuarios.
Ciudadanos, posibles víctimas. Eso hace que la IA se convierta en un arma de doble fila para administraciones públicas y ciudadanos. Por un lado, pueden ayudar a acelerar los esfuerzos e incluso resolver problemas de manera mucho más eficiente. Por otro lado, un uso incorrecto de ChatGPT y sus alternativas pueden hacer que los datos privados y personales terminen donde no deberían, o incluso algo peor: que el resultado de una administración es incorrecto porque un funcionario lo usó y consideró que era correcto sin una supervisión adecuada.
Retención de datos cero. En este sentido, hay muchos servicios que ofrecen datos sin retención de datos. (ZDR, Retención de datos cero) Esto es: los datos que ingrese no se almacenarán en los servidores del proveedor. OpenAI lo tiene en su servicio Enterprise ChatGPT, una versión comercial diseñada con precisión para que los profesionales puedan usar la capacidad de ChatGPT sin temor a las filtraciones de datos. Microsoft es otro ejemplo.
La administración pública es más «publicado». En marzo el Proyecto de ley Para el uso ético, inclusivo y beneficioso de AI. Ese documento fue una adaptación a nuestra legislación de la Regulación europea de inteligencia artificial aprobada en marzo de 2024, pero allí encontramos una contradicción. Se criticó que la ley de la IA era demasiado restrictiva (la UE tuvo que regresar, pero lo divertido es que no fue con la administración pública: allí la regulación es cálida, no especifica usos malos y claros y solo considera delitos menores que se referían a la implementación y uso de los sistemas (artículos 25, 26 y 27).
Imagen | Pickpik
En | La obsesión regulatoria de la UE plantea un mundo en el que la IA tendrá dos velocidades. Y Europa perderá