El 18/01/2024 el Ayuntamiento de Alicante anunció el lanzamiento de ALI, según sus propias palabras el “primer asistente virtual de IA para los trámites con el Ayuntamiento”, disponible en api.alicante.es. Así que he acudido, raudo, a probarlo y, ¡oh, menuda desilusión! Resulta que se trata de un robot conversacional (un chatbot, vamos) de la misma raza y modos a los que estaba yo (y estábamos casi todos) acostumbrados a ver y a difícilmente usar, de común, hasta la aparición comercial, el 30/11/2022, de ChatGPT. Pero, claro, no me esperaba que se tratara de una nueva creación con lanzamiento en 2024. Así que he sufrido un déjà vu que, sin duda, ha de ser un error de Matrix.

He querido ver qué ha podido pasar para que en plena eclosión de las inteligencias artificiales generativas haya visto la luz un proyecto que claramente no se aprovecha de las nuevas tecnologías IAG y de sus arquitecturas IT asociadas. Así que he revisado el expediente municipal de la “Implementación de una capa de acceso unificado basada en inteligencia artificial sobre navegación web y tramitación electrónica por SEDE”, que es la base adminsitrativa de ALI. La memoria, del 11/11/2021, con un presupuesto estimado de 702.479,34€, IVA no incluido, es claramente pre-boom IA, como también lo es la formalización del contrato el 25/05/2022, por 722.370,00€, IVA incluido, del proyecto, justificada con un informe de valoración municipal previo.

¿Qué ha pasado? No conozco la casuística interna del proyecto, pero puedo juzgar los resultados y el proceso administrativo que ha conducido a éstos. Lo que parece evidente es que a principios de 2023 se debería haber realizado una reconducción tecnológica del proyecto, fruto de una gestión de riesgos tecnológicos que a partir de 2023 debería ser asunto habitual en cualquier proyecto tecnológico, público o privado, dado el aumento continuo de la aceleración, más que velocidad, de publicación de artículos técnicos valiosos, arquitecturas IT, estrategias y productos/servicios IA. Pero, ¿por qué es antigua la recién nacida ALI? Destripemos su uso y lo veremos con más claridad.

Si le digo a ALI: “Quiero cambiar el idioma de interacción a valenciano”, ALI me contesta: “Lo siento, pero no puedo cambiar el idioma de interacción. Mi función principal es proporcionar información y ayudar en temas relacionados con el Ayuntamiento de Alicante. Si tienes alguna pregunta específica, estaré encantado de ayudarte en lo que pueda. Quizás te pueda ser útil la siguiente información: Enlace”. Me apunta a la Academia Valenciana de la Lengua <grin>; y eso que cuenta con una opción de menú para cambiar el idioma, opción que ni siquiera me sugiere. Y si digo “Quiero ver el contrato que ha generado este asistente de IA” me responde “Lo siento, pero como asistente de IA, no genero contratos. Mi función principal es proporcionar información y ayudar a los ciudadanos con preguntas relacionadas con el Ayuntamiento de Alicante. Si necesitas información específica, estaré encantado de ayudarte en lo que pueda”. O sea: que no me ha entendido. Estamos ante un modelo de lenguaje que está a años luz de los actuales LLMs Open (pues el proyecto de ALI es también Open Source). Así que se trata de tecnología antigua -así de acelerados vamos ahora- a precio (elevadísimo) antiguo -pues los proyectos similares que conozco importan una pequeña fracción del coste de éste. En fin.

Lo curioso es que el mismo día que se produce el anunciamiento de ALI, el 18/01/2024, el Gobierno Británico publicaba el Generative AI Framework for HMG, una muy interesante, aunque conservadora, “guía para el uso seguro y protegido de la IA generativa para funcionarios y personas que trabajan en organizaciones gubernamentales”, cuyas ideas-fuerza se resumen estupendamente en sus posters publicitarios. Es decir, se oficializar el apuntalamiento de que hay que empezar a reglar el marco de actuación pública ante tecnologías IAG necesarias, pero en continua evolución. O comenzar a matar proyectos (véase mi anterior artículo RIPP: Requiesce in Pace, Projectum)

En este marco de actuación del Gobierno Británico, hay dos aspectos que en él se resaltan y que yo también quisiera resaltar:

  • En las administraciones públicas se debe entender el ciclo de vida completo de la IA generativa, lo que implica disponer de recursos adecuados para el mantenimiento diario y saber cómo actualizar el sistema y cerrarlo de forma segura al final del proyecto​​.
  • Hay que trabajar con colegas comerciales desde el inicio: Los contratos de adquisición y soporte deben ser discutidos con colegas comerciales para asegurarse de que las expectativas sobre el uso responsable y ético de la IA generativa sean las mismas entre los sistemas de IA desarrollados internamente y aquellos adquiridos a terceros​​.

Adicionalmente, para gestionar la inclusión de cambios necesarios en el contrato de soporte de los nuevos proyectos tecnológicos en los que la IAG tenga algo, poco o mucho, que decir, los organismos públicos deberían añadir en las memorias, pliegos y contratos:

  • Cierta flexibilidad de adaptación a las tecnologías emergentes, comprehensivas o sustitutivas, en mejores condiciones de desarrollo y/o resultados, que las inicialmente estimadas.
  • Cláusulas contractuales de aseguramiento tecnológico que aborden la actualización o sustitución de la tecnología prevista si se vuelve obsoleta o inadecuada (y aquí se pone en valor de nuevo a los colegas comerciales) antes de la finalización del proyecto.
  • Disposiciones para la capacitación continua y el soporte técnico para manejar transiciones tecnológicas.

Pero, claro, no debemos olvidar que estamos hablando de AAPP. Y que nuestro marco legal y administrativo no es el británico. Pero hay muchos proyectos en marcha que vienen de hace años o cuyos contratos se han formalizado hace pocos meses; y hay que gestionar el riesgo tecnológico IA en ellos. Así que es momento de actuar, sin dilaciones.