¿Revolución en la contratación pública o pesadilla legal a punto de estallar?
En mi opinión, el experimento de Albania es un valiente y necesario paso hacia adelante.Openx [71](300x120)

16 de Septiembre de 2025
Daniel S. Acevedo Sánchez | Linkedin | Email
Consultor en transformación digital y estrategia – Legal, Tax & Finance
Albania “nombró” una ministra IA. Cuando leí la noticia, tuve que revisarla dos veces. No es un titular de una novela de ciencia ficción, sino una realidad de 2024: Albania ha puesto a una inteligencia artificial, de nombre “Diella”, a cargo de supervisar la contratación pública. La promesa del primer ministro Edi Rama es audaz y seductora: licitaciones “100 % libres de corrupción” y fondos públicos “perfectamente transparentes”. La tecnología no es el futuro, es una herramienta presente y poderosa para transformar funciones críticas. El caso de Diella, que pasó de ser una asistente virtual en la plataforma e-Albania a una supervisora de contrataciones, es un experimento fascinante que nos obliga a analizar con lupa tanto sus deslumbrantes oportunidades como los enormes riesgos legales que esconde.
Seamos honestos, la contratación pública en muchos países es un laberinto burocrático, lento y, lamentablemente, propenso a la corrupción. La idea de un sistema automatizado que evalúe ofertas con base en criterios objetivos, sin amiguismos ni intereses ocultos, es el sueño de todos los ciudadanos. El objetivo de Diella es precisamente erradicar estas ineficiencias. Imaginen un “súper auditor” que trabaja 24/7, que no se cansa, no tiene prejuicios y revisa cada documento y cada cifra con una precisión sobrehumana. Esto representa una oportunidad sin precedentes para agilizar procesos, reducir costos y garantizar un campo de juego nivelado. El potencial para generar ahorros y confianza pública es innegable.
Pero no deja de ser un innecesario libre de riesgos. La implementación de una IA en una función tan crítica abre una caja de Pandora de interrogantes legales y éticos que no podemos ignorar.
¿Quién es el responsable? (accountability): si Diella comete un error y asigna un contrato multimillonario a la empresa equivocada o descarta injustamente a un proponente, ¿quién responde? ¿El programador que diseñó el algoritmo? ¿El funcionario que lo implementó? ¿El Estado albanés como entidad? La falta de una personalidad jurídica para la IA crea un vacío de responsabilidad que podría convertir cualquier disputa en un litigio de pesadilla.
El sesgo oculto en el código (Bias): toda IA es tan buena como los datos con los que fue entrenada. Si los datos históricos de contratación en Albania (o en cualquier otro lugar) contienen sesgos sistémicos (por ejemplo, favoreciendo a empresas de cierta región o tamaño), la IA podría aprender y perpetuar esas injusticias, pero ahora con un barniz de “objetividad tecnológica”. La promesa de ser “100 % incorruptible” se desvanece si el algoritmo es, sin saberlo, discriminatorio.
El derecho a la defensa y el debido proceso: ¿qué pasa si una empresa siente que fue evaluada injustamente por Diella?, ¿cómo apela una decisión tomada por una “caja negra”? La transparencia no es solo ver el resultado, sino entender el porqué. Si no podemos auditar y comprender la lógica detrás de la decisión del algoritmo, estamos vulnerando principios fundamentales del debido proceso.
El caso de Albania no debe asustarnos y paralizarnos, sino impulsarnos a actuar. No se trata de frenar la innovación, sino de encauzarla de manera inteligente y ética. Para cualquier líder que esté considerando implementar IA en procesos críticos, la hoja de ruta debe incluir:
Marcos regulatorios sólidos: es urgente que los gobiernos trabajen con expertos para crear leyes que definan la responsabilidad, los estándares de transparencia y los mecanismos de auditoría para el uso de IA en el sector público. No podemos dejar que la tecnología avance más rápido que el Derecho.
Exigir “IA explicable” (XAI): no basta con que la herramienta funcione. Debemos exigir a los proveedores de tecnología que sus soluciones puedan explicar cómo llegaron a una determinada conclusión. La transparencia algorítmica debe ser un requisito no negociable.
Mantener la supervisión humana (human-in-the-loop): la IA debe ser una herramienta de apoyo, no un reemplazo total. La decisión final, especialmente en casos complejos o de alto impacto, debe recaer en un ser humano que pueda aplicar criterio, contexto y sentido común. La IA puede analizar el 99 % de los datos, pero un experto debe validar el 1 % más crítico.
En mi opinión, el experimento de Albania es un valiente y necesario paso hacia adelante. Nos obliga a tener conversaciones incómodas, pero indispensables sobre el futuro de la gobernanza y la justicia. La IA tiene el potencial de hacer nuestros gobiernos más eficientes, transparentes y justos, pero no es una solución mágica. Es una herramienta poderosa que, mal utilizada, puede amplificar los problemas que busca resolver. El verdadero desafío no es tecnológico, sino de liderazgo. Se trata de diseñar e implementar estos sistemas con una profunda comprensión de sus implicaciones legales, éticas y sociales. La pregunta que debemos hacernos no es si la IA puede transformar el sector público, sino si nosotros, como líderes, estamos preparados para guiar esa transformación de manera responsable.
Siga nuestro canal de WhatsApp
Gracias por leernos. Si le gusta estar informado, suscríbase y acceda a todas nuestras noticias, los datos identificadores y los documentos sin límites.
¡Bienvenido a nuestra sección de comentarios!
Para unirte a la conversación, necesitas estar suscrito.
Suscríbete ahora y sé parte de nuestra comunidad de lectores. ¡Tu opinión es importante!