“Opacidad disfrazada”: por qué la ministra de Albania creada con IA también puede ser corrupta

admin

Hace unos días, un pequeño país del sudeste de Europa fue noticia por un suceso insólito: su primer ministro, Edi Rama, anunció el jueves pasado el nombramiento de una ministra generada por inteligencia artificial. Y lo que prometía innovación no tardó en despertar debates en varios puntos, en torno a la utilidad y objetividad de esta herramienta.

«El nuevo mercado de capitales». El bono argentino con mayor volumen ahora ya opera 24/7

Sí, la nueva funcionaria, bautizada con el nombre de Diella (que significa “sol” en albanés), no existe físicamente. Sin embargo, estará a cargo de todas las decisiones sobre las licitaciones de contratación pública para garantizar que estén “100% libres de corrupción” y que todos los fondos públicos sometidos a este procedimiento sean “perfectamente transparentes”, según información difundida por AP. La noticia se dio a conocer por el propio ministro al anunciar cómo estaría compuesto su cuarto gobierno consecutivo.

Según expertos consultados, Albania enfrenta desafíos estructurales de corrupción en contrataciones públicas, vínculos político-empresariales y baja confianza institucional. Rama lleva más de 10 años como primer ministro y busca que el país pueda ingresar a la Unión Europea, que tiene estándares altos de lucha contra la corrupción. Esta herramienta justamente examinaría cada licitación en la que el gobierno contrate empresas privadas y “evaluaría objetivamente los méritos de cada una”, según compartió The Guardian.

El primer ministro de Albania Edi Rama en la Asamblea General de Naciones Unidas, el domingo 22 de septiembre de 2024, en la sede de la ONU. (AP Foto/Frank Franklin II)

“En principio, la idea resulta atractiva: un ente totalmente objetivo e incorruptible que tome decisiones basadas en la información de las licitaciones. Sin embargo, este ideal no se sostiene en la práctica”, apunta Jorge Vilas Díaz Cordero, director del Observatorio de IA de la Escuela de Gobierno de la Universidad Austral.

Los expertos consultados coinciden en que, para entender si esta herramienta puede mejorar los procesos de transparencia, es importante preguntarse quién y cómo entrenó esta inteligencia artificial. Ahora bien, uno de los puntos más polémicos de la noticia es que justamente no se ha informado de forma clara y pública con qué datos se capacitó a Diella, qué criterios de decisión sigue, ni qué mecanismos de control externo la supervisan. “La opacidad en procesos de compras públicas puede seguir existiendo, porque tal vez la entrenaron para que favorezca alguna empresa particular y deje otra afuera; son todas situaciones que no se pueden saber si no hay transparencia en ese proceso”, explica Gastón Pérez Alfaro, profesor de UCEMA.

El vaticinio de Bill Gates sobre la inteligencia artificial que generó entusiasmo

En otras palabras, toda inteligencia artificial es construida, entrenada y calibrada por humanos, con valores, prioridades y visiones del mundo. “El peligro está en creer que los algoritmos son imparciales cuando en realidad reflejan —y a veces amplifican— los sesgos del poder que los crea. No hay IA aséptica, no es objetiva ni neutral, siempre tiene una cosmovisión; la objetividad no se garantiza con máquinas, sino con pluralismo, auditoría y control ciudadano», agrega Vilas Díaz Cordero.

Mariana Olier, abogada especialista en derecho internacional e inteligencia artificial, coincide y señala: “Si el sistema se alimenta de información histórica que contiene sesgos, existe el riesgo de que estos sean perpetuados o incluso amplificados por el modelo”.

Diella es el nuevo miembro del gabinete del gobierno albano; nació como un asistente digital para trámites y ahora gestionará las licitaciones de obra pública para intentar frenar la corrupción en ese país

Otro punto importante a tener en cuenta que señalan los expertos es que la inteligencia artificial no tiene capacidad de entender el contexto. “Si la IA se entrena con datos locales, por ejemplo, patrones de las contrataciones, puede identificar irregularidades o anomalías propias de ese entorno. Puede ayudar a reconocer patrones contextuales, pero no comprende el contexto como una persona humana”, explica Antonella Stringhini, abogada especialista en administración pública y en inteligencia artificial; directora académica de proyectos de Inteligencia Artificial UBATEC.

¿Cuál es la solución?

Los expertos coinciden en que lo mejor es la combinación de los dos mundos: eficientizar procesos y ahorrar tiempo con el uso de la inteligencia artificial, porque a veces los recursos son escasos, pero contar con el criterio humano como un elemento esencial de la ecuación y con transparencia en los datos que se usaron para entrenarla. “Es bueno que el ser humano revise, constate y coloque otro tipo de variables que la inteligencia artificial no puede incluir, porque están vinculadas a la dimensión de lo humano. Pero que la inteligencia artificial acelere un proceso de licitación no implica que quede exento de corrupción”, señala Lourdes Puente, politóloga, doctora en Relaciones Internacionales y directora de la Escuela de Política y Gobierno de la UCA. Al mismo tiempo, explica que, dado que no se sabe cómo se entrenó a la herramienta, se desconoce si carga con otros sesgos. “Cualquier otra cosa que se le sume, tiene el peligro de incorporar sesgo. Y no hay que olvidar que las mismas normas tienen el sesgo político de quienes las hacen”, agrega Puente.

Estos son los cinco emojis que no deberías usar nunca en WhatsApp

Vilas Díaz Cordero coincide con Puente y explica que la digitalización puede ayudar a transparentar procesos, pero sin reformas profundas y sin una ciudadanía activa, acompañada de juicios humanos, la tecnología sola corre el riesgo de ser “cosmética o marketinera”. “La IA puede ser una herramienta útil para detectar irregularidades en grandes volúmenes de datos, pero no puede, por sí sola, erradicar la corrupción. Incluso puede volverse una fachada tecnocrática que simula control, mientras oculta nuevas formas de opacidad”, agrega.

Los expertos coinciden en que lo mejor es apoyarse en la IA, como herramienta que permite agilizar procesos, pero contando siempre con el criterio humano

Stringhini sugiere que, para garantizar la transparencia, se podrían realizar auditorías del código, los modelos, los datos de entrenamiento y los criterios de decisión. También anima a que los datos usados para entrenar a Diella sean documentados, públicos o al menos disponibles para organismos de control y que exista supervisión humana de las decisiones que adopta.

“Si bien la IA puede ayudar a optimizar procesos y aumentar la eficiencia, no es una solución mágica: requiere transparencia, auditoría y control humano constante para evitar nuevos riesgos”, coincide Olier y agrega: “Para que el sistema genere confianza, el gobierno debería garantizar la apertura de los conjuntos de datos utilizados, permitir auditorías y garantizar la supervisión humana en todo momento. De lo contrario, correría el riesgo de trasladar la corrupción al algoritmo, sin resolver el problema de fondo y generando nuevas fuentes de opacidad”.

Además, la especialista pone un nuevo dilema sobre la mesa: se abren dudas acerca de quién asume la responsabilidad de las decisiones que tome. En otras palabras, explica que la IA no tiene personalidad jurídica, por lo que deja abierto el interrogante acerca de quién asume cualquier decisión que arroje un resultado injusto o lesione los derechos de los ciudadanos.

Deja un comentario

Next Post

El dólar registró una nueva caída frente al “súper peso” en la apertura del 16 de septiembre

Tras la apertura de mercados el dólar estadounidense se paga al arranque de sesiones a 18,34 pesos mexicanos en promedio en las principales casas de cambio en los aeropuertos de territorio nacional, lo cual implicó un cambio del 0,12% si se compara con la cifra de la sesión previa, cuando […]
El dólar registró una nueva caída frente al “súper peso” en la apertura del 16 de septiembre

NOTICIAS RELACIONADAS

error: Content is protected !!