Écrit par Kosisochukwu Charity Ani
La lutte contre la corruption est souvent un combat contre des ennemis visibles et invisibles : des réseaux bien établis, l'inertie bureaucratique et le volume considérable de décisions humaines arbitraires. Année après année, des milliards de dollars indispensables aux soins de santé, à l'éducation et à d'autres services publics disparaissent à cause de fuites systémiques, la fraude dans les marchés publics étant la plus importante source de détournement.
L'Albanie a mis en place une solution radicale, la ministre Diella, qui n'est pas humaine. Ce pays des Balkans occidentaux a nommé un système d'intelligence artificielle nommé Diella (qui signifie « soleil » ou « rayon de soleil ») à un poste ministériel, lui confiant la supervision du processus d'appel d'offres public national. On prétend qu'elle n'accepte pas de pots-de-vin, qu'elle n'a pas de parrains politiques et qu'elle ne se fatigue pas et n'est pas influençable.
Diella est conçu pour être plus qu'un simple chatbot, mais un algorithme incorruptible conçu pour examiner, signaler et finalement juger les contrats gouvernementaux en se basant uniquement sur des données objectives, la rentabilité et des critères de conformité. Comme l'a déclaré le Premier ministre Rama, « les appels d'offres publics seront exempts de toute corruption » et aideront le gouvernement à travailler plus rapidement et en toute transparence.
L'expérience albanaise : comment fonctionne le « ministre Diella »
Dévoilé en septembre 2025 par le Premier ministre albanais Edi Rama, Diella est un ministre virtuel alimenté par l'IA, conçu pour gérer, contrôler et analyser chaque processus de passation de marchés publics en temps réel.
Diella, représentée dans un costume traditionnel albanais, a été développée plus tôt cette année en collaboration avec Microsoft. Elle sert d'assistante virtuelle sur la plateforme de services publics e-Albania, aidant les utilisateurs à naviguer sur le site et à accéder à environ 1 million de requêtes et de documents numériques.
Son travail consiste principalement à détecter les signaux d'alerte, les offres surestimées, les entrepreneurs récurrents, les sociétés fantômes et les conflits d'intérêts bien avant que l'argent ne quitte le Trésor public.
Responsabilité, lacunes juridiques et éthiques
On pense que Diella ne dort pas, ne négocie pas et n'appartient à aucune faction politique, et qu'elle ne sert qu'un seul intérêt : celui du public. Mais derrière son visage numérique se cache un réseau de modèles d'apprentissage automatique entraînés à partir d'années de données d'approvisionnement intégrées à des registres fiscaux, d'entreprises et d'audit. Grâce au pouvoir conféré aux formateurs, programmeurs et scientifiques des données du modèle d'IA Diella, ceux-ci peuvent également assumer le rôle de parrains politiques, profitant des nombreuses lacunes juridiques et éthiques.
La question la plus flagrante est celle de la personnalité juridique. En vertu du droit albanais (et de pratiquement tous les systèmes constitutionnels à travers le monde), un ministre doit être une personne physique capable d'assumer une responsabilité juridique, de prêter serment et d'être tenu responsable de ses décisions.
Un système d'IA tel que Diella ne peut être assermenté en vertu d'une disposition constitutionnelle, destitué, poursuivi pour faute professionnelle ou exercer un pouvoir discrétionnaire en vertu du droit administratif. La « nomination » de Diella est symbolique plutôt que constitutionnelle ; il s'agit d'un outil numérique doté d'une autorité ministérielle, mais sans responsabilité ministérielle. La chaîne de responsabilité reste également floue : qui est légalement responsable si les algorithmes de Diella signalent injustement une entreprise, divulguent des données sensibles ou prennent une décision partiale ? Les programmeurs, les scientifiques des données ou le Premier ministre ?
Le chef du groupe parlementaire des démocrates et ancien ministre de la Justice, Gazmend Bardhi, a qualifié le statut ministériel de Diella d'inconstitutionnel. Dans un message publié sur Facebook, il a évoqué les implications juridiques de cette nomination, affirmant que « les pitreries du Premier ministre ne peuvent être transformées en actes juridiques de l'État albanais ».
Un utilisateur Facebook a partagé son opinion en déclarant : « Tout le monde n'est pas convaincu. » Un autre utilisateur Facebook estime que « Même Diella sera corrompue en Albanie. » Un autre a ajouté : « Les vols continueront et Diella sera tenue pour responsable. »
Les systèmes d'intelligence artificielle acquièrent des connaissances à partir de données historiques, qui comportent souvent des biais inhérents. Si les données relatives aux achats indiquaient un favoritisme systémique, à l'instar de l'outil de recrutement d'Amazon qui favorisait les candidats masculins, Diella pourrait adopter ces mêmes comportements au lieu de les combattre.
De plus, Diella ne « comprend » pas la corruption ; elle identifie plutôt des irrégularités. Les anomalies ne sont pas nécessairement synonymes d'activité criminelle, et le contexte joue un rôle crucial dans leur interprétation. Sans jugement humain ni raisonnement moral, il existe un risque que des personnes innocentes soient injustement identifiées comme des menaces. Parallèlement, des réseaux de corruption plus sophistiqués exploitent les vulnérabilités du système.
Le rôle de Diella repose fondamentalement sur le principe « human-in-the-loop », qui souligne que l'IA doit améliorer la prise de décision morale plutôt que la remplacer.
La nomination d'un ministre chargé de l'IA sans consultation publique ni approbation législative soulève des questions d'ordre démocratique. Qui a autorisé la nomination de M. Diella : l'exécutif, le parlement ou le public ?
En intégrant directement l'IA dans un poste ministériel, l'Albanie risque de créer un précédent en matière d'abus de pouvoir de l'exécutif via la technologie, qui utilise des outils d'IA pour contourner les contrôles et contrepoids institutionnels.
La question éthique plus profonde concerne le consentement des citoyens : peut-on gouverner les gens, même partiellement, à l'aide d'un système dont ils n'ont pas élu les membres et qu'ils ne peuvent pas remettre en cause devant les tribunaux ?
L'innovation sans constitution est un code risqué
La décision de l'Albanie est indéniablement visionnaire : une expérience audacieuse en matière d'intégrité fondée sur l'IA. Mais l'innovation ne peut pas aller au-delà de la Constitution. Avant que les ministres de l'IA ne deviennent la nouvelle norme, les pays, y compris ceux d'Afrique qui explorent l'IA pour la gouvernance, doivent d'abord :
- Définir les limites juridiques de la prise de décision par l'IA.
- Mettre en place des cadres de responsabilité pour les erreurs algorithmiques.
- Garantir la transparence et les droits de recours pour les personnes concernées ;
- Préserver le contrôle humain dans tous les processus décisionnels publics.
Sans législation explicite définissant le rôle administratif de l'IA, les pays risquent d'évoluer dans une zone grise où la responsabilité est floue, les normes constitutionnelles sont détournées et les politiciens corrompus sont remplacés non pas par des machines honnêtes, mais par des machines irresponsables.