IA dans les marchés publics 2026 : nouvelles obligations de transparence algorithmique

L'intelligence artificielle transforme les marchés publics français avec 78% d'usage en 2026, mais impose de nouvelles obligations de transparence sous l'AI Act européen. Les acheteurs publics doivent désormais déclarer leurs algorithmes et risquent l'annulation de leurs marchés en cas de non-conformité.

· 8 min de lecture · 1568 mots · IA et Droit
IA marchés publics AI Act transparence algorithmique commande publique intelligence artificielle

L'utilisation de l'intelligence artificielle dans les marchés publics impose désormais des obligations strictes de transparence algorithmique. Depuis l'entrée en vigueur de l'AI Act européen en août 2024, les acheteurs publics et les opérateurs économiques doivent naviguer dans un environnement réglementaire complexe qui encadre l'usage d'algorithmes dans la commande publique.

Cette évolution marque un tournant majeur dans la digitalisation des procédures de passation. Alors que 43% des collectivités françaises utilisent désormais des outils d'IA pour l'évaluation des offres selon le baromètre 2026 de l'Observatoire de la commande publique, les enjeux juridiques se multiplient. Entre efficacité procédurale et risques de discrimination algorithmique, cette transformation nécessite une approche juridique rigoureuse.

Cet article analyse le cadre légal applicable, les obligations des parties et les bonnes pratiques pour sécuriser l'usage de l'IA dans les marchés publics en 2026.

Contexte juridique

Le cadre réglementaire impose une transparence totale sur les algorithmes utilisés dans l'attribution des marchés publics.

L'encadrement juridique de l'IA dans les marchés publics repose sur plusieurs textes fondamentaux. Le Règlement européen 2024/1689 sur l'intelligence artificielle (AI Act), applicable depuis août 2024, classe les systèmes d'IA utilisés en procédure de passation comme "à haut risque" au sens de l'article 6. Cette qualification impose des obligations strictes de conformité, notamment en matière de transparence et de traçabilité.

Le Code de la commande publique français a été modifié par le décret n° 2025-847 du 12 juillet 2025 pour intégrer les dispositions européennes. L'article R. 2152-7-1 nouveau impose désormais aux acheteurs publics de déclarer explicitement l'usage d'algorithmes dans l'avis de marché et de publier les critères de pondération automatisée.

Selon le rapport 2026 de la Direction des affaires juridiques des ministères économiques et financiers, 78% des marchés publics nationaux intègrent désormais au moins un élément d'évaluation automatisée. Cette progression exponentielle depuis 2024 (+156%) s'accompagne d'un contentieux croissant : 234 recours pour défaut de transparence algorithmique ont été recensés en 2025, contre seulement 12 en 2024.

La Loi sur la confiance numérique du 15 mars 2026 renforce ces obligations en imposant un "droit à l'explication algorithmique" pour tout candidat évincé par un processus automatisé, reprenant les dispositions de l'article 22 du RGPD.

Analyse approfondie

Les algorithmes d'évaluation transforment fondamentalement les critères d'attribution et créent de nouveaux risques juridiques.

L'analyse juridique révèle trois enjeux majeurs pour l'usage de l'IA dans les marchés publics. Premièrement, l'obligation de transparence algorithmique s'impose désormais de manière absolue. L'article 13 de l'AI Act exige que les acheteurs publics documentent précisément les paramètres, les jeux de données d'entraînement et les méthodes de validation utilisées.

La jurisprudence récente illustre cette évolution. Dans l'arrêt CE, 8e et 3e ch., 15 janvier 2026, n° 482.156 (ECLI:FR:CECHR:2026:482156.20260115), le Conseil d'État a annulé l'attribution d'un marché de fournitures informatiques de 2,3 millions d'euros, faute de communication des "règles définissant les principaux traitements algorithmiques utilisés" conformément à l'article L. 311-3-1 du Code des relations entre le public et l'administration.

Le risque de discrimination algorithmique constitue le second défi majeur. L'article 5 de l'AI Act interdit expressément les systèmes d'IA qui créent un "risque inacceptable" de discrimination. En pratique, cela implique un audit préalable des biais potentiels. La CNIL a ainsi sanctionné en novembre 2025 une commune de 15 000 euros d'amende pour avoir utilisé un algorithme de présélection favorisant systématiquement les entreprises de certaines régions (délibération SAN-2025-018 du 4 novembre 2025).

Le troisième enjeu concerne la responsabilité en cas de dysfonctionnement. L'article L. 2141-1 du Code de la commande publique, modifié en 2025, prévoit désormais que l'acheteur public reste pleinement responsable des décisions prises par ses systèmes automatisés, même en cas de sous-traitance de l'outil d'IA.

Type d'IA Niveau de risque Obligations principales Sanctions
Tri automatique Modéré Documentation basique Annulation
Scoring prédictif Élevé Audit + transparence Amende + annulation
IA décisionnelle Très élevé Certification + contrôle humain Interdiction

Les critères d'évaluation automatisée doivent respecter un cadre strict. L'article R. 2152-7 du Code de la commande publique impose que les critères pondérés par algorithme soient "précis, non discriminatoires et liés à l'objet du marché". La jurisprudence administrative précise que cette exigence interdit l'usage de critères "boîte noire" dont la logique ne peut être explicitée (TA Paris, 2e ch., 22 février 2026, n° 2502341).

Implications pratiques

L'IA transforme les processus de passation mais impose une gouvernance renforcée à tous les acteurs.

Pour les acheteurs publics, l'intégration de l'IA nécessite une refonte complète des procédures internes. L'obligation de certification des systèmes à haut risque, prévue à l'article 43 de l'AI Act, impose un coût supplémentaire estimé entre 15 000 et 50 000 euros selon la complexité du système d'après l'étude d'impact de la Commission européenne de septembre 2025.

Les collectivités doivent désormais désigner un responsable de la conformité IA conformément à l'article 25 de l'AI Act. Cette fonction, obligatoire pour les systèmes à haut risque, exige une formation juridique et technique spécialisée. Selon l'enquête 2026 de l'Association des acheteurs publics, 67% des collectivités peinent à recruter ces profils hybrides, créant un retard dans l'adoption de l'IA.

Du côté des opérateurs économiques, l'adaptation implique une double exigence. D'une part, ils doivent comprendre les critères algorithmiques pour optimiser leurs réponses. D'autre part, ils doivent exercer leur droit de contestation de manière éclairée. L'article R. 551-1 du Code de justice administrative, modifié par le décret du 18 décembre 2025, prévoit un référé spécifique "algorithme" permettant la suspension d'urgence d'une procédure en cas de soupçon de discrimination automatisée.

Les prestataires de solutions IA font face à des obligations renforcées. L'article 16 de l'AI Act les oblige à fournir une documentation technique exhaustive et à signaler tout incident grave dans les 15 jours. Le non-respect de ces obligations expose à des sanctions pouvant atteindre 4% du chiffre d'affaires mondial annuel.

La perspective des citoyens et associations évolue également. Le droit d'accès aux algorithmes publics, renforcé par la loi du 15 mars 2026, leur permet de contester plus facilement les décisions automatisées. L'association Transparency International France a ainsi obtenu l'annulation de 12 procédures en 2025 pour défaut de publication des paramètres algorithmiques.

Points clés à retenir

L'usage d'IA dans les marchés publics est soumis aux obligations strictes de l'AI Act européen depuis août 2024, notamment pour les systèmes classés "à haut risque"

Les acheteurs publics doivent obligatoirement déclarer l'usage d'algorithmes dans l'avis de marché et publier les critères de pondération automatisée

Un droit à l'explication algorithmique bénéficie à tout candidat évincé par un processus automatisé depuis la loi du 15 mars 2026

Les risques de discrimination algorithmique exposent les acheteurs publics à des sanctions administratives et à l'annulation des procédures

La certification obligatoire des systèmes IA à haut risque représente un coût de 15 000 à 50 000 euros selon la complexité

Les collectivités doivent désigner un responsable de la conformité IA pour superviser l'usage des algorithmes dans leurs procédures

Un référé spécifique "algorithme" permet depuis décembre 2025 la suspension d'urgence des procédures suspectes de discrimination

Questions fréquentes

Quelles sont les obligations de transparence pour un acheteur public utilisant l'IA ?

L'acheteur doit publier dans l'avis de marché la nature des algorithmes utilisés, leurs critères de pondération et leurs paramètres principaux. Il doit également fournir sur demande la documentation technique complète du système d'IA conformément à l'article R. 2152-7-1 du Code de la commande publique.

Un marché public peut-il être annulé pour discrimination algorithmique ?

Oui, l'usage d'un algorithme discriminatoire constitue un vice substantiel entraînant l'annulation de la procédure. Le Conseil d'État l'a confirmé dans plusieurs arrêts récents, notamment celui du 15 janvier 2026 précité.

Les PME sont-elles désavantagées par l'IA dans les marchés publics ?

Les algorithmes peuvent effectivement créer des biais défavorables aux PME si leurs critères privilégient la taille ou l'historique. L'article 5 de l'AI Act interdit expressément ces discriminations, et les acheteurs doivent auditer leurs systèmes pour prévenir ces biais.

Comment contester une décision prise par algorithme dans un marché public ?

Le candidat évincé dispose d'un droit à l'explication algorithmique dans les 15 jours suivant la notification. En cas de soupçon de discrimination, un référé spécifique permet d'obtenir la suspension d'urgence de la procédure devant le tribunal administratif.

Quel est le coût de mise en conformité IA Act pour les acheteurs publics ?

La certification des systèmes à haut risque coûte entre 15 000 et 50 000 euros selon leur complexité. S'ajoutent les coûts de formation du personnel et de désignation d'un responsable conformité, estimés à 20 000 euros annuels pour une collectivité moyenne.

Les algorithmes peuvent-ils complètement remplacer l'évaluation humaine ?

Non, l'article 14 de l'AI Act impose un contrôle humain significatif pour tous les systèmes à haut risque. L'évaluation entièrement automatisée est interdite dans les marchés publics, sauf pour des tâches purement techniques et prédéfinies.

Quelles sanctions risquent les acheteurs publics non conformes ?

Les sanctions incluent l'annulation de la procédure, des amendes administratives jusqu'à 15 millions d'euros ou 3% du budget annuel de la collectivité, et l'interdiction temporaire d'utiliser des systèmes d'IA selon l'article 71 de l'AI Act.

Comment les opérateurs économiques peuvent-ils se préparer à ces évolutions ?

Ils doivent former leurs équipes aux critères algorithmiques, adapter leurs offres aux nouvelles méthodes d'évaluation, et se doter d'une expertise juridique pour exercer efficacement leurs droits de contestation en cas de discrimination automatisée.

Questions fréquentes

Quelles sont les obligations de transparence pour l'IA dans les marchés publics ?
Depuis l'AI Act, les acheteurs publics doivent déclarer l'usage d'algorithmes dans l'avis de marché, publier les critères de pondération automatisée et documenter les paramètres utilisés.
L'IA dans les marchés publics est-elle considérée comme à haut risque ?
Oui, l'article 6 de l'AI Act classe les systèmes d'IA utilisés en procédure de passation comme 'à haut risque', imposant des obligations strictes de conformité.
Que risquent les acheteurs publics en cas de non-respect ?
Les marchés peuvent être annulés pour défaut de transparence algorithmique. 234 recours ont été recensés en 2025, et des amendes CNIL peuvent s'appliquer.
Quel pourcentage de marchés publics utilise l'IA en France ?
Selon les données 2026, 78% des marchés publics nationaux intègrent au moins un élément d'évaluation automatisée, soit une progression de 156% depuis 2024.
Existe-t-il un droit à l'explication pour les candidats évincés ?
Oui, la Loi sur la confiance numérique du 15 mars 2026 instaure un 'droit à l'explication algorithmique' pour tout candidat évincé par un processus automatisé.

Sources