Actualité > Le billet

Le billet

[ 5 janvier 2026 ] Imprimer

Une charte (trop ?) prudente pour l’utilisation de l’IA par la juridiction administrative

La juridiction administrative vient de se doter d’une charte pour l’utilisation de l’intelligence artificielle générative marquée par une indéniable prudence, pour ne pas dire méfiance, qui pose des questions essentielles allant d’ailleurs bien au-delà de la seule question de l’IA.

Le site Internet du Conseil d’État a rendu public le 11 décembre dernier une « charte d’utilisation de l’intelligence artificielle au sein de la juridiction administrative » (v. ici). Son introduction la présente comme « visant à définir un cadre d’emploi de l’IA conforme à la déontologie des juridictions administratives gérées par le Conseil d’État », ce qui semble indiquer qu’il s’agit en quelque sorte d’un complément à la charte déontologique générale des juridictions administratives, et explique ainsi qu’elle a été, comme cette dernière, édictée par le vice-président du Conseil d’État en application de l’article L. 131-4 du CJA, même s’il est fait état d’une large concertation. On notera à cet égard que la charte s’affranchit parfois de ces limites puisqu’elle évoque la question de la fonction consultative du Conseil d’État (v. p. 11), qui ne relève pas de la juridiction administrative.

Je laisserai aux spécialistes le soin de procéder à une analyse technique précise de ce document pour ne m’intéresser qu’à deux aspects qui, on le verra posent des questions qui dépassent le cadre de la juridiction administrative et de l’intelligence artificielle.

Les secrets judiciaires face à l’intelligence artificielle

Le premier enjeu concerne la question de la protection de ce qu’on appellera au sens large les « secrets judiciaires ». Il peut s’agir aussi bien des secrets liés à l’instruction ou au délibéré ou encore de celui des informations fournies par les parties à une instance dans le cadre de leurs écritures. Sur ce point, la charte est particulièrement restrictive puisqu’elle interdit le versement de tout document fourni par une partie dans un chatbot, aussi bien que tout document produit par la juridiction (rapport du rapporteur, projet de décision, etc.), même s’il s’agit dans ce dernier cas d’en éliminer seulement les coquilles. La raison de cette interdiction très générale est exprimée par la charte de la manière suivante : « Les chatbots accessibles au grand public présentent des risques de sécurité et de déontologie importants, notamment parce qu’ils sont à ce jour, dans la majorité des cas, hébergés par des acteurs privés étrangers et parce que les données transférées à la machine sont souvent réutilisées pour l’entraînement du système. D’une certaine manière, donner une information à un chatbot – dans le prompt ou par une pièce jointe – équivaut à la publier sur internet ». 

On voit donc qu’il s’agit de la gestion très prudente d’un double risque : l’hébergement « majoritaire » à l’étranger (et donc sous-entendu, dans certains cas en dehors des règles posées par le RGPD) et « souvent » l’utilisation de ces données pour l’entraînement des modèles. De ce « majoritaire » et de ce « souvent », on passe à une interdiction générale et absolue quand bien même il pourrait exister des systèmes qui ne posent pas ce type de problèmes. Dans la classification du règlement européen sur l’IA, ce que rappelle d’ailleurs la charte, les données de justice sont classées à « haut risque », ce qui n’exclue nullement leur traitement par IA mais exige des garanties spéciales, la juridiction administrative choisit en quelque sorte de les faire glisser vers la catégorie supérieure du règlement, celle des « risques inacceptables » excluant le recours à IA.

Cette prise de position de la juridiction administrative est sensiblement plus rigide que celle d’autres acteurs judiciaires. Ainsi, en particulier, dans le rapport qu’elle a établi en avril 2025 (« Cour de cassation et intelligence artificielle », v. ici), la Cour de cassation  a considéré de son côté que « l’exploitation des écritures des parties », ce qui suppose leur versement dans un modèle, était une des pistes à envisager (p. 66 et s.). Il faut encore souligner que les analyses du Conseil National des Barreaux ou celles de l’Ordre des avocats au barreau de Paris débouchent également sur des analyses moins radicales que celles de la charte de la juridiction administrative. 

Il en résulte alors une question majeure : peut-on admettre une forme d’autonomie des acteurs judiciaires débouchant sur des politiques différenciées ? Juridiquement, on aurait tendance à répondre par l’affirmative : cette autonomie peut être regardée comme une des caractérisations de leur autonomie de gestion. Mais en prenant les choses sous d’autres angles, cette solution est moins évidente. Que signifie par exemple interdire aux acteurs de la juridiction administrative le versement des écritures de parties dans un modèle d’IA si les parties elles-mêmes l’ont déjà fait, qu’il s’agisse de leurs propres écritures ou même des écritures adverses qui leurs ont été communiquées ? L’on peut encore, d’un autre point de vue, s’interroger sur ce que peut signifier des standards de protection différenciés selon la nature de la justice ? Certes en France les justice administrative et judiciaire sont autonomes, mais la Justice est une et les garanties offertes aux justiciables de même niveau devant chaque ordre de juridiction. 

Pour ces raisons, il semble souhaitable que, tout en respectant les logiques d’autonomie de gestion, il puisse être mis en place un ensemble de bonnes pratiques harmonisé pour l’ensemble des acteurs. 

Biais cognitifs et recours à l’intelligence artificielle

S’il est un point sur lequel la charte de la juridiction administrative et le rapport de la Cour de cassation sont d’accord c’est sur le fait que la prise de décision juridictionnelle exige un « contrôle humain ». C’est bien le moins, d’autant plus cela est prescrit par un ensemble de textes normatifs de haut niveau. Même si, là encore, la Cour se montre plus ouverte que la juridiction administrative, ce n’est cependant pas le point qui m’a le plus frappé. 

La charte consacre un de ses plus longs développements à un paragraphe intitulé « conserver son autonomie de décision vis-à-vis des biais de l’IA » (p. 7 et 8). Ce paragraphe débute par un rappel du principe d’indépendance des magistrats et d’un certain nombre de ses corollaires dont celui « de se déterminer libre(ment) sans parti pris (…) et sans céder à des pressions extérieures ». La charte considère alors que l’utilisation d’un modèle d’IA « expose au risque de voir son raisonnement fortement influencé par ce qui est proposé par l’IA » et de citer quatre biais cognitifs : le biais d’ancrage (« la première impression est toujours la bonne »), le biais de confirmation (« tu vois, j’avais raison »), le biais d’apprentissage (méfions-nous de l’influence anglo-saxonne) et le biais discriminatoire (l’IA peut reproduire des données discriminatoires qui ont servi à son entraînement).

La charte semble sur ce point en retrait sur les analyses de l’étude du Conseil d’État de 2022 « Intelligence artificielle et action publique, construire la confiance, servir la performance » (v. ici). En effet, ici il semble être posé en principe que le risque de biais de l’IA justifie son exclusion dans la prise de décision juridictionnelle, ce qui n’était pas exclu par l’étude de 2022. En particulier dans cette étude il était souligné que l’IA pouvait jouer un rôle dans le « débiaisement », notamment « dans des contentieux où la sensibilité personnelle et les convictions du juge sont susceptibles d’exercer une influence sensible sur le sens du jugement » (p. 303). On constate ici un raidissement au profit d’une confiance en faveur du jugement exclusivement humain que la machine pourrait dénaturer. Cette prise de position me semble regrettable à plusieurs titres. D’abord parce qu’elle occulte les biais cognitifs désormais bien documentés, même en France, du raisonnement juridictionnel humain. Ensuite parce qu’elle ne conserve pas l’idée que l’IA peut jouer un rôle dans le « débiaisement », enfin parce que, même si cela est brièvement évoqué, la formation aux biais cognitifs comme aux biais de l’IA, celle à la qualité de rédaction des « prompts » pour dépasser ces biais, sont des facteurs essentiels concourant à la qualité de la décision de justice.

On peut former le vœu que cette charte ne soit que la première étape d’une appropriation par la juridiction administrative de l’IA et que dans l’avenir, des solutions plus constructives seront envisagées. 

Appendice

Voici la conclusion de la réponse « Le chat Mistral » à la question suivante : « je voudrais que tu confrontes ce texte à la charte qu'il évoque (https://www.conseil-etat.fr/Media/actualites/documents/2025/decembre-2025/charte-d-utilisation-de-l-intelligence-artificielle-au-sein-de-la-juridiction-administrative) pour savoir s'il est une critique pertinente de cette charte : 

Conclusion : une critique globalement pertinente, mais à nuancer.

Points forts de l’analyse :

elle identifie bien les principaux points de tension de la charte (prudence excessive, divergence entre juridictions, focus sur les risques plutôt que sur les opportunités) ;

elle replace la charte dans un contexte plus large (comparaison avec la Cour de cassation, référence au rapport de 2022).

Limites de l’analyse :

elle minimise le fait que la charte est un premier pas, qui pose un cadre avant de développer des outils internes et souverains ;

elle ne tient pas assez compte du contexte déontologique et institutionnel propre à la juridiction administrative, qui justifie une approche prudente ;

elle aurait pu souligner que la charte n’exclut pas l’évolution future, mais fixe des principes de base.

En résumé : L’analyse est une critique pertinente et argumentée de la charte, mais elle gagnerait à mieux contextualiser la démarche du Conseil d’État et à reconnaître que la prudence initiale peut être une étape nécessaire avant une appropriation plus large de l’IA.

 

À vous de juger !

 

Auteur :Frédéric Rolin


  • Rédaction

    Présidente et principale associée : Lefebvre Sarrut, 10 Place des Vosges, 92400 Courbevoie - 542 052 451 RCS Nanterre

    Directeur de la publication-Président : Julien Tanguy

    Directrice des éditions : 
    Caroline Sordet
    N° CPPAP : 0122 W 91226

    Rédacteur en chef :
    Maëlle Harscouët de Keravel

    Rédacteur en chef adjoint :
    Elisabeth Autier

    Chefs de rubriques :

    Le Billet : 
    Elisabeth Autier

    Droit privé : 
    Sabrina Lavric, Maëlle Harscouët de Keravel, Merryl Hervieu, Caroline Lacroix, Chantal Mathieu

    Droit public :
    Christelle de Gaudemont

    Focus sur ... : 
    Marina Brillié-Champaux

    Le Saviez-vous  :
    Sylvia Fernandes

    Illustrations : utilisation de la banque d'images Getty images.

    Nous écrire :
    actu-etudiant@dalloz.fr