Interview accordée par Daniel Chen au magazine NEON le 31 décembre 2021
Des études montrent que les magistrats sont parfois soumis à des biais, des préjugés. Daniel Chen, chercheur, explique comment l’intelligence artificielle pourrait corriger ça.
Imaginez : un jour, vous vous retrouvez devant la justice après avoir tué votre voisine de palier. Vous n’avez rien prémédité, vous avez "seulement" trébuché contre l’échelle sur laquelle elle était perchée. Vous jurez n’avoir pas fait exprès. Vous pensez sans doute que la cour d’assises, pour délibérer sur votre cas, sera exclusivement influencée par votre histoire et le contexte de l’homicide (accident ? Préméditation ? Circonstances atténuantes ?), et les peines que prévoit la loi pour un tel crime. Détrompez-vous.
Si la température dans la pièce n’est pas bien réglée au moment de la délibération, le juge ou les jurés pourraient bien se montrer moins tolérants avec vous. Priez également pour ne pas être jugé lorsque le juge a faim, et aussi pour que l’équipe nationale de football ait gagné la veille ! Enfin, interrogez-vous sur votre attractivité physique, et prenez le temps de vous pomponner, cela pourrait bien vous sauver la mise.
Pour nous montrer à quel point l’idée d’une justice neutre, indépendante et impartiale n’a jamais paru aussi lointaine, Daniel Chen, directeur de recherche du CNRS à la Toulouse School of Economics (TSE), nous présente quelques autres influences gênantes auxquelles la justice serait soumise, comme l’origine ethnique de la personne mise en cause, ainsi que son statut social. Il nous explique comment le progrès du numérique et l’intelligence artificielle (IA) pourraient améliorer l’impartialité judiciaire.
NEON : Les recherches en sciences du comportement ont dévoilé des facteurs susceptibles d’influencer les magistrats et les jurys. Pourriez-vous nous les exposer et nous les expliquer?
Daniel Chen : Les magistrats et les jurés ne font pas exception : chaque être humain utilise des raccourcis mentaux automatiques et inconscients, qui permettent des choix rapides, sans avoir à réfléchir à l’ensemble des informations disponibles. Leurs délibérations sont donc influencées par des éléments dont ils n’ont pas conscience. Soulevons, à ce titre, le rôle des médias. Si vous avez commis un meurtre, touchez du bois pour ne pas être jugé le lendemain d’un bulletin d’information relatant un méfait de Nordahl Lelandais. On a constaté que les jurés, après avoir visionné un journal télévisé faisant état d’un crime, allongent de trois mois en moyenne les peines de prison.
Heureusement, contrairement aux jurés d’assises, les juges professionnels semblent rester indifférents aux fluctuations médiatiques. Mais ils ne sont pas imperméables à d’autres pressions insidieuses, comme par exemple le calendrier. Lorsque l’audience a lieu le jour de leur anniversaire, les magistrats se montrent plus cléments avec les prévenus !
Les convictions personnelles s’invitent également dans la prise de décision. Cela s’observe dans les affaires prud’homales, lorsqu’un patron a congédié un salarié. Si le licenciement a été abusif, le juge impose à l’entreprise de verser une indemnité au collaborateur déchu. Des chercheurs ont constaté que certains magistrats sont "plus protravailleurs" que d’autres. A caractéristiques égales, ils fixent des niveaux d’indemnisation plus élevés que la moyenne.
L’influence de la "gauche politique" n’est pas la règle en justice, où les plus démunis sont les premiers à pâtir...
En effet, lorsqu’on se retrouve devant le juge, mieux vaut ne pas être pauvre ou de couleur. Pour un CD volé à la Fnac, par exemple, il est préférable d’être en CDI. D’après une étude sur plusieurs milliers de décisions de justice entre 2000 et 2009, en France, si vous êtes sans emploi, vous avez moitié plus de risque d’être condamné à de la prison ferme. Par ailleurs, ceux qui disposent de moins de 300 euros mensuels sont trois fois plus incarcérés que ceux gagnant plus de 1 500 euros par mois.
L’origine ethnique de l’accusé joue aussi, comme le montrent une myriade d’observations. D’après une étude américaine, les jurys entièrement blancs condamnent les accusés noirs davantage (16 points de pourcentage) que les accusés blancs. En France, l’état des lieux pour les étrangers n’est guère plus reluisant. Toujours pour une même infraction, ces derniers sont trois fois plus souvent orientés en comparution immédiate et... cinq fois plus souvent placés en détention provisoire que les personnes nées en France ! Mais les présupposés inconscients favorisent parfois les minorités. Etre de sexe féminin semble ainsi être un facteur favorisant en France, où les femmes prennent vingt jours de moins en moyenne que leurs congénères masculins pour un même délit.
Quel rôle joueraient les algorithmes si on voulait corriger ces biais ?
Pour aller vers plus d’impartialité, l’ère numérique apporte son lot de possibilités. Concernant les biais raciaux, on peut notamment "censurer" les informations à la racine. Dans la ville de San Francisco, une intelligence artificielle supprime automatiquement des rapports de police les informations permettant d’identifier la couleur de la peau d’un suspect, car les comptes rendus seront lus par les magistrats.
Les procès en réalité virtuelle (VR), sur lesquels plancheraient quelques pays, seraient une autre façon "d’escamoter" la couleur, le genre ou l’âge de l’accusé. Les magistrats ne perçoivent qu’un avatar "neutre" de l’accusé. Un tel scénario, qui déshumaniserait la justice, n’apparaît pas réaliste dans la plupart des cultures, mais la réalité virtuelle pourrait aider d’une autre façon.
Des chercheurs ont en effet simulé des procès dans lesquels des volontaires, tous blancs, endossaient le rôle des jurés sur une affaire impliquant un Noir. Ils étaient divisés en deux groupes. Avant le "procès", les uns on fait l’expérience d’une réalité virtuelle où ils interprétaient un avatar de couleur noire. Les autres participants ont suivi une expérience de VR classique, sans avatar. Les participants ayant incarné un Noir étaient davantage susceptibles de trouver l’accusé non-coupable que les autres (11 % de verdict de culpabilité, contre 30 %). La réalité virtuelle pourrait donc aider les décideurs blancs à percevoir les individus noirs comme étant moins étrangers à eux-mêmes, et ainsi affaiblir leurs stéréotypes.
En tant que chercheur, quels sont vos projets dans ces domaines ?
Avec le programme De Jure (Data and Evidence for Justice Reform), notre approche tire parti de connaissances récentes en sciences comportementales. Par exemple, on constate que les magistrats agissent en vase clos, isolés les uns des autres. Ils méconnaissent les pratiques de leurs pairs. Cela alimente les biais décisionnels du fait qu’ils n’y prennent pas gare, faute de recoupements. On peut alors concevoir une IA qui les inviterait à se "comparer" les uns aux autres.
Comme tous les êtres humains, ils ont aussi des motivations liées à l’image de soi. Ils veulent se percevoir comme une bonne personne, un bon juge, un bon juré. Notre programme prend ce fait en considération. Dans sa version expérimentée au Pérou, l’IA accompagne le fonctionnaire vers une auto-amélioration, au sein de laquelle il est acteur. Mais cela doit se faire par étape. Si nous proposions de but en blanc des "robots donneurs de leçon" à la profession, on se heurterait à un refus massif.
A l’étape 1, le magistrat utilise l’IA comme un outil accélérateur de processus, par exemple en préremplissant des formulaires. Une fois habitué à cette aide, il accepte plus facilement une fonctionnalité supplémentaire (étape 2), dans laquelle l’IA propose des conseils au verdict. Elle souligne certaines incohérences : "Sur cette affaire de divorce, avec des éléments identiques (père à mi-temps, mère à temps complet), vous aviez opté pour une garde alternée. Pour quelle raison choisissez-vous cette fois une autre option, celle de la garde exclusive pour la mère ?"
L’IA pourrait fonctionner ici comme un système d’alerte : "Halte, à ce moment précis, vous êtes peut-être en train de subir une influence non désirée." Le temps qu’il fait, entre autres. On a, en effet, observé que les juges refusent plus l’asile aux réfugiés lorsqu’il fait trop chaud ou trop froid. Aux étapes suivantes, l’IA devient un "coach" plus général, intégrant un verdict donné ou envisagé dans des statistiques plus larges. On sait aussi que les juges femmes se montrent statistiquement moins indulgentes envers les inculpés masculins, à chef d’inculpation égal. Donc, si le juge formé par l’IA est une femme, l’algorithme l’informe de ce biais possible.
Article publié dans le magazine NEON en octobre-novembre 2021
Photo by Tingey Injury Law Firm on Unsplash