Modern Law - Droit Moderne

Épisode 24: La prise de décision automatisée en droit administratif

Episode Summary

Yves Faguy s'entretient avec Mélanie Raymond, juge administrative au Tribunal administratif du travail, sur l’utilisation de plus en plus répandue de l’IA pour appuyer la prise de décisions administratives dans le secteur public.  

Episode Notes

L'intelligence artificielle représente une avancée technologique majeure et transformationnelle. Alors que les voix s’élèvent pour réclamer une pause sur l’utilisation de l’IA, le temps de reprendre le contrôle de « ces boîtes noires imprévisibles », les tribunaux administratifs sont en quelque sorte les cobayes de leur emploi dans notre système de justice, au sens large. Mais cela soulève de nombreuses questions. Comment éviter de réduire les décideurs humains à de simples exécutants dans les décisions prises par des algorithmes ? Comment assurer une approche humaine pour l’avenir ? Comment aligner les outils de l’IA à nos valeurs de société ?

Nous abordons ces questions avec notre invitée, Mélanie Raymond, qui est juge administrative depuis une quinzaine d'années, au sein de deux des plus grands tribunaux administratifs du Canada — le Tribunal administratif du travail et la Commission de l'immigration et du statut de réfugié. Elle s’intéresse depuis quelques années aux enjeux entourant l’IA et la justice, et d’ailleurs elle en parlera à titre de conférencière le 8 juin dans le cadre de la Semaine nationale du droit administratif, un événement conjoint du Conseil des tribunaux administratifs canadiens et l’Institut canadien d’administration de la justice.

Vous avez des questions ou souhaitez obtenir plus d’information ? N'hésitez pas à nous contacter à : podcasts@cba.org avec le sujet « Balado ».

 

Episode Transcription

Épisode 24: La prise de décision automatisée en droit administratif

L’indicateur de temps [00:00:00] indique un mot incompris ou incertain. 

__________________________________________________________________________

Y. Faguy:            Bonjour, Yves Faguy ici, aujourd’hui nous allons parler des enjeux liés à la prise de décision automatisée en droit administratif. Pour nous parler de cela, notre invité est Mélanie Raymond qui en toute transparence est une amie de longue date. Elle a déjà occupé mon poste ici à abc. Mélanie est juge administrative depuis une quinzaine d’années au sein de deux des plus grands tribunaux administratifs du Canada : le Tribunal administratif du travail et la Commission de l’immigration et du statut de réfugié. Elle en a vu ! Elle a siégé dans plus d’un millier de dossiers et rédigé autant de décisions en première instance et en appel. Avocate, elle a aussi pratiqué le droit en cabinet privé et au sein de la Fonction publique fédérale.

                            Elle offre des formations sur des thèmes liés à l’intelligence artificielle, la communication, la résolution de conflit, l’approche participative et le respect de la dignité de la personne. D’ailleurs, elle sera conférencière sur les enjeux qui entourent l’intelligence artificielle le 8 juin, et ce dans le cadre de la semaine nationale du droit administratif. C’est un événement conjoint u Conseil administratif canadien et de l’Institut canadien de l’administration de la justice. Mélanie, c’était toute une bouchée de mots, mais bienvenue à Droit moderne.

Mélanie:              Bonjour ! Merci de m’avoir invité, c’est un vrai privilège et un grand plaisir.

Y. Faguy:            Tout au long de ta carrière, tu t’es efforcé de remettre l’humain au cœur des résolutions de problèmes juridiques, et là ton travail est loin d’être terminé parce que nous allons parler du rôle d’intelligence artificielle et des machines dans les décisions administratives de l’État. Mais, reculons un p’tit peu. Les thèmes qui sont souvent revenus dans nos discussions, entre toi et moi, sont les défis que tu as rencontrés dans ton travail. Ils touchent à des facteurs qui mêlent la prise en compte du contexte social, la diversité du justiciable et leur dignité humaine. Écartons pour le moment l’intelligence artificielle. Comment l’intelligence artificielle se heurt-elle à ces facteurs de manière générale ?

Mélanie:              Bien en fait, c’est intéressant parce qu’il y a aussi un lien avec l’intelligence artificielle et c’est pour ça que j’en suis venue à y porter attention. C’est que le droit administratif est un peu tiraillé entre un idéal, je dirais, de production de grands volumes. Parce que les tribunaux administratifs ont beaucoup de contestations et peu de temps pour rendre les décisions. Ils ont un certain idéal de productivité, je dirais, et la prise en compte du contexte social, des particularités de chacun. Les tribunaux administratifs se ramassent toujours pris, les décideurs, les gens qui travaillent au sein des tribunaux administratifs, à essayer de concilier ces objectifs de célérité, puis ces objectifs de… je dirais que les tribunaux administratifs, c’est au cœur de leur mission d’avoir une justice plus souple. Pas souple dans le sens qu’ils sont moins attentifs aux idéaux de justice, mais plus une procédure souple, un tribunal plus léger, une efficacité plus grande au niveau du temps, au niveau des coûts, au niveau du temps, au niveau de la preuve. 

Mais en même temps, souvent ils sont le tribunal de premier lieu, de premier point, c’est la première fois que le justiciable est capable de s’exprimer par rapport à son dossier, par rapport à ce qu’il a vécu. Souvent, il arrive avec une décision qui lui vient de l’administration gouvernementale qu’il ne comprend pas. Donc, il vient chercher des réponses, il n’a pas toujours l’argent, en fait il n’a pas souvent l’argent pour être représenté. Donc, tous ces impératifs-là, je dirais qu’il y a un défi qui n’est pas étranger aux tribunaux de droit commun, mais qui est peut-être exacerbé chez les tribunaux de droit administratif.

Y. Faguy:            Je pense qui l’est important de préciser ici que premièrement, la plupart des décisions juridiques qui impliquent les gens, les gens communs, les gens normaux, sont prises par un ensemble de tribunaux administratifs et qu’ils exercent un pouvoir exécutif qui leur a été délégué.

Mélanie:              Bien, un « pouvoir exécutif », j’ai une petite réserve. Je dirais que c’est plus un pouvoir impartial de décision. Un pouvoir exécutif, cela pourrait donner l’idée qu’ils sont une branche de l’administration, alors qu’en fait dans l’organigramme ils sont à part, ils ont un pouvoir qui s’apparente plus au pouvoir judiciaire.

Y. Faguy:            D’accord, OK. Où en sommes-nous déjà en ce qui concerne une réflexion de fond sur la manière dont le droit administratif dépend des machines et des logiciels de manière générale. Et ce, sans compter même cette introduction de la nouvelle intelligence artificielle. Est-ce que nos instances ont déjà porté une attention particulière à tout cela ?

Mélanie:              Je ne le sais pas. Moi je regarde, déjà la réflexion par rapport à l’intelligence artificielle n’est pas très avancée, mais je dirais que c’est le lieu commun de toutes nos sociétés. Par rapport à la machine, je ne pourrais pas dire jusqu’à quel point on s’est interrogé. Il y a des questions qui se sont posées chez certains organes indépendants, ou certains tribunaux particuliers, sur comment on pourrait gérer les données de masse des informations, une grande quantité d’informations grâce à un logiciel ou grâce à une certaine forme d’intelligence artificielle qui n’est pas tout à fait la même que celle que l’on connaît maintenant. Je pense entre autres, par exemple, au niveau de l’immigration.

                            Et il n’y a pas une réflexion globale générale sur la question. Est-ce que c’est un aveuglement ? Je ne pense pas, je pense que c’est un peu le lot du retard de nos institutions gouvernementales, parce que, d’abord et avant tout, les tribunaux administratifs revoient des décisions de l’administration gouvernementale. L’administration gouvernementale, on l’a vu dans les dernières années, on l’a vu avec la pandémie, n’est pas nécessairement, et je pense que c’est un euphémisme, mais elle n’est pas nécessairement la plus efficace et avancée au niveau technologique. Moi j’œuvre dans un tribunal administratif où l’on traite beaucoup de choses médicales ; on a bien vu que le fax est encore très présent dans les instances médicales.        Donc, on a déjà de la difficulté dans les instances gouvernementales a avoir des systèmes informatiques efficients. Donc, on n’en est pas encore à une réflexion plus globale, je crois, sur l’utilisation de systèmes informatisés. 

Par contre, je peux dire qu’il y a certains tribunaux qui l’ont fait et qui l’ont fait avec beaucoup d’élégance et beaucoup d’efficacité. Je pense au Tribunal de la sécurité sociale qui récemment à un peu revu tous ces processus pour rendre les choses plus efficaces. En immigration il y a des choses qui sont faites.

Y. Faguy:            C’est au fédéral ça ?

Mélanie:              Pardon ?

Y. Faguy:            Ça, c’est au fédéral ça. 

Mélanie:              Oui. Au provincial, j’avoue ma méconnaissance. Je pense qu’au provincial que plusieurs institutions vont s’appuyer sur l’informatique pour faire du classement de données et du classement de dossiers. Mais est-ce qu’on est plus avancé que cela ? Je ne pourrais pas m’avancer. 

Y. Faguy:            Je posais la question pour nous situer d’abord dans un contexte où je pense qu’il est nécessaire de préciser que la période dans laquelle nous vivons actuellement est spéciale. Du moins, pour la plupart d’entre nous, pour les économies développées. Moi personnellement, tout au long de ma vie j’ai vu des choses changer, mais est-ce que j’ai connu des changements technologiques véritablement aussi révolutionnaires que ceux que l’on voit avec l’arrivée de l’intelligence artificielle et Chat GPT et des outils semblables. Je suppose que l’on pourrait dire que l’internet et les téléphones intelligents l’ont été jusqu’à un certain point révolutionnaire, mais je ne suis pas sûr qui l’ont été au même titre que ce que l’on voit aujourd’hui ? Je n’en sais rien, mais il me semble que l’on restait quand même dans des paramètres à dimension humaine. Ce qui nous permettait de nous adapter. 

                            Mais voici quelque chose de complètement différent, et puis on parle maintenant d’intégrer des décisions automatisées dans nos rapports entre le justiciable et des instances étatiques. Que penser de tout ça ?

Mélanie:              D’abord et avant tout, c’est intéressant ce que tu amènes par rapport aux changements technologiques, parce que c’est un peu l’histoire de mon parcours. C’est-à-dire que moi, je me suis intéressé à la vie de l’intelligence artificielle il y a à peu près six ou sept ans, je commençais à m’y intéresser. J’ai commencé à m’y intéresser parce que, en tant que juge administrative, j’allais à des colloques, het parfois il y a des modes dans les colloques. Il y avait toujours le même conférencier qui venait, je ne me rappelle plus s’il est Américain ou Torontois, mais c’est quelqu’un qui développait un outil d’intelligence artificielle en matière d’impôt. Il nous vantait un peu son outil comme quoi son outil allait faire en sorte que les décisions, en matière d’impôt, allaient se prendre beaucoup plus facilement, presque même toutes seules, grâce à son système. On allait pouvoir analyser une grande quantité de décisions et prédire des facteurs de réussite ou pas d’une contestation. Cce qui allait permettre aux clients de déterminer si oui ou non il allait se rendre devant le tribunal. 

                            Je me rappelle d’avoir eu deux sentiments à ce moment-là. Le premier, c’est que dans l’audience tout le monde était un peu sceptique. C’est comme si on écoutait ça, mais c’était de la science-fiction. On se disait que peut-être que sa proposition était un peu forte en café, c’est comme si on ne pouvait pas s’imaginer que cela allait arriver. Mon autre perception, c’est comme si je me sentais heurtée, c’est comme ça que j’ai commencé à m’y intéresser. Parce que, dans ma perception de l’époque, c’est comme s’il venait dévaloriser mon travail. Il était en train de me dire que j’étais pour être remplacé par une machine. Ce que je fais, c’est quelque chose de très très simple qui pourra être remplacé par quelqu’un qui ne réfléchit pas, qui n’a pas étudié pendant toutes ces années où j’ai étudié. C’était comme mettre de côté mon talent personnel. J’ai un peu l’impression que c’est ce qui explique ce pour quoi on n’a pas beaucoup avancé. Je te dirais que sur ce sujet-là, moi, ç’a été mort. J’ai travaillé là-dessus, j’ai donné quelques conférences et après j’ai arrêté. Là, évidemment, c’est le retour de l’intérêt depuis l’arrivée de ChatGPT. Mais j’ai l’impression que quelque part chez les juristes et chez les décideurs, chez les gens qui auraient pu s’y intéresser, tout comme moi, ils avaient cette espèce de sentiment mitiger de : 1 — j’ai pas le goût de réfléchir à cette espèce de tsunami qui pourrait changer tous les paradigmes selon lesquels j’ai agi jusqu’à maintenant, 2 — je n’ai pas non plus envie de me faire dire que je risque de devenir obsolète. Parce qu’il y a ce côté, nous, notre ego est un peu heurté. On a vu récemment tout le monde qui s’excite, ou s’exclame, du fait que ChatGPT arrive à écrire rapidement un texte, ou arrive rapidement… on l’a vu avec les traducteurs. Un moment donné on a des logiciels de plus en plus intéressants au niveau de la traduction.

                            Je pense que c’est quelque chose qui nous fascine et nous effraie à la fois, et ça explique pourquoi on n’ose pas trop y réfléchir en profondeur. Malheureusement, je pense que c’est là qu’on va y perdre. Le plus tôt qu’on va s’investir dans le processus, le plus tôt les tribunaux administratifs vont réfléchir à comment ils peuvent se réincarner ou en quoi ça va changer la façon de faire leur travail, plus rapidement ils vont pouvoir trouver leur place.

Y. Faguy:            Je pense que la personne à qui tu faisais référence c’est Benjamin Alarie qui avait fondé une boîte qui s’appelle Blue J Legal. Je pense qu’il s’appelle maintenant…

Mélanie:              Voilà ! Bien je le remercie, parce que grâce à lui, j’ai été obligé de me remettre en question, et je n’ai aucune idée de ce qui est arrivé de cette boîte, si cela a fonctionné ou pas.

Y. Faguy:            Je pense qu’il a un autre thème sur les AI Taxman et ce qui fait peur en soi, l’intelligence artificielle qui vient chercher mes impôts. Pour revenir à notre sujet, peut-être que tout le monde n’est pas d’accord, mais cette hypothèse de la dimension humaine au sein d’aider décisions qui est peut-être en train de s’effondrer, si on permet l’introduction massive de l’intelligence artificielle dans la prise de décision administrative. C’est sûr que cela représente une avancée technologique qui est majeure, l’utilisation de prises de décisions automatisées de l’intelligence dans le secteur public et qui est de plus en plus répandue. Quelle est l’étendue, selon toi, de cette utilisation ?

Mélanie:              Moi, je t’avoue ne pas pouvoir te dire quelle en est l’étendue, parce que cela reste encore un peu obscur. Je pense que les administrations ne s’en vantent pas non plus, ça c’est dans nos juridictions provinciales et les juridictions fédérales. Par contre, on peut le voir dans certains pays où cela a déjà été utilisé, bien avant que l’on s’excite sur ChatGPT. On a utilisé des systèmes d’apprentissage machine, on a utilisé des systèmes qui peuvent décider, qui servent à décider avec un mécanisme d’intelligence artificielle. Par exemple, tu parlais du Taxman et ça m’a fait penser à ça. Cela a été utilisé en Hollande et en Angleterre, entre autres, pour déterminer jusqu’à quel point quelqu’un peut avoir accès à de l’aide sociale, peut avoir accès à des bénéfices médicaux, peut avoir accès à certaines subventions. Il y a eu certaines ratés, parce qu’on s’est rendu compte que… le problème n’est jamais le système en soi, c’est comment il est programmé, à quelle fin il sert. 

Mais dans ces exemples-là, on s’est rendu compte qu’il y avait des biais, des données qu’on n’avait pas soupçonnées et qui allaient avoir une influence dans la décision. Les gens se retrouvaient avec des décisions défavorables à leur égard, pour lesquelles on n’avait pas nécessairement une explication juridique où on ne pouvait pas retracer le raisonnement. Parce que souvent, quand on y pense, l’arrivée des systèmes d’intelligence artificielle, ce sont des systèmes qui sont basés sur l’obtention d’un résultat. On va entraîner la machine, par exemple, on va dire moi je veux un gâteau, alors je te demande à toi d’analyser une grande quantité de données pour me faire la meilleure recette pour obtenir le gâteau. On ne saura pas nécessairement quels ont été les paramètres ou les critères qui ont été pris en compte pour obtenir le résultat, parce que c’est le résultat qui va servir à valider et à créer l’apprentissage chez la machine, contrairement à un système où on lui donne une recette préétablie. Donc, c’est difficile par la suite en rétrospective, parfois, de savoir quels sont les paramètres qui ont été considérés comme étant importants par le logiciel, par le système d’apprentissage machine, pour en venir à une réponse donnée. 

C’est ce qui cause souvent un problème en justice administrative, par exemple, en fait, la justice administrative est très focalisée sur le processus. Est-ce que la décision a été prise avec l’idée d’un respect de la justice naturelle et un respect du droit du citoyen ? Par exemple, de faire valoir son point de vue et de soumettre sa preuve. Ces aspects-là disparaissent, en quelque sorte, ou ils sont atténués par l’arrivée d’un logiciel de l’apprentissage machine, basée sur l’intelligence artificielle, parce que l’on n’arrive pas à retracer exactement le processus qui a mené au résultat.

Y. Faguy:            Alors que l’on est capable de mieux le faire quand les décideurs sont humains ?

Mélanie:              Bien, oui et non, parce que c’est un leurre, comme je le disais quand je retraçais un peu mon histoire par rapport à l’intelligence artificielle. Je pense que parfois on se crée nous aussi certaines illusions, mais il ne faut pas oublier que le décideur aussi est influencé par certains préjugés inconscients, par une certaine vision des faits, l’angle qu’il a voulu donné au litige quand il a commencé à écouter la décision et qu’il a filtré les informations qui ont pu venir de chacune des parties. Donc, l’humain n’est pas à l’abri non plus de cette espèce de flou qui nous permet difficilement de déterminer pourquoi il en est venu à une décision, mais quand même [une décision] qu’il doit justifier. Jusqu’à maintenant, la façon dont on a fonctionné est basée sur les motifs. On s’est basé sur la justification que l’humain a donnée en tenant pour acquis que cette justification-là reflétait le fond de sa pensée. 

Donc, pour l’instant, je dirais que les paramètres sont peut-être plus faciles à revoir dans une décision humaine. Je pense que ce sont aussi des choix de société que l’on va choisir de prendre. Est-ce qu’en ce moment on décide que ce qui est juste c’est une décision individualisée pour laquelle on est capable de réviser les paramètres ? Peut-être que dans quelques années on décidera qu’une décision qui est juste c’est une décision qui est une décision plus conforme, ou cohérente avec toutes les autres décisions qui ont été prises, parce qu’il y a un système informatique derrière qui a équilibré et qui s’est assuré, quelque part, en systématisant le processus, que les résultats allaient être semblables.

Y. Faguy:            Est-ce que c’est le droit administratif qui se préoccupe du bien-fondé d’une décision ? Ou, est-ce qu’on est encore dans le processus ? On parlait justement comme quoi le droit administratif s’intéresse presque davantage au processus par lequel une décision a été prise, que son bien-fondé, ou est-ce que là je fais des exagérations ?

Mélanie:              Non, je dirais qu’il s’intéresse tout autant au bien-fondé du processus. Ce que je veux dire c’est qu’il ne s’intéresse pas nécessairement aux résultats. C’est-à-dire qu’il y a un souci de cohérence qui est grand, au sein des tribunaux administratifs, parce que normalement un justiciable devrait s’attendre à avoir une décision semblable à celle d’un autre justiciable pour certaines informations semblables. Si on part d’un même type de dossier, cela devrait donner des résultats semblables, donc il y a quand même un souci de cohérence. Les tribunaux administratifs sont pointés du doigt s’ils ne sont pas cohérents. Mais je dirais que l’accent est quand même mis la plupart du temps sur la justification individualisée et c’est là la richesse du droit administratif. C’est que l’on va pouvoir aller chercher la particularité de l’individu, la particularité d’un dossier, la particularité du cas pour rendre une décision. Ce qui n’est pas l’objectif de l’intelligence artificielle ou d’une certaine standardisation, parce que l’objectif d’une standardisation, c’est d’essayer de trouver le plus grand nombre de points communs possibles pour rendre une décision semblable dans des cas… Bien, en fait c’est de faire de certains cas que tous les cas, des cas semblables, ou le plus semblable possible, de chercher à l’intérieur de ces cas-là les caractéristiques semblables pour arriver à un résultat semblable. 

Y. Faguy:            Je comprends.

Mélanie:              C’est comme si l’on partait d’une prémisse différente. Je ne suis pas du tout réfractaire à l’arrivée de l’intelligence artificielle. Je l’ai déjà été, mais je ne le suis plus parce que je pense qu’on ne pourra pas faire abstraction, comme je le disais, de ce tsunami. Mais il faut quand même être conscient que cela va être un certain changement de paradigmes. On n’aura pas nécessairement la même définition de la justice et on ne décidera pas de se payer, en tant que société, le même genre de décision. Peut-être qu’il y a des sujets, des situations, pour lesquelles on va se dire : là c’est un humain qui va analyser cela, parce qu’il va réussir à faire ressortir les caractéristiques particulières d’un dossier. Puis, dans d’autres situations, on va dire qu’on va y aller avec un système de décision de masse, et à ce moment-là, on perdra au change de l’efficacité par rapport à la particularité qu’on peut donner à certains dossiers. Le problème c’est que je ne sais pas comment on va les identifier et ces dossiers-là.

Y. Faguy:            J’allais justement poser la question.

Mélanie:              Oui, et c’est intéressant, parce que quand on écoute les gens qui sont dans le milieu juridique et qu’ils réfléchissent à l’intelligence artificielle, souvent on va venir dire : ah, bien ce sont peut-être les tribunaux administratifs qui seront les premiers à faire cette expérience-là des systèmes automatisés de décisions, parce que ce qu’ils font… bien, on sent qu’il y a un certain snobisme, il y a un petit peu l’idée de : s’ils font du volume, c’est plus ou moins important. Puis, les tribunaux de droit commun, comme la Cour supérieure, se garderont les dossiers plus particuliers. Moi je pense que c’est une mauvaise vision de l’affaire, je suis peut-être un peu chauvine. Je remarque que souvent le tribunal administratif, je l’ai dit tantôt, c’est le premier forum ou quelqu’un peut faire part de sa particularité. Il a eu une décision par un agent d’un organisme gouvernemental, souvent il n’a pas toujours compris l’enjeu, le pourquoi de cette décision-là, parce que la décision, la plupart du temps, est relativement formatée, je dirais. Et il n’a pas toujours accès à l’agent qui a pris la décision. 

Encore une fois, ça dépend de quel organisme gouvernemental on parle. Il arrive pour la première fois devant un décideur, c’est souvent la première occasion qu’il a de comprendre même pourquoi il a reçu ce résultat-là. C’est sa première occasion de faire valoir sa différence. Si cette différence-là n’est pas épinglée par le premier décideur qui le voit, bien elle ne va pas se rendre aux tribunaux supérieurs, même s’il y a des processus de révision par la suite. Même si ça va en contrôle judiciaire, ou si ça monte la chaîne, c’est souvent le premier triage des faits qui va servir d’assise pour les décisions qui vont aller en contrôle judiciaire. Parce que, l’idée même du contrôle judiciaire, c’est de revoir le processus décisionnel du décideur administratif, du premier décideur administratif qui a pris la décision. On ne va pas refaire la preuve, on ne va pas permettre au justiciable de faire ressortir sa particularité. C’est une des premières raisons pour laquelle je ne suis pas certaine que cette idée que les tribunaux, peut-être que l’on sacrifiera, je me permets d’exagérer, les tribunaux administratifs vont nous permettre d’atteindre notre objectif. 

Parfois aussi, ce n’est pas le prix du litige qui va rendre la question complexe, on le sait déjà. J’en ai des illustrations quotidiennes. Une de mes décisions où j’ai parlé de dignité humaine, bien ça concernait quelqu’un à qui on avait refusé un couvercle de prothèse qui valait à peu près 500 $. Donc, c’est un très petit litige en soi. Cette personne-là est venue m’expliquer en quoi, depuis qu’elle a eu un accident du travail, — elle avait une jambe robotisée, automatisée, qui attirait le regard de tout le monde sur la rue et que — son couvercle de prothèse, qui n’était pas essentiel à sa prothèse, lui assurait une certaine dignité. Parce que ça allait empêcher les gens, ou en tout cas, ça allait limiter les gens, de dire qu’elle avait une jambe de Robocop, si je peux me permettre entre guillemets. C’est comme ça qu’on l’appelait dans son quartier. 

Donc, si j’étais allé simplement avec des critères d’importance, puis du montant du litige, pour déterminer : est-ce que c’est un genre de décision que je suis prête à sacrifier à l’intelligence artificielle ? Bien, probablement qu’elle se serait ramassée dans la décision de masse cette décision-là. Est-ce que cet aspect-là de dignité personnelle et l’importance pour elle dans son quotidien, d’avoir ce couvercle de prothèse là, auraient ressortis ? Je ne suis pas certaine.      

Y. Faguy:            C’est une question intéressante, parce qu’on parle beaucoup d’accès à la justice, et étant donné qu’il y a beaucoup de justiciables qui ont besoin d’aller chercher ces décisions administratives, je pense que la justification de l’emploi de ces outils de l’intelligence artificielle, c’est pour améliorer quand même un certain accès à la justice, et d’amener plus de célérité au système, comme tu le disais tantôt. Mais, les gouvernements, quelque part, doivent acquérir une mission sociale pour utiliser ces outils dans leur prise de décision. Je me demande si on réfléchit à cela. Est-ce qu’ils vont devoir réfléchir à cela ? Est-ce qu’ils vont devoir apporter une réflexion de fond sur la manière dont le droit administratif dépend ou dépendra de ces logiciels intelligents ?

Mélanie:              C’est une bonne question que tu poses, parce que pendant longtemps je me suis dit :  ça ne fonctionnera pas. On parlait entre autres de l’utilisation d’agents conversationnels, Chabot, en bon français, en bon anglais. Je me disais, ça ne marchera pas les agents conversationnels. Je me disais : les gens n’accepteront pas, il n’y aura pas de légitimité sociale à recevoir une décision d’une machine, ou à parler à un agent conversationnel. Puis, on l’a vu avec la pandémie, soudain, j’ai été obligé de faire le constat que les agents conversationnels, je pense qu’il y a quand même une certaine adhésion sociale. 

                            Là, on le voit avec ChatGPT, on a toujours quelques histoires de gens qui se sont mis à parler à ChatGPT et à lui poser des questions plus personnelles. Finalement, on se rend compte que l’humain, il oublie. Il oublie qu’il parle à une machine, puis que cette réserve qu’on a, elle n’existera peut-être pas encore très longtemps. Peut-être que les gens qui vont avoir grandi avec un autre paradigme n’auront pas cette réticence qu’on semble avoir. Moi, j’ai des enfants, puis la pire chose qu’il peut leur arriver, c’est de leur demander de répondre au téléphone au hasard, à quelqu’un qu’ils ne connaissent pas, avec un scénario pas prévu. Je pense qu’ils préféreraient bien mieux texter à un robot conversationnel pour avoir une réponse. Donc, peut-être qu’avec les années qui vont avancer, les instances gouvernementales auront de moins en moins besoin d’aller chercher cette légitimité-là, parce qu’elle va s’installer dans nos mœurs, parce qu’on va s’y être fait, parce qu’on va avoir mis l’accent sur autre chose.

                            Je mets beaucoup l’accent sur cette idée de l’humain qui rencontre un autre humain dans la salle d’audience, ou par zoom maintenant, qui arrive à lui dire : quel est son dossier, qui il est, puis son contexte social à lui. Mais est-ce que c’est quelque chose qu’on valorisera plus tard, peut-être pas. Puis, peut-être que les institutions gouvernementales n’auront pas tant besoin d’avancer leur réflexion sur le sujet, parce que ce ne sera plus comme ça que l’on va fonctionner. Il reste qu’il y a des initiatives qui ont été prises. Encore une fois, je suis plus au courant de ce qui se passe dans l’appareil gouvernemental fédéral, mais il y a un système qui a été créé qui est une espèce de grille d’analyse de tous projets qui impliquent l’intelligence artificielle. C’est l’indice d’incidence algorithmique, je crois, son nom officiel. 

C’est un exercice qui doit être complété par toute organisation gouvernementale fédérale qui veut mettre en œuvre un système d’intelligence artificielle pour prendre des décisions, et il y a certaines étapes à passer. Entre autres, pour l’instant on ne permettra pas ce genre de système automatisé quand les droits fondamentaux de quelqu’un sont remis en question ou sont en danger. Par contre, ça n’empêche pas d’avoir l’intelligence artificielle pour certaines des étapes de ce processus décisionnel, mais pas pour prendre la décision finale.  

Y. Faguy:            Je suis peut-être naïf, mais il me semble que d’accepter des décisions algorithmiques, en tant que consommateur avec des Chatbot et tout ça, c’est un choix personnel et privé. Mais en tant que citoyen, quelque part on cède le contrôle des décisions algorithmiques pour la gouvernance de l’État et le contrôle des lois. C’est une chose quand même différente. Je veux bien que le gouvernement ait sa matrice pour décider ce qui est approprié ou pas, comme enjeu à être utilisé par une intelligence artificielle, mais je reviens à cette question de la licence sociale de l’État. Parce qu’à partir du moment où un justiciable ressent une injustice qui implique une action gouvernementale, je pense que c’est une autre chose. Non ?

Mélanie:              Oui, puis tu sais, tu m’amènes sur un terrain qui est personnel, en dehors de mes fonctions de juge administratif. Moi, c’est quelque chose qui me préoccupe, parce que je constate quand même que dans notre société en ce moment, et chez nos voisins, et dans les sociétés à peu près partout, en constate une grande frustration chez certains groupes. Des groupes qui se sentent exclus du débat public et qui remettent en question la façon dont les décisions sont prises. On a tous ces complots que les gens imaginent et qui remettent en question la légitimité de l’État. Je ne crois pas que l’instauration... En fait, je crois que l’instauration de l’intelligence artificielle pour prendre des décisions à grande échelle va continuer de nourrir ce sentiment d’exclusion et de complot. Donc, je pense que de la part d’un gouvernement, il faut bien y réfléchir. Ce dont j’ai un peu peur qu’il se produise, c’est que cela va s’insérer par la bande et qu’il n’y aura pas de réflexion globale sur la question. Je suis d’accord avec toi que c’est un enjeu différent que de déterminer : est-ce que je suis éligible ou pas à une police d’assurance. Encore une fois, parce que je l’expérimente aussi chaque jour, à quel point les gens, quand ils viennent devant le tribunal administratif, puis que c’est la première personne à qui ils peuvent raconter leur histoire, je ne peux pas te dire le nombre de fois où les gens, bien que je ne leur aie pas donné raison, mais que je leur ai expliqué pourquoi [ces gens] ils sont repartis en me remerciant et en étant contents. Est-ce qu’on va obtenir le même résultat ? Je ne pense pas. Parce que ces gens-là ont déjà une décision en main et ils ne l’ont pas comprise. Donc, si on y va avec un système qui prend des décisions à grande échelle et qu’on n’a pas ce forum-là… Ceci dit, je ne pense pas que ça doit nécessairement être à l’étape du décideur administratif que cela devrait être fait. Il y a plein de fois où je me suis dit : s’il y avait eu cette étape-là avant moi, on n’aurait pas eu besoin d’une audience aujourd’hui. Moins les gens pourront s’exprimer, plus la colère sera grandissante, à mon sens. 

Y. Faguy:            Mais je pense qu’on a quand même cette appréhension des décisions algorithmiques. C’est peut-être qu’ils trahissent chez nous une crainte viscérale de l’inflexibilité des machines qui sont rigides. Et dans certains cas, leurs décisions peuvent avoir des conséquences monumentales pour les gens, même de vie ou de mort.

Mélanie:              Oui ! Ceci dit, les systèmes d’intelligence artificielle sont supposés de prendre en considération une grande quantité de données. Je pense qu’il faut toujours voir les deux côtés d’une médaille, mais si tu regardes la façon dont c’est fait, il y a quand même certains avantages. C’est-à-dire qu’ils permettent de prendre en considération, par exemple, l’exemple de décisions, si par exemple on veut s’assurer d’un certain souci de cohérence avec les décisions que les collègues ont rendues et que le tribunal rend de façon quotidienne. C’est sûr que le système d’intelligence artificielle va être bien plus capable que moi, en tant qu’humain, d’évaluer un nombre incroyable de décisions qui ont été rendues depuis les débuts de mon tribunal et de voir quels sont les points communs de ces décisions-là. Alors que moi, je vais peut-être en lire 10 ou 20 pour prendre une décision. Donc, il y a quand même cette idée, on voit la machine froide, mais il reste que si le système est bien fait, en théorie, il est supposé de prendre en considération beaucoup plus de données qu’un humain pourrait prendre. Est-ce que c’est la bonne façon, la façon dont on veut le faire ? Mais ce n’est pas que négatif comme moyen qui nous attend. 

Y. Faguy:            Je pense un p’tit peu à ces driverless cars des automobiles sans conducteurs, s’il y en a un qui fait un accident, même s’il y a un taux d’accidents plus élevé chez les humains, on va quand même préférer l’humain derrière le volant que la machine.

Mélanie:              J’ose espérer !

Y. Faguy:            Là où je veux en venir, c’est que cette adoption d’une approche plus humaine est importante. On emploie le terme humain in the loop. Elle est importante pour plusieurs qui veulent qu’on assure une certaine confiance dans l’outil qui est employé. En même temps, je me demande si cette surveillance humaine n’est pas illusoire. Aide-nous à comprendre cette question-là, d’abord d’impliquer l’humain dans des décisions automatiques, ça veut dire quoi ?

Mélanie:              Bien, pour l’instant, la façon dont on en en parle, c’est souvent qu’on va dire que l’humain va servir de validation à la fin de la décision pour voir si oui ou non cette décision-là a lieu d’exister. L’humain sert un peu de rempart, voilà le mot que je cherche, de rempart contre l’automatisme ou l’aveuglement de la machine. La façon dont il est perçu et dont on en parle à ce niveau-là, je ne suis pas sûr que c’est efficace. Premièrement, l’humain a un certain préjugé, un biais cognitif qui favorise la décision mathématique, la décision faite par une machine. Donc, si on présente à un humain une décision en lui disant qu’elle a été faite par un système informatique intelligent qui a pris la décision en se basant sur une grande quantité de données, le réflexe naturel de l’humain n’est pas nécessairement de remettre en question les résultats de cette décision-là. Au contraire, il va avoir tendance à s’y conformer.

                            C’est aussi difficile de percer ces systèmes d’intelligence artificielle là, parce que leur grande qualité, si on revient à comment ils sont créés et ce pourquoi ils sont utiles et pourquoi ils produisent autant, ils sont aussi magiques, puis magiques, je pense que c’est le bon mot. C’est qu’on ne connaît pas nécessairement toujours la formule. J’ai dit tout à l’heure qu’ils vont être entraînés et ils vont être créés en se basant sur le résultat, pas sur une recette toute faite. Donc, on ne sait pas nécessairement et on n’est pas toujours capable de lire ce qui a amené la machine à rendre cette décision-là. Parce qu’on ne peut pas en tant qu’humain analyser toutes les données qu’elle a prises en compte [la machine]. Donc, on ne peut pas revoir le processus. Parfois, il y a des paramètres cachés qui peuvent s’être insérés dans la décision et qu’on ne pourra pas détecter en tant qu’humain, même si on est supposé, au bout du compte, servir de rempart.

                            Je pense aussi que, évidemment, si les systèmes d’intelligence artificielle et d’apprentissage automatisé font en sorte qu’une décision peut être rédigée plus rapidement, ou être prise plus rapidement, bien évidemment, on va aussi s’attendre à ce que l’humain qui sert de rempart soit plus efficace et plus productif. Donc, face à la charge de travail que l’humain qui doit réviser cette décision-là a, est-ce que ce ne sera pas tentant, parce qu’on a tous cette qualité-là, où en tout cas, pour tous c’est difficile d’aller à l’encontre du mouvement général, est-ce que c’est humain qui sert de rempart, va avoir le temps et va avoir l’énergie nécessaire pour détricoter cette décision ? Ou, il va plutôt dire : ça doit être bon c’est correct, puis je vais juste l’avaliser ? Est-ce que l’humain va devenir quelqu’un qui fait juste mettre un rubber stamper, qui va juste mettre son étampe à la fin de la décision ? Je ne pense pas qu’on va atteindre le résultat.

Y. Faguy:            Comment on fait pour ne pas réduire l’humain a un simple exécutant dans ces décisions prises par des outils d’intelligence artificielle ?

Mélanie:              Bien, il est grand temps qu’on réfléchisse en amont. Le genre de conversation qu’on a aujourd’hui, c’est le genre de conversation qu’on devrait avoir dans le domaine, parce qu’il faut réfléchir. Là où l’humain est utile, c’est quand il faut réfléchir à l’utilisation des algorithmes. Par exemple, ce qu’on s’est dit tout à l’heure, quel type de décision on est prêts à laisser aller à la machine et dans quel type de situation ? Et, quelle est la bonne façon de programmer les algorithmes ? Ou, en tout cas, comment on va faire en sorte que les algorithmes qui sont créés par l’intelligence artificielle vont laisser une certaine trace de lisibilité, pour que par la suite, on puisse revoir ce qu’ils font. Comment on va les tester aussi, pour savoir quel est le résultat. 

C’est dommage, c’est comme ça, mais le droit est toujours en réaction aux phénomènes. Il laisse souvent le marcher créer le potentiel pour ensuite légiférer pour éviter les excès. Ça fonctionne bien quand on a un prototype informatique qui n’est pas très développé, parce qu’en général, comme il n’est pas très développé, il n’est pas dangereux. Le problème avec l’intelligence artificielle, c’est que c’est en ce moment où elle est la plus dangereuse, nocive. Parce que c’est en ce moment que les outils ne sont pas au point. On l’a vu dans les quelques exemples anecdotiques de ChatGPT ou de Bing, ou peu importe, les agents qui ont été créés entre autres, pour faire de la conversation. C’est en ce moment où on ne comprend pas trop encore comment la donnée se ramasse dans certaines boucles de réflexion et comment on va faire pour l’extraire de là, comment on va faire pour extraire les données nocives ou négatives. 

                            Je pense que la solution du human in the loop n’est pas magique, surtout pas si le human in the loop vient en rampant à la fin du processus. L’humain doit être là en ce moment en train d’y réfléchir et je n’ai pas l’impression que c’est ce qui se fait à grande échelle pour le moment.

Y. Faguy:            Je reviens à cette notion de tantôt, que le droit administratif s’intéresse aux processus par lesquelles les décisions sont prises. Je me demande ici, quand on parle de ce human in the loop, est-ce qu’il faut ne pas le concevoir, encore une fois, d’une façon procédurale ? Comment l’intégrer dans cette décision algorithmique ? Ce que je trouve intéressant dans ce que tu dis, c’est qu’il ne faut pas le faire intervenir, ou je crois que je comprends ce que tu dis, c’est qu’il ne faut pas le faire intervenir simplement à la fin. Donc, ce qui m’amène à une autre question, pour le justiciable, a-t-on besoin d’élaborer cette procédure qui, à la fin, garantirait un droit à l’explication et à la contestation concernant une décision automatisée ?

Mélanie:              C’est une des hypothèses qui est souvent évoquée, encore une fois, c’est toujours d’établir une espèce d’équilibre entre l’utilité de ces systèmes-là et ce que ça va demander pour s’assurer qu’il y a une certaine lisibilité de leur fonctionnement. Parce que, encore une fois, d’une façon viscérale, ou à la base d’un système d’apprentissage intelligent, d’apprentissage machine, vient le concept qu’on ne sait pas tout à fait comment ça fonctionne. On rentre une grande base d’intrants et on laisse au système la particularité ou le pouvoir de reconnaître ou sont les de masse, où sont les patterns que l’humain n’a pas été capable de déceler. C’est la caractéristique, c’est la qualité de ces systèmes-là. 

Donc, quelque part, la lisibilité demande un effort supplémentaire, et ça demande un effort, je dirais, qui est à côté du système. Parce que, pour fonctionner, le système n’a pas besoin de cette lisibilité-là. La lisibilité, il va falloir l’obliger, puis la créer pour s’assurer que les gens puissent revoir le processus. Parce que, ce n’est pas pour rien que le droit administratif s’intéresse tant aux processus. C’est parce que l’humain, pour respecter le citoyen, pour qu’il ait du respect envers une décision, puis pour qu’il veuille se conformer à une décision, peu importe la décision — mais ici on va parler d’une décision gouvernementale, la décision d’un tribunal administratif qui revoit la décision gouvernementale — il faut qu’il trouve que cette décision-là est légitime. Il n’a pas besoin de penser que cette décision-là est correcte. Ça c’est [Araid 00:45:55] qui a, entre autres, étudié cela. C’est qu’il a besoin de penser qu’elle a été prise par une autorité légitime et que son processus, le processus qui a mené à cette décision-là est légitime. 

Comment la population va voir des décisions qui sont prises en grande quantité par des systèmes d’intelligence artificielle, quels éléments on va devoir mettre dans le processus pour que les gens y voient une légitimité ? Honnêtement, je n’ai pas la réponse, mais je pense que cette possibilité de comprendre d’où vient la décision, c’est peut-être quelque chose qui va devenir important. Le problème étant, comme j’ai dit, c’est que ce sont des systèmes souvent complexes, et parfois obtenir cette visibilité-là demande des tests, demande un effort, un grand effort et beaucoup de sommes financières. 

Entre autres, on l’a vu à une certaine époque, il y a quelques années on parlait beaucoup du système pour décider, pas des peines à octroyer, mais des conditions de libération de détenus aux États-Unis. Il y a des organismes à but non lucratif qui ont dû investir beaucoup d’argent pour montrer que les systèmes qui étaient utilisés étaient des systèmes biaisés. Parce qu’ils ont dû faire un paquet de tests avec des codes différents, pour montrer qu’il n’y avait pas un processus décisionnel uniforme. Donc, je suppose que c’est le même genre de difficulté auquel un justiciable va se buter quand ça va être le temps de remettre en question une décision qui vient d’un système apprentissage machine ou d’intelligence artificielle. Idéalement, ce serait le fun que l’État, la machine gouvernementale, lui fournisse cette information-là, mais est-ce qu’on va le faire ? Je ne le sais pas. 

Y. Faguy:            Inévitablement, la discussion quand on parle d’intelligence artificielle va toujours se rabattre sur cet enjeu de l’alignement de cette technologie sur nos valeurs de société. Tu parlais des biais dans le système, si on écoute un peu la communauté des chercheurs en alignement, elle s’inquiète beaucoup de la capacité des machines à toujours bien discerner, à bien comprendre les instructions. Donc, la crainte à grande échelle, c’est que ça peut poser des risques existentiels. Mais, juste pour ramener cela au droit administratif, quelles sont les valeurs en matière de droit administratif auxquelles nous devons nous attarder ? Quelles sont ces valeurs que l’on voudrait aligner ce sur… comment voudrait-on aligner nos outils de décision automatisée à nos valeurs de société ? C’est une grosse question.

Mélanie:              C’est une bonne question. Comme on l’a dit en début de conversation, il y a toujours un équilibre à atteindre. Il y aura toujours une espèce de combat entre plusieurs valeurs et il faudra voir où on met l’emphase. Je pense que là j’y vais de mes propres croyances, ou en tout cas, dans ma propre perspective. Mais je pense que la valeur que l’on doit d’abord mettre en place si l’on veut une certaine légitimité, si on veut que les gens continuent de croire au système et si l’on veut contrer cette espèce de mouvement vers le scepticisme et la colère que l’on voit dans nos sociétés en ce moment, il faut que les gens soient capables de s’approprier le processus et de s’approprier la décision. Donc, encore une fois, selon moi, ce qui est important pour les gens, ce n’est pas tant d’avoir raison, mais c’est de comprendre, premièrement, qu’ils ont eu leur mot à dire. Ça, c’est une grande valeur de la justice administrative.

Quand on regarde les règles de la justice naturelle qui s’appliquent à la justice administrative, c’est le droit d’être entendu. Le droit d’être entendu, ce n’est pas nécessairement le droit d’être entendu verbalement et d’avoir une audience, mais c’est le droit de faire valoir sa position, puis d’avoir ce sentiment que notre position a été prise en ligne de compte et qu’elle a été considérée. À mon sens, c’est la valeur qu’il va falloir mettre à l’avant si on veut s’assurer un passage… un passage adéquat vers l’utilisation de l’intelligence artificielle. Comment on va le mettre en place ? Peut-être qu’on utilisera des systèmes comme celui de l’aide à la décision, peut-être que je manque un peu d’imagination et que je ne sais pas encore tout à fait comment on va faire, mais il faudra avoir cette préoccupation en tête, que ça reste important que les gens aient, j’ai juste un mot anglais en tête, un sentiment d’empowermenr. Mais en tout cas, que les gens aient un sentiment qu’ils ont quand même une certaine emprise. Pas une emprise sur le résultat, mais sur ce qui leur arrive, sur la compréhension du processus. La justice administrative, c’est souvent le seul tribunal auquel les gens vont faire face pendant leur vie, toute leur vie. Les gens ne vont pas devant la Cour supérieure, ils ne vont pas non plus de vent la Cour du Québec. Par contre, des décisions en matière de logement, des décisions en matière d’indemnisation des accidents de travail, des décisions en matière d’immigration, ça, ça fait partie du quotidien. C’est la justice du quotidien. Il va falloir que les gens puissent trouver leur place et qu’ils aient l’impression que cette justice-là est à leur écoute. Parce que, c’est le seul rempart qui reste devant ce sentiment qui semble le plus répandu des justiciables, que l’appareil gouvernemental n’est pas nécessairement à leur écoute. 

Y. Faguy:            Mélanie, je pense que c’est un bon endroit où terminer cette émission, et de toute évidence nous ne sommes qu’au début de cette expérimentation et nous n’avons aucune idée des changements qu’elle apportera. Je te remercie d’avoir partagé des réflexions avec notre auditoire.

Mélanie:              Merci beaucoup, c’est un plaisir partagé et ce fut très agréable. 

Y. Faguy:            Merci. 

                            Vous écoutez Droit moderne, présenté par le magazine National de l’Association du Barreau Canadien. Si l’épisode vous a plu, veuillez le partager avec vos amis et collègues. Si vous avez des commentaires, des réactions, des suggestions, n’hésitez pas à nous contacter sur Twitter à (@CBAnatmag) et sur Facebook. Et nous vous invitons aussi à vous rendre sur (nationalmagazine.ca) pour découvrir le contenu de notre analyse récente de l’actualité juridique au Canada. Et puis un grand merci à notre producteur John Megill sans qui on ne pourrait pas réaliser cette émission. Merci à vous tous de nous avoir écoutés. À la prochaine.