bandeau décoratif

L’état numérique : des algorithmes hors la loi

par Jean-Luc Manise

Le logiciel OASIS qui croisent différentes de nos données afin de repérer et de faire contrôler des fraudeurs fiscaux potentiels n’est encadré par aucune loi. Ni le code source des algorithmes utilisés ni les types de données qui le nourissent ne sont publiés. Plus encore, toute demande d’y avoir accès est refusé. Qui a décidé de ces outils ? Qui a créé ces algorithmes ? Selon quels critères ? OASIS ne conduit-il pas à des décisions injustes au regard de la loi ? La réponse à ces questions, on la trouve dans le nouveau livre d’Isabelle Degrave : « L’État numérique et les droits humains.

L’État nous voit sans lui même être vu

Elise Degrave, Docteur en sciences juridiques et professeure à la Faculté de Droit à l’Université de Namur, Directrice de l’équipe de recherches en E-gouvernement au Namur Digital Institute (Nadi/Crids), co-directrice de la Chaire E-gouvernement de l’Université de Namur et membre du Conseil wallon du numérique: « On s’intéresse très peu aux agissements de l’État numérique. C’est une matière qui est en fait jusqu’ici très peu connue, même des avocats qui ont tendance à ne pas invoquer les arguments que simplement ils ne connaissent pas. C’est peu connu, c’est technique, c’est dans les coulisses, donc c’est obscur. Mais lorsque l’on se penche sur ce dossier, on constate qu’il y a une accélération dans l’usage de nos données. L’État nous voit, sans lui même être vu.

Le Ministre des finances a proposé de fournir nos données de santé aux compagnies d’assurance

En Belgique en 2022, un avant-projet de loi a mis sur la table la communication de nos données de santé aux sociétés d’assurances. Il a été déposé par le Ministre des finances de l’époque dans le but d’une « meilleure efficience dans la gestion des contrats d’assurance. » Elise Degrave : « Ce projet a provoqué de vives réactions, ébranlant la confiance en l’État des citoyens vu cette réutilisation de données potentiellement nuisible. Le texte, manquant de balises suffisante pour empêcher les dérives, n’a pas abouti. » En france, les manifestations sont surveillées par des drones. En Hongrie, les mauvais payeurs d’impôts sont mis en vitrine sur Internet. Aux frontières de l’Europe, on utilise des robots détecteurs de mensonge pour sélectionner les migrants.

Notre vie sociale est guidée par les algorithmes

Elise Degrave : « Autant de cas réels qui confirment les craintes d ‘un déséquilibre de plus en plus marqué entre l’état et les individus au départ de la réutilisation de leurs données. La technologie redessine l’administration,dans son fonctionnement et dans son rapport avec le citoyen Le choix de l’école secondaire d’un enfant, l’octroi d’une aide sociale ou l’identification de fradeurs potentiels, le travail des agents humains est guidé par des algorithmes qui peuvent jouer un rôle déterminant dans la décision administrative. »

Une nécessité de légalité, d’égalité et de transparence

Pour la professeure, la numérisation des services de l’État pose 3 défis. Le premier est celui de la légalité. Comment encadrer l’état numérique ? Un gouvernement peu soucieux des droits humains pourrait utiliser notre double numérique de manière préjuciable, par exemple en organisant une traque ciblée des personnes en fonction de leur origine ou de leur orientation sexuelle. Le deuxième est celui de l’égalité ? Numérisation rime-t-elle avec vulnérabilisation ? « Dans les services publics, les écrans remplacent progressivement les agents. De plus en plus de personnes peinent à exercer leurs doits et respecter leurs obligations dans la société « sans contact ». Le troisième défi est la transparence. « Le numérique est intangible et invisible. Il est si difficile d’identifier ce que deviennent les données confiées à l’Etat que même en cas de bugs dommageables, retrouver l’erreur s’apparente souvent à cherche une agiuille dans une botte de foin. »

Politiser le numérique

Face à ces enjeux, Elise Degrave propose des pistes de solutions  pour encadrer le numérique. « Actuellement comme on l’a dit, la compétence du législateur est mise à mal par le législateur lui même, le gouvernement et la technologie. Pour améliorer la loi à l’ère du numérique il convient de réveiller le législateur en politisant le numérique et en créant un cadre juridique pour les systèmes de décision algorithmiques. En outre, le numérique soulevant des questions nouvelles avec lesquelles le législateur n’est pas nécessairement familier, il convient de l’épauler grâce à des analyses d’impact social et ce qui pourrait être un « AFSCA » des algorithmes»

Pour quoi faire, à quel coût et avec sous quelle responsabilité politique

Selon Elise Degrave, trois éléments essentiels doivent « imprégner davantage le travail du législateur ». « Il s’agit premièrement de l’objectif suivi par la numérisation de l’État et du besoin social impérieux auquel chaque outil est censé répondre. A quels besoins concrets la numérisation est-elle censée répondre ? Est ce pour faciliter la vie des citoyens ? Si oui, pourquoi tant de personnes sont mises en difficulté ? Est ce pour faire des économies ? Mais est on certain d’en réaliser puisque cette technologie a un coût non négligeable S’agit il plutôt de renforcer l’efficacité de l’État ? Qu’en est il alors de la robustesse de ces outils ? Deuxièmement le législateur doit évaluer en quoi l’outil envisagé est la solution « nécessaire » pour atteindre ces objectifs. Troisièmement, le responsable politique de chaque technologie doit être clairement identifié, soit de désigner clairement le ou les ministres dont la responsabilité sera enclenchée en cas de problème. »

Créer un cadre juridique

Le logiciel OASIS (organisation anbti frande des services d’inspection sociale) est un bon exemple d’outil de centralisation et d’exploitation des données des citoyens sans encadrement légal suffisant. Pour son enquête, Elise Degrave a pris contact avec l’administration et détaillé ses interrogation à propos d’OASIS. Réponse de l’administration : toutes les réponses à vos questions sont dans un dossier de plus de 150 pages que je ne peux vous transmettrre, la documentation technique des algorithmes de détection est bien entendu confidentielle. Puis un soir à la faculté, un appel téléphonie : « Madame Degrave, nous sommes deux agents de l’adminsitartion. On voit que vous cherchez vraiment à comprendre. On va vous aider mais vous devez nous jurer que jamais notre nom sortira de vos recherches » Comme climat de confiance et de transmettre, on a certes vu mieux.

OASIS est devenu un boîte noire

Elise Degrave : « En fait, OASIS est un entrepôt de donnés qui centralise un masse d’informations relatives aux employeurs et aux travailleurs dans un but de profilage. Il s’agit notamment de données fiscales, de données de sécurité sociale et de données relatives à la pension issues de plusieurs bases de données détenues par l’Etat. Le logiciel croise le tout et génère une liste de fraudeurs potentiels que les inspecteurs doivent contrôler. Si OASIS est efficace, dans 10 % des cas, les personne suspectes le sont à tort sans comprendre pourquoi par que selon les deux agents, OASIS est devenu une boîte noire. »

Le hic, c’est qu’OASIS n’est encadré par aucune loi, et ni le code source des algoritmes utilisés ni les type de données qui le nourissent ne sont publiés. Plus encore, toute demane d’y avoir accès est refusé. Qui a décide de cet outils, qui a créé ces algorithmes, selon les quels critères. OASIS ne conduit-il pas à des décisions injustes au regard de la loi. La réponse officielle de l’ONSS est sempiternellement la même : nous ne vous donnons pas accès à des formules mathématiques utilisées dans le Datawarehous OASIS vu que leur publication peut porter dommage à la lutte contre a fraude fiscale

Une application comme OASIS est illégale. « Elle réduit le rôle de l’humain à un épouvantail qui n’a pas de prise sur la décision algorithmique L’algorithme d’aide à la décision est alors un algorithme décideur. Or l’article 22 du RGPD interdit les décisions «entièrement ». Des cadres existent comme la directive européenne sur les données des passagers aériens et des décisions de la CJUE et du Conseil constitutionnel français qui interdisent de recourir à des algorithmes traitant certains données comme l’origine raciale d’une personne, sa religion, son état de santé ou son orientation sexuelle. Il y a aussi l’AI Act qui interdit les outils de notation sociale classant les indivdus en fonctions de leurs caractéristiques personnels, réelles, déduites ou prédites. ? Et Elise Degrave de saluer la décision de l’autorité de protection des données qui demande de faire figurer dans chaque loi endcadre un ouitl de « Datamining » une explication claire sur les modalités et les garanties des algorithmes utilisés.

Pour une AFSCA des algorithmes

Autre proposition d’Elise Degrave : « Les algorithmes devraient être sousmis à une autorité indépendane, une AFSCA des algorithmestihems chargée de contrôler les algoritmes et d’autoriser -ou non leur utilisation. Pour ce contrôle, cette autorité devrait pouvoir accéder à tous les éléments nécessaires comme les données d’entraînement, le code source, le résultat des tests et pouvoir dialoguer avec leurs concepteurs. Elle devrait aussi pouvoir exiger des administration qu’elles testent l’algorithme sur des jeux de données fictifs avant de le mettre en exploitation sur toute la polutation afin de s’assurer notamment qu’il ne discrime pas. Par ailleurs, au fur et à mesure de son expérience, elle pourrait élaborer notammnent une « liste noire »  des algorithmes du secteur public présentant un risque d’atteinte aux droits humains. On songe aux algorithme prédictifs recourant à des critères protégés par la légisation anti discrimination comme l’âge la situation financière, l’origine sociale, le genre afin d’éviter que l’agorithme cible en priorité des catégories vulnérables de la population. »