bandeau décoratif

Numérique : réveiller le droit à l’égalité

La digitalisation croissante des relations entre les citoyens et les services publics bousculent (notamment) le droit fondamental à l’égalité et à la non discrimination: c’est le constat d’Elise Degrave, professeure à la Faculté de droit de l’UNamur et directrice de recherches au NADI/Crids qui prêche pour un numérique choisi et contrôlé. Sur le plan juridique, constate-t-elle, la logique du tout numérique et de la gouvernance algorithmique transpose voir renforce les inégalités sociales.

Elise Degrave : « Lorsqu’on évoque les difficultés des personnes par rapport au numérique, on parle souvent de « fracture numérique « . Assez clivant, ce terme peut induire l’idée qu’il y a d’un côté les « forts », qui ont accès au numérique, qui en maîtrisent l’usage et sont peu concernés par cette problématique, et de l’autre côté, les « faibles », dont on préfère penser qu’ils sont minoritaires, n’ont pas de matériel informatique ou n’ont pas les compétences pour l’utiliser, et on gage du fait qu’un jour l’État leur paiera un ordinateur et que des personnes dévouées les aideront à monter dans le train du numérique.  »

Une solution

« La pauvreté, l’analphabétisation, le handicap dans le monde physique, ne disparaîtront pas d’un coup de tablette magique dans le monde numérique. Au contraire même puisqu’à l’égard des inégalités sociales le numérique est ambivalent. Il est à la fois une solution et un problème. Il est une solution car il rend possible, par exemple, l’automatisation des droits pour octroyer d’office un droit sans que le bénéficiaire doive le demander. C’est le cas du tarif social « gaz et électricité  » qui, grâce à des échanges de données entre administrations, permet une réduction automatique de la facture de certaines personnes. Cela contribue à diminuer le phénomène du « non-recours aux droits »

Mais aussi un problème

« Mais le numérique peut aussi renforcer les inégalités. Pour certains, il complexifie les démarches à effectuer, du fait de l’informatique, mais aussi de la standardisation qui accompagne souvent les démarches en ligne, consistant notamment à « cocher une case « . Or, certaines situations de vie sont atypiques, n’entrent dans aucune case, et sont malaisées à expliquer par mail. En outre, des « bugs » se produisent dans les coulisses des services, ce qui les rend d’autant plus difficiles à identifier, à contrôler et à corriger. Ainsi, s’agissant de l’automatisation des droits, même de tels croisements de données vertueux peuvent générer des inégalités. Si une donnée du processus est erronée, en bout de chaîne, le citoyen se verra refuser la réduction escomptée, alors même qu’il est dans les conditions légales pour l’obtenir. Et le fournisseur d’énergie sera bien en peine d’en expliquer la raison : actuellement, retrouver une erreur dans une donnée équivaut à chercher une aiguille dans une botte de foin, tant il reste à faire pour que la transparence dans l’utilisation des données des citoyens soit une réalité.  »

Des algorithmes d’état

« Ajoutons à cela que les humains ne sont plus nécessairement les seuls à prendre des décisions importantes pour les individus. Par exemple, en matière de lutte contre la fraude, ce sont désormais des algorithmes qui, au départ d’une grande quantité de données traitées, indiquent aux inspecteurs les profils suspects qu’il convient de contrôler. Or, l’algorithme n’étant qu’une formule mathématique créée par un humain, il peut être affecté de « biais « , même non intentionnels, conduisant à contrôler une catégorie de la population, tels les pauvres ou les personnes d’origine étrangère, plutôt qu’une autre. Lorsque l’algorithme est appliqué à toute la population, comme c’est le cas des algorithmes de l’État, le choix algorithmique est un choix de société. En d’autres termes, si un algorithme a des conséquences racistes ou sexistes, ces conséquences auront le même impact que si elles étaient organisées par une loi, à la différence qu’une loi est débattue publiquement et fait l’objet de contrôle en amont et/ou en aval, ce qui n’est pas le cas de l’algorithme dont, la plupart du temps, on ignore même l’existence et le rôle. Cela signifie que des discriminations sont créées dans le monde « réel « , mais leur origine se trouve dans la stratosphère numérique, ce qui les rend difficilement saisissables.  »

Pour un numérique choisi et contrôlé

Or des pistes existent pour faire du numérique une alternative « durable » qui tiennent compte des conséquences sociales qu’il peut induire et plus largement, du respect des droits fondamentaux. Ce qui implique que le numérique soit choisi et contrôlé.

Pour un numérique choisi

Pour la professeure, le numérique doit relever du choix personnel, à plus forte raison dans les services publics qui sont incontournables puisque le citoyen n’a pas le choix du prestataire. Ce choix est mis en péril lorsque l’usage du numérique tend à être privilégié, et à faire disparaître la possibilité d’un contact avec un agent humain.

Elise Degrave :  » Dans la relation entre les personnes et les services, le numérique doit être une possibilité, mais non une contrainte. C’est un outil très intéressant pour renforcer l’efficacité des démarches, lorsque ces outils fonctionnent et pour qui peut les utiliser. Mais il est aussi un obstacle pour les populations fragilisées, et parfois une source de stress, ponctuel mais réel, pour les personnes plus privilégiées. »

Mise en cause du droit fondamental à l’égalité

 » Or, des normes imposant la voie numérique pourraient heurter le droit fondamental à l’égalité et la non-discrimination (articles 10 et 11 de la Constitution) et, partant, être invalidées par la Cour constitutionnelle ou le Conseil d’État. Il convient en effet d’être attentif au risque de discriminations indirectes, notamment. Par exemple, imposer que les démarches administratives soient effectuées en ligne dans les administrations,sans organiser le maintien de guichets physiques, serait une mesure neutre en apparence. Mais concrètement, elle aboutirait à créer une différence de traitement non justifiée en défaveur d’une partie de la population, en l’occurrence, les personnes qui, du fait de leur manque d’autonomie numérique, seraient ainsi exclues de l’accès à certains droits et services.  »

3 exemplaires papier du Moniteur pour tout le pays

 » Cet argument a déjà convaincu la Cour constitutionnelle d’annuler une disposition législative prévoyant que l’accès au Moniteur belge devait se faire en passant par Internet, hormis trois exemplaires papier encore disponibles dans le pays. La Cour a annulé la disposition attaquée, estimant que, ce faisant,  » un nombre important de personnes se verront privées de l’accès effectif aux textes officiels, en particulier par l’absence de mesures d’accompagnement qui leur donneraient la possibilité de consulter ces textes « . Depuis lors, tout citoyen peut téléphoner à un agent humain, via un numéro gratuit, pour être aidé dans sa recherche de tout acte ou document publié au Moniteur belge, et en demander une copie à prix coûtant.  »

Garantir un contact humain

« La Charte de l’utilisateur des services publics, imposée depuis 1992 par le gouvernement fédéral dans un but de  » modernisation  » et d’ »amélioration des services publics « , renforce cette exigence en affirmant un principe général de souplesse, qui implique notamment  » de bons contacts oraux et écrits  » et  » l’assouplissement des heures d’ouverture, l’accueil des utilisateurs et la formation appropriée des agents en contact avec le public « . Un principe général de protection juridique est également consacré, en vertu duquel  » l’utilisateur doit être en mesure de faire respecter ses droits et de faire valoir ses intérêts « . De surcroît, la liberté de choix est aussi protégée par d’autres droits fondamentaux, comme le droit à la protection de la vie privée (article 22 de la Constitution) et à la protection des données à caractère personnel (organisée notamment par le  » RGPD « ).

Droit du citoyen de refuser la voie numérique

« À ce titre, un citoyen a le droit de garder la maîtrise de ses données à caractère personnel et de refuser d’utiliser la voie numérique pour interagir avec l’État, notamment en renonçant à utiliser la boîte mail officielle qu’est l’eBox. Mais jusqu’à quand ? Pour atteindre l’objectif européen des  » services 100 % en ligne  » d’ici 2030, peut-on exiger d’un citoyen ayant choisi la voie numérique pour interagir avec les services publics qu’il ne puisse plus revenir au papier pour ses démarches administratives ? Pourtant, une telle norme violerait l’article 7.3 du RGPD qui permet au citoyen de changer d’avis en lui donnant le droit de retirer son consentement à tout moment. Dans un autre domaine, la récente application  » Smartmove » que les Bruxellois sont invités à télécharger pour le calcul de la taxe kilométrique à Bruxelles, si elle devait donner lieu à des avantages pour ses utilisateurs, voire devenir obligatoire, rendrait incontournable l’usage d’un smartphone pour remplir des obligations civiques. Ne pas avoir de smartphone serait-il alors encore un droit ? » Pour Elise Degrave, le numérique doit-il ainsi pouvoir être choisi. Il doit également être contrôlé, comme on le verra dans un troisième et dernier article

Pour un numérique contrôlé

Ainsi le numérique doit-il non seulement relever du choix personnel, à plus forte raison dans les services publics qui sont incontournables puisque le citoyen n’a pas le choix de sont interlocuteur. Mais il doit également être contrôlé lorsque des données à caractère personnel leur servent de « carburant ».

Se retrancher derrière l’outil

Elise Degrave : « Or les algorithmes sont opaques et les traitements de données sont inobservables. Au final, on doit constater que le numérique est invisible. Au risque de le rendre invincible, car l’invisibilité du numérique, doublée d’un caractère technique, donne une apparence de complexité aux questions à réguler, qui peut décourager les responsables politiques de s’en saisir pleinement. D’autant qu’on peut légitimement se demander si certains, peu à l’aise avec ces outils et leurs effets, n’auraient pas tendance à se retrancher derrière l’outil pour ne pas avoir à en assumer les éventuelles conséquences électoralement peu porteuses. »

Perdu devant son écran

« Par ailleurs, la contestation citoyenne tend à s’étouffer en ce domaine. À regret, car ce sont bien souvent les questions, les contestations voire les transgressions qui font évoluer la société en général, et le droit en particulier. Même si une décision injuste concerne une masse de personnes, l’invisibilité du numérique compromet l’identification du problème initial. Et chacun étant seul et perdu devant son écran, l’énergie physique d’un groupe, qui incite à réfléchir ensemble et peut faire naître l’envie de manifester, disparaît. Ainsi, pour que le numérique se déploie de manière harmonieuse dans un État de droit, il est urgent que les responsables politiques se saisissent pleinement de ces questions. Trois pistes d’action, au moins, peuvent être envisagées. »

Pour une AFSCA des algorithmes

« Premièrement, puisque les biais algorithmiques mettent en péril le droit à l’égalité et à la non-discrimination, ils devraient être contrôlés, en mettant en place une  » AFSCA  » des algorithmes, autorité indépendante spécifiquement dédiée à cette mission. »

Renforcer la transparence des données

« Deuxièmement, pour obvier au risque d’erreurs en chaîne dans les décisions fondées sur des échanges de données, la transparence des traitements de données devrait être renforcée en mettant en place un tracking des données, à l’image de ce qui se fait lorsque l’on commande un produit sur Internet et que le parcours du produit est disponible en temps réel. Il y va du respect du droit à l’égalité et la non-discrimination, du droit à la vie privée et du droit à la transparence administrative. »

Analyse d’impact

« Troisièmement, pour lutter effectivement contre les inégalités sociales numériques, chaque outil numérique devrait faire l’objet d’une analyse d’impact avant sa mise en place, permettant de mesurer notamment les économies que cette mesure permettra de réaliser. Et il serait judicieux de songer alors à réaffecter ces économies dans la mise en place de dispositifs inclusifs, tels que la formation d’agents pour aider les personnes fragilisées à effectuer leurs démarches administratives, sur papier ou en ligne. Il s’agit là de quelques pistes d’action essentielles, pour éviter, tant que faire se peut, que numérisation rime avec exclusion sociale et culturelle. »