Revue de presse

Le numérique au fil de la presse

Par Laure Constant

Quel impact social et environnemental la numérisation sans limites a-t-elle de par le monde ? Qu’en est-il de nos libertés et de notre vie privée ? Cette revue de presse regarde comment se décline ce monde ultra-digitalisé, ici et ailleurs. Elle a été réalisée en mai et juin 2022 par Laure Constant. Journaliste indépendante spécialisée en Sciences politiques et relations internationales, elle propose une revue de presse quotidienne sur les réseaux sociaux concernant les enjeux internationaux, basée principalement sur les journaux d’actualités, agences de presse et magazines généralistes mais également sur la presse spécialisée et la littérature scientifique en fonction des thèmes abordés et des problématiques dégagées (dont Entreprendre, The Economist, Alarabiya News, The Register, Politico, The Guardian,…).

Depuis le jour où Steve Jobs est monté sur scène en janvier 2007 avec le premier iPhone, il ne s’est écoulé que douze ans avant que la moitié des adultes sur Terre ne possèdent un smartphone. Le nombre d’appareils connectés a atteint 14,4 milliards et devrait atteindre 27 milliards d’ici 2025. D’ici là, 72 % des internautes utiliseront leur téléphone pour accéder au Web. La production exponentielle de données a marqué l’avènement de l’économie des réseaux, censée accroitre productivité et prospérité. Cette frénésie numérique soulève de nombreuses questions environnementales et politiques dont le survol de l’actualité des mois de mai et juin éclaire certains enjeux.

Empreinte bien trop réelle


Loin d’être dématérialisé, le numérique est responsable de 4 % de nos émissions et sa consommation énergétique croit de 9% par an, soit un doublement tous les 8 ans. Elle pourrait représenter 20% de la consommation d’énergie mondiale d’ici 2025. Son empreinte semble d’autant plus imperceptible que 80% revient à la fabrication des appareils. Plus on dématérialise, plus on utilise de matières. Plus on miniaturise et complexifie les composants, plus on alourdit leur impact en énergie, traitements chimiques et métaux rares.
En outre, la majeure partie de l’électricité consommée ne l’est pas par l’appareil lui-même  mais par des serveurs à distance. Leur consommation est évaluée à 650 térawattheures en 2020, soit plus que celle de la France. S’il n’est pas contrôlé, d’ici 2040, le stockage des données pourrait représenter 14 % des émissions mondiales, soit les émissions actuelles des États-Unis. Malgré des engagements à un numérique responsable ou Green IT, la crise énergétique a refroidi l’enthousiasme pour les projets d’implantation de nouveaux centres et le 27 juin, le Luxembourg, les Pays-Bas, la Belgique, l’Allemagne et le Danemark ont proposé d’imposer des normes d’efficacité énergétique plus strictes.

Crypto-gouffre


Un phénomène magnifiant l’impact énergétique du numérique est la création des crypto-monnaies, reposant sur la Blockchain. Ce registre de transactions à chiffrement unique requiert de résoudre des calculs – la preuve de travail (proof of work) – afin de dissuader la fraude. Sauf que la difficulté étant réajustée pour maintenir une sécurité suffisante, l’augmentation des utilisateurs ou de leur puissance de calcul alimente un cercle vicieux énergivore. En mai 2022, le minage de crypto-monnaies consommait autant que l’Argentine. Au Kazakhstan, il utilise et accapare jusqu’à 8% de la production d’énergie – assurée à 80% par le charbon, et les citoyens se sont révoltés contre les hausses de prix et le manque de fiabilité du réseau. L’Iran, qui a utilisé les crypto-monnaies pour contourner les sanctions, a annoncé couper l’électricité aux dernières fermes à bitcoins encore autorisées. L’énergie consommée par une transaction pourrait, selon une note du Congrès américain, alimenter le foyer américain moyen pendant deux mois et émettrait 330 kg de CO2, soit 731 000 transactions VISA. L’ensemble du réseau consomme jusqu’à 184 TWh/an, soit l’énergie utilisée par tous les centres de données du monde et dépasserait les émissions de l’extraction d’or, estimées à 81 millions de tonnes de CO2 alors que seulement 120 millions de transactions sont traitées par an, contre 710 milliards pour le secteur financier. La Banque des règlements internationaux a ainsi qualifié le système de validation par preuve de travail de « désastre environnemental ». Face aux pressions, l’industrie chercherait à utiliser la preuve d’enjeu (proof of stake), une certification requérant de posséder une certaine quantité de crypto-monnaies pour prétendre valider des blocs supplémentaires. Moins énergivore, elle ne représenterait pour l’heure qu’1 % des transactions.

Soif de connaissance

40 % de l’énergie consommée par un centre de données étant allouée au refroidissement, de nombreuses entreprises ont opté pour l’utilisation de systèmes de refroidissement par évaporation d’eau et de nombreux acteurs tentent de faire prendre conscience des enjeux liés à la consommation d’eau du numérique – à l’image d’une tribune publiée en juin exhortant à « briser l’omerta » sur la voracité du secteur. Un centre de données typique utiliserait la même quantité d’eau qu’une ville de 50 000 habitants et beaucoup de centres sont installés dans des zones déjà soumises à un stress hydrique. Dans l’Arizona, l’installation d’un centre dernière génération a créé la polémique l’année dernière. Sa consommation était estimée à 4,7 millions de litres d’eau par jour, soit l’équivalent de deux piscines olympiques. Ce type de centres hyperscales – en plein essor avec le passage au cloud – a doublé entre 2015 et 2020 et leur consommation contrecarre la baisse relative des datacenters traditionnels. Afin de réduire sa consommation d’eau, l’industrie vante désormais les mérites du refroidissement par immersion, les serveurs étant plongés dans un liquide de refroidissement. Seulement, les réfrigérants les plus courants – les hydrofluorocarbures – ont un potentiel de réchauffement plus important que le CO2.

Terres à octets

Si les enjeux énergétiques et hydriques commencent à obtenir un écho auprès du grand public, leur consommation de terres reste peu traitée. Un centre de données peut mesurer jusqu’à 80 000 m² et s’étaler sur 15 hectares – le record étant détenu par la Chine avec 994 000m² – suscitant des tensions d’allocation. Largement en tête avec 33% des centres de données mondiaux, les Etats-Unis abritent, par exemple, 239 datacenters en Californie, état qui subit des tensions d’approvisionnement en eau, en électricité et d’aménagement du territoire. L’extraction minière nécessite des quantités phénoménales de roches et impliquent une pollution irréversible des sols sur de vastes étendues. Le traitement des déchets pose également de graves problèmes. Le flux de déchets électroniques affiche la plus forte croissance avec une hausse de 21% en 5 ans et 56 millions de tonnes produites en 2019. La plupart, non recyclés car composés d’alliages, vont garnir des décharges à ciel ouvert dans les pays en développement. Même l’orbite terrestre est jonchée de 129 millions de déchets en orbite, selon l’Agence Spatiale Européenne qui investit dans un vaisseau capable de retirer les débris.  Enfin, l’alimentation électrique de secours repose généralement sur d’énormes batteries au plomb, dont la durée de vie est de deux à trois ans. Le nettoyage des circuits nécessite des produits chimiques tels que la Javel, le chlore ou l’ammoniaque. En 2015, cinq personnes avaient, par exemple, été transportées à l’hôpital après une fuite de chlore gazeux dans un centre de données Apple en Caroline du Nord.

Numérisation sans limites

Digital washing

Pour pallier aux problèmes des limites planétaires et humaines, les géants de la Tech se proposent d’automatiser davantage les technologies. Selon le président de Schneider Electric la digitalisation serait « le premier levier et le plus puissant de la décarbonation à grande échelle ». Microsoft, Meta et Google ont ainsi annoncé gérer leurs centres de données via intelligence artificielle afin d’optimiser leur fonctionnement et diminuer leur consommation. Appliquée à l’agriculture, l’automatisation réduirait les besoins d’intrants et de traitements pour le bétail. Dans l’industrie, elle optimiserait la maintenance et la logistique et aiderait à concevoir de nouvelles solutions. Meta veut utiliser l’IA pour anticiper le changement climatique et simuler le fonctionnement de ses datacenters dans des
« conditions environnementales extrêmes ». Loin d’être un problème, la surenchère technologique fait partie de la solution. Un conseiller de la Commission européenne a pourtant reconnu qu’il n’est « pas évident que la numérisation des systèmes énergétiques ou de l’agriculture donnera un avantage en termes de durabilité ». D’autant qu’un grand modèle d’IA rejette cinq fois les émissions à vie d’une voiture moyenne et que la mise au point des modèles linguistiques les plus répandus utilise autant d’énergie en neuf jours que trois foyers américains en un an. Le vice-président d’Hewlett Packard estime que les charges de travail de l’IA représentent déjà plus de la moitié de la demande de calcul globale. Mais l’industrie promet de les optimiser, elles aussi. Tout se passe comme si le numérique était exempté de l’effet rebond, selon lequel les économies de ressources escomptées via l’utilisation d’une nouvelle technologie sont compensées par l’adaptation des usages.

Obsolescence programmée

L’emballement technologique provoquant une saturation du marché, les fabricants ont recours à des conceptions qui accélèrent le cycle de remplacement des appareils. Les produits sont conçus pour rendre leur réparation difficile, voire impossible, et ne plus prendre en charge les nouvelles mises à jour logiciels. Un étau consumériste se resserre ainsi entre désir de nouveautés et contrainte technique. Les fabricants de smartphones ont sorti jusqu’à 15 nouveaux modèles en 2019, leur durée de vie moyenne étant de 2 ans, celle de l’équipement d’un datacenter de 1 à 5 ans. Un analyste en stratégie numérique estimait dans The Register qu’afin de maintenir une croissance à deux chiffres dans le secteur (+16%), il fallait « apporter de nouvelles choses sur le marché, de nouveaux produits, de nouvelles fonctionnalités et augmenter le taux d’innovation ». La congestion du trafic de données est rendue de plus en plus problématique par les applications reposant sur la prise de décision en temps réel, telles que les voitures autonomes, leur traitement par intelligence artificielle devient donc nécessaire. Seulement, de tels débits sont impossibles via une connectivité cuivre et rendent également nécessaire le déploiement de la 5G et de la fibre. Selon Ericsson, l’adoption de la 5G a été beaucoup plus rapide que ses prédécesseurs et devrait dépasser la 4G en 2027 ouvrant la voie à l’internet des objets. Dans un marché qui avait tendance à stagner, la 5G relance le besoin de consommation et l’obsolescence des appareils devrait entrer dans une nouvelle ère. Et Huawei a déjà introduit la 5.5G tandis que plusieurs entreprises travaillent sur la 6G qui pourrait être déployée d’ici 2029. Cette connectivité encourage de nouveaux usages et augmente d’autant la demande énergétique globale.

Course au cyber armement

Le cyberespace est un nouveau domaine de guerre et de criminalité sans frontière qui a coûté plus de 6000 milliards de dollars en 2021 et pourrait atteindre 10 500 milliards de dollars d’ici 2025. Les cyberattaques ciblent de plus en plus d’infrastructures essentielles. En juin, le Costa Rica a été la cible d’une série d’attaques menaçant de renverser le gouvernement. 27 agences gouvernementales, dont le Trésor et le système de santé, ont été piratées, forçant le Président à déclarer un état d’urgence. Interpol coopère désormais avec les sociétés de cybersecurité dans le partage d’informations et le Forum économique mondial travaille à l’élaboration d’une carte de la cybercriminalité. Mi-mai, l’UE a mis en place un accord, baptisé NIS2, fixant des exigences en matière de cybersécurité pour les infrastructures stratégiques, ainsi qu’un réseau européen de lutte contre la cybercriminalité (EU-CyCLONe). Les centres de données restent hélas vulnérables à toutes sortes d’aléas. En mai, le PDG d’OVH, fournisseur de cloud français, est revenu sur l’incendie d’un de ces datacenters ayant fait perdre leurs données à plus de 16 000 clients. Le 7 juin, de nombreux résidents de Colombie-Britannique se sont retrouvés sans internet, sans téléphone, ni mobile pendant plus de huit heures à cause… d’un castor. L’animal avait abattu un arbre qui aurait sectionné la fibre optique. Le Wall Street Journal rapportait fin juin que l’Ukraine envoie ses bases de données sensibles en Pologne, par peur qu’elles ne soient la cible de frappes russes. Le Japon souhaite aussi décentraliser ses datas dont 60% se trouvent dans la région de Tokyo, sujette à des cataclysmes. Bien que les technologies cloud permettent de réduire les défaillances au niveau de l’infrastructure, la décentralisation a ajouté de la complexité. Un nombre croissant d’incidents sont attribués à des problèmes de réseau, de logiciel ou de système. Plus les systèmes se complexifient, plus les points d’entrée possibles augmentent nécessitant sauvegardes, correctifs de sécurité et systèmes secondaires. Google Chrome a ainsi corrigé 32 failles dans sa dernière mise à jour. Apple, pas moins de 98 sur ses différentes plates-formes logicielles.

Les risques de piratage augmentent avec l’internet des objets. Les consommateurs ayant tendance à les traiter comme du simple électroménager ne mettent pas à jour leur sécurité. Ils deviennent donc une mine d’or pour le lancement d’attaques de déni de service (DDoS). Depuis le début de la guerre en Ukraine, ces attaques ont bondi de 645 % et, avec elles, le nombre d’appareils impliqués. La sécurité numérique peut-elle encore être laissée entièrement entre les mains des humains ?, s’interroge the Register alors que 24 000 milliards de signaux de sécurité sont contrôlés toutes les 24 heures dans les serveurs Microsoft et que le cloud fait désormais transiter les données en continu. Selon Capgemini, 61% des organisations avouent être désormais incapables d’identifier les menaces sans recours à l’intelligence artificielle. La cybersécurité par intelligence artificielle a été déployée dans 390 établissements de santé aux États-Unis et le marché devrait atteindre 38,2 milliards de dollars d’ici 2026, contre 8,8 milliards de dollars en 2019, le secrétaire adjoint au Commerce estimant que l’IA est une nouvelle frontière pour renforcer [la] sécurité économique et nationale dont le développement responsable est essentiel à la concurrence stratégique avec la Chine. La cybertechnologie est en effet l’enjeu d’une nouvelle compétition géostratégique, les États étant dans une course à la performance visant à alimenter l’IA. Le superordinateur Frontier devrait être le premier système exascale américain. La Chine, en en ayant déjà deux, vise à en avoir 10 opérationnels d’ici 2025, selon un rapport du Financial Times. Et une nouvelle frontière se profile déjà : les ordinateurs quantiques pouvant fonctionner des millions de fois plus vite que les supercalculateurs avancés. Seulement les ordinateurs quantiques pourraient bientôt réussir à déchiffrer les algorithmes cryptographiques actuels, compromettant les communications civiles et militaires et la sécurité des infrastructures critiques. La Maison Blanche a annoncé des mesures pour se défendre contre la prochaine génération de supercalculateurs, notamment en ordonnant aux agences fédérales d’entamer un processus de migration des systèmes vers la cryptographie post-quantique. Un projet de loi – surnommé « loi sur les frontières sans fin » – appelle à dépenser 100 milliards de dollars dans les technologies émergentes, y compris l’informatique quantique et l’intelligence artificielle, pour combler l’écart d’innovation avec la Chine. Et, face à la menace qu’elle représente, l’informatique quantique contraindra l’adaptation du réseau. Fin juin, OVH Cloud a annoncé la signature de deux partenariats avec des entreprises d’informatique quantique pour la rendre accessible au plus grand nombre et les entreprises de cybersécurité vendent déjà leur service pour protéger les entreprises.

Enfers artificiels

Humain trop humain

La pandémie et la pénurie de main-d’œuvre ont fortement accéléré la numérisation des entreprises. Le nombre de robots par travailleur a doublé en 5 ans et on estime qu’entre 85 et 100 millions d’emplois pourraient être automatisés d’ici 2030. Selon l’OCDE, les fonctions managériales sont les plus transformées par l’intelligence artificielle, facilitant la standardisation du contrôle des salariés et, à l’instar des plateformes participatives auparavant, le numérique exploite les failles juridiques de lois dépassées par la vitesse de développement technologique. Une étude d’Oracle révèle que 93 % des chefs d’entreprise feraient plus confiance à l’IA qu’à un être humain pour prendre une décision. 80 % auraient installé un logiciel de surveillance ou envisagent de le faire. Amazon installe des caméras alimentées par l’IA dans les camionnettes de ses chauffeurs qui les enregistrent et calculent un score affectant leur salaire. «L’opérateur humain», devenu simple exécutant, est désormais sommé de se comporter en superordinateur interchangeable avec la machine, ce qui entraine déqualification et dévalorisation. Une étude de l’Université de Pittsburgh révèle que les américains travaillant aux côtés de robots sont plus susceptibles de présenter des problèmes psychologiques et d’addictions s’ils perçoivent leur présence comme une menace pour leur emploi. Selon un sondage réalisé par ExpressVPN, 59 % des travailleurs ressentent du stress ou de l’anxiété à l’idée que leur employeur surveille leur activité et 41 % se demandent constamment s’ils sont observés. Cette surveillance a pourtant été au cœur du succès des GAFAM.

Si chères données

Fin 2019, la valorisation cumulée des GAFAM en faisait la troisième puissance économique mondiale après les Etats-Unis et la Chine. 57% du trafic internet est entre leurs mains. Appuyant leur succès sur l’illusion de gratuité de leurs services, leurs revenus reposent en réalité sur la surveillance des contenus utilisateurs et la revente de leurs données. 85 % des revenus de Google et 98,5% de ceux de Meta en découlent. L’Américain moyen voit ses informations partagées 747 fois par jour, l’Européen 376 fois, via des enchères en temps réel et la revente de données rapporte 500 milliards de dollars. Selon un rapport de l’ONG The Markup, 445 lobbyistes travaillent à faire échouer les législations sur la protection des données aux États-Unis. Les avancées technologiques contraignent les utilisateurs à en céder toujours plus. En mai, Apple, Microsoft et Google ont ainsi annoncé remplacer les mots de passe sur l’ensemble de leurs services par l’authentification via un deuxième appareil ou la reconnaissance faciale et digitale. 99,6 % des smartphones sont désormais dotés de la reconnaissance faciale et 91,5 % d’un scanner digital. Selon Juniper Research, le paiement biométrique, en plein essor, pourrait atteindre 1,2 milliards de dollars d’ici 2027, soit une hausse de 365 %. Et le metaverse a le potentiel d’accroitre encore plus la manne, puisque chaque mouvement de l’utilisateur sera capturé. L’industrie n’a versé que 1,2 milliard d’euros d’amendes depuis l’adoption de la RGPD. Dans les faits, les utilisateurs sont souvent contraints d’accepter les cookies de traçage s’ils veulent accéder au site web, via apposition d’un mur de traceurs ou « cookie walls ». Pourtant jugés illégaux par le Comité européen de protection des données, le flou juridique demeure. Dans un avis du 16 mai, la CNIL estime qu’ils ne contreviennent pas à la RGPD tant que le tarif demandé pour accéder au site est « raisonnable », risquant d’aggraver une dérive inégalitaire qui se joue déjà de la méconnaissance des utilisateurs via une complexification délibérée des politiques de confidentialité. La RGPD est aussi critiquée pour son mécanisme de guichet unique, les entreprises étant réglementées par l’organisme où elles ont leur siège en l’occurrence la Commission irlandaise. Accusée d’être trop lente et favorable aux entreprises, la quasi-totalité de ses décisions ont été contestées, déclenchant un long processus de règlement des différends. Le contrôleur européen de la protection des données a ainsi appelé à son remplacement par une commission paneuropéenne le 17 juin. Dernièrement, les pays tentent de s’affranchir du monopole des GAFAM. L’UE est parvenue à un accord début mai sur deux règlements garantissant les droits des usagers et la libre concurrence. Le Royaume-Uni a nommé un régulateur des technologies afin de préparer de nouvelles mesures et 28 projets de loi seraient en attente aux États-Unis, dont une loi fédérale sur la protection des données. Pourtant l’attitude des États semble mue par des considérations plus stratégiques qu’éthiques.

Finance virtuelle et crypto-crash

L’effondrement du Bitcoin et de dix autres crypto-monnaies en mai qualifié par certains de « moment Lehman Brothers » de la cryptographie a révélé que le système n’est ni exempt des vulnérabilités qu’il tentait de contourner, ni décentralisé. D’après une enquête de la DARPA parue le 22 juin, près de 60 % du trafic Bitcoin s’est concentré dans les mains de trois fournisseurs d’accès à internet au cours des cinq dernières années et la moitié serait acheminée par le navigateur décentralisé Tor. Et, alors que l’on annonce un « hiver crypto » – avec des milliers de licenciements à la clé – les appels à la régulation restent ambigus. « Ce que nous ne voulons pas faire, c’est étouffer une nouvelle industrie et perdre des opportunités », confie ainsi un sénateur américain. L’expansion de la finance virtuelle suscite, en effet, l’intérêt des banques centrales, stimulées par la menace qu’une grande entreprise numérique crée son propre mode de paiement. L’UE, après avoir annoncé de nouvelles règles pour freiner le « far west » des crypto-monnaies a, par exemple, annoncé préparer sa propre monnaie numérique. Neuf pays, dont la Chine, ont déjà lancé la leur et 87 l’envisagent. La Fed américaine, dans une note publiée fin mai, se montre partagée entre la volonté d’offrir une alternative aux crypto-monnaies dérégulées et l’incertitude quant aux conséquences sur l’économie réelle. « Nous reconnaissons qu’il y a des risques à ne pas agir, tout comme il y a des risques à agir », a déclaré sa vice-présidente.

Tentations orwellinnes

Fin juin, la Cour Européenne de Justice a interdit aux États de forcer les compagnies aériennes à transmettre leurs données voyageurs. Avant cela, elle avait conclu que la surveillance de masse était une intrusion injustifiée dans la vie privée, même lorsque l’objectif est de lutter contre la criminalité. Dans le même temps s’ouvrait une commission d’enquête sur le logiciel espion Pegasus grâce auquel de nombreux gouvernements auraient écouté les téléphones d’autres dirigeants, d’opposants et de journalistes. Dernièrement, le gouvernement indien multiplie la censure sur les réseaux et tente d’imposer sa propre modération en menaçant de tenir les plateformes responsables des contenus illégaux. Plusieurs arrestations basées sur des propos en ligne ont été dénoncées par la Freedom House, dans un rapport lui aussi censuré. Le gouvernement a pris l’habitude de couper internet en cas de mouvements sociaux et 665 coupures internet ont été recensées depuis 2012, dont 59 depuis le début de l’année. Alors que la moitié des juridictions américaines avaient adopté des lois interdisant la reconnaissance faciale entre 2019 à 2021, les interdictions sont annulées une à une, les forces de l’ordre et lobbies faisant pression dans le but affiché de lutter contre la criminalité. L’Union américaine pour les libertés civiles alerte que les nouvelles technologies sont poussées dans les moments de crise depuis des décennies et il devient de plus en plus difficile d’éviter le regard des caméras dont les images peuvent être stockées et analysées de manière algorithmique. Les critiques ont souvent noté comment ce système pouvait renforcer et enhardir les régimes totalitaires mais la surveillance dans les pays occidentaux était considérée comme moins problématique puisqu’axée sur le commerce. L’annulation de l’affaire Roe v. Wade en juin a finalement concrétisé la menace de voir le système de surveillance numérique utilisé pour criminaliser les citoyens occidentaux. Le Japon a par ailleurs mis à jour son code pénal afin que les insultes en ligne soient passibles d’un an d’emprisonnement. Alors que la commission européenne présentait le 3 mai son plan de création d’un espace de données de santé européen, les géants américains du cloud se sont fermement opposés au système de certification des normes de cybersécurité visant à bloquer l’espionnage américain en Europe, arguant qu’il les contraindrait à violer l’US CLOUD Act qui leur impose de fournir aux instances de justice américaines les données stockées sur les serveurs situés aux États-Unis et à l’étranger.

Éthique artificielle

Parallèlement à son adoption non régulée, les rapports se multiplient pour alerter sur les potentialités délétères de l’IA pouvant contrevenir à la dignité, au respect de la vie privée, à la non-discrimination ou encore à l’accès à la justice et aux droits sociaux. Les processus d’apprentissage automatique dépendant de quantités phénoménales de données ne pouvant être collectées que sur internet, elles ont tendance à reproduire les discriminations qu’on y trouve. Puisque personne n’est à même de les répertorier, elles perpétuent le préjudice sans recours possible. Les pays et les peuples ayant moins accès à internet ont une plus petite empreinte linguistique en ligne, l’IA est donc le reflet des pratiques des pays et des communautés dominantes. Pour certains, l’équité dans les modèles d’apprentissage automatique est inatteignable, tout simplement parce que les gens ne peuvent pas s’entendre sur ce que signifie le terme. Alors que les experts s’efforcent de créer le Saint Graal d’un système intelligent parfait et impartial, les potentialités arbitraires se dévoilent et s’esquisse une société du tout calcul où l’humain n’est qu’un paramètre, manipulable jusque dans ses moindres émotions. Les firmes elles-mêmes ont pris conscience des enjeux éthiques de l’IA. IBM, Google et Microsoft ont refusé des projets concernant l’analyse des émotions et la reconnaissance faciale. En octobre 2020, Google a rejeté un projet visant à attribuer des crédits financiers via algorithme, jugeant que le risque de perpétuer des pratiques discriminatoires était trop important. En 2020, Microsoft, Amazon et IBM, ont placé un moratoire sur la vente de systèmes de reconnaissance faciale suite à la répression contre les manifestations Black Lives Matter. Le Président de Microsoft a annoncé brider les fonctionnalités permettant d’identifier le sexe, l’âge et l’état émotionnel d’une personne et renforcer les contrôles sur la future utilisation de ces outils avant de les vendre, admettant que l’IA « soulève des problèmes qui vont au coeur des protections fondamentales des droits de l’homme, comme la vie privée et la liberté d’expression ». Le comité d’éthique de Microsoft a développé un document de 27 pages de normes et appelle les gouvernements à réglementer ses usages.

Seulement, l’adoption précède la réglementation et la Commission européenne travaille depuis 2021 à l’élaboration d’un Artificial Intelligence Act, des pays comme la France ou les Pays-Bas plaidant pour une exemption de sécurité nationale. La France souhaite notamment permettre l’utilisation répressive de l’IA sans autorisation préalable. Environ 3300 amendements ont été déposés et le processus législatif pourrait durer jusqu’à mi-2023. De nombreux groupes de défense des droits de l’homme affirment, en outre, que la loi ne va pas assez loin et laisse les personnes vulnérables aux entreprises et aux gouvernements. Le projet n’offre, par exemple, pas de garantie explicite en matière de protection du droit du travail et exclut l’utilisation militaire de l’IA. Dans un avis publié le 22 juin, la Défenseure des droits française a rappelé que la non-discrimination doit être au cœur de sa réglementation, soulignant le manque de représentativité des données mobilisées, et tire la sonnette d’alarme au sujet des processus de recrutement alimentés par algorithme. Le ministère de la Justice américain a aussi averti du potentiel discriminatoire du tri des candidatures par intelligence artificielle. La Défenseure des droits rappelle que les algorithmes utilisés dans le cadre de la lutte contre la fraude aux prestations sociales ont déjà conduit à des dérives. Un algorithme déployé par l’administration néerlandaise pour détecter les fraudes aux allocations familiales s’est avéré avoir nui à des dizaines de milliers de personnes et conduit au placement de plus de 1000 enfants. En 2019, les gardes frontières européens ont testé un détecteur de mensonge alimenté par intelligence artificielle appelé iBorderCtrl. Peu après, les médias ont indiqué que l’algorithme ne fonctionnait pas, le propre site Web du projet reconnaissant que la technologie pouvait « impliquer des risques pour les droits humains fondamentaux ». Pourtant, 341 millions d’euros ont été alloués à des entreprises pour le développement de l’IA aux frontières.

Dans le cadre des soins de santé et des services sociaux, ce sont souvent ceux qui ont le plus besoin d’assistance qui sont le moins en mesure d’utiliser le numérique. Une étude de l’Insee publiée le 11 mai confirme que 53% des personnes défavorisées ont renoncé à effectuer une démarche administrative en ligne en raison de sa complexité et 60% des démarches en ligne seraient inaccessibles aux personnes handicapées. Un dispositif pilote testé en France de classement algorithmique des chômeurs, visant à cibler les contrôles, est dénoncé par les usagers et les conseillers comme déshumanisant et risquant d’aggraver le décrochage des individus. Dans l’Ontario, une association de locataires poursuit leur régie en justice pour être passée au tout numérique, arguant que cela porte atteinte au principe d’égalité. Avec l’intelligence artificielle, la surveillance peut évoluer sans personnel humain, avec le risque de perdre la maitrise de la machine. Le fait que Meta ait publié en mai le code d’un modèle de langage à l’attention des chercheurs, dans l’espoir qu’une meilleure compréhension du fonctionnement de ces systèmes puisse les rendre moins discriminants, est révélateur. Le laboratoire de recherche « Anthropic » vient de lever 580 millions de dollars pour « explorer les propriétés d’évolutivité des systèmes d’apprentissage automatique, tout en examinant de près les manières imprévisibles dont les capacités et les problèmes de sécurité peuvent émerger ». Le PDG d’IBM le reconnait : « Avec la quantité de données aujourd’hui, nous savons qu’il est impossible pour nous, en tant qu’êtres humains, de tout traiter. La seule technique que nous connaissons qui puisse récolter les informations est l’intelligence artificielle. Mais nous devons comprendre la science de la vie de l’IA. Sinon, nous allons créer un monstre. »


L’humanité est passée d’un déficit d’information à une offre excédentaire épuisante. Tandis qu’en 2008, le rapport Smart 2020 promettait une réduction de 20 % des gaz à effet de serre grâce au numérique, cela ne s’est pas produit. Comme le remarque Forbes, les robots et l’IA complètent les humains, nous aidant à en faire plus à un rythme plus rapide. Les gains de productivité sont alloués au développement d’autres secteurs brisant l’espoir que les technologies contribuent à réduire l’empreinte environnementale. Le numérique n’offre, semble-t-il, qu’un nouvel enjeu de reproduction autotélique des dynamiques déjà à l’œuvre : marchandisation du quotidien, division sociale et inégalités. Dans un univers où rien ne saurait échapper à la mesure, les domaines qui ignorent la quantification sont exclus. La numérisation concentre les pouvoirs et nie toute possibilité d’existence d’une autre compréhension du monde. La tendance à utiliser les techno-sciences pour s’affranchir des limites dans lesquelles les bases matérielles de la vie sont contenues semble nous vouer à l’aliénation et la soumission à une nouvelle transcendance artificielle.