Un article du Monde Diplomatique (Octobre 2021)
Longtemps l’idée d’une industrie numérique propre car « immatérielle » a dominé les esprits. Contre les géants du pétrole et de l’automobile, la Silicon Valley semblait l’alliée naturelle des politiques de lutte contre le réchauffement climatique. Cette illusion se dissipe. Une enquête conduite sur plusieurs continents révèle le coût environnemental exorbitant du secteur des hautes technologies.
par Guillaume Pitron
Développeurs de la Silicon Valley et constructeurs de semi-remorques, la Commission européenne et le cabinet McKinsey, MM. Joseph Biden et Xi Jinping, les libéraux britanniques et les Verts allemands : face à l’urgence climatique, une sainte alliance mondiale s’est nouée autour d’une conviction. Celle d’un grand basculement du monde en ligne pour le bien de la planète. « À tel point que l’on considère de plus en plus qu’il ne sera pas possible de maîtriser le changement climatique sans un recours massif au numérique », souligne l’association The Shift Project, qui ne partage pas ce point de vue. Un nouvel évangile promeut le salut par les villes « intelligentes » bourrées de capteurs et de véhicules électriques autonomes. Cette croyance peut compter sur d’efficaces apôtres. Comme le Global e-Sustainability Initiative (GeSI), un lobby patronal établi à Bruxelles, pour qui « les émissions évitées via l’utilisation des technologies de l’information et de la communication sont près de dix fois plus importantes que celles générées par le déploiement de ces technologies ». Mais des chercheurs indépendants contestent la sincérité de ces chiffres repris partout, et l’impartialité de leurs auteurs.
Au-delà des efforts du « marketing vert » déployé par les industriels et leurs porte-voix, quel est l’impact environnemental de l’outil numérique ? Ces nouveaux réseaux de communication sont-ils compatibles avec la « transition écologique » ? Au terme d’une enquête qui nous a conduit dans une dizaine de pays, voici la réalité : la pollution digitale est colossale, et c’est même celle qui croît le plus rapidement.
« Lorsque j’ai découvert les chiffres de cette pollution, je me suis dit : “Comment est-ce possible ?” », se rappelle Françoise Berthoud, ingénieure de recherche en informatique. Les dommages causés à l’environnement découlent d’abord des milliards d’interfaces (tablettes, ordinateurs, smartphones) qui nous ouvrent la porte d’Internet. Ils proviennent également des données que nous produisons à chaque instant : transportées, stockées, traitées dans de vastes infrastructures consommatrices de ressources et d’énergie, ces informations permettront de créer de nouveaux contenus digitaux pour lesquels il faudra… toujours plus d’interfaces !
Pour réaliser des actions aussi impalpables qu’envoyer un courriel sur Gmail, un message sur WhatsApp, une émoticône sur Facebook, une vidéo sur TikTok ou des photos de chatons sur Snapchat, nous avons donc édifié, selon Greenpeace, une infrastructure qui, bientôt, « sera probablement la chose la plus vaste construite par l’espèce humaine ».
Les chiffres sont édifiants : l’industrie numérique mondiale consomme tant d’eau, de matériaux et d’énergie que son empreinte représente trois fois celle d’un pays comme la France ou le Royaume-Uni. Les technologies digitales mobilisent aujourd’hui 10 % de l’électricité produite dans le monde et rejetteraient près de 4 % des émissions globales de dioxyde de carbone (CO2), soit un peu moins du double du secteur civil aérien mondial . « Si les entreprises du numérique se révèlent plus puissantes que les pouvoirs de régulation qui s’exercent sur elles, le risque existe que nous ne soyons plus en mesure de contrôler leur impact écologique », avertit M. Jaan Tallinn, le fondateur de Skype et du Future of Life Institute, qui travaille sur l’éthique des technologies .
Aujourd’hui encore, Jens Teubler, chercheur à l’Institut Wuppertal, n’en revient pas. Il y a quelques années, ce scientifique allemand assistait à une conférence donnée dans ce centre de recherche établi dans la ville du même nom, en Westphalie, dans l’ouest de l’Allemagne. C’est alors, se rappelle-t-il, qu’il est « tombé en arrêt devant l’illustration d’un homme qui portait à la fois une bague de mariage… et un énorme sac à dos sur les épaules, correspondant à l’empreinte réelle de son alliance. Cette image m’a marqué ». L’institut représentait ainsi une méthode de calcul inédite de l’incidence matérielle de nos modes de consommation, développée par ses chercheurs dans les années 1990 : le material input per service unit (MIPS), c’est-à-dire la quantité de ressources nécessaires à la fabrication d’un produit ou d’un service.
Pour mesurer son impact environnemental, l’industrie s’intéresse surtout à ses émissions de CO2. Or cette méthode comptable éclipse souvent d’autres pollutions, telles que l’impact sur la qualité des eaux des rejets de produits chimiques. Dès les années 1990, le MIPS se focalisait plutôt sur les dégradations environnementales impliquées dans la production des marchandises et des services. Regarder ce qui entre dans un objet plutôt que ce qui en sort, voilà un renversement complet de perspective.
Concrètement, le MIPS évalue l’ensemble des ressources mobilisées et déplacées durant la fabrication, l’utilisation et le recyclage d’un vêtement, d’une bouteille de jus d’orange, d’un tapis, d’un smartphone… Tout y passe : les ressources renouvelables (végétaux) ou non (minerais), les mouvements de terrain générés par des travaux agricoles, l’eau et les produits chimiques consommés, etc. Prenons un tee-shirt : sa fabrication dans un atelier indien a nécessité de l’électricité, elle-même produite grâce à du charbon, pour l’extraction duquel on a abattu une forêt de pins…
|
Sac à dos écologiqueCette approche se traduit par un chiffre, le « sac à dos écologique », c’est-à-dire le coefficient multiplicateur de chacune de nos actions de consommation. La méthode n’est pas parfaite : « La plupart des données utilisées pour le calcul du MIPS résultent d’opinions et d’estimations d’experts » où l’imprécision est souvent la règle, tempère Jens Teubler. Il n’empêche, on ne peut que tomber des nues devant sa redoutable franchise : la bague contenant quelques grammes d’or a un MIPS de… trois tonnes ! On peut également mesurer le MIPS d’un service ou d’une action de consommation : 1 kilomètre en voiture et une heure de télévision mobilisent respectivement 1 et 2 kilogrammes de ressources. Une minute au téléphone « coûte » 200 grammes. Quant à un SMS, il « pèse » 632 grammes. Pour de nombreux produits, le MIPS peut révéler un ratio assez bas : ainsi la fabrication d’une barre d’acier nécessite « seulement » dix fois plus de ressources que son poids final. Mais « dès qu’une technologie est impliquée, le MIPS est plus élevé », explique Jens Teubler. Les technologies numériques le prouvent bien, compte tenu du grand nombre de métaux qu’elles contiennent, en particulier « des métaux rares difficiles à extraire du sous-sol », poursuit le chercheur. Ainsi, un ordinateur de 2 kilogrammes mobilise, entre autres, 22 kilogrammes de produits chimiques, 240 kilogrammes de combustible et 1,5 tonne d’eau claire. Le MIPS d’une télévision varie de 200 à 1 000/1 quand celui d’un smartphone est de 1 200/1 (183 kilogrammes de matières premières pour 150 grammes de produit fini). Mais c’est le MIPS d’une puce électronique qui bat tous les records : 32 kilogrammes de matière pour un circuit intégré de 2 grammes, soit un ratio de 16 000/1. « Les gens sont souvent surpris par l’écart entre l’effet perçu et l’impact réel de leur décision d’acheter un bien de consommation », confirme Jens Teubler. Et pour cause : c’est la zone géographique la plus en amont de la chaîne de fabrication qui paiera le plus lourd tribut matériel, bien loin du magasin de vente. Ainsi le numérique a-t-il fait — insensiblement — exploser notre « empreinte matière ». Avec les milliards de serveurs, antennes, routeurs et bornes WiFi actuellement en fonctionnement, les technologies « dématérialisées » ne sont pas seulement consommatrices de matières ; elles sont en voie de constituer l’une des plus vastes entreprises de matérialisation jamais engagées. Otobong Nkanga. — « The Squeeze » (La pression), 2011 © Otobong Nkanga - Courtesy Galerie In Situ-Fabienne Leclerc, Paris Parmi ces infrastructures bien réelles, les centres de données occupent une place de choix. Ces monstres de béton et d’acier confits de serveurs se multiplient au rythme du déluge d’informations produites par notre univers numérique : cinq milliards de milliards d’octets par jour, soit autant que toutes les données produites depuis les débuts de l’informatique jusqu’en 2003. De quoi remplir la mémoire de dix millions de disques Blu-Ray, qui, empilés, s’élèveraient à quatre fois la hauteur de la tour Eiffel. Une allumette, comparée à ce que généreront les centaines de milliards d’objets connectés à la 5G qui déferleront bientôt sur le monde. Il suffit pour considérer cette fuite en avant d’observer une simple trottinette électrique en libre-service. Combien d’utilisateurs de ces engins savent que les entreprises qui les louent « collectent énormément de données générées par les habitudes de mobilité des utilisateurs », explique M. Mohammad Tajsar, avocat au sein de l’Union américaine pour les libertés civiles (ACLU). Au moment de créer un compte sur une application dédiée, vous partagez vos nom, prénom, adresse courriel, postale, numéro de téléphone, coordonnées bancaires, historique de paiements, etc. Puis l’entreprise de location pourra collecter toute information relative à vos trajets grâce aux capteurs fixés sur la trottinette et aux données transmises par votre téléphone mobile. Le groupe Bird s’autorise même à enrichir votre profil d’informations glanées auprès de différentes sociétés détenant déjà des données sur vous et de s’enquérir de votre solvabilité auprès d’agences d’évaluation du crédit ! En enfourchant ce deux-roues, vous consentez également à ce que l’opérateur partage certaines de vos données « avec des parties tierces à des fins de recherche, de commercialisation et pour d’autres objectifs », indique par exemple le groupe Lime, sans plus de précisions. Ces spécifications « sont écrites dans des termes opaques et vagues, ça doit rester inintelligible », note M. Tajsar. Ce flot d’informations personnelles qui nourrira des profils individuels vendus à prix d’or aux entreprises prend immanquablement le chemin d’un centre de données — le nuage ou cloud. |
La collecte systématique et mondiale de toutes sortes de données « décuple les besoins en centres de données », analyse un professionnel chez Bolt. Les cloud cities (« cités-nuages »), spécialisées dans le stockage de données, essaiment en Chine. D’ailleurs, le plus grand centre de données de la planète s’étend dans la ville de Langfang, à une heure de voiture au sud de Pékin, sur près de 600 000 mètres carrés, c’est-à-dire la surface de… 110 terrains de football ! La consommation des centres de données en eau et électricité, nécessaires pour refroidir les machines, croît d’autant plus que les fournisseurs de services mettent tout en œuvre pour éviter ce que l’on appelle, dans l’industrie, un « noir complet » : la panne générale, due à un défaut d’alimentation électrique, une fuite d’eau dans le système de climatisation, un bug informatique… En 2017, par exemple, une panne géante dans un centre de données de la compagnie British Airways a conduit à l’annulation de 400 vols et bloqué 75 000 passagers à l’aéroport de Heathrow, à Londres. Une défaillance durable des serveurs Amazon poserait un grave problème économique en Occident.
Dans un contexte sans cesse plus concurrentiel, de nombreuses sociétés d’hébergement s’engagent à ce que leurs infrastructures fonctionnent 99,995 % du temps, soit vingt-six petites minutes d’indisponibilité du service par an. « Quant à ceux qui subissent des noirs complets réguliers, ils sortent de ce métier », assène M. Philippe Luce, président de l’Institut Datacenter. Pour tendre vers la disponibilité absolue, les hébergeurs multiplient les précautions. Ils pratiquent d’abord la « redondance » des réseaux de distribution d’énergie. « Tu te retrouves avec deux arrivées électriques, deux groupes électrogènes et des salles remplies de batteries au plomb vastes comme des bibliothèques municipales pour assurer la continuité entre la panne et le moment où les groupes vont prendre le relais », explique Paul Benoit, de Qarnot Computing. Une logistique souvent gigantesque accompagne ce dispositif.
Ainsi, les toits de plusieurs centres de données situés en plein cœur de New York « sont des excroissances vertigineuses », comprenant « des tours de refroidissement d’eau pour l’air conditionné (…), des réservoirs d’eau en cas de coupure, des grues pour faire monter les générateurs diesel depuis la rue… Leurs sous-sols sont bardés de câbles, équipés de réservoirs de fioul de plusieurs centaines de milliers de litres pour approvisionner les générateurs », énumèrent Cécile Diguet et Fanny Lopez, deux chercheuses ayant conduit une étude mondiale sur les centres de données. En clair, conclut Philippe Luce, « il n’y a pas de bâtiment qui, au mètre carré, coûte plus cher qu’un centre de données de haut niveau ».
Et, comme si cela ne suffisait pas, les hébergeurs dédoublent également les centres de données eux-mêmes, non sans s’être assurés que le site miroir a été édifié sur une plaque tectonique différente ! Il ne faudrait tout de même pas qu’un tremblement de terre nous empêche de poster le contenu de notre assiette sur Instagram ou retarde une rencontre sur Tinder. Lors d’une conférence donnée autour de 2010, des ingénieurs de Google auraient expliqué que la messagerie Gmail était dupliquée six fois, tandis que la règle générale veut qu’une vidéo de chats soit stockée dans au moins sept centres de données à travers le monde. L’industrie est donc hantée de « serveurs zombies », aussi gloutons que les autres.
Enfin, les hébergeurs surdimensionnent les infrastructures pour anticiper les pics de trafic. Résultat, « si un routeur fonctionne à 60 % de sa capacité, c’est un maximum », estime la chercheuse en informatique Anne-Cécile Orgerie. Corollaire de cette intempérance, une fantastique gabegie électrique. Une vieille enquête du New York Times (22 septembre 2012) révélait que certains centres de données trop peu utilisés pouvaient même gaspiller jusqu’à 90 % de l’électricité qu’ils consommaient. Lors d’une conférence donnée fin 2019 au salon Data Centre World (l’un des grands rassemblements des professionnels du cloud), à Paris, un cadre fit cette déclaration sidérante : « Nous nous sommes rendu compte que les centres de données allaient capter un tiers de l’électricité du Grand Paris (9). »
Quant à Amazon Web Services, qui s’étend depuis 2017 en Île-de-France, « il aurait signé, en France, un contrat de fourniture de 155 mégawatts d’électricité, soit les besoins d’une ville de plusieurs millions d’habitants », révèle un spécialiste qui préfère rester anonyme. Le secteur représenterait à ce jour entre 1 % et 3 % de la consommation électrique mondiale selon les estimations, un chiffre qui, compte tenu du rythme de la croissance du cloud, pourrait être multiplié par quatre ou cinq d’ici à 2030 . Autrement dit, concluent Cécile Diguet et Fanny Lopez, les centres de données figureront « parmi les plus importants postes de consommation électrique du XXIe siècle ». Or la principale source d’énergie utilisée pour produire du courant n’est autre que le charbon .
Otobong Nkanga. — « The Apparatus » (Le dispositif), 2015
© Otobong Nkanga - Courtesy Galerie In Situ-Fabienne Leclerc, Paris
Internet modèle un monde où l’activité humaine stricto sensu n’est plus la seule à animer l’univers numérique. « Les ordinateurs et objets communiquent entre eux sans intervention humaine. La production de données n’est plus cantonnée à une action de notre part », confirme Mike Hazas, professeur à l’université de Lancaster. Ce phénomène génère bien entendu un impact environnemental… sans que nous soyons capables de le calculer, voire de le contrôler. Une question dérangeante se pose : en fait d’activité numérique, les robots pourraient-ils laisser un jour une trace écologique plus profonde encore que celle des humains ? Plus de 40 % de l’activité en ligne provient déjà d’automates ou de personnes payées pour générer une attention factice. « Trolls », « botnets » et « spambots » envoient des courriers indésirables, amplifient des rumeurs sur les réseaux sociaux ou exagèrent la popularité de certaines vidéos. L’Internet des objets accélère bien entendu cette activité non humaine : en 2023, les connexions entre machines (on parle aussi de M2M pour « machine to machine »), tirées en particulier par les maisons connectées et les voitures intelligentes, devraient totaliser la moitié des connexions sur le Web. Quant aux données, le non-humain s’est déjà mis à en produire davantage que l’humain, et ce depuis l’année 2012.
Ce n’est qu’un début puisque aux robots répondent dorénavant… d’autres robots. Depuis 2014, des « réseaux antagonistes génératifs » permettent par exemple à des logiciels de produire de fausses vidéos qui remplacent un visage ou modifient les propos d’une personnalité (ou deepfakes). Or à ces réseaux s’opposent des algorithmes chargés de les détruire. « Aucun humain n’a écrit les codes pour produire ces contenus et des machines tournent pour démasquer ces deepfakes. C’est un combat entre machines », résume Liam Newcombe, ingénieur britannique spécialiste d’Internet. Autre exemple : pour contrer les spammeurs (eux-mêmes souvent des robots), une association néo-zélandaise a récemment créé Re:scam, un logiciel qui engage une interminable conversation avec les arnaqueurs automatisés, afin de leur faire perdre un temps précieux. Dans le secteur de la finance, la spéculation automatisée représente 70 % des transactions mondiales et jusqu’à 40 % de la valeur des titres échangés. Nous basculons d’un réseau utilisé par et pour les humains à un Internet exploité par, voire pour les machines.
L’univers des fonds d’investissement s’avère de moins en moins peuplé de traders s’affrontant pour réaliser les meilleurs profits. Dans ce monde, soutient le professeur Juan Pablo Pardo-Guerra, auteur d’un ouvrage sur la question, « les individus jouent, au mieux, un rôle partiel »… Un ancien analyste estime que « le fantasme absolu des fonds quantitatifs, c’est même de ne presque plus avoir d’employés, qui tourneraient quelques boutons de temps en temps pour que tout fonctionne ». On devine la suite… « Une fois que toute cette infrastructure fonctionne, nul besoin d’une grande imagination pour se dire : “Peut-être que l’ordinateur pourrait en fait prendre lui-même la décision [d’investissement]” », avance Michael Kearns, professeur de théorie de l’informatique.
À côté des fonds dits « actifs », où les arbitrages incombent encore majoritairement aux humains, se multiplient des « fonds passifs », où les opérations de finance sont progressivement placées en pilotage automatique. Il s’agit souvent de fonds indiciels, qui suivent des indices boursiers (par exemple le S & P 500, basé sur les cinq cents plus grosses entreprises cotées sur les Bourses américaines) et investissent à long terme dans les entreprises qui s’y trouvent. On retrouve ici BlackRock, Vanguard, Renaissance Technologies ou encore Two Sigma. Les investissements portés par les fonds passifs dépassent aujourd’hui, aux États-Unis, ceux de la gestion active. C’est ainsi l’ensemble de la finance qui devient, de plus en plus, une affaire de lignes de codes, d’algorithmes et d’ordinateurs.
Or les fonds pilotés par des machines détruisent aujourd’hui davantage l’environnement que leurs homologues dirigés par les humains. C’est la conclusion à laquelle parvient Thomas O’Neill, un chercheur qui a mené dès 2018 une enquête pour l’organisation britannique Influence Map. En étudiant notamment les fonds passifs gérés par BlackRock, il constate que ces derniers avaient enregistré, en 2018, « une “intensité charbon” de plus de 650 tonnes par million de dollars, alors que ses fonds actifs (…) font état d’une intensité bien moindre, de l’ordre de 300 tonnes par million de dollars ». D’après le chercheur, l’ensemble des fonds passifs dans le monde serait surexposé aux ressources fossiles, bien plus que les fonds actifs. Paramétrés pour générer le profit plutôt que pour prévenir la fonte des glaces, les fonds algorithmiques accélèrent la crise climatique.
Bien sûr, d’autres réglages pourraient privilégier les valeurs décarbonées ; mais les dirigeants de ces institutions financières opposent à cette solution les engagements qui les lient à leurs clients, auxquels échoit, disent-ils, la responsabilité de leurs investissements. Bientôt la question ne se posera peut-être plus. En 2017, un fonds hongkongais, Deep Knowledge Ventures, a annoncé la nomination d’un robot, baptisé Vital, à son conseil d’administration , au point que plus aucune décision ne sera prise sans avoir recueilli son analyse. Quant à la société américaine EquBot, elle s’attache dorénavant les services d’une « intelligence artificielle » surpassant « les faiblesses émotionnelles et psychologiques qui encombrent le raisonnement humain », comme le déclare le fondateur de la société.
Quels seront les impacts écologiques d’un monde dans lequel des essaims de véhicules autonomes marauderont, vides, à travers des cités endormies, et où des armadas de logiciels en découdront sur le Web, vingt-quatre heures par jour, tandis que nous vaquerons à nos loisirs ? Ils seront colossaux — probablement plus considérables que l’ensemble de la pollution numérique d’origine humaine. Un indice : des chercheurs ont récemment calculé que le fait de nourrir une intelligence artificielle avec d’importants volumes de données pouvait générer autant d’émissions de CO2 que cinq voitures durant tout leur cycle de vie. Aussi, se concentrer sur les répercussions de nos comportements numériques risque de s’avérer vain et illusoire, tant la 5G change la donne.
Les technologies digitales sont le miroir de nos inquiétudes contemporaines, de notre nouvelle écologie angoissée. Elles portent néanmoins de fabuleux espoirs de progrès pour l’humanité. Avec elles, nous allons allonger l’espérance de vie des hommes, sonder les origines du cosmos, généraliser l’accès à l’éducation et modéliser les prochaines pandémies. Elles stimuleront même de formidables initiatives écologiques.
Pour la première fois dans l’histoire, une génération se lève pour « sauver » la planète, traîner des États en justice pour inaction climatique et replanter des arbres. Des parents soupirent d’avoir « trois Greta Thunberg à la maison », vent debout contre la consommation de viande, le plastique et les voyages en avion. Simultanément, cette cohorte recourt davantage que les autres au commerce en ligne, à la réalité virtuelle et au gaming. Elle raffole de la vidéo en ligne et ne connaît pas d’autre monde que celui des hautes technologies.
Aussi faut-il abandonner toute candeur au moment de nous engager dans la grande bataille de ce siècle naissant : le numérique tel qu’il se déploie sous nos yeux ne s’est pas, dans sa très grande majorité, mis au service de la planète et du climat. Élément d’apparence évanescente, il est paradoxalement celui qui, plus que les autres, nous projettera au-devant des limites physiques et biologiques de notre maison commune.
Guillaume Pitron
Journaliste, auteur de L’Enfer numérique. Voyage au bout d’un like, Les Liens qui libèrent, Paris, 2021, dont cet article présente le propos.