« Passer de l’informatique sur site au cloud, c’est comme passer de la voiture individuelle aux transports en commun », résument Stanislas de Rémur, Édouard de Rémur et Cédric Mermilliod dans leur livre Pour un cloud européen. Une exception est néanmoins à préciser, passer de l’informatique traditionnelle au cloud, contrairement à passer de la voiture aux transports en commun, n’est pas nécessairement écologique. Souvent, les internautes ont déjà en leur possession du matériel leur permettant de stocker leurs données : clé USB, disque dur, mémoire vive, etc. En passant par des services de cloud, c’est comme si ces équipements étaient dupliqués, ce qui demande bien évidemment de l’énergie. La question du besoin doit être réfléchie. « Est-ce que les photos de vacances ont vraiment besoin d’être stockées sur le cloud ? », interroge Maxime Guedj, ingénieur, entrepreneur et co-auteur de Déclic, Comment profiter du numérique sans tomber dans le piège des géants du web.
Selon un rapport (PDF) de la Commission européenne, en 2010, en Europe, les services cloud représentaient 10% de la consommation des centres de données. Près de 10 ans plus tard, en 2018, ils représentaient 35% de la consommation des data centers. Entre 2010 et 2018, la consommation énergétique des data centers des 28 pays européens est passée de 53,9 TWh/an à 76,8 TWh/an, soit une hausse de 42%.
Inscrivez-vous à la newsletter
En vous inscrivant vous acceptez notre politique de protection des données personnelles.
Le mot cloud renvoie une image dématérialisée de l’informatique. Une projection trompeuse, comme le rappelle la construction de nombreux data centers à travers le monde. Derrière le cloud se trouvent des millions d’ordinateurs, de smartphones, de data centers, et des kilomètres de réseaux. Un tableau bien loin de l’immatérialité induite par le mot. Selon Françoise Berthoud, informaticienne au Gricad, relayée par CNRS Le Journal, le secteur des nouvelles technologies représente entre 6% et 10% de la consommation mondiale d’électricité, soit environ 4% des gaz à effet de serre. Tous les ans ce chiffre augmente d’entre 5% et 7%. Parmi les 6% à 10% de la consommation mondiale d’électricité, 30% concernent les ordinateurs, smartphones et objets connectés, 30% reviennent aux data centers, et le reste, 40% sont attribués aux infrastructures réseaux, soit les câbles qui acheminent les données.
Pour l’internaute, cette externalisation de l’informatique complexifie l’appréhension de l’empreinte carbone du numérique. L’utilisateur ne voit pas le remplacement, en moyenne, des serveurs tous les 5 ans, ni les problématiques de recyclage. Seulement 18% des métaux d’un ordinateur portable sont récupérés. Beaucoup de matériaux finissent dans des décharges sauvages, notamment en Chine, en Inde, et au Ghana, où ils sont brûlés pour récupérer certains matériaux, ce qui engendre, notamment, une pollution des nappes phréatiques. Le matériel informatique nécessite de nombreux composants : or, cuivre, nickel, zinc, étain, arsenic, gallium, germanium, thallium, tantale, indium, etc. Comme dans la majorité des industries extractives, les conséquences environnementales sont nombreuses, notamment à cause de l’utilisation de produits nocifs pour les écosystèmes, comme l’acide sulfurique, le mercure, ou encore le cyanure.
Les services cloud pourraient être comparés à l’achat d’une fourchette en plastique pour un pique-nique. D’un point de vue global, ramener sa propre fourchette réutilisable demande moins d’énergie. Mais du point de vue du consommateur, prendre une fourchette jetable est simple, cela évite une vaisselle. Dans le cas du plastique, la gestion des déchets a été externalisée. Envoyée à l’autre bout du monde, sa pollution a été masquée. Avec le numérique, la dynamique est similaire. La délocalisation du stockage et de la puissance de calcul dans des centres de données rend toute une partie de l’informatique invisible aux yeux de l’utilisateur.
« Il existe en effet un grand malentendu entre deux définitions de la neutralité carbone qui coexistent »
Aujourd’hui, les politiques environnementales des entreprises constituent des arguments de vente. Google revendique tendre vers le zéro déchet et être neutre carbone depuis 2007. Pour le premier point, dans une industrie qui utilise beaucoup de composants difficilement recyclables, tendre vers du zéro déchet est ambitieux, voire paradoxal. En 2016, Google revendiquait six data centers comme zéro déchet sans apporter trop de précisions. Pour cet objectif de zéro déchet, l’entreprise a mis en avant que 52 % des composants utilisés pour des améliorations de performance des serveurs provenaient déjà d’anciens serveurs. Néanmoins, 48 % demeurent loin de zéro.
L’engagement sur le long terme et le plus concret de Google reste la neutralité carbone. Avant d’applaudir l’engagement écologique, il est important de s’attarder sur la définition de neutralité carbone des entreprises. La neutralité carbone repose sur le postulat qu’une tonne de gaz à effet de serre (GES) a le même impact sur le climat peu importe l’endroit ou les conditions de son émission. De la même manière, la compensation d’émissions de GES a le même impact peu importe la situation. Sur cette base, les entreprises polluantes peuvent acheter du crédit carbone sur des marchés afin de compenser leurs émissions, et ainsi déclarer une neutralité. Cette neutralité relève donc avant tout d’une compensation de la pollution et non de sa réduction. C’est une forme d’achat de droit de polluer. Siècle Digital a interrogé Google sur cette nuance qui répond à l’écrit : « Renvoyer vers la définition de la neutralité carbone généralement acceptée (politiques, associations, milieux économiques etc) ».
« Il existe en effet un grand malentendu entre deux définitions de la neutralité carbone qui coexistent. D’un côté, il y la notion de neutralité carbone des entreprises, qui a émergé il y a une quinzaine d’années dans la foulée du protocole de Kyoto, et qui repose essentiellement sur la compensation carbone. De l’autre, il y a la neutralité carbone au sens de la science, qui est l’équilibre entre les émissions et les absorptions de CO2 à l’échelle mondiale, et qui est d’une ambition radicale. Les deux ne coïncident pas et c’est très dommageable : une entreprise qui se dit ‘neutre’ aujourd’hui n’est pas forcément alignée avec l’ambition de l’Accord de Paris », explique à Novethic César Dugast, membre de Carbone 4.
GAFAM : conscience écologique ou greenwashing ?
Dans la même lignée, Microsoft a annoncé aller plus loin que Google en devenant négatif en carbone d’ici 2030, c’est-à-dire compenser plus de CO2 que l’entreprise en produit. Par ailleurs, l’entreprise travaille sur des piles à hydrogène pour alimenter les data centers. En juillet 2020, Microsoft a réussi à alimenter plusieurs serveurs d’un data center grâce à cette technologie. D’un point de vue écologique, cette réussite demande des vérifications, notamment sur le CO2 émis pour construire les piles à hydrogène. Néanmoins, il ne faut pas enlever à Microsoft que l’hydrogène se présente de plus en plus comme une alternative énergétique concluante et qu’investir dans ce domaine aide la recherche.
En 2018, Google et Apple ont annoncé être alimentés à 100% par des énergies renouvelables. Avant de crier victoire, il faut noter que les énergies à sources renouvelables ne sont pas forcément plus écologiques : elles demandent de l’espace, nécessitent des matériaux rares, etc. De plus, le caractère intermittent du solaire et de l’éolien demande le recours à des énergies pilotables pour assurer de l’électricité en continu. Si l’hydraulique est à la fois renouvelable et pilotable, les autres solutions pilotables se concentrent sur le nucléaire, le gaz naturel – aussi appelé gaz fossile – ou encore sur le charbon. Par ailleurs, pour l’hydraulique, il est important de rappeler que pour la construction d’une centrale, des espaces sont inondés, ce qui dégage du CO2 à cause de la méthanisation intervenant à la suite de la décomposition des végétaux.
Immerger des serveurs pour les refroidir
« Un processeur, c’est comme une résistance. Presque toute l’électricité qu’il consomme est dissipée en chaleur. C’est pourquoi, en plus de consommer de l’énergie pour faire tourner ses serveurs, un data center doit être climatisé afin de préserver l’intégrité des circuits électroniques », explique à CNRS Le Journal Anne-Cécile Orgerie, chercheuse à l’Institut de recherche en informatique et systèmes aléatoires (Irisa).
Cet enjeu de refroidissement des data centers est bien connu de la part des acteurs de la tech qui cherchent des solutions, notamment en immergeant des serveurs dans de l’eau ou des liquides de refroidissement. Plonger des composants électriques dans un liquide, n’apparaît pas comme la meilleure idée, Claude François l’a démontré. L’idée, en vulgarisant, est que pour rafraîchir une bière ce n’est pas l’ensemble de l’environnement dans lequel se trouve la boisson qui est refroidie. L’option la plus évidente est de placer les bouteilles dans un réfrigérateur. Dans un scénario en pleine nature, les bouteilles peuvent être déposées dans l’eau froide de la mer ou d’une rivière.
En novembre 2020, Microsoft a annoncé le succès du projet Natick, un data center aquatique immergé au large des côtes écossaises pendant 2 ans. Néanmoins, l’écologiste Gordon Watson nuance cette avancée en mettant en avant le manque d’étude sur l’impact sur les écosystèmes. En France, l’entreprise TotaLinuX développe le programme ITrium. Évoqué comme une usine numérique, ITrium comprend un bâtiment regroupant à la fois des bureaux, des salles de conférences et un data center immergé dans un liquide de refroidissement. La chaleur émise par le data center est réduite, la température des équipements est stabilisée et le matériel est protégé de l’humidité et de la poussière.
Refroidir les data centers avec l’eau des nappes phréatiques
Au lieu d’avoir des températures pouvant monter jusqu’à 60°C ou 70°C, le data center d’ITrium ne dépasse pas 25°C. De fait, la consommation électrique utilisée pour refroidir les serveurs diminue. La chaleur émise par l’effet de joule [ndr : chaleur produite par l’électricité quand elle traverse un corps], dégagée par les serveurs, est utilisée pour chauffer les bureaux et salles de conférence du bâtiment. Plongé dans le liquide, le bruit émis par les serveurs baisse considérablement. À ces bénéfices s’ajoute le fait que la durée de vie des composants électroniques est allongée à 9 ans, contre 3 à 5 ans pour les data centers à refroidissement par air.
Le liquide de refroidissement utilisé par ITrium est un isolant qui ne s’évapore pas et bénéficie d’une durée de vie de 25 ans. Au terme du cycle, les groupes pétroliers, auxquels se fournit TotaLinuX, récupèrent le liquide et se chargent du recyclage. La formule chimique du liquide est confidentielle et détenue par les raffineurs produisant le liquide : Total, Shell, et Texaco. En tant que client, TotaLinuX a accès aux éléments de la formule sans pour autant connaître leur proportion. Le liquide est certifié biodégradable au bout de 28 jours, ce qui est particulièrement important en cas d’une fuite accidentelle.
Certains centres de données profitent de leur environnement naturel. C’est le cas du Green Center Eolas qui utilise l’eau des nappes phréatiques pour refroidir son data center. « On puise de l’eau qui est souterraine, à 14°C, elle entre dans notre process de refroidissement pour produire de l’eau qui va jusqu’aux équipements informatiques pour les refroidir », explique à France 3 Bruno Touzain, responsable d’exploitation du Green Center Eolas. En puisant l’eau de la nappe phréatique, trois fois moins d’énergies est utilisée par rapport aux centres à refroidissement par air. En outre, l’entreprise se fournit en énergie auprès d’un fournisseur qui donne accès à du 100% renouvelable. Dans d’autres cas, les centres de données tirent avantage d’anciennes installations, comme le data center parisien de Scaleway qui est situé dans un ancien abri antiatomique et qui chauffe l’immeuble au-dessus duquel il est situé.
« Les éco-TIC sont loin d’être des baguettes magiques à verdir la planète »
Sans grande surprise, l’énergie utilisée par les data centers varie selon leur taille. Un centre de moindre envergure peut fonctionner avec quelques kilowatts d’énergie. Ceux de plus grande taille peuvent demander au moins des dizaines de mégawatts. Pour estimer l’efficacité d’un centre de données, il existe un indicateur d’efficacité énergétique : le Power usage effectiveness (PUE), soit en français l’efficacité de l’utilisation de l’énergie. Le PUE établit un ratio entre l’énergie totale consommée par le centre informatique et l’énergie consommée par les équipements informatiques. En France, en moyenne, le PUE des data centers s’élève à 2,5. Cela signifie que pour 1 watt consommé par le matériel informatique, il faut 2,5 watts à l’entrée du data center. Le PUE mesure donc le rendement d’un centre de traitement et ne fait pas référence à une économie d’énergie. Cet indicateur a été élaboré par le consortium The Green Grid, qui compte parmi ses membres des géants de l’informatique comme IBM, Intel, Dell, Hewlett Packard (HP), ou encore Nvidia.
Pour estimer l’empreinte carbone des services cloud, se concentrer uniquement sur l’énergie utilisée par les data centers n’est pas suffisant. L’impact de la fabrication du matériel informatique représenterait entre 50 et 75% de l’empreinte carbone du numérique. Estimer une empreinte carbone est très complexe, et demande d’accepter certaines hypothèses et d’en écarter d’autres. Dans le cas d’un ordinateur, prendre en compte l’extraction minière est essentiel. Mais est-ce que l’essence utilisée pour acheminer les terres rares à l’usine de transformation est comptée ? De manière encore plus poussée, est-ce que l’essence du salarié qui se déplace pour venir sur son lieu de travail et faire la publicité de l’ordinateur est prise en compte ?
Le groupe de travail GDS EcoInfo – soutenu par deux instituts du CNRS, celui des sciences de l’information et de leurs interactions et celui de l’écologie et l’environnement, se montre critique face à un numérique dit écologique et met la lumière sur les effets rebond : « Les éco-TIC sont loin d’être des baguettes magiques à verdir la planète. En effet, elles comportent de sérieuses limites, dont la principale semble être l’existence d’ “effets rebond”, qui annulent tout ou partie de leurs bénéfices écologiques. Dans le cas des technologies numériques comme les serveurs, les gains en termes d’amélioration de l’efficacité énergétique pourraient donc être absorbés par une augmentation de la demande de stockage numérique d’informations, ce qui annulerait les bénéfices environnementaux de ces gains ».
« Lorsque la mémoire était comptée, les développeurs informatiques avaient l’habitude d’écrire du code synthétique et efficace »
Ce phénomène d’effets rebond a déjà été observé dans le développement de l’industrie automobile. Les progrès sur la puissance des véhicules a servi à leur ajouter des options, et donc de nouveaux usages, avec des composants alourdissant d’autant plus les voitures, qui nécessitent donc encore plus de puissance. « Réduire la consommation des voitures n’a pas permis d’utiliser moins d’essence, elle a juste permis aux automobilistes de faire plus de kilomètres […] On constate la même chose depuis des années dans le secteur des nouvelles technologies : plus on optimise les systèmes – la mémoire, le stockage, etc. –, plus on favorise de nouveaux usages », explique à CNRS Le Journal Anne-Cécile Orgerie.
La croissance du modèle SaaS est un exemple de ces nouveaux usages. Aujourd’hui, comme en témoigne le commencement de la course à la 6G alors même que la 5G n’est pas encore pleinement déployée, la puissance de calcul est le but ultime comme l’a été la vitesse dans l’automobile. Même si les data centers deviennent plus écologiques, l’augmentation continue de leur utilisation et les nouvelles possibilités offertes ne vont pas réellement réduire leur impact sur l’environnement.
« Lorsque la mémoire était comptée, les développeurs informatiques avaient l’habitude d’écrire du code synthétique et efficace. Aujourd’hui, ces préoccupations ont disparu et l’on assiste à une véritable inflation des lignes de code, ce qui signifie des calculs plus longs et plus gourmands en électricité », détaille Anne-Cécile Orgerie. Quand internet était lent, il y avait beaucoup plus d’efforts pour compresser les données. En effet, si le contenu est plus léger, l’envoi est aussi plus rapide. Une fois compressée, la donnée nécessite beaucoup moins de place, et, de fait, moins de serveurs. Aujourd’hui, alors que la tendance est à un internet toujours plus rapide, les données sont de moins en moins compressées. Néanmoins, il faut prendre en compte que compresser des données demande un travail de calcul, qui a lui aussi une empreinte écologique.
« Or, même inactifs, ces équipements sont très énergivores »
Cette question de compresser les données se retrouve dans le secteur de l’Internet des Objets (IoT). Les formats JPEG compressent les images, mais demandent donc des ressources pour le traitement. Dans le cas d’objets de petite taille, cela incarne une problématique à résoudre. Sur ce point, le CS (Compressive Sensing) serait une piste intéressante à creuser pour limiter la puissance de calcul requise. Sur les ordinateurs les « bloatware » ou « obésiciels », qui sont de généralement des programmes installés par défaut, occupent souvent une place importante et demande beaucoup de ressources pour fonctionner. Cela pourrait être réduit, tout comme l’ensemble des programmes informatiques. C’est d’ailleurs ce que propose l’entreprise nantaise Greenspector qui améliore la performance énergétique des applications web et mobiles. Autre initiative française, le Green Code Lab qui promeut l’éco-conception des logiciels.
La disponibilité constante des services est aussi à réfléchir. En effet, les infrastructures sont organisées pour faire face à des pics d’utilisation qui arrivent seulement à quelques heures de la journée. « Or, même inactifs, ces équipements sont très énergivores », explique Anne-Cécile Orgerie dans CNRS Le Journal, qui déplore que « malgré de nombreuses recherches qui affirment que cela n’affecterait pas la performance du service, les data centers continuent d’être à 100 % de leur capacité jour et nuit ». Cette situation s’explique par la crainte des fournisseurs de services numériques de faire subir à leurs utilisateurs quelques secondes de latence ou un débit entrecoupé.
Utiliser un service cloud laisse de nombreuses responsabilités entre les mains des prestataires, dont celles d’ordre écologique. Il faut donc se demander si l’intérêt de l’entreprise est d’avoir un faible impact sur l’environnement ou d’offrir des services toujours plus performants. Le projet Blue Frontiers, porté par le groupe libertarien Seasteading Institute, qui consiste à créer des îles artificielles complètement intégrées à la végétation dans les eaux territoriales françaises, ou la volonté d’Elon Musk de coloniser Mars, laissent présager que les milliardaires propriétaires des grandes entreprises de la tech cherchent d’autres solutions au dérèglement climatique que la réduction de l’impact des activités humaines.