L’impact Environmental des Serveurs Web sur la Planete

le meilleur hebergement vert
Les preuves sont incontestables. Le réchauffement de la planète est en train de se produire et l’humanité joue un rôle important dans l’accélération de ses effets négatifs. Les calottes glaciaires polaires fondent, le niveau de la mer monte, d’autres catastrophes naturelles se produisent. La liste est longue… Pour cette raison, les individus, les communautés et les nations prennent des mesures pour réduire leur empreinte environnementale. Les consommateurs recyclent. Les gens achètent des voitures électriques. Les gouvernements appliquent des réglementations environnementales plus strictes. Mais est-ce suffisant ? La vérité effrayante, c’est que, même si de nombreuses personnes font l’effort d’être plus consciencieuses de leur utilisation des ressources, il existe de nombreux gaspillages à leur insu. L’un de ces « gaspillages de ressources » les plus cachés provient des compagnies d’hébergement web auxquels les gens se connectent tous les jours lorsqu’ils surfent sur l’Internet.

La vérité derrière les centres de données et hébergeurs web

Il y a maintenant environ trois millions de centres de données en Amérique, et tous ces serveurs représentent environ 2 % de la consommation totale d’électricité aux États-Unis, soit l’équivalent d’environ cinq centrales nucléaires. Chaque année, un seul serveur produit à lui seul plus de dioxyde de carbone qu’une voiture. Il y a plus de 10 ans, à l’échelle mondiale, les centres de données consommaient l’équivalent de 14 centrales au charbon d’une puissance de mille mégawatts. Et ces chiffres ne feront qu’augmenter d’ici 2020, l’hébergement web sera aussi polluant que l’industrie du transport aérien. Mais il ne s’agit pas seulement de la consommation d’énergie. Les serveurs abusent de l’environnement de multiples façons. L’une des zones de pollution les moins connues provient des efforts d’extinction des incendies du centre de données. Évidemment, ces entreprises comprennent qu’elles doivent assurer la sécurité des données de leurs clients, et il est logique pour une entreprise qui s’intéresse de si près à la haute tension d’avoir de grandes précautions à prendre. Malheureusement, les produits chimiques utilisés sont assez nocifs pour l’environnement, appauvrissant la couche d’ozone, se mélangeant aux eaux de ruissellement et ayant un fort potentiel de réchauffement planétaire. Il y a aussi les déchets électroniques. Non seulement la technologie et l’équipement des serveurs ont une durée de vie limitée, mais pour répondre aux exigences de performance et à la concurrence, les centres de données doivent remplacer leur équipement au moins tous les cinq ans, sinon plus tôt. La plus grande partie de cette  » ferraille  » va dans un site d’enfouissement, parfois par le biais d’un dépôt en mer nuisible. Mais pire encore, il y a les substances toxiques qu’une grande partie de l’équipement technologique contient. Cela peut s’infiltrer dans les eaux souterraines et nuire aux plantes, aux animaux et aux humains. Mais les dommages environnementaux ne font qu’empirer. La plupart des centres de données et des serveurs ont besoin de carburant diesel. Il n’est pas rare qu’un seul centre de données émette annuellement 150 000 livres de dioxyde de carbone à partir du carburant diesel.site web ecologiqueEt puis il y a le liquide de refroidissement et les batteries. Le liquide de refroidissement est nécessaire pour la climatisation de la salle informatique et le refroidissement par liquide, sinon les machines vont surchauffer. Malheureusement, ce liquide de refroidissement peut être très toxique – pensez aux chlorofluorocarbures et au fréon. En plus d’être toxiques, ils ont aussi un potentiel de réchauffement planétaire en emprisonnant la chaleur dans l’atmosphère. Les énormes batteries que les centres de données doivent garder à portée de main en cas de fluctuations de puissance sont du plomb-acide. Les effets négatifs de ces batteries ont une durée de vie limitée, de l’exploitation minière destructrice nécessaire à leur production à la difficulté de les éliminer.

Les avantages des hébergeurs « écologiques »

Alors, comment résoudre ce problème ? Nous ne pouvons pas cesser d’utiliser Internet et les entreprises doivent toujours compter sur les centres de données. La seule réponse disponible est l’hébergement du meilleur hèbergement vert. L’hébergement écologique, aussi connu sous le nom d’hébergement écologique, réduit l’impact environnemental de l’hébergement Internet en utilisant des technologies vertes. OrangeWebsite, une société basée en Islande qui existe depuis une dizaine d’années, fait exactement cela. Certaines de ces technologies vertes que nous utilisons sur OrangeWebsite incluent des appareils économiseurs d’énergie, la compensation carbone, la plantation d’arbres autour du centre et l’utilisation d’énergies renouvelables. Ainsi, alors qu’un serveur web consomme en moyenne 1 000 KWh d’énergie et 630 kilogrammes de dioxyde de carbone par an, nous ne produisons pas de dioxyde de carbone. Cela signifie que toute entreprise qui utilise nos services réduit son empreinte environnementale et celle de ses clients.

Le volume total des déchets solides mondiaux pourraient augmenter de 70 % d’ici 2050 !

La Banque mondiale a publié un rapport qui prévoit que la production annuelle mondiale de déchets passera de 2,01 milliards de tonnes en 2016 à 3,5 milliards de tonnes en 2050.

Le rapport estime que le traitement et l’élimination des déchets ont contribué à 5 % des émissions mondiales en 2016.

L’enjeu de la gestion des dechets

Il souligne en outre l’importance de la gestion des déchets solides pour des villes et des communautés durables, saines et inclusives, conformément au SDG 11.

La Banque mondiale a publié un rapport qui prévient que les déchets mondiaux pourraient augmenter de 70 % d’ici 2050 selon le scénario du statu quo. Le rapport identifie le plastique comme un problème clé de gestion des déchets et fournit des recommandations pour que les pays développent et exploitent des systèmes de gestion des déchets solides.

La production de déchets contribue également aux émissions de dioxyde de carbone (CO2). Le rapport estime que le traitement et l’élimination des déchets ont contribué à 1,6 milliard de tonnes de dioxyde de carbone (CO2) en 2016, soit 5 % des émissions mondiales.

Le rapport souligne en outre l’importance de la gestion des déchets solides pour des villes et des collectivités durables, saines et inclusives, conformément aux 11 SDG.

Cependant, selon le rapport, la gestion des déchets solides est souvent négligée, en particulier dans les pays à faible revenu où seulement 4 % des déchets sont recyclés. Dans les pays à revenu élevé, plus d’un tiers des déchets sont récupérés par recyclage et compostage.

Le rapport recommande l’amélioration des systèmes de gestion des déchets comme une étape vers la construction d’une économie circulaire, où les produits sont conçus pour être réutilisés et recyclés.

Les plus pauvres sont les plus durement touchés.

Cette publication décrit les tendances mondiales, régionales et urbaines en matière de gestion des déchets solides. Les pays à revenu élevé produisent ensemble 34 % des déchets du monde, bien qu’ils ne représentent que 16 % de la population mondiale.

La région de l’Asie de l’Est et du Pacifique produit le plus de déchets, soit 468 millions de tonnes en 2016, soit 23 % de tous les déchets, y compris les déchets alimentaires et verts et les matières recyclables sèches.

L’Europe et l’Asie centrale ont produit 392 millions de tonnes de déchets en 2016, et environ 31 % des déchets sont actuellement récupérés par recyclage et compostage.

L’Amérique latine et les Caraïbes ont produit 231 millions de tonnes de déchets en 2016, dont 52 % de déchets municipaux sont des déchets alimentaires et verts.

Le Moyen-Orient et l’Afrique du Nord ont le total le plus bas de toutes les régions, avec 129 millions de tonnes en 2016, en partie à cause de la faible population de la région. La production de déchets de la région devrait doubler d’ici 2050.

L’Amérique du Nord a produit 289 millions de tonnes de déchets en 2016, soit la quantité moyenne de déchets la plus élevée. Plus de 55 % des déchets en Amérique du Nord sont recyclables, notamment le carton, le papier, le verre, le métal et le plastique.

L’Afrique subsaharienne a produit 174 millions de tonnes de déchets en 2016. D’ici 2030, la production de déchets en Afrique subsaharienne et en Asie du Sud devrait au moins tripler et doubler, respectivement.

Les pays à faible revenu ne collectent qu’environ la moitié des déchets produits dans les villes et un quart des déchets produits dans les zones rurales. De plus, plus de 90 pour cent des déchets sont mal gérés en étant brûlés ou déversés en plein air.

Par conséquent, le rapport souligne qu’il existe de grandes possibilités de mettre en œuvre des systèmes améliorés de gestion des déchets dans ces pays.

Marée Noire Golfe du Mexique

Le 20 avril 2010, à 22h30 heure locale, une explosion retentit sur la plateforme pétrolière en eaux profondes Deepwater Horizon dans le Golfe du Mexique, aux Etats-Unis. Deux jours plus tard, elle coule, et repose aujourd’hui à 1500 mètres de fond. Le dispositif de sécurité empêchant le pétrole de se déverser dans la mer subit un dysfonctionnement, et le pétrole commence à s’échapper du puits. Le 30 avril, la nappe atteint 9000 km2, elle atteint l’embouchure du Mississipi et les plages de Louisiane, où l’on commence à trouver des boulettes de pétrole.

Le 4 août 2010, on parvient finalement à boucher le puits, mais pendant ces trois mois, on a estimé que 4,9 millions de barils, soit 780 millions de litres, se sont écoulés dans la mer. Les dégâts infligés à la faune, la flore, la pêche, et également le tourisme local, sont dramatiques.


Des moyens d’envergure ont été déployés pour limiter l’impact de la catastrophe : 33 000 personnes ont été mobilisées, notamment pour nettoyer les plages et les animaux mazoutés. Cependant certains autres « remèdes » ont suscité la polémique : la mise à feu des couches de pétrole en surface, extrêmement polluante, ou encore la diffusion du liquide dispersant Corexit 9500 qui doit sa controverse aux effets néfastes qu’il a sur la santé de l’homme. Par ailleurs, on ignore encore quel est son impact à long terme sur l’environnement. Mais si l’on se trouve dans le doute face aux contrecoups éventuels de ces solutions, il est certain que la marée noire a des conséquences directes sur l’environnement qui se font encore ressentir aujourd’hui, et ne sont pas prêtes de s’estomper.

Il s’agit avant tout d’un bouleversement de tout l’écosystème des eaux du Golfe du Mexique. La présence d’hydrocarbures, en diminuant la quantité de dioxygène dans l’eau, met notamment en danger la base de toute la chaîne alimentaire marine, le phytoplancton. Par ailleurs, à certains endroits on constate aujourd’hui qu’une couche de pétrole de 10 cm d’épaisseur s’est formée sur les fonds marins, et on y trouve aussi des cadavres d’animaux. En ce qui concerne la population côtière, on a détecté dans le sang de plusieurs résidents de la côté des résidus de composés chimiques pétroliers en quantité anormale, et divers symptômes commencent à se déclarer par ailleurs dans la région : toux, lésions, troubles de la respiration…

Les avis sont très partagés au sein de la communauté scientifique : certains avancent que les dispersants ont donné au pétrole une composition plus facile à digérer pour les bactéries, que par ailleurs seule une quantité limitée de pétrole a atteint les côtes, donc, globalement, que le pire de la catastrophe est passé. D’autres, en observant de près l’état de la biodiversité locale, s’inquiètent du fait que des résidus d’hydrocarbures ont commencé à s’installer dans les organismes des animaux, notamment dans ceux des larves des animaux les plus petits (crabes, coquillages…), qui se trouvent à la base de toute la chaîne alimentaire.

Accident de Fukushima au Japon: Conséquences

Le vendredi 11 mars à 14h46 au Japon, un séisme de magnitude 9 sur l’échelle de Richter, le plus fort jamais enregistré dans le pays, fait trembler la terre pendant 5 minutes. L’épicentre est très proche des côtes, mais la civilisation nippone est préparée à cette éventualité, et les dégâts restent relativement limités en ville. Dix minutes après le séisme cependant, l’alerte au tsunami est donnée. Une vague, de 6 à 20 mètres de haut selon les endroits, déferle sur le nord du pays, et raye plusieurs villes de la carte. Quand les eaux se retirent, le bilan est très lourd : des ports dévastés,  environ 20 000 morts et disparus, et les inquiétudes fusent au sujet de la centrale nucléaire Fukushima Daiishi.

Cette centrale située près de la ville de Sendaï, à 250 km de Tokyo, compte 6 réacteurs. Lors du séisme, la centrale a automatiquement cessé de fonctionner, mais cela n’a pas empêché les réacteurs de garder une certaine chaleur. La vague détruit les câbles reliant les réacteurs aux groupes électrogènes censés alimenter le système de refroidissement qui régule leur température. La chaleur monte, la pression aussi, on craint une entrée en fusion du cœur des réacteurs. Le lendemain, une explosion retentit dans le réacteur numéro 1, puis lundi c’est au tour du numéro 3, mardi le numéro 2 et le numéro 4, où l’on combat également un incendie.

fukushima au japon

Des fuites radioactives commencent à être détectées, et des mesures de grande envergure sont prises : certains aliments produits dans la zone potentiellement contaminée autour de Fukushima, les épinards notamment, sont interdits à la vente ; 590 000 personnes sont évacuées de la zone à risque ; on déconseille aux mères de donner de l’eau du robinet à leurs nourrissons… Pendant ce temps, tout autour du Japon, la peur grandit, notamment en Chine, et beaucoup voient le spectre de la catastrophe de Tchernobyl refaire surface. La catastrophe est encore classée à un degré de gravité de 6 sur 7, 7 étant le niveau atteint par la catastrophe ukrainienne.

Depuis plus d’un mois les japonais explorent toutes les solutions pour rétablir la stabilité dans le cœur des réacteurs : eau de mer acheminée puis déversée au-dessus des réacteurs par hélicoptère, arrosage intensif d’eau de mer, jusqu’à ce que l’on se rende compte que le sel ralentit le refroidissement, par conséquent passage à l’arrosage à l’eau douce… Des milliers de tonnes d’eau radioactive sont rejetées dans le Pacifique, et le taux de radioactivité sur le site est 100 000 fois supérieur à la normale.

Le 28 mars le groupe japonais TEPCO auquel appartient la centrale de Fukushima lance un appel d’aide aux groupes industriels français spécialistes de la question nucléaire, EDF et AREVA, pour trouver une solution. Le 17 avril, le directeur de TEPCO annonce qu’il faudra environ trois mois pour que le niveau de radioactivité commence à baisser, et de 6 à 9 mois pour faire cesser complètement les fuites radioactives. Aujourd’hui, le niveau de gravité de la catastrophe est passé à 7. On estime qu’une fois que le danger immédiat sera écarté, la région restera inhabitable pendant une, voire plusieurs décennies.

Ce nouvel épisode dans l’ère du nucléaire est un drame pour le Japon, mais il a aussi ébranlé le monde entier. Après une accalmie relative des craintes liées au nuage radioactif, une question a percuté toutes les consciences : peut-on continuer à fermer les yeux face aux risques que comporte l’exploitation de l’énergie nucléaire?

En effet, même si les accidents graves sont restés extrêmement rares depuis le début de l’exploitation de cette ressource, il n’en demeure pas moins que les risques existent, et ils sont de taille, en témoignent les conséquences de l’explosion de la centrale de Tchernobyl en 1984 : on estime à 1 million le nombre total de victimes, sans compter les milliers d’enfants nés avec des malformations irréversibles. On peut même directement remonter au fait qu’il s’agissait au départ d’une arme de guerre, dont le Japon justement, 65 ans plus tard, garde le souvenir douloureux. Plus récemment encore, l’usage d’armes à uranium appauvri pendant la Guerre du Golfe en 1990 a laissé des séquelles profondes chez beaucoup d’irakiens. En faisant abstraction des risques, il y a également les revers liés à l’exploitation de matières radioactives en elle-même : d’une part l’extraction très polluante de l’uranium dans des mines à ciel ouvert, d’autre part l’enfouissement des déchets ultimes extrêmement dangereux issus des centrales. Il existe la possibilité que l’on puisse retrouver ces déchets d’ici quelques générations, même si toutes les précautions sont prises pour que cela ne se produise pas. Par ailleurs, il ne s’agit pas d’une ressource renouvelable. Le principal argument avancé en faveur de l’énergie nucléaire est son taux d’émissions quasiment nul de gaz à effet de serre, et en cela elle est effectivement beaucoup moins polluante que les hydrocarbures. Elle demeure malgré tout la cible de nombreuses polémiques, surtout en ce moment. On l’accuse souvent d’accaparer trop d’attention au détriment des énergies renouvelables.

Rappelons que la France est dotée d’un parc de 58 réacteurs nucléaires qui lui fournissent 79% de son électricité. Le nucléaire nous permet de garder notre autonomie énergétique, et de vendre les surplus à l’étranger. Par ailleurs, c’est aussi grâce à cela que nous accédons à l’électricité à un prix très compétitif par rapport à nos pays voisins. Mais aujourd’hui l’opinion est divisée, voire très divisée entre les différents courants d’opinion.
  • Certains estiment que notre parc nucléaire est suffisamment fiable pour pouvoir être exploité encore le temps que se développent suffisamment des énergies alternatives.
  • D’autres souhaitent une sortie progressive du nucléaire, qui n’arriverait cependant pas à terme avant au moins 30 ans.
  • Les plus grands adeptes du « Sortir du nucléaire »  demandent le démantèlement des centrales les plus anciennes, comme celle de Fessenheim (en activité depuis 1977) et de celles situées sur des zones « à risque », ainsi que  l’abandon rapide de l’exploitation de l’énergie nucléaire au profit des énergies renouvelables. Certaines personnalités réclament un référendum pour ou contre un arrêt du nucléaire.
Aujourd’hui, les enjeux économiques du nucléaire font plutôt pencher la balance en sa faveur dans l’opinion publique. En pleine crise de pouvoir d’achat, il apparaît délicat d’augmenter encore la facture énergétique des français. Par ailleurs, la technologie nucléaire d’AREVA est réputée et s’exporte très bien à l’étranger, notamment en Chine. La France se trouve dans une difficulté économique qui ne lui permet pas de faire une croix sur cet atout.

Malgré des polémiques brûlantes, il semblerait donc que l’autonomie énergétique de la France reposera sur le nucléaire pendant encore un moment, en dépit des risques encourus, pour nous et pour les générations futures.

Gaz de Schiste en France: Ou en sommes nous?

stop_au_gas_schiste

Ce mois d’avril 2018, ponctué de plusieurs manifestations « anti-gaz de schiste », a connu une intensification de la polémique entourant l’extraction des gaz de schiste : pour, ou contre une exploitation sur le sol français ? Car il existe des gisements sur le territoire, des gisements qui pourraient figurer parmi les plus importants en Europe, d’après des études lancées en mars 2010.

Malgré une controverse très médiatisée sur le sujet, nous sommes encore nombreux à ne pas savoir précisément ce qui caractérise le gaz de schiste et ses procédés d’extraction, quels pourraient être les impacts environnementaux, et quelles pourraient être les retombées économiques d’un commencement d’exploitation de cette ressource.

Commençons par les gaz eux-mêmes : il s’agit d’hydrocarbures, de gaz naturels, que l’on trouve dans des couches de schiste, précisément les shales (terme anglophone), des plaques fines de roche sédimentaire argileuse, à une profondeur allant généralement de 1 à 3 km. Des poches d’huile de schiste, ou du pétrole, simplement, peuvent également s’y trouver. On caractérise ces gaz et huiles de « non conventionnels » par rapport à leur méthode d’extraction : la fracturation hydraulique diffère des méthodes de forage traditionnelles du fait qu’une fois la couche de schistes atteinte, le puits est dévié en une position horizontale qui longe la couche productrice.

On déploie un tube d’acier jusqu’au bout du puits, et il est seulement perforé  au niveau horizontal, afin que le contact soit établie avec la roche. Le haut du puits est cimenté pour se prémunir contre une contamination des nappes phréatiques, car c’est un mélange d’eau, de quelques centaines de produits chimiques et de sable qui est alors envoyé sous très haute pression dans le puits, pour libérer le gaz. Le sable, matériau dit « proppant », a pour effet de garder les fissures ouvertes. L’ensemble remonte à la surface, et l’eau est récupérée dans des cuves.

Observons à présent les arguments des détracteurs :

  • Ces gaz participent à l’augmentation de l’effet de serre, d’autant plus que leur composant principal est le méthane, un hydrocarbure ayant un impact 25 fois plus élevé que le dioxyde de carbone.  On estime qu’il faudrait davantage se focaliser sur les énergies renouvelables plutôt que de se rabattre sur une ressource qui ne pourra être exploitable qu’à court terme.
  • Le procédé d’extraction en lui-même est extrêmement coûteux, il s’agit d’ailleurs de la raison pour laquelle les gaz de schiste étaient délaissés jusqu’à récemment au profit des hydrocarbures conventionnels (pétrole, gaz naturel…).
  • La méthode d’extraction requiert également d’immenses quantités d’eau : on estime que 15 000 m  d’eau sont nécessaires par fracturation effectuée.
  • Les gisements s’étendent sur des espaces très vastes, et l’on craint une invasion de derricks dans le paysage, comme dans les zones d’exploitation aux Etats-Unis, où les gaz de schiste répondent déjà à 12% des besoins du pays en gaz.
  • La pollution des nappes phréatiques est l’argument le plus médiatisé : on a en effet constaté en de multiples points de forage aux Etats-Unis une dégradation souvent dramatique de la qualité de l’eau, contaminée par les éléments chimiques entrant dans la composition des fluides d’extraction (certains reconnus comme cancérigènes) et une très forte teneur en gaz. Ainsi se sont manifestés des cas où l’eau du robinet s’enflammait au contact d’une étincelle, et des problèmes de santé chroniques au sein des populations locales.
Les arguments écologiques ne font que s’échelonner, et apparemment les  gaz de schiste ne peuvent se présenter comme une solution durable aux besoins énergétiques mondiaux. Mais si ces hydrocarbures suscitent un engouement, celui-ci est avant tout économique :
  • Sachant que le prix du baril de pétrole ne cesse d’augmenter (il atteint aujourd’hui 112 $), l’extraction des gaz de schiste commence à apparaître comme une solution plus rentable. Par ailleurs, les gisements pétroliers s’épuisent, tandis que les réserves de gaz sont à ce point élevées qu’elles pourraient subvenir aux besoins de l’humanité pendant peut-être un siècle.
  • Cela apparaît comme une solution provisoire pour répondre à la demande croissante en énergie, sachant que le développement des technologies renouvelables est très coûteux en temps et en argent et ne pourra s’attribuer une place significative en France qu’au terme d’une longue campagne de changements structurels.
  • Le fait que la majeure partie des hydrocarbures en France soient issus de l’importation se présente comme une motivation supplémentaire : les réserves (apparemment considérables) de gaz de schiste en France  lui permettraient d’acquérir son autonomie.
Dans la crise énergétique actuelle, les enjeux écologiques sont donc talonnés par les enjeux économiques. La question se montre si complexe qu’elle explique le statu quo adopté par le ministère de l’écologie et le développement durable qui a décidé de suspendre les permis d’exploitation de gaz de schiste pendant une période d’au moins 2 ans, le temps que les techniques d’extraction actuelles, jugées risquées pour l’environnement et la santé, se développent, et que soit menée parallèlement une mission  de recherche scientifique sur le sujet. Mais cela ne retire pas aux groupes industriels le droit de continuer  à explorer les sols à la recherche de gisements prometteurs.

Papier ou Pixels: Question de société

livre_contre_ecran

Aujourd’hui l’univers du livre est en pleine mutation : le papier se fait progressivement absorber par l’informatique. La question environnementale s’immisce au cœur de cette évolution : à l’heure où la déforestation est pointée du doigt, le livre essuie de nombreuses critiques malgré la création de labels certifiant les papiers provenant de forêts gérées durablement, comme les labels PEFC ou FSC. On consomme en effet 339 millions de tonnes de papier chaque année, et les chiffres sont à la hausse. Dans ce sujet controversé, certains prônent le tout-recyclé, d’autres encore préconisent un changement radical en passant au tout-électronique. Prenons le temps d’examiner cette seconde option…

Les « tares » écologiques du livre traditionnel sont connues : sa fabrication est coûteuse en bois, en énergie, et en encre. Par ailleurs, ses éditions doivent être constamment renouvelées, notamment dans la presse et dans le domaine scolaire. A côté de lui, le livre électronique semble cumuler tous les avantages : le seul support est un écran qui diffuse toutes les informations que l’on souhaite, le disque de stockage prend un minimum de place (au contraire d’une bibliothèque), au contenu normalement immobile peuvent s’ajouter des animations ou des vidéos, plus besoin d’acheminer les livres puisque le contenu s’affiche ou se met à jour automatiquement…

Mais la comparaison est–elle toujours aussi intransigeante quand il s’agit du bilan carbone ? Et de la pérennité du contenu ?

la mort du livreEn effet, les processus de fabrication moderne du livre-papier ont permis d’allonger très sensiblement sa durée de vie. Aujourd’hui chacun peut encore trouver chez soi des ouvrages qui ont souvent plusieurs décennies d’âge. De plus, le livre fabriqué en fibres recyclées réduit de 40% les émissions de carbone rejetées lors de la fabrication traditionnelle, sans compter les arbres épargnés. Des encres végétales, non polluantes, permettent aussi d’éviter l’utilisation de chlore pour le blanchissement du papier. Mathématiquement, il s’agit à ce jour de la solution plus écologique.

Le disque de mémoire magnétique, lui, s’éteint généralement en moyenne au bout de 10 ans. Il faut donc enregistrer régulièrement l’information sur un nouveau support de stockage. Par ailleurs, la fabrication des supports de stockage en question est très coûteuse en énergie. On a calculé, par exemple, que si la fabrication d’un livre traditionnel consomme 1.3 kg de CO2, la fabrication d’une tablette électronique en coûte, elle, 100 fois plus. Il faudrait donc lire 80 livres par an pour la rentabiliser ! Et il n’est pas souvent fait mention non plus de tous les métaux lourds que nécessite son élaboration. Par ailleurs, le secteur des nouvelles technologies se renouvelle sans cesse, d’où le fait qu’un de ces appareils est souvent considéré comme obsolète au bout d’à peine deux ou trois ans.

La crise du monde de la presse papier face à l’explosion d’internet témoigne des profonds changements en train d’opérer dans la société suite aux avancées technologiques de notre époque. Certains envisagent d’ailleurs la disparition de la presse papier d’ici quelques décennies au profit d’une presse virtuelle, sans cesse mise à jour avec du contenu nouveau. Il paraît donc presque inéluctable que le support papier soit un jour remplacé définitivement par le support électronique, en tout cas dans la plupart des domaines.

Mais ceci n’empêche pas que des efforts doivent être effectués, chez le fabricant aussi bien que chez le consommateur, en matière de support numérique, s’ils souhaitent que cette innovation conserve son ambition écologique de départ. Il faudrait débattre des matériaux utilisés dans la conception de tels appareils (plastique, lithium…), et, surtout, le consommateur doit apprendre à se responsabiliser: il peut se satisfaire durablement du produit dont il s’est doté, sans avoir besoin de le renouveler tous les deux ans, comme en témoigne la frénésie d’achat de téléphones portables par exemple.