9 novembre 2015
(mise à jour : 1 septembre 2016)
Commentaire : (...) "Le rapport de l’Ademe fait 166 pages et porte sur un sujet complexe. On aurait donc pu espérer que les responsables politiques ou associatifs le lisent, ou s’en fassent au moins communiquer une fiche de lecture synthétique, avant d’en tirer des conclusions dans l’heure qui a suivi sa publication. On a eu droit un festival de slogans proclamant «100% de renouvelables, c’est possible et pas cher», prouvant qu’aucun des élus et porte-parole d’associations qui se sont exprimés n’avaient lu ne serait-ce que le préambule."
Il n' y a pas de mot pour définir avec quelle légèreté, restons polis, nos gouvernants et autres ONG médiatisées, font leur métier. Être viscéralement antinucléaire autorise t-il à propager des mensonges (fakenew)?
php
Peut-on produire l’électricité dont nous avons besoin sans bousculer le climat... mais sans utiliser le nucléaire ? Cette question turlupine tous les citoyens qui admettent la nécessité d’un jus sans CO2 mais refusent d’utiliser le nucléaire pour des raisons diverses, tenant pour l’essentiel au risque technologique qu’il comporte (un accident avec une fuite massive de radioactivité).
Aussi, nombre de militants écologistes se sont-ils réjouis d’entendre des responsables politiques ou dirigeants d’associations leur dire que l'Ademe - l’Agence de l’environnement et de la maîtrise de l’énergie - produisait un rapport affirmant que la France métropolitaine peut s’alimenter en énergie 100% renouvelables. Avec, cerise sur le gâteau, un prix comparable à une option nucléaire. Voyons les choses, et le rapport ( ici en pdf), d’un peu plus près.
Un préambule auto-contradictoire
Le préambule, signé du Président de l’Ademe Bruno Lechevin, permet d’en poser d’emblée les limites et de s’interroger sur sa portée. Son deuxième paragraphe est en effet auto-contradictoire. Le voici : «Nous publions aujourd’hui une étude d’une nature différente, relative à l’exploration technique du déploiement des EnR au sein du mix électrique: à l’instar des travaux du NREL (Laboratoire National pour les Énergies Renouvelables américain) de 2012 étudiant un scénario 100% EnR aux USA, il s’agit ici d’une étude scientifique à caractère prospectif et exploratoire et non pas d’un scénario politique. Les mix électriques envisagés restent en effet théoriques, puisqu’ils sont construits ex-nihilo, et ne prennent pas en compte la situation actuelle, ni le scénario pour arriver au résultat.»
Ce paragraphe est curieux. Comment qualifier d'«exploration technique du déploiement des EnR» une étude qui, justement, n’étudie pas leur déploiement, même sous forme de scénario. Mais consiste en un exercice «théorique», écrit Lechevin, qui supprime le système de production d’électricité existant et le remplace par un autre, de manière instantanée et sans coût de transition, pour l’année 2050. C’est d’autant plus curieux que la fin du paragraphe précise bien que ces mix électriques sont «théoriques», et «construits ex-nihilo». Un tel exercice est stimulant pour la réflexion, mais asséner des calculs de prix de production de l’électricité, au centime près du kWh, au terme d’une construction de pure théorie dont il est précisé qu’elle ne comporte pas de «scénario pour arriver au résultat» ne peut que nuire à la perception de la portée et des limites de l’exercice. Le rapport l’indique pourtant de façon claire : «L’étude réalise une analyse de différents mix électriques optimaux à un horizon lointain sans prendre en compte l’existant. Elle ne s’intéresse donc pas à la trajectoire d’investissement permettant d’assurer une transition entre le système électrique actuel et les mix étudiés» (page 19).
50.000 éoliennes en 2050
Résumons les résultats de cette étude qui s’appuie sur des travaux extérieurs que l’Ademe a commandé, en particulier sur le modèle de système électrique de la société Artelys.
L’ Ademe démarre par une hypothèse : en 2050 la France est couverte de 50.000 éoliennes (à terre et en mer), de 500 km² de centrales solaires au sol, de dizaines de milliers de toits équipés en panneaux photovoltaïques. De systèmes utilisant l’énergie des vagues, d’usines produisant du méthane à stocker à partir d’électricité excédentaire et de centrales utilisant ce gaz pour produire du jus. De très grandes capacités de stockage d’énergie sous forme de méthane, d’air comprimé et d’électricité avec des parcs de batteries. Elle a doublé ses stations de pompage alimentant des barrages. Le tout pour une puissance totale stockée de 36 GW (plus de la moitié de la puissance du parc nucléaire actuel).
Sur le graphique ci-contre, le stockage inter-saisonnier de 17 GW est ainsi constitué de méthane produit avec l’électricité lors des périodes excédentaires, un gaz qui participe également au stockage hebdomadaire. Cette technologie ne va pas sans pertes énergétiques, et donc financières, importantes lors du stockage et du déstockage. Même l’amélioration prévue des technologies aboutit à un besoin de 3 kWh pour 1 kWh utilisé au déstockage.
Les consommateurs sont massivement équipés de dispositifs permettant de piloter les systèmes électriques domestiques (couper les radiateurs, les lave-vaisselles ou sèche-linges, les recharges des batteries de voiture aux heures de pointe). Les industriels utilisent largement les dispositifs dit «d’effacement» pour limiter les pointes de consommation. Les connexions du réseau à haute tension sont renforcées aux frontières pour permettre jusqu’à 16 GW d’importation (le double de l’actuel). Et entre régions pour gérer des flux d’électricité variables au gré de la météo. Les bâtiments sont équipés de pompes à chaleur fonctionnant à l’électricité et la France compte des millions de véhicules électriques...
C’est une sorte de «concept car, résume Jean-Guy Devezeaux de Lavergne de l'Institut I-tésé (Commissariat à l’énergie atomique et aux énergies alternatives, qui fait «comme si» le parc de production historique n’existait pas, «comme si» les technologies de 2050 pouvaient être complètement autre chose que celles de 2025, compte tenu des temps de déploiement industriel de ces dispositifs». Le rapport précise en outre que les transformations du réseau nécessaires à un mix électrique 100% renouvelable n’ont pas été étudiées. Et pourtant, cet exercice se termine sur une prévision de prix au centime près pour 2050, aboutissant de manière miraculeuse à une égalité avec le prix du nucléaire (comme si de cernier était, lui aussi, prévisible au centime près pour 2050).
Le système doit répondre à la contrainte maximale
Le second paramètre «posé» par l’Ademe, ce sont des consommateurs et une économie française qui, en 2050, ont besoin pour une année météorologique moyenne de 422 TWh seulement. «En ligne avec les objectifs de la loi de Transition énergétique, c’est un scénario politique que nous devons prendre en compte» souligne Michel Bena, directeur des smartgrids à RTE. Une politique volontariste aurait donc diminué la demande. Alors que la France métropolitaine sera passée, selon les dernières projections de l’INED, de 64,3 à 72 millions d’habitants, comme si on y
ajoutait Paris et quatre autres départements de l’Ile de France. Que des millions de véhicules électriques sont censés circuler à cette échéance afin de diminuer nos émissions de gaz à effet de serre, notre dépendance énergétique et la pollution des villes. Et que les gouvernements promettent une politique permettant de relancer l’industrie afin de diminuer chômage et importations. Dans le cadre d’une étude européenne, RTE, plus prudente ou plus réaliste, «a regardé des scénarios où la demande croît dans les années qui viennent», indique Michel Bena.
Le rapport précise d’ailleurs, que ce chiffre de 422 TWh doit être comparé à une consommation de «442 TWh en 2013». Ce chiffre de 442 TWh en 2013 peut donc faire croire au lecteur que l’écart est petit entre l’objectif et la réalité présente, avec un effort d’économie à réaliser peu important. L’ennui, c’est que RTE annonce pour 2013 une consommation de 495 TWh, un chiffre connu dès janvier 2014. D’où vient donc ce curieux 442 TWh ? Le rapport cite les «chiffres clés de l’énergie 2014 de l’Ademe» comme source. Mais, interrogé sur ce point, David Marchal, adjoint au chef de service
Réseaux et Énergies Renouvelables de l’Ademe, affirme qu’il s’agit d’une «prévision» et «d’une consommation finale corrigée des variations climatique» tirée du Bilan énergétique de la France.
Une présentation plus raisonnable, et surtout plus sincère, aurait été de dire qu’avec 8 millions d’habitants de moins qu’en 2050, la consommation des dix dernières années varie de 465 TWh en 2014 à 513,1 TWh en 2010 (chiffres des bilans électriques RTE). Même l’année la moins consommatrice de la décennie - pour cause de climat car 2014 fut record de chaleur annuel, avec un hiver très doux et un été assez frais (donc moins de climatisation) - dépasse de plus de 20 TWh le chiffre mis en avant par le rapport.
Une météo simulée heure par heure
Ensuite, une fois l’hypothèse 100% EnR posée, l’Ademe expose les résultats de différentes études visant à «optimiser» ce mix électrique, en variant par exemple les parts de l’éolien et du photovoltaïque. Ceci à l’aide d’une modélisation du système (due à la société Artelys) confrontée à six années différentes au plan météorologique (tirées de l’historique) avec un pas de temps horaire. Une météo qui joue tant sur la production éolienne, solaire et hydraulique que sur la demande. L’étude teste en outre une année avec une vague de froid de deux semaines, similaire à celle de février 2012 et une année sèche avec une baisse de 30% de la production hydraulique. Une «méthodologie a priori robuste» indique Michel Bena, puisque RTE fait de même avec son propre modèle lorsqu’il faut vérifier l’équilibre offre/demande avec un pas de temps horaire. Toutefois, les paramètres retenus posent question. La période froide simulée, celle de février 2012, est beaucoup trop douce pour tester la résilience du système électrique.
Le graphique ci-contre, établi par Météo-France, montre qu’elle vient très loin derrière celles de 1985 ou 1987 en durée et intensité. Puisque le système projeté ne passe cette vague de 2012 que de justesse, avec des importations massives (16 GW), il ne semble pas qu’il puisse passer celle de 1987, et encore moins celle de 1985. Sans parler des hivers très froids de 1956 ou 1963.
«Lorsque RTE effectue ce type d’exercice, explique Michel Bena, une centaine d’années météorologiques sont testées, afin de balayer la variabilité météo de manière plus réaliste. Puis, l’objectif est d’obtenir un risque de pénurie de moins de 3 heures par an en moyenne. Si ce critère est dépassé, alors RTE alerte les pouvoirs publics de ce risque afin que des décisions soient prises pour le réduire, par des moyens de production supplémentaires ou des réductions de la demande.» Le choix de ne tester le système projeté que pour un aléa météo modeste jette une ombre sur la robustesse de l’exercice de l’Ademe. De son côté Jean-Guy Devezaux plaide pour «transparence totale des modèles utilisés, afin de réaliser des comparaisons claires».
Répondre à la demande maximale
Si les vagues de froids seront probablement moins fréquentes dans un climat réchauffé, elles ne peuvent pas disparaître du registre météorologique. Pour qu’elles surviennent, il suffit en effet d’un anticyclone mal placé ou d’une fluctuation du jet stream qui fait le tour du vortex polaire pour que de l’air très froid en provenance de l’Est ou du Nord s’installe sur la France. Il est donc assez étonnant que les auteurs de l’étude se soient contentés de l’épisode de 2012. Ce choix laisse planer un soupçon,
celui de n’avoir pas voulu prendre le risque de faire apparaître la faible résilience aux fluctuations climatiques du système électrique 100% renouvelable. En outre, l’hypothèse de l’Ademe est faite en dehors de toute simulation du climat de 2050, indique le graphique ci-contre, ni des décennies qui suivent. C’est pourtant à ce climat que le système électrique devrait résister.
La première contrainte de dimensionnement d’un système électrique, c’est de répondre à la demande maximale, avec un surplus sous la forme des marges de sécurité (actuellement de 3.900 MW mobilisables rapidement pour la pointe du matin, et 3.200 MW pour la pointe du soir), lire ici une note lors du pic de consommation de 100.000 MW en février 2012). C’est une nécessité pour éviter le risque d’un effondrement du réseau, avec les dégâts considérables que cela entraînerait.... Dégâts d’autant plus importants que le redémarrage d’un système électrique constitué d’une myriade de petits moyens de production serait beaucoup plus compliqué, voire acrobatique, qu’avec le système actuel où l’on peut s’appuyer sur des centrales de forte puissance. Le rapport de l’Ademe admet ce problème... et avoue qu’il n’a pas été traité en faisant confiance à l’hydraulique et aux centrales à gaz pour le régler.
La pointe testée révèle la faille du système
La pointe testée dans le rapport de l’Ademe, c’est 92 GW, avec un «pire cas» où la production d’EnR non pilotable est de 5 GW au minimum. Elle ne passe qu’avec un recours à 36 GW de stockage, 10 GW d’EnR pilotable (géothermie, hydraulique de lacs...) et... 16 GW d’importations. Le minimum de production non pilotable (éolienne et solaire) semble optimiste. Le solaire ? Outre l’absence totale de production durant la nuit, même celle enregistrée à midi solaire varie énormément en fonction des nuages. Ainsi, en 2015, la production maximum en France métropolitaine monte à 4601 MW le 24 juin, mais chute à 571 MW le 29 janvier, un jour de forte demande.
L’éolien ? En 2015, la France compte déjà près de 10.000 MW de puissance installée en éoliennes. Or, la production de ce parc peut chuter jusqu’à 21 MW ! Un minimum observé le 25 juin 2015 à 10h30 par RTE. En 2014, le minimum observé était de 26 MW, il ne s’agit donc pas d’une situation rare. Le graphique ci-contre indique la production éolienne en septembre 2015 en France. On observe certes un pic proche de 7.000 MW le 15 du mois. Mais on constate surtout que du 1er au 13, la production éolienne ne passe que rarement le cap des 2000 MW, avec cinq jours consécutifs entre 225 MW et près de 1000 MW. L’étude de l’Ademe parie sur des éoliennes de nouvelle génération capable de tirer parti de vents plus faibles, mais lorsqu’elle indique que le stockage d’électricité et d’énergie pour compenser l’intermittence du vent doit se compter en «dizaines d’heures», cela semble bien optimiste. Les périodes de vents très faibles peuvent aller jusqu’à 15 jours. Une durée de stockage bien au delà des capacités du système modélisé. Le modèle a t-il été confronté à la météo de l’été 2003 avec sa canicule et son absence de vent ?
Le «foisonnement» européen évoqué par l’étude de l’Ademe, censé régler le problème, existe déjà, montre le graphique ci-contre qui révèle la production éolienne cumulée de six pays, de l’Espagne au Danemark et de l’Irlande à l’Allemagne pour l’année 2012.
Or, elle peut tomber à moins de 5GW. En ce cas, d’où viendrait les 16 GW d’importation espérés par l’Ademe alors que tous nos voisins seraient en train de tirer sur leurs réserves et leurs stockages ? Avec une vague de froid à peine supérieure à celle de 2012, alors que les effets thermiques sur les bâtiments se font sentir au bout de deux à trois jours, la défaillance du réseau électrique devient inéluctable, plongeant le pays dans le noir et stoppant toutes les machines électriques. «Dans ce système, souligne Jean-Guy Devezaux, c’est le rôle de back-up de l’étranger qui devient dimensionnant. Une vague de froid sur l’Europe de l’Ouest provoquerait un risque systémique majeur en l’absence de capacités de stockage ou d’effacement à la hauteur du défi. Seule une étude avec des modèles de parcs de production européens et une météo européenne permettrait de tester la résilience du système».
L’Energie-wende, une comparaison instructive
La comparaison entre le travail de l’Ademe et l’un des équivalents allemands, publié en 2012 par le Fraunhofer Institute en Allemagne est instructive. Ce dernier se projette également en 2050 et vise également un système sans fossiles et sans nucléaire. Il est donc assez troublant de constater que le système envisagé par les Allemands débouche sur un parc de production beaucoup plus important, avec notamment un back-up en centrales à gaz massif. Le concept allemand comporte en effet 170 GW d’éolien terrestre et
85 GW d’éolien en mer (soit 255 GW contre les 29 GW actuels), 200 GW de photovoltaïque et 95 GW de centrales à gaz utilisées en «back-up», lorsque la production d’origine renouvelable n’est pas suffisante. Un total de 550 GW. Il faut y ajouter 70 GW de centrales dites Power-to-Gas, pour transformer l’électricité d’origine renouvelable en gaz.
Le parc de référence que l’Ademe propose (tableau ci-dessus et qui ne comprend pas, c’est curieux, les centrales à gaz) semble en regard beaucoup moins solide alors que les perspectives démographiques sont plutôt à un rapprochement des deux populations. Un total d’ EnR de 196 GW (dont 106,5 GW d’éolien, et 63 GW de solaire) plus 16,8 GW de centrales à gaz non mentionnées dans le tableau. Donc 213 GW en tout pour la France à comparer aux 550 GW envisagés outre-Rhin. L’une des causes de l’écart c’est que les Allemands, prudents, voudraient se doter de 95 GW de centrales à gaz (plus que les 63 GW du parc nucléaire d’EDF), afin de passer le cap des périodes sans vent ni soleil de manière sûre, au lieu de parier sur des capacités de stockage de très grandes tailles.
Tant que les spécialistes n’auront pas pu fouiller les entrailles numériques du modèle d’ Artelys, cet écart énorme donne la fâcheuse impression d’avoir piloté l’exercice par la volonté de minimiser le coût final, au détriment de son réalisme et de sa robustesse. Le schéma des flux d’énergies du cas de référence, ci-contre, indique avec plus de précision la modélisation du système. On y voit en particulier l’ampleur des pertes dues au stockage/déstockage - 10% de la consommation finale - malgré une vue très optimiste du sujet puisqu’elle suppose par exemple que les rendements de la cascade de conversions pour passer de l’électricité au méthane puis pour revenir à l’électricité, comme ceux des stockages à air comprimé, seront considérablement améliorés par rapport aux technologies actuelles.
Ce schéma montre également que nos voisins sont bien gentils de nous fournir 56 TWh par an, pile poil quand nous en avons besoin. Et d’en acheter par miracle exactement la même quantité, pile poil quand nous sommes excédentaires. Logique puisqu’il s’agit d’un paramètre d’entrée, imposé au modèle, et non le résultat de la simulation confrontée à la météo.
La gestion fine du réseau n’est pas étudiée
Le rapport admet avoir fait une impasse complète dans son étude, celle de la gestion du réseau en temps réel, donc minute par minute. La modélisation «ne permet pas d’évaluer la dynamique fine du réseau et sa stabilité, notamment vis à vis de phénomènes transitoires tels qu’une brusque chute de fréquence pouvant se produire en cas d’événement exceptionnel.» C’est a priori hors de portée des simulations sur un an, on ne peut donc le lui reprocher.
Mais «il y a d’autres questions qui se posent sur le pilotage d’un réseau 100% renouvelable d’un point de vue électro-technique», souligne Michel Bena. Équilibrer la consommation et la production sur la durée ne suffit pas, il faut assurer également la stabilité de la fréquence du courant alternatif, à
50 hertz. Si la tension est trop haute, cela use prématurément toute l’électrotechnique du réseau ou les câbles. A plus de 10%, on risque carrément le claquage des câbles. Si c’est trop bas, ce sont les moteurs électriques des consommateurs qui souffrent. Et une trop basse tension fait sauter tout le réseau, comme le 12 janvier 1987 en France. Ce n’est donc pas un détail.
Or, d’où provient la stabilité en fréquence des systèmes actuels ? «Des grosses machines tournantes à vitesse fixe (alternateurs des centrales nucléaires et thermiques ainsi que des barrages), qui sont reliées au réseau via une électronique de puissance qui crée la fréquence, explique Michel Bena. C’est leur inertie qui permet au système d’encaisser les à-coups et de les amortir. Or, un système 100% renouvelable n’aura que très peu de ces grosses machines et dépendra complètement de l’électronique de puissance. Mais cette dernière n’a pas d’inertie et risque au contraire d’amplifier les problèmes et de les faire dégénérer. Pour gérer ce risque, il faut des moyens de pilotage du réseau très différents de ce que nous savons faire. C’est pour cela que nos études montrent que si nous pouvons espérer gérer à un coût raisonnable l’introduction de 30% d’éolien et de solaire dans le système, au delà de 40% c’est l’inconnu en technologies et en coûts.»
Aujourd’hui, précise Bena, lorsque la météo permet l’introduction massive d’électricité éolienne et solaire par l’Allemagne ou le Danemark dans le réseau européen - qui fonctionne techniquement comme une seule plaque électrique gérée par ENSTOE, l’association des responsables nationaux comme RTE - cela n’est possible que grâce à la stabilisation réalisée par les grosses centrales des pays voisins. Mais, remarque t-il, «si tout le monde compte sur le voisin pour stabiliser le système, cela ne peut pas fonctionner.»
Des anticipations de coût optimistes
L’analyse des coûts réalisée par le rapport repose sur des anticipations de prix pour les différents composants (éoliennes, panneaux solaires, batteries, systèmes de stockage à air comprimé...) du système électrique modélisé. Puis par leur multiplication au nombre des composants du système. Un calcul théorique, sans réalité économique, laquelle serait pilotée par le coût d’une éventuelle transition. Des ingénieurs se sont déjà livrés à la critique de ces anticipations, les taxant d’irréalistes. Il est assez étonnant que cette étude ne montre pas un coût croissant avec le taux de pénétration des EnR dans le système, «c’est la seule étude de ce type qui arrive
à un tel résultat à ma connaissance», souligne Jean-Guy Devezeaux.
La prise en compte des pertes de rendements à chaque opération de stockage/déstockage de l’énergie et de l’électricité semble également très optimiste. Pour Michel Bena, «on peut toujours aligner des terrains de foot de batteries, mais avec les coûts actuels et les pertes de rendement, il n’y a pas d’espace économique pour ces technologies si on doit les déployer au niveau nécessaire pour dépasser 30% d’ EnR dans la production.»
Toutefois, les arguments sur les anticipations de prix à 35 ans de distance resteront toujours incertains. Même si la tendance à la baisse du coût de ces équipements est évidente, en raison notamment des travaux de la recherche industrielle et des laboratoires publics (ici un panorama des activités du CEA sur le solaire ou l’efficacité énergétique des bâtiments). Il est donc prudent de se tourner vers le réel - les coûts actuellement enregistrés par les pays qui subventionnent l’installation de parc éoliens et solaires.
En 2015, pour la France qui compte 10.000 MW d’éolien et près de 6.000 MW de solaire, cela coûte au minimum les 3,5 milliards d’euros par an, prélevés sur les factures des consommateurs par le biais de la CSPE (charges de service public de l’électricité) fixé par la Commission de régulation de l’énergie (CRE). Un chiffre qui ne prend pas en compte les coûts systémiques et qui va croître de plusieurs milliards avec le nombre d’installations, dans les dix ans qui viennent.
Ces milliards ne peuvent que faire douter des anticipations du rapport de l’Ademe pour les coûts finaux du système à 100% renouvelable testé. Le réel, c’est que les Allemands ou les Danois payent déjà leur électricité, pour les consommateurs domestiques et les PME, deux fois plus cher que les Français, en raison de ces subventions.
En Allemagne, le système similaire à la CSPE monte à près de 20 milliards d’euros par an. Soit 200 milliards en dix ans. En outre, tous les «coûts systèmes» de l’intermittence ne sont pas compensés. Le
système est en surcapacité, car les électriciens doivent conserver des centrales à fossiles pour faire face aux périodes sans vents et sans soleil, mais une part de ces dernières - surtout au gaz ces dernières années en raison du prix bas du charbon américain importé - fonctionne trop peu d’heures dans l’année pour être rentable. Résultat : des pertes financières considérables pour les entreprises.
Et pour quel résultat en termes d’émissions de gaz à effet de serre ? Peu convaincants pour l’instant. En 2014, l’électricité produite en Allemagne l’était à 53% par du fossile (charbon, gaz et pétrole), 15% par le nucléaire, mais seulement à 9% par l’éolien et 6% par le solaire, la biomasse et l’hydraulique fournissant le reste. Autrement dit, les problèmes techniques et financiers d’un système électrique fondé sur l’éolien et le solaire ne sont pour l’essentiel pas encore arrivés.
Le message réel de l’étude de l’Ademe
Le rapport de l’Ademe fait 166 pages et porte sur un sujet complexe. On aurait donc pu espérer que les responsables politiques ou associatifs le lisent, ou s’en fassent au moins communiquer une fiche de lecture synthétique, avant d’en tirer des conclusions dans l’heure qui a suivi sa publication. On a eu droit un festival de slogans proclamant «100% de renouvelables, c’est possible et pas cher», prouvant qu’aucun des élus et porte-parole d’associations qui se sont exprimés n’avaient lu ne serait-ce que le préambule.
Une lecture approfondie et critique du rapport, à l’aide des informations connues par ailleurs, aboutit à un message assez différent. Jean-Guy Devezeaux le dit : «la bonne nouvelle du rapport c’est qu’avec les technologies espérées en 2050 on peut mettre une quantité significative d’ EnR dans le système électrique».
Significatives ? Donc, même pas majoritaires en bon français. Le véritable message du rapport, à la lumière du réel et d’un minimum de critiques n’est malheureusement pas ce qui est résumé dans son préambule. Aller au delà des 40% de renouvelables dans le mix électrique de la France métropolitaine serait très risqué pour l’approvisionnement et la fiabilité du système électrique. Mais aussi très coûteux.
Du coup, il faut revenir aux questions initiales. Pourquoi viser un mix 100% renouvelable ? Pour contribuer à l’action visant à limiter le risque du changement climatique ? Certainement pas. «L’ Ademe n’a pas fait de bilan d’émissions de CO2 du système testé», souligne Jean-Guy Devezeaux. Il ne ferait sans doute pas mieux que l’actuel. Avec sa production électrique fondée sur le nucléaire et l’hydraulique, la France produit une électricité décarbonée à près de 95% en 2014, avec 77% de nucléaire, 12,6% d’hydraulique, 3,1% d’éolien et 1,1% de photovoltaïque.
C’est même la raison principale de l’écart considérable en termes d’émissions de CO2 dues à l’énergie entre les deux pays : 5,52 tonnes par habitant et par an en France, 9,32 en Allemagne (chiffres AIE, 2012).
D’où proviennent ces émissions ? Soyons concrets. En 2013, l’Allemagne a importé 76 milliards de m3 de gaz, 93 millions de tonnes de pétrole et brûlé 241 millions de tonnes de charbon dont 191 millions produites dans le pays. La même année, la France a importé 43 milliards de m3 de gaz, 57 millions de tonnes de pétrole et 19 millions de tonnes de charbon. Hors effet démographie, la différence entre les deux pays tient donc pour l’essentiel au charbon et au gaz utilisés pour générer de l’électricité. Un mix électrique 100% EnR aurait donc, en France, non pas un objectif climatique, mais uniquement celui de l’éviction du nucléaire. Et cette étude ne permet pas de savoir si cela serait techniquement possible ou économiquement judicieux.
► Une analyse préliminaire des coûts annoncés par le rapport.
► Il est possible de suivre en direct et en détail la production et la consommation d’électricité en France sur le site Web de RTE, avec l’onglet Eco2mix, ou de télécharger l’application sur son téléphone portable.
Autres notes sur le blog:
► Qui produit du jus sans bousculer le climat en Europe ?
► Ségolène Royal relancerait le nucléaire ?
► Le bilan électrique 2014 de RTE, celui de 2013, celui de 2012 et celui de 2011.
► Le système électrique français en cas de (petite) vague de froid, en février 2012.
► L’EnergieWende en Allemagne.
Aucun commentaire:
Enregistrer un commentaire