nucléaire l'énergie de demain
demain : le nucléaire triomphant

Mai
13

LE NUCLEAIRE TRIOMPHANT ou l’énergie de demain

Ce titre va provoquer des hurlements dans le mouvement écologiste. Mais il faudra bien qu’il admette cette réalité : le nucléaire est la seule solution non polluante et de taille suffisante pour satisfaire l’essentiel des besoins énergétiques de nos sociétés. Soleil, vent, marées, biomasse ne peuvent être que des appoints minimes et coûteux . Quant au pétrole, qui sera tiré à grands frais des sables de l’Alberta, des schistes bitumineux américains ou des gisements de l’Orénoque, il restera encore longtemps la seule ressource pour les moyens de transport, et cher. Restent le charbon et le gaz naturel. Le charbon est très polluant , donc cher et le gaz, très demandé, donc cher.

Cette étude n’est pas destinée au grand public, mais aux personnes concernées par l’énergie nucléaire et au fait des techniques utilisées dans ce domaine. Elle essaye de montrer quelles limites bloquent le développement du REP et de quelles filières futures on peut attendre des solutions.

 

Les résidus radioactifs sont un faux problème, mais les médias y ont trouvé un sujet idéal pour maintenir le public dans une crainte sans fondement réel. Nous le montrerons à la fin de cette étude.

ET SI NOUS REPARLIONS DU PASSE ?

Avant d’aller plus loin, il est bon de se remémorer comment s’est construite l’industrie nucléaire et quel peut être son futur.

On peut dire que les années d’après guerre ont été les “années folles“ de l’énergie nucléaire. Les scientifiques n’étaient plus soumis au silence militaire et disposaient de l’uranium enrichi pour les besoins de l’armée. Ils s’en donnèrent à cœur joie. On dénombrait de l’ordre de 200000 combinaisons possibles de combustibles, de modérateurs et de réfrigérants sous différentes formes. Ils en étudièrent un millier, élaborèrent une centaine de projets plus ou moins complets. Trente d’entre eux furent l’objet d’essais et enfin 17 aboutirent à la construction de réacteurs produisant de l’énergie.
De ces 17 poussins, seuls 5 survivent aujourd’hui, dont deux sont en voie d’extinction : les réacteurs à uranium naturel modérés au graphite et refroidis au gaz, et les RBMK russes, célèbres depuis Tchernobyl.

Les réacteurs à eau lourde, dont le nom, CANDU, rappelle leur origine canadienne, connaissent toujours un certain développement, aidé en cela par l’Etat Canadien, qui fixe le prix de l’eau lourde qu’il est seul au monde à produire.

Les deux types de réacteurs les plus utilisés à ce jour sont les réacteurs à eau bouillante et les réacteurs à eau pressurisée. Ces derniers étant les seuls construits en France, ils nous serviront de référence pour la suite de cette étude.

A la différence de l’eau lourde, l’eau légère – c’est à dire l’eau ordinaire – est un gros absorbeur de neutrons. Il faut donc de l’uranium enrichi pour réaliser un réacteur
.
Nos REP utilisent de l’uranium enrichi à 3,5% de 235. Il y en a 0,7% dans l’uranium naturel. Les usines de séparation isotopique rejettent de l’uranium appauvri à 0,2% de 235. C’est à dire qu’elles prélèvent 0,5% de 235 à 6 kg d’U naturel pour enrichir 1 kg à 3,5%. Pour chaque kilogramme de combustible, il faut donc utiliser 7 kilogrammes d’uranium naturel.

Le taux de combustion “standard”, au delà duquel on change le combustible est de 33000 MWj/tonne. La teneur en 235 de ce dernier est passée de 3,5% à 0,9%. On a donc brûlé 2,6% de l’uranium de départ, soit 26g pour 1 kg.

Mais pour fabriquer ces 26g , il a fallu utiliser 7 kg d’uranium naturel . Ce qui donne un taux d’utilisation de l’uranium naturel de 0,36%.
Ce chiffre peut paraître ridiculement faible, mais il correspond à la production de 800 millions de kWh thermiques par tonne de combustible.

Malgré tout, une aussi faible utilisation de l’uranium naturel conduirait à un épuisement rapide des ressources en uranium si, comme tout le laisse prévoir, le nucléaire connaissait un développement explosif.

La première solution est d’augmenter le taux de combustion . On espère le faire passer à 40000 puis 60000 MWj/t. C’est efficace si l’on n’est pas obligé d’augmenter trop la teneur en 235, ce qui rendrait le procédé sans action sur la consommation d’uranium naturel.
La deuxième solution consiste à remplacer l’uranium 235 consommé par du plutonium. Celui ci provient de deux sources : le retraitement du combustible des réacteurs à eau légère et le recyclage du plutonium militaire. On fabrique ainsi un oxyde mixte d’uranium et de plutonium, le MOX, qui se substitue à l’oxyde d’uranium enrichi. On peut ainsi, en théorie, brûler la totalité de l’uranium présent dans l’élément combustible, c’est à dire 14% de l’uranium naturel de départ, au prix de nombreux retraitements.

Malheureusement, la consommation de plutonium par 1 réacteur est égale à la production de 2 réacteurs. Une fois les stocks épuisés, on retrouvera une situation désagréable où une suite de combinaisons à plutonium décroissant permettra seulement d’atteindre une combustion de quelques %, toujours au prix de nombreux retraitements. Le REP n’est donc pas la solution à long terme de la crise énergétique.

La situation des réacteurs à eau bouillante est très semblable.

UNE EAU LÉGÈRE VRAIMENT NOUVELLE

L’ EPR est présenté comme un réacteur nouveau, ce qui est faux car il n’est que l’extrapolation des réacteurs précédents.

Il y a, à mon avis, plus grave. Je ne connais pas le projet EPR avec suffisamment de détails pour en faire une critique circonstanciée et documentée. Mais il y a quelques points fondamentaux qui me paraissent avoir été négligés.

Du point de vu conception générale, nous avions abouti au bon vieux temps de l’UNGG au découpage en “fonctions élémentaires”. Cela signifiait que machines et circuits étaient découpés de telle sorte que chaque ensemble n’exécutait qu’une seule et unique fonction. Bien sûr, on pouvait considérer que c’était un gaspillage, puisque, au prix d’une petite complication, on pouvait faire en sorte qu’un ensemble puisse exécuter plusieurs fonctions. Mais le passage aux “fonctions élémentaires” était le résultat de toute notre expérience sur les centrales précédentes depuis Marcoule : les “petites complications” se révélaient grosses, et le fonctionnement simultané de circuits “multi-fonctions” un casse-tête pour le contrôle-commande.

Il semble bien que cette approche ait été oubliée, comme elle l’avait été sous la pression des “américanophiles” dans les premiers réacteurs à eau pressurisée directement copiés sur la centrale de Beaver Valley, et, par effet Panurge, pour ceux qui ont suivi. Nous avons largement le temps de repasser EPR au peigne fin, en tirer les fonctions élémentaires, concevoir les circuits idoines et surtout en tirer un contrôle-commande simple à informatiser et à mettre en œuvre. Un contrôle-commande complexe est source d’erreurs, donc de risque d’accidents toujours médiatiquement graves dans le nucléaire.

Sur le deuxième point, je me sens moins assuré. Il s’agit du combustible. Des calculs nombreux et quelques essais avaient montré que, tant pour le rapide que pour le réacteur à eau bouillante, le diamètre des aiguilles était loin de l’optimum et devait être sérieusement augmenté, avec, au besoin, un trou central. Ces calculs ont il été faits pour le pressurisé ? De même, le pas hexagonal avait montré une supériorité manifeste dans le bouillant. Quid du pressurisé ?

Le troisième m’intrigue depuis des décennies: il s’agit de l’écart de température entre l’entrée et la sortie du réacteur. Il est aujourd’hui très faible, de l’ordre de la trentaine de degrés. Si nous le doublions, nous diviserions par deux le débit nécessaire au refroidissement, donc la section des conduites, par quatre les pertes de charge et donc par huit la puissance des pompes de circulation qui sont des monuments. Bien sur, le rendement en prendrait un coup. Mais, il faut le seriner autant de fois que nécessaire, le coût du combustible n’intervient que pour un quart dans le prix du kWh produit, et l’investissement pour la moitié. La recherche du rendement maximal est absurde si elle se traduit par une augmentation lourde du coût des installations. Je n’ai jamais pu obtenir une réponse crédible pour les réacteurs du passé. Les concepteurs de l’EPR ont il fait un calcul d’optimisation sur ce point?

Le dernier point concerne les générateurs de vapeur. Ce sont aujourd’hui des monstres qui sont la honte de la technologie nucléaire. Cela fait trois quart de siècle que tous les chaudronniers considèrent que tout vaut mieux que la plaque tubulaire, et que si, par malheur, on en avait une, il fallait souder les tubes sur des bossages et éviter comme la peste le dudgeonnage.

EH BIEN OUI, ils l’ont fait!

Des plaques tubulaires épaisses de deux pieds, des milliers de tubes dudgeonnés dessus, tout pour plaire et, bien sur, un atelier unique au monde pour assembler tout ça. Schneider était habitué à ce genre de record avant de faire faillite. Bien entendu, et comme prévu, cela fuit et il faut boucher les trous à grands frais, puis changer le monstre : du pain béni pour le constructeur.
La solution est connue depuis un demi siècle : c’est l’échangeur modulaire largement utilisé dans l’UNGG, Phénix et de nombreuse industries chimiques. Le générateur de vapeur est constitué d’un certain nombres de modules montés en parallèle. Leur taille est telle qu’ils peuvent être testés individuellement en usine avant expédition et remplacés dans la centrale par un module de rechange en cas de pépin.

Les adversaires de cette solution, pourtant de bon sens, prétendent que la place occupée dans l’enceinte est trop grande, que la régulation du niveau dans les modules est complexe, que sais je encore ! En fait, nous n’avons jamais eu le moindre problème de régulation de niveau dans les installations existantes et nous avons pu démontrer que ce type modulaire s’inscrit sans difficulté dans les enceintes actuelles.

La vérité , à mon avis, n’est pas très belle : le modulaire signerait la fin du bel atelier de Chalon puisque n’importe quel fabricant compétent de taille moyenne pourrait les construire, et la vache à lait d’AREVA serait morte.

Enfin, et cela ne concerne plus le réacteur, il faudrait tout de même se décider à doter le groupe turbo-alternateur de ces S.G.V, sécheurs à grande vitesse, qui ont fait la preuve de leur remarquable efficacité et nous débarrassent enfin des énormes et dispendieuses bouteilles des sécheurs classiques, moins efficaces, plus chers et bien plus fragiles.

Développés par la marine Américaine sous l’impulsion de l’Amiral Rickover, à l’époque simple ingénieur mécanicien, Les REP s’adaptent bien aux puissances petites et moyennes comme les machines marines. Leur extension à des machines de très grande tailles est moins évident. Non seulement leur prix au kilowatt, qui avait baissé régulièrement depuis les petits réacteurs de sous marins, croit très rapidement, mais certaines pièces ne sont plus fabricables, sauf dans un petit nombre d’usines dans le monde . L’exemple le plus connu est celui de la virole porte tubulures des caissons. Seule au monde, Japan Steel possède la presse capable de forger ce monstre, et on fait la queue pour passer à son tour.

On peut conclure que les réacteurs à eau légère, tels que ceux réalisés en France, sont une solution sûre, mais chère et transitoire, au problème de la production d’électricité dans l’avenir proche, au prix d’un gaspillage d’uranium naturel.

Mais on aura beau répéter à tue tête que nous avons largement le temps de développer une nouvelle filière nucléaire avant que la demande exige la construction massive de nouvelles centrales, on prêche dans le désert: des REP, encore des REP, toujours des REP.

Nos braves industriels font comme la SNCF en 1945: Des machines à vapeur, encore des machines à vapeur, toujours des machines à vapeur ! Et tant pis si partout dans le monde le diesel supplantait les vieilles locomotives ahanantes, nous avions (et c’était vrai) les plus belles locomotives du monde et (c’était vrai aussi) les meilleurs ingénieurs dans ce domaine.

Nous n’en sommes pas là dans le nucléaire, mais je suis prêt à prendre un pari : dans moins d’une génération, la Chine (ou peut être le Japon) nous inondera de réacteurs à sels fondus avec retraitement intégré, et ce, à des prix défiant toute concurrence, quand nous n’aurons à offrir que des EPR (version 9) et des traitement “la Hague” modernisés.

LES SURGÉNÉRATEURS

Ceci explique l’engouement pour les réacteurs dits “surgénérateurs”. Dans ceux ci, en effet, la production de plutonium est supérieure à la consommation de matière fissile dans le combustible. Pour des raisons de neutronique, le plutonium est préféré à l’uranium comme combustible et les neutrons rapides aux neutrons lents. Les réacteurs surgénérateurs ne comportent donc pas de modérateur.

Le cœur, générateur de neutrons, est entouré d’une couverture en uranium naturel ou appauvri, qui absorbe ces neutrons et fabrique plus de plutonium que le cœur n’en consomme. Dans ces conditions, il n’y a plus de limites à l’utilisation de l’uranium appauvri ou naturel, Mais, compte tenu du taux de production du plutonium, environ 10% par cycle et du temps de séjour en pile, de l’ordre de 3 ans, il faudra 10 retraitements, échelonnés sur 30 ans pour brûler la totalité de l’uranium 238 de la couverture. Mais, une fois amorcée, cette chaîne n’a pas de limite et le surgénérateur devient un outil à brûler éternellement de l’uranium naturel.

Pour le refroidissement, l’eau est un trop bon modérateur. Il faut utiliser soit un gaz à haute pression soit un métal fondu. C’est le plus souvent du sodium, sauf en Russie, qui utilise un eutectique plomb-bismuth. Les sous-marins russes sont équipés de ce type de réacteur, et la société pétersbourgeoise qui les fabrique souhaiterait en vendre pour les régions isolées.

Le sodium a des qualités thermodynamiques séduisantes. Liquide à 98°, ne bouillant qu’à 882°C, il est très fluide et a une bonne capacité calorifique. Conduisant bien l’électricité, on peut le propulser avec des pompes électromagnétiques de rendement correct et sans parties mobiles.

Malheureusement, le sodium a un défaut grave : il brûle dans l’air et explose au contact de l’eau. Une fuite d’eau ou de vapeur dans le sodium est donc un accident qui peut être majeur. Une fuite d’eau dans un échangeur de la centrale russe de Chevtchenko s’est traduite par l’explosion de l’échangeur et un énorme nuage de soude. On comprend pourquoi les américains on remplacé la machine au sodium du deuxième sous marin nucléaire, le “Seawolf”, par un réacteur à eau pressurisée et pourquoi les Russes utilisent dans leurs sous marins l’alliage plomb-bismuth qui, ne réagit pas en présence d’eau.

Il a aussi un autre défaut, évident : il n’est pas transparent. Toutes les opérations, en particulier le chargement et le déchargements doivent se faire en aveugle, au prix de mécanismes complexes et onéreux. D’où la recherche d’un refroidissement par du gaz à haute pression, entravée par une tendance que je stigmatiserai plus loin.

Enfin, pour assurer complètement sa fonction de brûleur à uranium naturel, le réacteur doit être construit pour durer très longtemps : 30 ans x 7= 210 ans au moins!
En conclusion, le réacteur rapide sodium tel qu’il existe aujourd’hui est beaucoup plus cher que le réacteur à eau pressurisée en investissement comme en fonctionnement, et sa technique est complexe.

Les qualités du surgénérateur n’apparaissent que très longtemps après le démarrage du réacteur au prix d’innombrables retraitements.

COMMENT FAIRE UNE BONNE CUISINE DANS UN VIEUX POT

Les dernier réacteurs UNGG de Saint Laurent des eaux, en dépit d’un grave accident au démarrage, fonctionnèrent une vingtaine d’années sans gros ennuis, malgré leur caractère en partie prototype.
La puissance spécifique moyenne était de 3,72 MW/tonne. L’irradiation de rejet était fixée à 3500 MWjours/tonne. Avec les combustibles en bon état que nous déchargions, la réactivité restante aurait permis d’aller nettement plus loin, 7000MWj/t, par exemple. Mais c’était là des performances modestes, quoique 3500MWj/t corresponde à une combustion de 0,35% de l’uranium naturel, donc identique à celle d’un réacteur à eau pressurisée.

L’idée étudiée pour la suite de l’UNGG était de remplacer les chemises de graphite qui supportaient le poids des éléments combustibles par une âme de graphite sur laquelle était coulé l’uranium en un tube de faible épaisseur. La gaine en magnésium enfermant le tout était identique à celle d’EDF4.
En conservant le cœur d’EDF4 ainsi que les 445tonnes d’uranium naturel, mais en portant la pression du gaz carbonique à 30 bars, ce que le caisson pouvait supporter, un combustible à noyau de graphite de 80mm de diamètre, donc de section égale à celle de la chemise de graphite supprimée, permattait les résultats suivants :

– en conservant une température maximale de l’uranium à 650°C, on pouvait pousser la puissance spécifique moyenne de 3,72 à 10,4 MW/t par la réduction de l’épaisseur du tube de métal de 10mm à 3,57mm . La puissance thermique du réacteur atteignait 4630 MW et la puissance électrique de la centrale 1400 MWe.

– En supposant le coefficient de transfert gaine/gaz constant, l’augmentation de la surface de gaine permettait une puissance spécifique de 9,2 MW/t et une puissance thermique totale de 4090 MW et une puissance électrique de 1250 MWe.

– En maintenant constante la vitesse de passage du gaz dans le canal, l’augmentation de la section de passage dans ce dernier permettait une puissance thermique de 2350 MW, soit 700 MWe. Si on augmentait le diamètre des canaux de 140 à 160mm, la puissance thermique posible passerait à 3580 MW et la puissance électrique à 1000 MWe.

En définitive, on peut faire les constatations suivantes:
– le combustible à âme graphite est bien plus efficace que le combustible utilisé dans EDF4.
– la principale limitation des performances provient de la circulation du gaz. Il faut augmenter la section de passage, ou augmenter la puissance des soufflantes, ou augmenter la pression du gaz, ou, enfin, les trois à la fois.

– la puissance spécifique reste faible, même dans la meilleure hypothèse : 10 MW/t

– comme nous nous éloignons de l’optimum neutronique, la réactivité disponible est réduite, au point même que certaines solutions sont impossibles avec de l’uranium naturel. On pourrait utiliser l’uranium issu du retraitement des combustibles des centrales à eau légère, qui comprend encore 0,9% d’uranium 235. Sinon, il faudrait passer à l’uranium enrichi .

Mais , en tout état de cause, un taux de combustion de 7000 MWj/t n’utilise que 0,7% de l’uranium, ce qui est fort peu.

On peut alors rêver : La puissance des produits de fission passe de 7% de la puissance du réacteur au moment de l’arrêt à 0,2% au bout de quinze jours. Cela veut dire que 97% d’entre eux ont une vie courte et se transforment en éléments stables. La section de capture des produits de fission va donc changer . Va-t-elle se réduire et, si oui, de combien ?

Soyons hyperoptimistes et supposons que la section de capture des produits de fission varie comme leur puissance résiduelle. Pour un réacteur à 10,5 MW/t , 3500 MWj/t d’irradiation limite et un arrêt d’un mois à chaque cycle, on arriverait à 50 000 MWj/t après 19 cycles et un séjour en pile de 16 ans. C’est finalement très peu puisque la consommation d’uranium naturel serait inférieure à 5%. Et comme il est certain que l’on ne retrouve pas 97% de réactivité après un arrêt de quinze jours, cette piste est sans issue.

Contentons nous de recycler le plutonium produit. Le coefficient de conversion étant de 0,9 (au lieu de 0,7pour l’eau légère,) ont aurait, au bout de 20 ans et 10 retraitements utilisé 6,5% de l’uranium naturel, ce qui reste fort peu.

Sa supériorité sur l’eau légère devient énorme quand on analyse les problèmes de sûreté. Ne chipotons pas sur les problèmes classiques de terrorisme. Tous les types de réacteurs peuvent être correctement protégés, au prix de dépenses parfois importantes. Le vrai problème est celui du 11 Septembre, c’est a dire l’écrasement d’un gros avion de transport bourré de kérosène sur un réacteur. Les UNGG du type EDF4 n’ont pas besoin d’enceintes de sécurité: 7mètres de béton de haute qualité, lourdement ferraillé et traversé par des milliers de tubes-guides de câbles de précontrainte scellés, voilà un obstacle totalement infranchissable aux bombes les plus sophistiquées, a fortiori à la carcasse ou aux moteurs d’un jumbo-jet. Et si l’incendie cataclysmique qui suivrait détruisait tous les outils de contrôle, y compris la commande de chute des barres, la fusion de l’uranium ferait couler celui ci sur l’aire support et la réaction en chaîne s’interromprait d’elle même.

Le danger de fusion des combustibles métalliques est toujours là mais, l’utilisation d’un déchargement à l’arrêt pendant les pauses inter-cycles limite le risque.

Pour éviter complètement ce risque, Il faut passer à l’oxyde d’uranium, donc à l’uranium enrichi, enfilé par exemple sous forme d’anneaux autour du noyau de graphite. On peut aussi utiliser du MOX ou, de l’oxyde de plutonium comme dans Phénix. Comme le taux de conversion de l’UNGG est de l’ordre de 0,9, contre 0,7 pour l’eau légère, à enrichissement égal, le taux maximal d’irradiation avant rejet sera supérieur dans l’UNGG, donc la consommation d’uranium naturel, inférieure. Toujours optimistes, supposons que ces combustibles puissent rester 30 ans , soit 10 000 jours, à 330 jours de fonctionnement par an. A 10MW/t cela ne fait que 100 000MWj/t, donc moins de 10% de combustible consommé donc moins de 1,4% d’uranium naturel utilisé. L’emploi d’uranium enrichi n’est pas une solution pour l’utilisation totale de l’uranium naturel.

En conclusion, l’UNGG avec ce type d’éléments combustibles est beaucoup plus intéressant que le REP à tous points de vue: prix, utilisation de l’uranium naturel, nécessité d’enrichissement. Il n’est pas une solution à long terme pour la bonne utilisation de l’uranium naturel, et ne se conçoit que pour des puissances élevées, à l’opposé des REP.

On peut se poser la question : Pourquoi a-t-on arrêté ces réacteurs? L’explication officielle est que le CEA ne voulait pas conserver des chaînes de retraitement qui, compte tenu de leur faible débit, lui coûtaient assez cher.

Il aurait suffi alors de stocker le combustible usagé en piscine, comme le font les Américains. Mais le choix de l’enrichissement faisait d’EDF un client majeur pour la future Eurodif. Arrêter le graphite gaz était donc important pour le CEA.

Il est quand même surprenant qu’a peine les UNGG de Saint Laurent arrêtés, on se soit précipité pour les démanteler, comme si le prix de la ferraille et du cuivre récupérés étaient vitaux pour l’équilibre financier d’EDF. Ce faisant, on a détruit la seule installation industrielle capable de tester en conditions réelles tous les types possibles de combustibles. Certains verront dans ces décisions la main invisible du lobby REP, mais je crois plutôt à la bêtise de certains gestionnaires.

AUTRES FILIÈRES

Quoique l’idée du surgénérateur, Phénix renaissant de ses cendres, soit intellectuellement séduisante, il n’est pas évident que ce soit la meilleure solution pour utiliser l’uranium naturel. Après tout, les pétroliers sont très satisfaits quant ils retirent 40% de l’huile contenue dans leurs gisements. Les opérateurs du nucléaire devraient être heureux de tirer 15 ou 20% de l’énergie contenue dans l’uranium au lieu de 0,36% , c’est à dire multiplier par 40 ou 50 une ressource énergétique déjà bon marché. Le granit et l’eau de mer deviendraient des sources rentables.
Pour obtenir ce résultat sans passer par la voie du rapide, il faut un bon modérateur, c’est à dire un modérateur qui absorbe peu les neutrons et une longue irradiation du combustible à une puissance spécifique élevée.

Ces conditions devraient pouvoir être remplies par les réacteurs à eau lourde, mais je ne connais pas les recherches menées dans ce domaine.

Mais la grande nouveauté réside dans l’élément combustible : l’élément particulaire. En réalité, ce n’est pas une nouveauté, puisqu’il a été conçu et réalisé dans les années 1960 par la société General Atomics de San Diego , sur une idée des chercheurs anglais d’Harwell. La particule, qui fait approximativement 1 mm de diamètre, comporte au centre un noyau combustible entouré de quatre couches de différents matériaux : successivement, du carbone poreux, puis deux couches de carbone pyrolytique dense encadrant une couche de carbure de silicium. Le carbone pyrolytique assure la résistance de la particule, le carbure de silicium, son étanchéité. Noyées dans des cylindres ou des boules de graphite, on peut en faire des éléments combustibles d’une résistance extraordinaire. Enfin, ne comportant que du carbone et du combustible, sans gaines ni structures métalliques, son économie de neutrons est excellente. Des éléments prototypes ont été poussés jusqu’à 750 000 MWj/tonne sans l’apparition du moindre défaut. A raison de 1 gramme par Mégawatt/jour, on pourrait croire que 75% du combustible initial a été utilisé . C’est inexact, car sur les 750 kilogrammes utilisés, une bonne partie était du plutonium fabriqué pendant la réaction.
Alors, me demanderez vous, pourquoi ce type de réacteur ne s’est il pas imposé depuis longtemps?
C’est à cause d’une autre qualité de ce combustible : il résiste à une température de 1800°C et peut être utilisé sans problème jusqu’à 1600°C.

Devant cette possibilité, physiciens et thermodynamiciens se mirent à rêver : avec de telles températures, on pouvait augmenter le RENDEMENT ! Le résultat de ces rêveries est exposé dans un intéressant fascicule édité par le CEA intitulé : “ Les réacteurs nucléaires à caloporteurs gaz “. La majorité des ingénieurs et techniciens sont beaucoup plus sceptiques. Ils savent, comme les marins, que “c’est le dernier nœud qui coûte le plus”. La recherche du dernier point de rendement coûte cher en investissements, en entretien et en disponibilité.

Le résultat est connu. Pas une des machines construites, en Allemagne, aux États Unis, en Angleterre ne fut un succès.

La haute température n’est pas d’un maniement facile. Les métallurgistes, les constructeurs de chaudières, les fabricants de turboréacteurs, tous le savent bien. Tous les réacteurs à haute température furent ce que nous appelons “des bêtes à chagrin”, bien incapables d’assurer un service commercial aussi exigeant que celui de l’électricité. En Angleterre par exemple, les quatorze AGR qui devaient au départ fonctionner à 750°C, virent leur température maximale ramenée à 650°C. Malgré ce recul, 4 de ces réacteurs fonctionnent à puissance réduite (60 à 70%)pour éviter les températures jugées excessive sur les tubes de chaudière, 4 autres sont arrêtées pour des problèmes de corrosion. Finalement la disponibilité du parc nucléaire n’a pas dépassé 60%.

Mais pourquoi diable cette course au rendement ? Lorsque le combustible est cher, cela se conçoit. Mais lorsqu’une tonne de combustible peut fournir 750 000 MWj/tonne, c’est à dire 18TWh/t (18 000 000 000 kWh/t), cela veut dire que le combustible a un coût nul et ce n’est pas le rendement maximum qui fera baisser les prix, mais le coût d’investissement minimum, la disponibilité maximale, et le coût de conduite et d’entretien minimal. En fait, les physiciens sont atteints d’une maladie que nous connaissons bien : la “recordite”. Cette maladie avait frappé avant eux les patrons des grandes sociétés d’électricité : dans les trente premières années de l’après guerre, les températures de vapeur dans ls chaudières suivirent la courbe suivante: 500, 520, 540, 565, 593, 620, 593, 565, 540°C. Le 620 marque le maximum de la gloire pour la centrale d’Eddystone, la P.P.L, Philadelphia Power and Light, et surtout pour son patron que je ne nommerai pas. Le bon sens et l’économie prirent finalement le dessus et les températures à l’heure actuelle sont toutes entre 540 et 565°C

VIVE LA PARTICULE

On peut employer l’uranium sous forme particulaire, comme on l’a décrit plus haut, dans des réacteurs moins ambitieux.. Il s’agira en fait d’oxyde d’uranium mélangé à de l’oxyde de plutonium et la teneur en oxyde de plutonium pourra être élevée, (20, 25%?) comme dans les combustibles des surgénérateurs.

En dehors de la possibilité de travailler à haute température, les particules ont, pour un volume égal de combustible, une surface d’échange calorifique 100 fois supérieure à celle d’un combustible du type de ceux évoqués plus haut. Cela rend possible des puissances spécifiques très élevées, à condition de pouvoir transférer la puissance ainsi produite à un fluide moteur pour la production d’électricité, l’eau, par exemple.

A la différence des projets dits HTR, restons dans des domaines de température qui posent le minimum de problèmes.

Le graphite ne dépassera pas 600°, ce qui évitera la corrosion par le CO2. La température de sortie du CO2 sera limitée à 520°C, ce qui permet l’utilisation d’aciers faiblement alliés, genre Chromesco I ou III, biens connus depuis longtemps. On supprimera les soutirages, ce qui augmentera la puissance utile, même si le rendement en souffre un peu. La température d’entrée du CO2 sera ramenée de ce fait à 175°C environ, si bien que l’ensemble de l’empilement graphite se trouvera au dessus de la température critique pour l’effet Wigner (150°C ).

Dans ces conditions, on peut tirer une puissance de 3900MW thermiques d’un cœur EDF 4 utilisant un combustible particulaire avec une pression de CO2 de 30bars . Malgré la suppression des soutirages, l’augmentation de la température d’admission à la turbine conduit à un rendement plus élevé que celui d’EDF4 et à une puissance électrique de 1200MW avec en plus 100MW de soufflantes.
Les éléments combustibles seront des cylindres de graphite de 8 cm de diamètre, sans gainage puisque les particules ne laissent échapper aucun produit de fission. Le transfert entre combustible et CO2 est de 630W/cm2, contre 546 W/cm2 pour EDF4. et la température de l’élément est toujours inférieure à 600°C. à sa surface. Les particules peuvent être soit dispersées dans le cœur du barreau, comme elles le sont dans le combustible en boulet allemand, soit sous forme de tiges enfilées dans des trous percés dans le barreau, comme les trous d’un ancien cadran de téléphone, par exemple, comme dans les centrales américaines.

La surface développée par les particules est considérable et la puissance spécifique peut être énorme sans que la température limite (1600°C) soit atteinte.

Pour une charge moyenne de 100MW/t, il faut 39 tonnes de combustible, soit pour 43110 barreaux de 60cm, 900grammes de combustible par barreau.
L’intérêt majeur de ce type de réacteur réside dans la possibilité de taux d’irradiation de plusieurs centaines de milliers de MWj/t, c’est à dire plusieurs dizaines de % de combustion de l’uranium et de plutonium, ce qui rend le surgénérateur sans objet. Si, par exemple, on limitait à 50MW/t la charge spécifique du combustible, on atteindrait un million de MWj/t en 60 ans, durée de vie présumée du réacteur. Le combustible aurait la même durée de vie que le réacteur, donc deviendrait un investissement, d’où plus de déchargement, plus de retraitement : tout se retrouve dans la déconstruction finale.

Comme dans le surgénérateur, le plutonium nécessaire proviendra du retraitement des combustibles des REP actuels. Ne parlons pas du plutonium militaire, il aura été épuisé depuis longtemps. Mais le traitement du combustible des REP a un autre sous-produit : l’uranium à 0,9% de U235, donc plus riche que l’uranium naturel. L’association de cet uranium avec le plutonium permet soit de réduire la teneur de ce dernier soit d’avoir un combustible plus réactif. A la limite, on pourrait retrouver au retraitement final plus de plutonium qu’on en avait mis au départ, mais ce ne serait pas de la surgénération, car l’uranium aurait perdu une partie de son 235. Se pose alors un problème de planning. Tant qu’il y aura des REP en fonctionnement, on pourra disposer de plutonium pour démarrer de nouveaux réacteurs du type qu’on vient de décrire. mais arrivera le moment où ce ne sera plus possible, les REP ayant été retirés du service. Et les nouveaux réacteurs étant loin d’avoir épuisé leur combustible. Il faudra étudier l’usage du Thorium, matériau fertile aux caractéristiques séduisantes dont le fils, l’Uranium 233, est un bon combustible.

En conclusion, ce type de réacteur, plus simple de construction et de fonctionnement que les HTR ou les Rapides-Sodium ont toutes les raisons d’être des réacteurs du proche avenir. Les seules opérations onéreuses sont la fabrication des particule, puis des éléments combustibles et enfin leur retraitement éventuel.

ET ENSUITE ???

Un type de réacteur porta de grands espoirs pendant quelque temps: l’OMR. C’est un réacteur dans lequel l’eau est remplacée par un liquide organique à haute température d’évaporation. La famille des terphényls répondait bien à cet objectif et, ne comportant pas d’oxygène dans sa molécule, ne corrodait pas les aciers, même les plus ordinaires. Des gaines de combustible et un circuit primaire sans pression ni matériau exotique, tout cela conduisait à un réacteur facile à construire et bon marché. Le terphényl étant un meilleur modérateur que l’eau légère, l’enrichissement de l’uranium du combustible était très faible. Le Docteur Lewis, le canadien père des “Candu”, rêvait déjà des terphényls “lourds” remplaçant l’eau lourde dans ses réacteurs à uranium naturel, les rendant techniquement et financièrement imbattables.

On construisit un réacteur OMR de 50 MW à Piqua, dans l’Ohio. Hélas, après 3 ans de fonctionnement, les terphényls irradiés avaient formé des goudrons collants sur les combustibles conduisant à l’arrêt de la centrale. Deux solutions se présentaient alors. Soit on essayait d’autres fluides de refroidissement comme les alcanes lourds (CnH(2n+2) avec n>10), qui ne comportent pas de doubles liaisons. Soit on trouvait une solution à l’encrassement des combustibles. Les gaines en arête de poisson, comme celles de l’UNGG, auraient pu nettoyer l’espace entre deux ailettes, par les tourbillons qu’elles engendrent qui pouvaient entraîner les vésicules goudronneuses vers les filtres.
L’AEC supprima tous ses subsides, les essais s’arrêtèrent et la centrale fut démantelée.

Il existe un réacteur qui a toutes les raisons d’éclipser ceux que nous venons de décrire : c’est le réacteur à sels fondus, le RSF. Le combustible est un mélange de fluorures d’uranium, de thorium, de plutonium dissous dans des fluorures de lithium et de béryllium. Le tout fond à relativement basse température (480°)et bout à très haute température (1400°). Finalement, le circuit de récupération d’énergie ressemble à celui du rapide, sans le sodium, remplacé par un sel très fusible et ne réagissant pas avec l’eau.

Les qualités de ce réacteur sont considérables.

– le coefficient de réactivité décroit très vite avec la température, ce qui exclut toute excursion de puissance en cas de levée intempestive des barres de contrôle.

– Si une fraction de sel s’échappait de la cuve, elle se solidifierait et ne s’infiltrerait pas dans le sol, ce qui la rendrait récupérable.

– les fluorures étant très peu solubles, on ne risque pas d’infiltrations de solutions dans le sol.

– le rechargement consiste seulement à verser une quantité calculée de fluorures en poudre,
– et le déchargement à vider une fraction des fluorures fondus,

– Le retraitement se fait en continu, sur un petit débit de sels. La réactivité du réacteur est suffisante pour qu’on puisse lui réinjecter les produits de fission à vie longue, supprimant ainsi le besoin de les stocker .

Un prototype de ce réacteur, de quelques mégawatts de puissance, à fonctionné pendant des années à Oak Ridge, alimenté par du plutonium, de l’uranium 235, du thorium. Le retraitement à été mis au point en laboratoire.

Une association d’une dizaine de producteurs électricité entama l’étude d’une centrale de 250 MW, en liaison avec les laboratoires d’Oak Ridge et d’Argonne, ainsi qu’avec des entreprises de chimie.
Brutalement, l’AEC, Atomic Energy Commission, coupa toutes ses subventions et ferma les deux laboratoires. Laissés seuls, les électriciens abandonnèrent le projet et ce fut la fin du RSF.

Il est évident que le lobby des quatre grands ( General Electric, Westinghouse, Babcock, Combustion Engineering) ne laissa aucune chance à un concurrent dangereux.

Mais un certain nombre d’équipes, en Russie, au Japon et en Chine continuent à étudier les multiples solutions qu’offrent les sels fondus. et il est probable qu’apparaîtront de nouveaux réacteurs dans une dizaine d’années, si la crise actuelle ne se prolonge pas trop.

En conclusion, les centrales nucléaires présentes ou à venir peuvent fournir massivement de l’énergie électrique pendant des dizaines d’années, et même des siècles, si les surgénérateurs ou les réacteurs à fort taux de conversion se développent. Elles constituent une solution immédiate à la rareté progressive du pétrole et du gaz, ainsi qu’à l’émission de gaz à effet de serre par la combustion de charbon.

Les quantités d’énergie produites par les énergies dites “renouvelables” sont infimes, sauf l’hydraulique, comparées à celles que peuvent fournir le nucléaire et, de plus, très irrégulières, ce qui demande des stockages ou des secours.
L’avenir du nucléaire est donc assuré.

Quand Marcel Boiteux s’exclamait : “tout électrique, tout nucléaire!!” il avait raison, cinquante ans trop tôt !

ET LA FUSION ?

La fusion est souvent présentée comme la solution définitive à tous les problèmes énergétiques de l’humanité. Il est exact que si nous arrivons à obtenir la fusion du deutérium (l’hydrogène lourd) avec lui même, la mer, qui recèle 1/6000 d’eau lourde, serait une ressource infinie à notre échelle.
Nous n’en sommes pas là, et nous essayons de mettre le feu à une combinaison de deutérium avec du tritium, élément artificiel qu’il faut produire, dans un réacteur, par exemple.
De nombreux dispositifs ont été imaginés, construits et essayés. Seuls, deux d’entre eux ont été amenés à la taille industrielle.

Le premier consiste à illuminer une minuscule bille de deutérium et de tritium congelés avec une multitude de lasers de grande puissance. La température atteinte par la bille est suffisamment élevée pour que la fusion se déclenche, provoquant une petite explosion. Avec un chapelet de billes, on pourrait concevoir un moteur à explosions nucléaires (on peut toujours rêver!) . En fait, les installations énormes construites sur ce principe l’ont été pour les militaires pour leur permettre d’étudier la fusion maintenant que les expériences de vraies bombes sont interdites.

Le deuxième a été inventé par les physiciens russes et est connu sous le nom de Tokamak. C’est un tore métallique dans lequel on a fait un vide poussé, puis injecté une faible quantité d’un mélange de deutérium et de tritium ionisés. Le tore est ceinturé par une série d’électro-aimants qui maintient le mélange au centre du tore. Un gros électro-aimant à fréquence variable est placé dans l’axe du tore. Il agit comme le primaire d’un transformateur dont l’anneau de mélange serait le secondaire. Pendant la montée du champ, le mélange sera traversé par un très puissant courant qui l’échauffera par effet joule.
Malheureusement, les essais ont montré que l’échauffement ainsi atteint est insuffisant pour allumer la réaction de fusion. Les physiciens ont donc inventé une collection de dispositifs annexes pour y arriver, et ils y sont arrivés.
Mais il ne suffit pas d’allumer la fusion, encore faut il qu’elle dure. Il faut donc que l’énergie fournie par cet allumage soit suffisante pour maintenir la fusion sans le secours d’appoint extérieur d’énergie. Cela n’a jamais été obtenu. De 1978 à 1983, l’Europe construisit à Culham, en Angleterre, un Tokamak de grande puissance : le JET – Joint European Torus -. Mais dès 1980, les physiciens furent convaincus que le JET était trop petit pour obtenir une fusion continue. De fait, les meilleurs résultats obtenus par la suite donnaient une puissance de fusion de 16 MW pour un appoint extérieur de 22 MW.
Se posa alors la question du NET – Next European Torus. Avant de lancer l’étude et la construction d’un nouveau tore, les autorités européenne demandèrent à une commission de scientifiques et de techniciens de faire le tour de toutes les équipes travaillant sur le sujet et d’en tirer des propositions.
Les conclusions furent sans équivoque:
1- le tore devrait être beaucoup plus gros que celui de JET.
2- Son coût dépasserait les moyens de l’Europe . Il faudrait faire appel à tous les pays intéressés.
3- Malgré la présence d’une couverture en lithium absorbant les neutrons émis pour produire du tritium, la quantité fabriquée est inférieure à celle consommée et le tore n’est pas auto-suffisant. Il faut donc disposer d’un réacteur, de préférence à eau lourde, pour produire la quantité de tritium manquante.
4- Le flux considérable de neutrons de grande énergie (14Mev)n’est pas totalement absorbé par la couverture et il en résulte une activation rapide de tous les éléments composant le dispositif et donc la nécessité de l’enfermer dans une enceinte de forte épaisseur ainsi que de tout un matériel télécommandé pour son entretien.
5- La complexité d’un système toroïdal ainsi que les problèmes dus à l’activation augmentent les problèmes d’extraction de l’énorme quantité d’énergie produite si la fusion continue est obtenue.

En conclusion:

Le Tokamak sera un exercice de physique, mais pas le prototype d’une future centrale. Ce sera l’équivalent de l’anneau du CERN de Genève.

Malgré cette mise en garde, dès 1987 monsieur Gorbatchev proposa à l’ensemble des pays concernés le lancement d’ITER (International Torus Experimental Reactor). Mais ce ne fut que vingt ans plus tard que sa proposition se concrétisera.

Il ne faut pas croire que la recherche sur la domestication ressemble à la quète du Graal. Bien d’autres dispositifs sont à envisager, comme, par exemple, la combinaison de plusieurs réacteurs cylindriques étudiée aux Etats Unis.
Soyons en certains: dans un siècle, nos descendants disposeront de cette énergie.
Un siècle, est-ce trop demander à une humanité multi-millénaire ?

LES DÉCHETS RADIOACTIFS : UN FAUX PROBLÈME

Les déchets radioactifs font la une des journaux et sont, pour l’opinion publique et les politiques qui les suivent un argument majeur contre l’utilisation de l’énergie nucléaire.
Le maniement des Becquerels, unité d’activité , les aide beaucoup. Un Becquerel, Bq , est l’activité qui correspond à 1 (une) désintégration par seconde. Rappelons qu’il y a 602.000.000.000.000.000.000.000. atomes par atome-gramme. Le Becquerel correspond à la désintégration de un de ces atomes, c’est dire sa taille! C’est une unité physique, équivalente à l’unité physique de temps, ainsi définie : “ c’est le temps de transition entre deux niveaux hyperfins de l’état fondamental de l’atome de Césium 133.” La seconde est la durée de 9 192 631 770 périodes de cette transition!
Personne, sauf les physiciens, ne se sert de l’étalon de temps ainsi défini. La seconde, 9 milliards de fois plus grande, suffit à tout le monde. Mais les nucléaristes, et surtout leurs opposants, utilisent le Becquerel, qui donne toujours des valeurs énormes et très effrayantes pour un public non averti , un peu comme si on réglementait les vitesses sur autoroute en millimètres à l’heure ! On surprend bien des gens en leur expliquant qu’eux mêmes sont une source de radioactivité d’environ 10 000 Bq, et ce, de manière tout à fait naturelle, et que la mer représente 16 000 milliards de milliards de Becquerels ! Toute la nature est radioactive et la vie sur terre s’en accommode très bien, même dans les régions les plus radioactives, ou les plus exposées aux rayons cosmiques, comme le Tibet.
Les résidus qui résultent du fonctionnement d’une centrale nucléaire sont concentrés sous un petit volume et leur activité spécifique, c’est à dire pour une unité de masse, est d’autant plus faible que leur demi-vie est longue. Seuls les produits à vie longue ( plus de 30 ans) semblent poser un problème malgré leur faible activité spécifique. De toutes façons, elle est bien plus élevée que ce qu’on trouve dans la nature.
Comme dans Pirandello, la question est : ”comment s’en débarrasser ?”, bien que la quantité produite (50 kg par réacteur et par an ) soit très faible. Un nombre incalculable de commissions s’est penché sur le problèmes pour trouver finalement des solutions ruineuses et parfois stupides. N’oublions jamais que dans ces commissions, il y avait souvent des entrepreneurs, mis là pour leur connaissances en génie civil, par exemple, mais qui se gardaient bien d’oublier leur portefeuille, et surtout des “écolos”, qu’il fallait consulter pour entretenir un semblant de démocratie, alors que leur seul objectif, leur article de foi, leur “charia”, c’était de tuer coûte que coûte leur démon: l’énergie nucléaire.
Leur première victoire et la plus catastrophique fut d’obtenir l’interdiction d’utiliser la mer comme “dépotoir”, comme ils disent, et même d’interdire l’étude de son utilisation éventuelle.
Or, pendant des décennies, Américains, Russes , Anglais et Français ont déversé sans traitement leurs égouts chargés d’effluents actifs dans les océans. Et pourtant, en dehors des exutoires immédiats des égouts sus nommés, aucune augmentation de radioactivité n’a jamais été mesurée où que ce soit dans l’océan.
La C.M.A, c’est à dire la Concentration Maximale Admissible pour qu’un liquide soit considéré comme inoffensif, est de 1000 Bq par litre. Pour obtenir 100 Bq par litre, qui est l’activité naturelle d’un être humain, il faudrait déverser dans la mer et sans les traiter les effluents des usines de retraitement de 10000 centrales pendant 1000 ans !
C’est dire combien l’attitude actuelle est purement déraisonnable. D’autant plus que ce déversement pourrait se faire dans les fosses profondes des océans, où l’on sait que la vitesse de mélange est quasiment nulle et la vie sous-marine presque absente. La vitesse de diffusion dans le reste de l’océan serait encore plus faible.
Si cela ne rassurait pas assez, il suffirait de continuer à fabriquer ces verres proches de l’obsidienne qui servent aujourd’hui à fixer les déchets et on ajouterait au temps de diffusion celui, considérable, de la lixiviation par les eaux quasi dormantes de ces fosses. L’eau de lixiviation ne verrait son activité accrue que de quelques Becquerels et serait donc parfaitement inoffensive. Pour le prouver, l’expérience est facile à faire: une éprouvette de ce verre est placée dans un tube dans lequel on fait circuler de l’eau à des vitesses variables et on mesure l’activité de cette eau à une distance elle aussi variable.
Si cela ne suffisait pas encore, il y a belle lurette que les pétroliers savent carotter les fonds marins. Et remplacer des carottes de sédiments par des cylindres de verre radio actifs sous 500 mètres d’eau et 100 mètres de sédiments ne leur paraîtra sûrement pas infaisable ni ruineux.
Enfin, et c’est probablement le plus simple, on a démontré que les bulles de gaz occluses dans les glaces du Groenland ou de l’Antarctique se conservaient intactes pendant des centaines de milliers d’années. Alors, pourquoi le pas tout simplement déposer nos déchets dans un trou percé sur l’inlandsis et les laisser descendre tout doucement, leur activité diminuant progressivement, sans abandonner leurs produits actifs en chemin? L’expérience en vraie grandeur a déjà été faite à Oklo.

Un problème plus important me paraît concerner le déchets dits de faible activité : morceaux de béton et de ferraille par exemple. Aucun règlement, hélas, ne fixe une activité maximale pour les matériaux d’utilisation courante. Ainsi, certains granits sont bien plus actifs que les bétons entourant le cœur des centrales.
Il serait sûrement possible de refondre les ferrailles résultant du démantèlement d’un réacteur dans une coulée d’acier: le surcroît d’activité ne serait probablement pas mesurable, surtout si cette ferraille est dispersée entre les différents centres de production : on fond près de 20 millions de tonnes d’acier tous les ans en France. Alors, quelque centaines de tonnes de ferraille en plus……

Et si une version nouvelle de réacteurs était adoptée, comme les réacteurs à sels fondus, les produits à vie longue pourraient être irradiés pendant des décennies et qui sait combien de produits actifs existeraient encore ?

LA “DECONSTRUCTION”.

Les opposants au nucléaire font souvent allusion aux coûts de “déconstruction” que les partisans du nucléaire oublieraient de citer dans leurs arguments. Il s’agit en fait du prix de la démolition éventuelle des centrales en fin de vie.
On peut décomposer cette démolition en trois phases.
– D’abord, le ferraillage. C’est le découpage et l’enlèvement des parties métalliques extérieure aux réacteur. Charpentes, tuyauteries, machines font la fortune des ferrailleurs qui vendent le tout aux aciéristes toujours affamés en ces période de minerai de fer hors de prix. A cela s’ajoute le cuivre des câbles beaucoup plus cher au poids que le fer. Au total une opération qui ne coûte rien à EDF.
– Ensuite, si on le souhaite, la démolition du béton extérieur au réacteur. C’est une autre paire de manches. Le travail au marteau piqueur est lent et cher et les déchets, agrégats et fers à béton, de peu de valeur. mais, au total, le coût de cette démolition n’est pas tel qu’il puisse réduire la compétitivité du nucléaire, surtout que rien n’oblige à faire cette démolition immédiatement après le passage des ferrailleurs.
– Enfin, la démolition du réacteur. Compte tenu de l’activité des matériaux rencontrés, elle ne peut commencer que longtemps après l’arrêt du réacteur: 20 ans, 30 ans, peut être plus. Rien n’oblige à les détruire, sauf la volonté de faire “place nette”. Car voir distribuées dans le paysage une centaine de pyramides nues, mais entretenues, sera moins agressif que la forêt d’éoliennes qu’on nous promet.
Mais supposons, ce qui est ridicule, que le coût de démolition soit égal à celui de construction, intervient alors le sou de Henri IV: Un sou placé à 5% sous ce roi vaudrait 300 millions au jour d’hui. Un euro, placé à 5% aujourd’hui en vaudra 25 dans 65 ans. Cela veut dire qu’une augmentation du coût de la centrale de 4% couvre les dépenses de “déconstruction” dans l’hypothèse stupide que nous avons prise. Le coût de la déconstruction n’est pas dirimant pour la compétitivité du nucléaire.

Publicités