energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?
DESCRIPTION
la production d'énergie électrique utilise des sources primaires non renouvelable. les sources renouvelables n'ont pas les mêmes propriétés et un travail conséquent d'adaptation à grande échelle doit être réalisé.TRANSCRIPT
Energie, les petits ruisseaux peuvent-ils conduire aux grandes rivières ?
OLIVIER BARRE(1), YANN PANKOW2) (1)Lycée G.EIFFEL , France, (2) LABORELEC, Belgique Email : [email protected].
1. Introduction
En 1887, Edison avait promis que l’énergie
électrique serait tellement bon marché que seuls les
« riches » pourraient continuer à s’éclairer à la bougie.
Cette promesse d’un autre âge nous rappelle les débuts
de l’utilisation de l’énergie électrique où elle était
considérée comme la seule source d’énergie d’avenir.
Cela ne masque cependant pas le fait que sans source
d’énergie primaire, les centrales électriques sont dans
l’incapacité de délivrer cette précieuse marchandise et
sans ligne de transport, celle-ci ne peut pas arriver au
point d’utilisation. Les premières lignes électriques
transportaient du courant continu et il fallait installer
une centrale tous les deux miles pour compenser les
pertes. Il n’y avait, bien sûr, pas de chutes d’eau
exploitables tous les deux miles. Le conflit, qui opposa
Edison à Westinghouse, vit la victoire du courant
alternatif. La première centrale hydroélectrique du
monde, la « Niagara Falls Power Company » se mit
au courant alternatif et en 1896 la distribution de
l’énergie électrique en courant alternatif se généralise.
Pourtant, pour certaines applications, comme le
transport sur les longues distances, les pertes en
courant continu sont plus faibles.
2. Production à la demande.
La principale caractéristique de ce vecteur
d’énergie est sa difficulté à être stocké. Les
condensateurs arrivent à des densités d’énergie proches
de 20 Wh/kg et les cellules de polymère de lithium
peuvent atteindre 150 Wh/kg. Le résultat est, que
globalement, il est difficile d’atteindre les 12 000
Wh/kg du pétrole. En poursuivant la comparaison, nos
ordures ménagères avec 2 500 Wh/kg semblent plus
prometteuses. Dans une structure où le stockage est
difficile, il faut produire la quantité demandée par les
utilisateurs et prévoir, bien à l’avance, les possibilités
d’adaptation [1]. L’énergie électrique se stocke mal, se
transporte avec des pertes non négligeables mais
heureusement elle est facile à produire avec un bon
rendement (Fig. 1). De plus, la mutualisation des
sources est un des éléments qui palie aux difficultés de
stockage ou à la défaillance d’une source.
Il est enseigné, dans toutes les filières associées au
génie électrique, que la fréquence de la tension délivrée
par le réseau est de 50 Hz. Cette constatation se double
généralement d’une conclusion sur l’invariabilité de
Résumé : Les premiers pas de l’industrie de production, de transport et de distribution de l’énergie électrique
commencèrent en 1882 quand les dynamos de la « Edison Electric Light Compagny » produisirent le courant
nécessaire aux 1 200 lampes et lampadaires installés dans les quartiers New-Yorkais de Wall Street et
Manhattan. Même si l’avenir montra que le courant alternatif était le plus intéressant, il n’en est pas moins vrai
que cette première expérience provoqua, en très peu de temps, la création de l’ensemble des équipements que
l’on connait aujourd’hui. Qui n’a pas une fois dans sa vie changé un fusible ou réenclenché un disjoncteur ?
Techniquement, la concentration des unités de production est avantageuse pour accroitre les rendements des
équipements. Les densités énergétiques des sources primaires non renouvelables facilitent cet objectif. Les
sources vertes, dites renouvelables, n’ont pas cette caractéristique. De plus, leur disponibilité est loin d’être
parfaite et rend difficile la gestion de la production par rapport à la demande. Les anciennes règles bien établies
évoluent. Il faut, par exemple, prendre en compte des phénomènes aussi simples que les aléas météorologiques.
Ceux-ci sont non seulement des éléments perturbateurs pour la consommation, le vent nous conduit à chauffer
nos habitations, mais sont aussi des sources pour la production. La production, utilisant les énergies vertes, n’est
donc pas une production idéale et elle tend à réduire les perturbations qu’elle peut occasionner. Finalement, ces
nouveaux générateurs vont-ils être acceptés comme source d’énergie à part entière ?
cette fréquence. Il est exact que, pour qu’un générateur
puisse être raccordé au réseau électrique, il doit, avant
toute chose, se synchroniser sur la fréquence du réseau
ainsi que sur sa phase et ses niveaux. Tout couplage au
réseau avec des paramètres différents engendrera de
sévères pointes de courant. En réalité, la fréquence du
réseau varie, car c’est le premier moyen qui permet
d’adapter la production à la demande [2]. Une variation
naturelle de la fréquence, c'est-à-dire de la vitesse de
rotation des générateurs, apparaît dès que la puissance
mécanique envoyée aux générateurs n’est plus
équilibrée par la puissance électrique absorbée par les
utilisateurs. Pour éviter des variations brutales de
puissance consommée ou de puissance produite, les
réseaux de transport sont au moins de taille nationale.
Si une région perd accidentellement une unité de
production, la défaillance est moins préjudiciable si les
autres unités de production nationale peuvent la
compenser. Cette sûreté de fonctionnement a toutefois
un coût : elle ne peut être assurée que si le réseau
national de transport peut acheminer ce manque de
puissance vers la région concernée. Par sécurité, il ne
faut donc pas utiliser les lignes au maximum de leurs
possibilités en fonctionnement normal. Cela impose
des définitions de besoins d’infrastructure à très long
terme [3] [4] [5].
L’histoire montre que les plus grandes catastrophes
sont les conséquences d’incidents insignifiants mais
dont la réunion provoque un effet dévastateur. Lors du
naufrage du Titanic, les vigies n’avaient pas de
jumelles car elles étaient introuvables depuis le départ.
De plus, la mer était trop calme et aucune écume
blanche révélatrice ne pouvait entourer l’iceberg qu’il
allait bientôt percuter.
Le 28 septembre 2003, le réseau électrique italien
s’est écroulé vers 3h30 du matin [6]. Le 4 novembre
2006 le réseau Nord Européen suit la même logique
[7]. Pour la panne d’origine italienne, le premier
élément est la part très importante d’énergie électrique
importée pour assurer le fonctionnement du pays à cet
instant. L’ensemble des liaisons avec les états
limitrophes permettait d’importer jusqu'à 6 000 MW.
Les puissances les plus importantes transitaient par la
France et par la Suisse. Cette nuit là, deuxième
élément, l’importation était déjà au dessus de cette
valeur (6 400 MW environ). Le gestionnaire du réseau
italien avait toutefois en réserve 3 500 MW. L’une des
liaisons avec la France subit un incident technique et la
puissance fut répartie temporairement sur les autres
ouvrages déjà bien chargés. Hélas, côté italien, le
gestionnaire ne fut pas en mesure de rétablir une
situation stable dans les délais impartis. Par mesure de
sécurité, les ouvrages acceptent une surcharge pendant
un temps limité et se mettent automatiquement hors
tension. Finalement, l’un des ouvrages de liaison a
déclenché à 3h25 entraînant avec lui les autres
ouvrages permettant l’exportation d’énergie électrique
vers l’Italie. En quelques minutes, la déconnexion de
l’Italie se fit et les 6 400 MW produits en Europe ne
sont plus utilisés. L’ensemble des générateurs monte en
vitesse face à un surplus général d’énergie mécanique.
Une augmentation de 0,2 Hz de la fréquence de base
est ainsi enregistrée. En Italie, les conséquences furent
plus désastreuses… Ne pouvant compenser la perte de
puissance engendrée par la déconnexion avec les autres
pays Européens, le réseau italien complet s’est mis en
sécurité. Il est maintenant clair que la fréquence est un
indicateur de la bonne adéquation de la puissance
produite et de la puissance consommée.
L’Europe a connu en 2006 une panne similaire.
C'est-à-dire, l’effondrement du réseau suite à la perte
d’un ouvrage. Cet évènement a pris naissance dans le
nord de l’Allemagne, lors de la sortie d’un navire de
croisière du chantier Meyer. Une ligne à haute tension,
sous laquelle ce navire allait passer, devait par mesure
de sécurité être mise hors service. L’opération, prévue
bien à l’avance et ayant fait l’objet de simulation, fut
avancée de quelques heures. Toutefois, il semble que
celle-ci se soit déroulée encore bien plus tôt. L’énergie
transitant sur cette ligne fut reportée sur les ouvrages
voisins qui subirent une surcharge immédiate. Le
temps de réaction des sécurités ne permit pas aux
opérateurs de rétablir une situation stable et cet incident
a conduit au déclenchement en cascade des lignes à
Figure-1 : Avec une production centralisée, de meilleurs rendements
peuvent être obtenus au niveau des équipements de production. Il faut
assurer le transport et la distribution de l’énergie au mieux de la
consommation pour ne pas perdre les effets positifs de la concentration
de la production.
haute tension européennes. Finalement le réseau
Européen s’est scindé en trois zones (Nord, Nord-est et
Sud-est), comme l’équilibre énergétique n’était pas
réalisé dans chaque zone, les fréquences respectives de
ces réseaux ont évolué. En particulier, la fréquence
dans la zone Nord-est est montée jusqu’à 51 Hz (50 Hz
nominale).
Ces quelques exemples ont fait naître l’idée selon
laquelle l’interconnexion des réseaux est un principe
périmé et générateur de blackout de très grande
ampleur [8]. Il ne faut cependant pas oublier que
l’interconnexion est un processus qui date de l’origine
des réseaux électriques (début du XXème siècle) [8].
La standardisation au niveau de la fréquence a permis
d’associer les différents réseaux indépendants et de
générer des économies d’échelles. Il était ainsi plus
facile de valoriser des ressources énergétiques,
géographiquement éloignées des centres de
consommation. L’interconnexion permet d’apporter
l’énergie dont on ne dispose pas ou plus sur place.
Avec les énergies renouvelables, cette remarque
prendra de plus en plus d’importance. Que fera-t-on les
jours sans vent à proximité des éoliennes [9]… Dans
une situation où les sources d’énergies renouvelables
sont avant tout des sources diluées, il n’est pas
envisageable de se passer de l’interconnexion des
réseaux. Les éoliennes, les panneaux solaires, les
hydroliennes, les barrages… ne sont pas
obligatoirement à proximité des villes ou des centres
industriels. Ils sont avant tout placés là où il y a du
vent, un bon ensoleillement, des courants marins
puissants, une vallée encaissée aisément transformable
en lac artificiel… Quand cette interconnexion est
abordée au niveau Européen, la problématique du
transport devient plus évidente. Un pays qui ne
bénéficie pas d’un ensoleillement favorable ira
naturellement chercher son électricité d’origine
photovoltaïque dans un pays mieux exposé. La figure
N°2 illustre le cheminement d’un transfert de 100MW
de la Suisse vers l’Allemagne. Seul 40% de ces
100MW peuvent directement transiter entre ces deux
pays [10]. Heureusement, ces transferts sont
actuellement fictifs : l’énergie en provenance de Suisse
peut être consommée par les régions françaises
adjacentes et l’énergie envoyée à l’Allemagne peut être
produite par des centrales françaises plus proches.
3. Les limites de la prévision.
Dans la recherche de l’adéquation entre la
production et la consommation, il n’est pas suffisant de
se limiter à l’examen de la fréquence de la tension du
réseau. Tous les opérateurs savent, qu’il faut
impérativement prévoir la consommation, pour mettre
en action les bons moyens de production et ceci de
manière économiquement rentable.
Pour mettre en évidence la nécessité d’avoir une
prévision fiable, il suffit de reprendre un chiffre donné
par une étude anglaise [11]. Une prédiction, dont la
précision diminue de 1% engendre un surcoût de
plusieurs millions de £. A contrario, une bonne
prédiction permet de ne pas exagérer les réserves.
Réaliser des prévisions de productions ne peut se faire
qu’en ayant une bonne image des flux d’énergies
électriques nationaux. Savoir que la demande va
baisser ou augmenter, permet de programmer le
fonctionnement des centrales. Il faut aussi, pour chaque
région, avoir une bonne image des flux d’énergies
internes. Par exemple, une région peut voir sa
consommation baisser et une autre, augmenter. Même
si ces deux évènements s’équilibrent, ce n’est pas pour
autant que les centrales ne doivent pas modifier leur
production. Si la région qui voit sa consommation
augmenter est le sud et celle qui voit sa consommation
baisser est le nord, il serait assez peu judicieux de
fournir le manque d’énergie par l’intermédiaire d’une
centrale située à plus de 800 kms.
Pour mieux mettre en évidence les aspects
bénéfiques de la prévision, un exemple issu d’une
étude américaine va servir de support [11]. En 1999,
une étude fut réalisée sur l’un des réseaux électriques
de Chicago, Illinois. Ce réseau, de conception
classique, desservait des quartiers d’habitation ; les
puissances mises en jeux atteignaient 1 300 kW. La
source d’énergie était une centrale au charbon dont la
commande principale était le flux de charbon vers la
Figure-2 : Répartition du transport d’une puissance de 100 MW entre la
suisse et l’Allemagne. 40 % peuvent transiter directement entre ces deux
pays et 27% doivent faire un détour dans plus de 2 pays successifs.
(Source : Cours de J.L. Julien – Univ. Liège)
chaudière. En se limitant à cette zone restreinte
d’investigation et en limitant la variable d’action à ce
seul flux, il était possible d’évaluer l’impact des
méthodes de prédiction sur la stabilité du réseau.
L’adaptation aux évolutions de la consommation a
conduit les concepteurs à utiliser les réseaux de
neurones. Le réseau de neurones repose sur
l’utilisation de neurones élémentaires associés entre
eux pour arriver à produire une décision. Le
fonctionnement d’un neurone élémentaire n’est pas figé
car les paramètres associés, comme les coefficients
synaptiques, peuvent être modifiés à tout moment.
Tout comme les neurones réels, il faut une phase
d’apprentissage. Face à des situations ponctuelles,
définies comme situation d’apprentissage, Le réseau
s’adapte de manière à se conformer aux décisions déjà
prises. Le réseau peut ainsi se modifier au fur et à
mesure sans pour autant perdre ses règles antérieures.
Les prédictions issues des réseaux de neurones ne sont
jamais conformes aux consommations réelles mais
restent meilleures que celles issues des méthodes
conventionnelles. Il apparait finalement, qu’au moyen
de cette étude, la prédiction est suffisante pour que le
système de production ne soit pas sollicité à l’excès. Le
différentiel de puissance existant entre la prédiction et
la demande réelle est suffisamment faible pour être
totalement pris en charge par la centrale. C'est-à-dire,
que la centrale ne sera pas dans une situation où elle est
en limite de fonctionnement, la commande de la
chaudière n’atteindra jamais 100%. Elle pourra
toujours fournir à temps l’énergie électrique demandée,
sans pour autant se servir de l’énergie mécanique
stockée dans ses éléments tournants. Ainsi, la stabilité
de fréquence sera parfaite. Il est apparu dans cette
étude un élément intéressant : c’est l’influence de la
météo. Les baisses de température vont bien sûr
augmenter la consommation d’énergie électrique, mais
ce phénomène se rencontre aussi avec les fortes
chaleurs. L’utilisation massive des climatiseurs
provoque un appel de puissance électrique, d’autant
plus difficile à prévoir qu’il est lié au niveau
d’équipement des foyers. L’intérêt du réseau de
neurones est d’autoriser une adaptation automatique à
l’introduction de nouveaux types de récepteurs.
Cet exemple montre bien que la prévision de la
demande est indispensable à la bonne stabilité du
réseau de production et de distribution. En restant à un
niveau local, l’aspect transport sur de longues distances
n’est pas pris en compte et le choix d’une zone
résidentiel n’est pas représentatif de l’ensemble d’un
territoire. L’ « Electric Power Researche Institute » a
publié un état de l’art en 2001 sur les travaux réalisés et
les perspectives d’avenir [11]. Plusieurs méthodes,
permettant d’accroitre la précision de la prédiction et
diminuer les coûts de fonctionnement, furent étudiées.
Les réseaux de neurones, de part leurs capacités
d’adaptation à des systèmes complexes, sont
incontournables. Ils sont maintenant couplés à la
logique floue pour intégrer des paramètres plus
subjectifs. Le résultat est que, finalement, les
prédictions sont à moins de 5% d’erreur. Les
évènements inhabituels restent toutefois des obstacles
pour les méthodes de prévisions. Les incidents sur les
lignes sont très difficilement pris en compte. Ils sont
trop rares et trop hétéroclites, pour qu’un système
neuronal puisse construire une commande adaptée.
Comment déduire une tendance de la consommation
lors de l’effondrement d’une ligne à haute tension ?
Les Etats-Unis, en mettant en œuvre la
dérégulation, ont introduit une nouvelle contrainte sur
la gestion du réseau électrique. L’aspect économique a
toujours été présent, mais pas à un niveau tel qu’il l’est
aujourd’hui. « The Intelligent Power Grid », le réseau
de distribution intelligent, c’est en ces termes, qu’IBM
présentait en 2006 sa vision du réseau de l’avenir [12].
La gestion d’un tel réseau se ferait au moyen d’une
utilisation massive des réseaux de communication
comme le réseau INTERNET. La ramification du
réseau électrique, qui doit aller jusqu'à l’utilisateur
final, n’est pas associée à une telle ramification du
système de surveillance. Une zone d’ombre existe donc
à partir des sous-stations. Même si les technologies
actuelles permettraient d’avoir des informations fiables
et sécurisées sur les éléments de niveau inférieur à la
sous-station, ce n’est pas pour autant que ces
informations seront exploitables ; c’est l’équivalent
d’un bruit de fond. De plus, il faut traiter des quantités
volumineuses d’informations pour en extraire les
différentes consignes à envoyer aux producteurs. Ceux-
ci sont des industriels privés, appliquant la loi du
marché. Les fluctuations du coût de l’énergie en
l’espace de quelques heures deviennent telles, que toute
décision devient problématique (Fig. 3). De plus, les
Figure-3 : Variation du prix de l’énergie sur une semaine.
réserves, que pouvait accepter un système étatique, ne
sont plus aussi importantes ; cela occasionne des
instabilités au niveau du réseau. Le gestionnaire du
réseau reste toutefois un organisme relevant de l’état
qui a de plus en plus de contraintes à intégrer. D’un
côté, les clients demandent une grande qualité de
courant et mettent en œuvre des charges générant des
harmoniques. De l’autre, les producteurs d’énergie, mis
régulièrement en concurrence, n’ont pas toujours un
comportement solidaire [13] [14] [15].
4. Les énergies renouvelables dans l’arène.
Les grandes centrales électriques fonctionnent avec
une source primaire d’énergie qu’elles maîtrisent
parfaitement. Les centrales au fuel ou au charbon ont
un stock-tampon d’énergie primaire qui leur permet de
ne pas faillir en cas de rupture temporaire
d’approvisionnement. Les centrales nucléaires sont
bien mieux protégées contre ce type d’aléas. Une telle
situation ne se rencontre pas avec les énergies
renouvelables. Pour avoir de la puissance, il faut de
grandes surfaces et pour l’éolien, les zones venteuses
ne sont pas extensibles [16]. Même si certains pays
nordiques ont une puissance installée par habitant
importante, il ne faut pas oublier qu’il n’y a pas de vent
tous les jours ! En décembre 2001, l’Allemagne, avec
le plus grand parc éolien du monde, a mis le réseau
européen en difficulté car les anticyclones persistants
interdisaient la production d’électricité par ses
éoliennes.
Le soleil fournit de l’énergie. D’après des analyses
quantitatives, celle-ci est amplement suffisante pour les
besoins de la planète. Pour exploiter cette source
d’énergie, plusieurs voies doivent être envisagées. La
conversion de la lumière en énergie électrique est
réalisée au moyen de cellules photovoltaïques. Il est
toujours possible de reprendre les anciennes
technologies et de les adapter au soleil ; c’est le cas des
centrales à four solaire. Elles ne font que puiser la
chaleur dont elles ont besoin dans un four recevant le
rayonnement solaire concentré.
a) Les cellules photovoltaïques.
Les cellules solaires existent depuis 1950, leur
développement n’a vraiment été lancé qu’au moment
de la conquête spatiale initiée par J.F. Kennedy. Elles
sont capables de transformer le rayonnement solaire en
énergie électrique avec un rendement, de l’ordre de
15% pour les cellules utilisant le silicium [17]. Malgré
les progrès, elles restent encore dispendieuses et seuls
des programmes de subventions nationales peuvent
accélérer leur introduction. Il faut attendre 3 à 15 ans
(selon subventions) pour que la cellule soit rentabilisée.
Les cellules utilisaient initialement du silicium. Ce
composé, indispensable à l’industrie électronique, ne
peut être considéré comme une ressource exclusive. La
génération d’énergie est certes un objectif important
mais inutile, si la fabrication des composants
électroniques est remise en cause. Il semblerait
finalement, que ce moyen de produire de l’énergie
électrique, présente des inconvénients majeurs. La
production d’électricité, en utilisant un autre matériau
de base, est donc un sujet d’avenir. Comme le faisait
remarquer le professeur Wolfgang Witthuhn de
l’institut de Jena, en plus de son utilisation massive par
d’autres industries, le silicium n’est pas le composé le
plus adapté à la réalisation de cellules photovoltaïques
[18]. Un autre matériau semble bien plus prometteur :
le Cuivre-Indium-Sulfure (CIS). Le coût, associé à des
cellules l’utilisant, est encore trop élevé pour espérer
les distribuer massivement ; de plus des augmentations
de rendements sont à attendre. Ainsi on comprend
mieux l’intérêt que portent les laboratoires de
recherches japonais aux composés nouveaux, capables
de produire de l’énergie électrique à partir de la
lumière, sans mettre en œuvre le silicium cristallin.
Depuis 1974, le Japon a l’ambition de mettre le prix du
kWh photovoltaïque au prix du kWh en provenance
des centrales thermiques [19]. Ce qui n’est pas le cas
actuellement, le photovoltaïque reste 4 à 5 fois plus
cher. Le photovoltaïque envisagé par les japonais est au
niveau local : la production d’énergie au niveau
domestique ou au niveau des équipements mobiles.
Tout en travaillant aussi sur le CIS, les japonais
expérimentent les cellules photovoltaïques organiques
ainsi que d’autres composés. Il est à remarquer la
grande diversité des méthodes employées par les
japonais pour arriver à produire de l’énergie électrique.
Ces travaux restent toutefois une activité en amont et
ne provoqueront pas immédiatement une révolution
technique. L’efficacité de ces dispositifs doit être
accrue et ils restent instables dans le temps. Par
exemple, les cellules organiques se dégradent et la
densité de courant chute de 6% après 100h
d’illumination, tout en ayant un rendement initial de
l’ordre de 7%.
Les avancés techniques liées aux capteurs
photovoltaïques sont importantes. Leur utilisation, dans
la conquête spatiale, les a rendus populaires et il est
logique que les USA aient une certaine avance dans ce
domaine. Les Sandia National Laboratories, sous la
direction du DOE (Department Of Energy – U.S.A.), a
conduit des études sur l’énergie solaire [20]. En
particulier, plusieurs technologies furent associées pour
exploiter au mieux l’énergie solaire. Un résultat très
intéressant fut obtenu dans les années 80. En associant
les cellules à un concentrateur optique (Fig. 4), il en
résulte une meilleure production d’énergie électrique,
le rendement augmente (Tab-1). De plus, moins de
matière noble est requise. La première centrale
européenne utilisant des cellules à concentrateur a été
activée en 2008. Cette centrale de 100 kW est installée
en Espagne à Puertollano. Lles cellules travaillent aussi
à plus haute température, 100°c et elles doivent être
refroidies. L’énergie thermique produite est évacuée à
l’extérieure et elle est disponible pour des applications
de chauffage. Les américains ont bien sûr exploré cette
possibilité, ils ont donc finalement fait une certaine
forme de cogénération avant l’heure.
Il n’en reste pas moins vrai que l’élément le plus
important est la cellule élémentaire ; aucun facteur
d’échelle ne pourra en augmenter le rendement. Ce qui
n’est pas le cas pour les alternateurs. En conséquence,
le laboratoire américain a aussi étudié le moyen
d’associer le simple particulier à la production
d’électricité solaire. Pour avoir de l’énergie, il faut de
la surface, et pas obligatoirement de la surface au sol…
Le premier bâtiment équipé de panneaux solaires en
toiture avec concentrateurs optiques est l’hôpital
Wilcox d’Hawaii (1981). En 1985, des projets de
résidences équipées de panneaux solaires en toiture
étaient déjà en diffusion. Les futures centrales solaires
de plusieurs mégawatts n’étaient programmées qu’au
début des années 90. Il apparait finalement que ces
prévisions étaient encore optimistes, les premières
centrales photovoltaïques mises en service datent des
années 2007 et 2008.
Si on recouvrait de panneaux solaires la totalité des
toitures, on arriverait à fournir assez d’énergie pour
satisfaire les besoins de la planète, pendant le jour
et avec un bon ensoleillement. La solution individuelle
a déjà été testée, le japon a commencé à produire des
maisons individuelles équipées de panneaux
photovoltaïques dès 1994 [21]. Ces cellules sont tout à
fait utilisables pour des particuliers car leur
fonctionnement ne demande pas d’entretien difficile.
L’augmentation du rendement (Tab 1 et Tab 2), la
baisse des coûts et la facilité d’intégration sont donc
des objectifs majeurs. Mais le résultat sera toujours un
courant continu qui, depuis les débuts des réseaux
électriques, n’est pas la solution la plus judicieuse pour
la distribution de l’énergie. Il est toujours possible de
transformer le courant continu en courant alternatif au
moyen d’un onduleur. Cet équipement indispensable ne
peut qu’augmenter le coût de l’installation et en réduire
la fiabilité. De plus, les puissances mises en jeux sont
encore faibles et il faut se demander si l’injection de
cette production décentralisée, difficilement gérée par
l’organisme de régulation, sur le réseau ne risque pas
de le déstabiliser. Au japon, où l’installation de
panneaux solaires sur les habitations neuves est
effective depuis 1994, le résultat est que
Rendement des générateurs PV avec concentrateur solaire
Source : Sandia National Laboratory (1981)
Technologie Rendement maxi
Rendement obtenu
Si 26% 18,5 GaAl-As 26% 23% Multi-spectral GaAlAs-Si 35% 31% Cellules multiples GaAsSb / GaAlAsSb 40% Thermal+PV 40% 26%
Tab 1 : Résultats des recherches sur le PV aux USA (1980).
Figure-4 : Principe de la cellule photovoltaïque à concentrateur. Un
système optique, qui n’est pas obligatoirement une lentille, fait
converger le rayonnement solaire vers une unique cellule. Une
multiplication par deux du rayonnement solaire provoque plus que le
double de production d’énergie électrique.
Rendement des générateurs PV
Source : Ambassade de France en Allemagne (2008)
Technologie Rendement visé
Rendement obtenu
Poly-Si (Couche mince) 15% 6%
Si amorphe / Si cristallin 24% 18%
Alliage CIS 35% 20%(Test)
CulnSe2 10%
Cellule Tandem (Multi spectral) 50%
Organique 15% 4% à 5%
Cellules à concentrateur
Module FLATCON 28,50%
Tab 2 : Résultats des recherches sur le PV en Allemagne (2008).
ces sources de faibles puissances totalisent aujourd’hui
une puissance totale de 622,8 MW. Même si
l’expérience japonaise est réussie, elle ne doit pas
masquer la démarche globale entreprise. En effet, les
efforts des japonais se font dans plusieurs directions,
l’isolation en est une ; une diminution de 67% des
fuites d’air par rapport à des maisons plus anciennes a
aussi été obtenue. A quoi bon produire de l’énergie si
celle-ci ne reste pas dans la maison ?
b) La conversion lumière chaleur.
La concentration de la lumière fournit assez de
chaleur pour enflammer un simple morceau de papier.
Cette expérience réalisable par toute personne ne doit
pas pour autant introduire l’idée que la solution se
trouve sous ses yeux et que les problèmes énergétiques
sont ainsi résolus. Curieusement, cette forme de
génération de chaleur, qui permet de reprendre en
grande partie la technologie des centrales électriques à
flammes ne s’est pas imposée (Fig. 7).
Les premières réalisations en France sont : le four
solaire d’Odeillo, mis en service en 1970 et d’une
puissance thermique de 1Mw et le four solaire Themis
(Fig. 5), inauguré en 1983 et d’une puissance
thermique de 2,5 MW. Il est à noter qu’aucun des deux
n’est une centrale en activité. Ils restent des sites
pilotes pour des expériences scientifiques. Les
américains avaient lancé dans les années 1980, un vaste
programme de développement de centrales électriques
utilisant des fours solaires. Un rapport du laboratoire
national SANDIA fait état de ces centrales solaires
dont la puissance est de l’ordre de 100MW.
Disséminées dans le sud du pays, elles devaient être
opérationnelles dès 1985 [46]. Il est clair que sur les 14
sites prévus, aucune construction n’a vu le jour. Seul
persiste de cette époque, le four solaire expérimental
CRTF, du laboratoire SANDIA [22], qui a une
puissance de 5 MW (Fig.6) ainsi que la centrale de 10
MW, Solar one, dans le désert de Mojave (Fig. 8).
Les centrales solaires de ce type, aussi appelées
Centrales Solaires Thermodynamiques, seront toutefois
en construction avec quelques années de retard… La
réalisation la plus marquante est celle de Séville en
Espagne, PS-10, Centrale solaire thermodynamique
Figure-8 : Four solaire Solar Two (1995), construit à partir du premier
site solaire Solar One (1970).
Figure-6 : Four solaire CRTF du laboratoire national SANDIA à
Albuquerque. (10 MW)
Figure-7 : Principe de fonctionnement d’une centrale solaire
thermodynamique conçue dans les années 1980 et ayant une
puissance thermique de 115 MW. Implantation prévue : Saguaro
Station (Arizona)
Figure-5 : Four solaire Themis, conçu à l’origine pour être la première
centrale électrique solaire en France.
de 11 MW. Une centrale plus puissance, de 20 MW
(PS-20) est en cours de réalisation. Les projets
américains, sans doute initiés par la baisse de la
production pétrolière américaine des années 80 [23],
furent oubliés dès que l’énergie est redevenue à un coût
acceptable. Les premières réalisations sont certes
arrivées trop tôt, mais elles ont figées les bases des
futures réalisations. On retrouve systématiquement les
mêmes architectures : un four solaire qui fonctionne à
haute température (pouvant atteindre 1000°) est
alimenté en rayonnement au moyen d’un champ de
miroir. Il chauffe un fluide caloporteur, en général un
sel fondu (nitrate de sodium ou de potassium). Ce
fluide, comme pour les centrales classiques, sert à
produire de la vapeur qui entraine des turbines. Même
si la technique semble simple, ces centrales souffrent
des mêmes défauts que les cellules photovoltaïques,
que faire quand le soleil disparait ? Déjà, dans les
années 1970, le laboratoire SANDIA avait abordé le
problème et proposait dans certaines de ces futures
centrales des accumulateurs de chaleur. Le sel fondu
était stocké et pouvait être utilisé durant la nuit. L’idée
était bien sûr séduisante et elle est toujours d’actualité.
En 2007, une équipe du centre de recherche aérospatial
allemand (DLR) est parvenue à mettre en service un
accumulateur de chaleur couplé à une centrale
thermoélectrique solaire. On est encore loin des 100
MW des années 80, mais les 100 KWh ainsi stockés
peuvent être utilisables pendant 10 h.
Face à ces technologies qui imposent des grandes
structures, les concentrateurs optiques ont encore un
avenir. En effet, la puissance de ces centrales est
limitée. Impossible d’augmenter exagérément la
température de l’échangeur. Un accroissement de
puissance passe par une multiplication des tours
solaires. C’est ce qui va se passer sur le site où la
centrale PS-20 est en construction. A terme, les 300
MW prévus en 2013 le seront au moyen de plusieurs
tours. En 1980, les américains avaient construits des
échangeurs linéaires placés au centre d’un
concentrateur solaire. La température du fluide
caloporteur restait modérée et surtout l’accroissement
de puissance thermique s’obtenait par une mise en
parallèle des échangeurs (Fig 9). Le laboratoire
SANDIA a expérimenté des échangeurs de ce type qui
fournissaient de la vapeur à 174°c (350°c au
maximum). Les expérimentations débouchèrent
finalement sur une réalisation concrète. Dans le désert
de Mojave, ou le taux d’ensoleillement est le meilleur
possible, les américains construisent le SEG : centrale
solaire de 354 MW utilisant les échangeurs linéaires
abordés précédemment [24]. .
c) L’éolien.
Pris très souvent comme exemple, les moulins à
vent ont, par le passé, assurés la production d’énergie
mécanique pour le bien de la communauté. Les aspects
mécaniques de ce type de matériel, les architectures
possibles ainsi que les solutions à retenir sont connues
depuis plus de 30 ans [25]. Un article de synthèse paru
dans la revue « Pour La science » en 1986 l’illustre
bien [26]. Les rotors doivent comporter un faible
nombre de pales et tourner à grande vitesse de manière
à diminuer la puissance perdue dans les tourbillons
créés dans le sillage. Toutes les configurations ont ainsi
été testées ; de l’éolienne à une seule pale (éolienne de
Bremerhaven) à la turbine verticale (Darrieus).
L’absence de vent, phénomène aléatoire et inévitable,
pouvait causer autrefois des problèmes
d’approvisionnement en farine si aucun autre moulin
ne pouvait assurer la relève. Le même phénomène se
retrouve aujourd’hui vis à vis des éoliennes, le
redémarrage des centrales conventionnelles ou
l’importation d’énergie électrique est rendu obligatoire
lors de la présence d’anticyclone persistant sur les
zones où elles sont implantées. Durant de telles
périodes il est à prévoir des augmentations rapides des
prix de l’énergie.
L’éolien est le système de production alternatif qui
a le plus pris de l’importance ces dernières années. On
approche aujourd’hui les 100 Gw mondiaux. Pour le
Danemark, pays ou la part d’éolien est la plus forte,
cette source ne produit néanmoins que 19% de
l’énergie électrique consommée (Chiffre 2007).
Figure-9 : Echangeurs linéaires capables de chauffer un fluide jusqu’à
des températures de 350°c. L’accroissement de puiss ance s’obtient en
mettant en parallèle les différentes structures.
L’Allemagne, avec ces 23,3 GW installés, n’arrive qu’à
6% de sa consommation nationale. La puissance
installée n’a finalement que peu de valeur car une
éolienne n’arrive qu’à produire globalement qu’1 jour
sur 4. Ce chiffre donne un rendement de 25% et il faut
garder à l’esprit qu’il est calculé par rapport aux
implantations actuelles, choisies pour leur bonne
couverture venteuse. Les zones restantes sont moins
rentables. La couverture venteuse y sera plus faible, et
la production erratique qui risque d’en découler, peut
déstabiliser le réseau. Les parcs éoliens, soumis à trop
d’aléas météorologiques, vont se comporter comme des
sources d’énergie peu fiables qui peuvent disparaitre du
réseau à tout moment. Le résultat risque fort d’être
similaire aux incidents cités dans le premier chapitre
qui ont conduit à des black-out. Les parcs existants ne
sont pas pour autant exemptés de défaut. Par exemple,
dans les anciens parcs, les éoliennes sont de puissances
similaires. Il n’y a pas une éolienne maîtresse ni
d’éoliennes esclaves, leur faible puissance ne leur
permet que de se synchroniser sur le réseau considéré
comme référent. Comment, dans une telle
configuration, peut-on être sûr que leur comportement
sera acceptable en toute situation. Une étude
américaine répond négativement. Dans le cas où une
défaillance se produit sur le réseau (court-circuit par
exemple) des générateurs éoliens peuvent accélérer et
des oscillations électromécaniques peuvent apparaitre
entre les différents générateurs de la zone. Si un tel
phénomène n’est pas amorti, des dommages peuvent en
résulter au niveau de ces générateurs éoliens.
Les centrales conventionnelles peuvent compenser
les jours sans vent. Mais il ne faut pas que ces mêmes
centrales démarrent intempestivement, suite à des
déventements passagers ; le coût de suppléance annule
tous les effets bénéfiques de cette solution alternative.
Ainsi, le stockage de l’énergie pour palier aux
fluctuations rapides reste un problème pour ce type de
production.
Bien que le manque de vent soit généralement
présenté comme un aspect négatif pour l’utilisation des
éoliennes, les études menées ne permettent pas
d’arriver systématiquement à cette conclusion [27]. En
effet, il faut analyser les aléas liés au vent, sous un
aspect temporel. Les japonais ont montré que les parcs
éoliens sont sujets à des fluctuations de puissance mais
celles-ci sont loin d’être aussi préjudiciables que l’on
pourrait le penser. Les variations à court termes, moins
de 10 minutes, sont rapidement étouffées si la zone de
production est grande et le nombre d’éoliennes
important (Fig. 10 et 11). Par contre, pour des périodes
plus grandes, 100 minutes, l’effet climatique va
finalement reprendre un rôle prépondérant et il devient
nécessaire de palier aux futurs manques de puissance.
Comme cet effet est à échéance plus importante et de
plus, prévisible car il est lié à la météo, il peut être
anticipé et son traitement ne demande plus l’utilisation
de centrales de secours à démarrage rapide.
Il faut, dans un premier temps, trouver des moyens
pour supprimer les fluctuations de production à
échéance brève. Le nombre de turbines va certes
minimiser l’effet d’un déventement local, mais il ne
faut pas oublier que les zones encore libres ne pourront
plus être aussi favorables aux grands champs
d’éoliennes. Les champs de plusieurs milliers
d’éoliennes, comme celui de Altamont Pass Wind
Farm (576 MW, 4900 Générateurs) au USA, coexistent
avec des sites plus petits comme celui de Windpark
Egmond aan Zee dans la mer du nord (actuellement
Figure-11 : L’augmentation du nombre de générateurs permet de
diminuer les fluctuations de puissance. Pour avoir moins de 1% de
variation, par rapport à la puissance installée, il faut plus de 50
éoliennes.
Figure-10 : « Ferme d’éoliennes » en Espagne, En multipliant le nombre
d’éoliennes, les fluctuations de production diminuent et le système devient
moins contraignant pour la mise en place d’une production de secours.
Figure-12 : Le potentiel terrestre des éoliennes arrive à terme. La
bande côtière reste à exploiter.
Figure-13 : Vue d’artiste d’une ferme d’hydroliennes sous-marines.
108 MW et 36 générateurs). Ce sont justement les
champs marins qui sont les plus porteurs d’avenir (Fig.
12) [28]. L’équipement unitaire, l’éolienne ou le
groupe d’éoliennes, devra comporter tous les systèmes
lui permettant de gérer au mieux les différents aléas
météorologiques à courts termes. C'est-à-dire, intégrer
un système de stockage permettant de générer de
l’énergie active et réactive. En fonctionnement normal,
l’énergie réactive est nécessaire. Elle est utilisée pour
compenser l’énergie réactive absorbée par les lignes de
transport et ainsi stabiliser le niveau de tension [14]. En
cas de défaillance ou d’incident, c’est surtout la réserve
d’énergie active qui sera sollicitée. Elle servira à
gommer les pertes passagères de puissance. Le recourt
à l’électronique de puissance est indispensable [27] ;
cette même électronique qui utilise le silicium cristallin
qui donne les bons rendements des cellules PV. Elle
introduira des limitations dans les niveaux de tension et
les courants qui pourront être générés (Tab. 3). Le
résultat est que les structures actuelles qui autorisent
des niveaux de puissance et de tension élevées sont
encore rares. Par exemple, pour une ligne de transport
HVDC de 3 GW, il faut près de 40 000 transistors
IGCT [29].
d) L’énergie des mers.
Les vastes zones marines peuvent être vues comme
sources d’énergie primaire. D’une part les courants de
marées peuvent faire tourner des générateurs et ainsi
fournir de l’énergie ; et d’autre part, cette imposante
masse d’eau à température faiblement variable peut
être considérée, thermodynamiquement, comme une
source chaude. Dans le cas où les courants sont utilisés
comme source primaire d’énergie, le système employé
est une hydrolienne [30]. Celle-ci est de conception
similaire à celle retenue pour l’éolienne. Une hélice de
grand diamètre transforme l’énergie cinétique du fluide
en mouvement, en énergie mécanique. De plus,
certaines caractéristiques de cette source primaire sont
intéressantes. Il y a deux marées par jour et les aléas
météorologiques n’y ont que peu d’influence. Par
contre, dès que l’étal apparaît, aucune production
d’énergie ne peut être assurée. Le milieu marin est
certes plus agressif que le milieu atmosphérique, mais
il est moins variable. Le différentiel de température est
bien moins important et les effets des tempêtes sont
atténués, même à faibles profondeurs. La première
hydrolienne opérationnelle a délivré ces premiers watts
en juin 2006, dans la baie de Fundy au royaume uni. La
Norvège a suivi, en installant une hydrolienne de 20m
de diamètre (300 kW) par 45 m de fond. Actuellement,
ces prototypes ne sont pas encore raccordés au réseau
(Fig. 13).
Cette exploitation nouvelle des courants marins ne
doit pas masquer les anciens travaux de Georges
Claude [31] [32]. Cet ingénieur français a repris les
idées d’Arsène d’Arsonval. Le fond de la mer est à une
température de 4°c, l’eau de surface est plus chaude, de
l’ordre de 18°c à 20°c pour nos côtes. Si cet écart de
température résultant peut être considéré comme faible,
il ne faut pas oublier qu’il n’y a pour ainsi dire pas de
caractéristiques des composants d'électronique de puissance
( Sources : Riso National Laboratory : 1998)
Type: courant admissible (A) Tension supportée (V)
GTO 4 000 6 000
IGCT 2 000 4 500
BJT 800 1 200
MOSFET 28 1 000
IGBT 2000 3 300
Tab 3 : Performance des Composants de puissance disponibles
(1998).
Figure-15 : Maquette d’une unité ETM côtière de 10 MW, produisant
de l’électricité ainsi que de l’eau douce. Le cycle thermodynamique
retenu permet aussi de dessaler l’eau de mer. (Projet présenté par
l’ANL – Argonne National Laboratory - USA).
limitation des volumes d’eau mis en jeux. La quantité
requise pour faire fonctionner une telle centrale
thermodynamique n’est qu’une goutte d’eau dans la
mer… Ainsi, l’eau de surface est utilisée comme
source chaude et celle en provenance des grandes
profondeurs tient lieu de source froide. Les difficultés
techniques que rencontra G. Claude en 1929 firent que
seule sa troisième expérience lui permit de produire
une puissance de 22 kW. L’Energie Thermique des
Mer, désignée ETM en France et OTEC pour les pays
anglophones, n’est pourtant pas à négliger. Même si
l’histoire a conservé les expériences de cet ingénieur
français, ce sont les japonais et les américains qui ont
le plus abouti dans la réalisation de centrales
expérimentales. En particulier, à Hawaï, le Natural
Energy Laboratory et des investisseurs privés montent
en 1979 une centrale OTEC. Celle-ci est en circuit
fermé et utilise l’ammoniac comme fluide interne
(Cycle thermodynamique de Rankin) [33] [34]. En
1980, un démonstrateur ETM japonais de 100 kW est
installé sur l'île de Nauru. D’autres expériences sont
conduites et il faut noter que, même si les équipements
testés se sont comportés de manière satisfaisante, les
centrales sont démantelées à la fin des essais. La
France a participé pendant un temps aux essais de ce
type de centrale mais s’est arrêtée avant les
expérimentations. La centrale de 3 MW d’Abidjan
(Côte d’ivoire) ne fut jamais terminée. Le Japon, l’Inde
et les USA continuent aujourd’hui à étudier ces
dispositifs. L’Inde, en coopération avec le Japon, met
en service en 2001 une barge ETM de 1 MW (Fig. 14).
Des installations terrestres existent au Japon. Les
instances locales en ont financé une dizaine.
Les centrales ETM ne peuvent être construites que
dans des zones géographiques précises. Pour des
installations côtières, il faut pomper l’eau située
à plus de 1000 m sous la surface ; le plateau continental
doit donc être de faible étendue. Pour obtenir un bon
différentiel de température, les zones équatoriales sont
préférables. Finalement, en 1997, une étude américaine
arrive à la conclusion que les côtes Européennes ne
sont pas favorables. Nos côtes sont ainsi écartées de la
liste des zones possibles, au profit des USA, de l’Inde
et de l’Afrique [35]. Dans cette étude, l’aspect
économique n’était pas oublié. La rentabilité du
procédé ne devenait intéressante que si le prix du baril
de pétrole dépassait 25$... Enfin, il ne faut pas perdre
de vue, comme le soulignaient les deux organisateurs
du Groupe de travail sur les centrales ETM en 2007,
que cette énergie est disponible 24 heures par jour et
365 jours par an [36].
5. La fin des grandes unités de production ?
Les énergies renouvelables sont dans l’incapacité
de rivaliser avec les plus puissants turboalternateurs
associés aux centrales nucléaires. La production à la
demande sera de plus en plus difficile à assurer si ces
nouvelles sources ne sont pas fiables. En France, la
consommation d’énergie électrique augmente
régulièrement. En 2008, elle a augmenté de 1,2%. La
baisse du secteur industriel est compensée par
l’augmentation du secteur domestique. Il est donc clair
que la tendance à la baisse, pour l’énergie électrique,
n’est pas encore amorcée.
Les recherches réalisées ont montré que la solution,
qui consistait à assurer la production d’énergie
électrique au moyen des énergies renouvelables, ne
devait pas se focaliser sur ce seul et unique vecteur
d’énergie. Par exemple (Fig 15), les ambitieux projets
ETM (OTEC) montrèrent vite leurs limites car ils ne
concernent que des zones géographiquement limitées et
Figure-14 : Vue d’artiste d’une unité flottante de production ETM. La
colonne centrale permet de pomper l’eau froide des profondeurs.
Figure-16 : La ferme d’éolienne n’est plus un regroupement de générateurs indépendants, mais devient un système complexe qui, malgré les efforts, reste lié
aux aléas météorologiques. (Source : General Electric Energy)
trop éloignées des centres de consommation. Ce qui
explique que, seuls les pays convenablement situés,
poursuivent ces expérimentations, la production
d’énergie électrique n’est plus obligatoirement la
priorité ; le dessalement de l’eau de mer, la production
d’hydrogène… font maintenant partie intégrante des
productions possibles associées à l’ETM [37].
Finalement, il faut voir cette filière comme étant
similaire à la filière géothermique. Même si la
référence au volume de l’eau des mers peut plaider en
faveur de ce procédé, l’énergie disponible par m3 d’eau
de mer est faible.
L’éolien met en avant les principaux défauts des
énergies renouvelables. Sans vent, point de production,
et même en présence de vent ; inutile d’espérer adapter
la production à la demande… L’introduction de ces
sources sur le réseau de distribution ne peut se faire
sans adaptation. Les efforts entrepris pour rendre plus
stable la production n’ont réussi, jusqu’à présent, qu’à
diminuer les fluctuations à très courts termes. Les
premiers générateurs installés dans les années 70 ne
possèdent pas ces derniers perfectionnements et cela
peut expliquer le renouvellement annoncé du parc
continental (Fig. 12). De plus, un parc éolien doit se
comporter le plus possible comme une centrale
conventionnelle : ne pas introduire de perturbation sur
le réseau durant sa production. Cet objectif
s’accompagne d’une augmentation de la complexité du
système et finalement d’une augmentation des coûts
d’installation (Fig. 16). L’éolien perd en compétitivité
face à d’autres sources [38].
Le photovoltaïque (PV) est particulier dans le sens
où il est incapable de générer des économies
d’échelles. Le panneau solaire est au même prix de
production, qu’il soit installé chez un particulier ou
dans une centrale PV en Espagne. Par contre, il n’en va
pas de même pour le raccordement au réseau. Les
futures grandes centrales PV vont comporter des
onduleurs leur donnant l’accès au réseau européen.
Ceux-ci seront de très forte puissance ; il faut se poser
la question des perturbations qui vont apparaitre sur le
réseau, en particulier au niveau des harmoniques qu’ils
génèreront.
Le raccordement au réseau n’est donc pas une
opération aisée. Comme la majorité des équipements
de production furent pendant longtemps des
alternateurs délivrant une forme d’onde sinusoïdale, les
équipements associés ont été conçus par rapport à cette
forme d’onde. La relative simplicité, pour obtenir des
tensions élevées au moyen des transformateurs, fait que
l’épine dorsale du système de distribution est
constituée de lignes à haute tension de 400 kV pour le
réseau européen. Il est clair que ces niveaux sont hors
de portée des composants usuels d’électronique de
puissance. Finalement, l’infrastructure existante
conduit à privilégier, pour la production de masse, des
techniques éprouvées. L’alternateur et le turbo-
alternateur restent des équipements incontournables.
L’utilisation du courant alternatif, de fréquence 50 Hz
(ou 60 Hz), ne peut pas être remise en cause dans
l’immédiat.
Des solutions intéressantes sont proposées pour des
gammes de puissances faibles à moyennes. Elles
étaient déjà présentées durant les années 80 par les
USA. Un concentrateur optique fournit la chaleur
nécessaire au fonctionnement d’un moteur thermique
basé sur le cycle de Rankine ; en ajoutant un générateur
électrique, il peut produire de l’énergie électrique. Ces
équipements sont toujours d’actualité et ont évolué en
s’orientant vers le cycle de Sterling (Fig. 17) [39]. Des
solutions, permettant de produire un courant alternatif à
une fréquence égale à celle du réseau, pour des vitesses
d’entrainement variables existent. Les brevets en cours
montrent bien les efforts d’adaptation de la
technologie. Les projets de centrales de plusieurs
centaines de MW, basés sur ce concept, verront sans
doute le jour…
Les sources d’énergie renouvelable qui ne peuvent
produire rapidement de l’énergie électrique ne sont pas
à négliger. L’énergie électrique se stocke difficilement.
La nature montre régulièrement que le procédé de
stockage chimique est le plus intéressant. La
photosynthèse en est un exemple marquant. Depuis les
années 90, les travaux sur les fours solaires se sont
étendus à d’autres productions que la production
d’énergie électrique. L’institut Weizmann (Israël) a
utilisé dans les années 90 sa tour solaire pour
expérimenter ce procédé [40]. En chauffant du méthane
et du dioxyde de carbone, on produit de l’hydrogène et
du monoxyde de carbone. Ces deux derniers composés
peuvent se reformer sous la forme des deux composés
initiaux en dégageant de la chaleur. L’avantage d’un tel
procédé est de fonctionner en circuit fermé. Il ne
consomme et ne rejette rien. Toutefois, il serait assez
difficile de considérer un tel procédé comme l’avenir
de la production de combustible pour les véhicules.
Quel utilisateur aujourd’hui recueille les produits de la
combustion du gas-oil ou de l’essence dans un
réservoir hermétique pour le retourner à la station
service ? Ce problème de récupération des produits de
combustion se pose d’ailleurs pour le charbon,
première réserve d’énergie fossile. Les Etats Unis ont
testé des centrales au charbon « propres », désignées
« Clean Coal Power Plants ». Il reste difficile de
garantir un fonctionnement exempté de pollution et
d’un coût modéré (Tab. 4).
Si l’objectif est de diminuer les émissions de CO2
ou d’autres produits de combustion [41], il est toujours
possible de diminuer les pertes. Cela revient, avec une
telle approche, à favoriser la production locale. Les
technologies ne sont pas remises en cause et on peut
garder les procédés existants. Si le rendement est moins
favorable, les pertes associées aux transports de
l’énergie disparaissent et globalement la pollution est
moindre. La majorité des procédés abordés montrent
que les techniques basées sur les énergies
renouvelables sont loin d’être capables de se substituer
aux centrales électriques actuelles. Dans tous les cas,
les ingénieurs ou scientifiques, qui ont travaillé sur ces
nouveaux procédés, ont finalement mis en avant les
performances sous une forme plus globale. Passer de la
cellule unitaire à une cellule associée à un
concentrateur optique a conduit celle-ci à fonctionner à
haute température. Pour contrer les effets néfastes de
cette température sur la cellule, celle-ci doit être
refroidie. En devenant une source de chaleur, cet
ensemble peut produire une énergie thermique
utilisable pour le chauffage d’un bâtiment ou d’une
habitation. Les fours solaires sont capables de rivaliser
avec les centrales au charbon de puissance moyenne
(100 MW). Ils sont hélas situés dans des zones où
résident peu de consommateurs ou d’industries. Il est
possible de les convertir en systèmes de production de
vecteurs d’énergie chimique. Comme cela avait été
abordé en introduction, car le stockage de l’énergie
sous forme électrique n’est pas performant.
Source Côut du Kwh ( en $)
éolien 0.03 à 0.06
Solaire à concentration 0.11
Photovoltaïque 0.14 à 0.25
IGCC (+ capture du CO2) 0.09 à 0.11 (+ 0.05)
Tab 4 : Coût du kWh en fonction de la technologie employée. ( Clean
Coal Power Plant = IGCC) Source : EnergyJustice.net
Figure-17 : Un moteur Stirling est associé à un réflecteur solaire. Dans
cette configuration, l’énergie mécanique ainsi produite peut être utilisée
pour entrainer un générateur électrique. L’équipement ainsi présenté est
capable d’envoyer une puissance de 25 kW électrique sur le réseau.
(Source : Sandia National Laboratories – 2005).
C’est aussi dans ce sens que l’ETM est maintenant
abordée. Faudra-t-il considérer les pays équatoriaux
comme de futurs fournisseurs d’énergie et ainsi
remplacer les anciens pétroliers par des transports de
gaz de synthèse ; ils pourront être brulés dans les
moteurs peu polluants qui équiperont nos futurs
véhicules ?
Finalement, en revenant sur cette dernière image,
les ports de départs de ces navires n’auront plus les
mêmes noms mais les destinations resteront les mêmes.
Il faudra repenser la relation qui existe entre
l’énergie et l’économie dans les pays occidentaux [42].
Il est maintenant évident que, les centrales basées sur
les énergies renouvelables n’atteindront, jamais les
puissances des tranches nucléaires des centrales en
acticités. Par exemple une seule tranche de la centrale
de Gravelines (NORD) fait 910 MWe et il y a quatre
tranches. Toutefois, l’énergie renouvelable, du fait de
sa dilution, est disponible en tout point de la planète.
Les expéditions polaires rechargent toujours leurs
batteries au moyen de panneaux solaires ; il est tout à
fait possible de survivre en milieux hostiles, avec du
vent et de la lumière (Fig. 18). Donc en tout point de la
planète, il est possible d’avoir une source d’énergie
renouvelable. Jusqu'à présent, comme pour les puits de
pétrole, les sources les plus exploitées sont celles qui
offrent le meilleur rendement. La centrale
photovoltaïque de Serpa, au Portugal, qui est dans une
des zones les plus ensoleillées de l’Europe ne fait que
11 MW. La centrale thermo-solaire PS-10, près de
Séville en Espagne, ne fait, elle aussi que 11 MW [43].
Pour mieux comprendre ce point de vue, il suffit d’aller
sur le site de la commission européenne,
http://re.jrc.ec.europa.eu , et de calculer en ligne les
capacités associées au lieu où vous résidez (Fig 19). La
coexistence entre des petites unités et les grandes
centrales nationales, fait qu’actuellement, la production
à l’aide d’énergie renouvelable est plutôt vue comme
une charge négative par les gestionnaires de réseau. Il
faudra sans doute repenser les modes de décisions. Il
ne faut pas en déduire que, le déséquilibre entre la
consommation et la production est accepté, car c’est
impossible, mais il faut revoir la forme dite « Fit and
Forget », c'est-à-dire qu’il ne sera plus possible de
considérer que, le raccordement d’un générateur
utilisant l’énergie renouvelable, est la seule opération à
réaliser. Il faudra tenir compte de ses fluctuations de
production durant son fonctionnement et surtout
accepter que les unités de production utilisant les
énergies renouvelables ne peuvent pas satisfaire
l’impératif : Production = Consommation [44]. Le
stockage ou des moyens de réduire la consommation,
sans pour autant arriver au délestage de zones, devront
être envisagés. Par exemple, l’éclairage public rentre
pour une grande part dans la consommation
d’électricité ; il est possible de réduire le nombre de
luminaires en service, sans pour autant plonger la ville
dans le noir complet. De nouveaux moyens de contrôle
vont devoir être développés ; ils feront appel à
l’électronique de puissance et à l’informatique, mais
leur objectif sera avant tout, de maîtriser les flux
locaux d’énergie électrique.
L’accumulation sera un enjeu majeur pour toutes
les formes d’énergie renouvelable et cette accumulation
n’est pas limitée au stockage hydraulique [45]. Dans le
cas de l’énergie électrique, aucune solution n’arrive
aux densités rencontrées dans les hydrocarbures. Le
Figure-18 : Station polaire « Princesse Elisabeth » en Antarctique : La
Fondation Polaire Internationale, Laborelec et Schneider Electric ont doté ce
centre scientifique de près de 300 m² de panneaux solaires et de 9 éoliennes
de 9 KW. L’énergie produite est stockée à l’intérieur de la station et ce sont
des batteries conventionnelles qui sont utilisées. Source : Wikipedia : Station
« Princesse-Elisabeth ». [47] [48]
Figure-19 : Un panneau solaire de 1 KWp installé dans le nord, peut fournir de
l’énergie électrique, mais cette production est non contrôlable et bien sûr ne
suit pas les besoins en énergie de l’utilisateur. En particulier, les besoins plus
importants en hiver ne seront pas couverts.
stockage, sous forme de réaction chimique réversible,
est utilisé depuis bien des années par la nature sans
pour autant être mis systématiquement en œuvre dans
les réalisations humaines. Les équipements mobiles,
comme les véhicules de type « transport en commun »,
peuvent rouler aujourd’hui avec des combustibles
gazeux issus de la biomasse. La remise en service des
anciens sites comme Themis et Odeillo ainsi que leur
changement d’activité, montre que la production
d’énergie électrique n’est plus le seul objectif. Par
exemple, le site d’Odeillo participe actuellement aux
activités de synthèse de l’hydrogène au moyen du
rayonnement solaire.
6. Conclusion
Comme le soulignait un ingénieur de la NASA
durant les pires instants du déroulement de la 13ème
mission Apollo, sans énergie, rien n’est possible… Les
Etats-Unis ont, depuis les années 80, expérimenté les
différentes techniques présentées dans cet article.
L’énergie sera indispensable à la création et au
développement des systèmes de production alternatifs.
L’énergie d’origine nucléaire, mise en avant depuis
plusieurs années, ne sera qu’un palliatif qui, dans le
meilleur des cas, laissera un peu de temps aux
ingénieurs et aux scientifiques pour mettre en place des
solutions globales. Il faut garder à l’esprit que sur les
450 réacteurs en activités en 2003, la totalité d’entre
eux sont des réacteurs à neutrons thermiques qui
n’utilisent que 1% de l’énergie potentiellement
disponible. Les 50 à 100 années annoncées de réserve
pour cette source d’énergie n’en font pas une source
d’énergie inépuisable. Les Etats unis, qui ont connu les
premiers la baisse de la production pétrolière, furent les
premiers à explorer d’autres moyens pour assurer la
production d’énergie. L’existence de ressources
pétrolières extérieures aux USA, a conduit ceux-ci à
réduire les investissements. La plupart des travaux des
années 80 furent mis en sommeil par manque de
compétitivité face aux sources non renouvelables. Cette
fois, le problème ne peut plus se traiter de la même
façon, il faut palier à la décroissance des énergies
fossiles car il est inutile d’espérer s’approvisionner sur
d’autres planètes.
7. Bibliographie
[1] Kirby J. B., “Frequency Regulation Basics and
Trends”, 2004, US Department Of Energy / Oak Ridge
National Laboratory.
[2] Kirby B.J., Dyer J., Martinez C., Shoureshi R. A.,
Guttromson R. et Dagle J., “Frequency Control
Concerns in the North American electric power
system”, 2002 , US Department Of Energy / Oak
Ridge National Laboratory.
[3] Dale S.J., Stovall J.P. et Klein K.W., “Maintaining
Electric power system performance: preparing for the
year 2020”, 1991, US Department Of Energy / Oak
Ridge National Laboratory / Martin Marietta Energy.
[4] Stoffel J. B., Pentecost E. D., Roman R. D. et Traczyk
P. A., “Electric Power High-Voltage Transmission
Lines: Design Options, Cost and Electric and Magnetic
Field levels”, 1994, US Department Of Energy /
Argonne National Laboratory.
[5] Wald M. L., “US wind power strangled by antiquated
power grid”, 2008, International Herald Tribune.
[6] La panne du réseau électrique italien le 28 septembre
2003.
http://www.industrie.gouv.fr/energie/electric/panne-
italie2003.htm
[7] Merlin A. « La panne électrique du 4 novembre 2006 :
un plaidoyer pour une véritable politique européenne de
l’énergie ». 2006, Fondation Robert Schuman,
http://www.robert-schuman.eu.
[8] Réseau Electrique 2008 - Wikipedia.
[9] Agence Reuters, “Loss of wind causes Texas grid
emergency”, 2008.
[10] Julien J. L., « Transport et distribution de l’énergie
électrique », 2006, Cours donné à l’institut de
l’Electricité Montefiore – Université de Liège.
[11] Amin M. et Adapa R., “Intelligent Management of the
power grid: An Anticipatory, Multi Agent, High
Performance Computing Approach”, 2001, Electric
Power Research Institute / US Department Of Energy.
[12] Taft J.,”The intelligent Power Grid”, 2006, IBM
Application Innovation Services.
[13] Lerner E, “What’s wrong with the electric grid?”, 2003,
American Institute of Physics / The industrial physicist.
[14] “Analogie du tandem pour la compréhension des
systèmes électriques”, Stefan Fassbinder –
Kupferinstitut. http://fr.leonardo-energy.org.
[15] Erwann M.K., « Risque à grande échelle dans les
systèmes en réseau : quelques interrogations »; 2000,
publication CIRANO.
[16] Power Grid and Electricity Delivery. 2005 – New York
State – Energy Research and development Authority.
[17] “Photovoltaic Systems Technology”, 1980, Sandia
National Laboratories.
[18] Ambassade de France en Allemagne, Dossier
d’information du service pour la science et la
technologie de l’ambassade de France en Allemagne-
Octobre 2008 - Les technologies solaires de production
d’électricité.
[19] Destruel P., Numzi J.M. et Valade L., « Le
photovoltaïque Organique au Japon », 2007,
Ambassade de France au japon – Service pour la
science et la Technologie.
[20] “The solar Thermal Report”, 1982, Jet Propulsion
Laboratory.
[21] Noguchi N., « Habitations Solaires Photovoltaïques –
Stratégie Japonaise de commercialisation axée sur
l’efficience », 2005, Conférence ISES – Solar World
Congress.
[22] Solar Energy at Sandia National Laboratories 1981 –
US Departement of Energy / Sandia National
Laboratory.
[23] Roturier J. et Mills E. “Les économies d’énergie”,
1991, “La recherché”.
[24] « ACCIONA - Nevada Solar One video», 2008
http://fr.youtube.com
[25] Hansen L.H., Helle L., Blaabjerg F., Ritchie E., Munk-
Nielsen S., Binder H., Sorensen P. et Bak-Jense B.,
“Conceptual survey of generator and power electronics
for wind turbines”, December 2001 – Riso National
Laboratory, Roskilde, Denmark.
[26] Moretti P. et Divone L., « Les éoliennes modernes »,
Revue « Pour La Science », N° 106, Aout 1986, pp 38-
46.
[27] McGowin C. et Steeley W., “Wind Power Integration:
Smoothing Short-Term Power Fluctuations”, 2005,
Final Report of Electric Power Research Institute.
[28] “Planning of the grid integration of wind energy in
Germany onshore and offshore up to the year 2020”,
2005, Consortium DEWI / E.ON / EWI / RWE / VE
transmission.
[29] http://www.abb.com/hvdc, Technologie en courant
continu et haute tension pour le transport de l’énergie
électrique.
[30] Vidéos « Hydroliennes »
http://www.marineturbines.com/21/technology/32/seag
en_video/
[31] Gautier M., « L’énergie thermique des mers, une
énergie renouvelable oubliée mais pleine d’avenir »,
2006, « La revue Maritime ».
[32] Penney T. et Bharathan D., « L’énergie thermique des
océans », Pour La Science, N°113, Mars 1987, pp 66-
74.
[33] « Ocean Energy Launch (Part-1) et (Part-2)», 1980
http://fr.youtube.com
[34] « Ocean Thermal Energy Conversion System», 2007
http://fr.youtube.com
[35] « Ocean thermal energy », rapport de synthèse de
l’université Johns Hopkins, department de physique
appliqué, décembre 1981.
[36] Panchal C.B. and Kumm B., « WorkShop on ocean
thermal energy conversion (OTEC) planships », 11
september 2007, Washington DC.
[37] Panchal C.B. and Bell J.K.; “Simultaneous production
of desalinated water and power using a hybrid-cycle
OTEC plant”, Journal of solar energy engineering
ISSN 0199-6231, 1987, vol. 109, no2, pp. 156-160.
[38] General Electric Energy, 1.5 to 3,6 MW wind turbine,
http://www.gepower.com.
[39] « Sterling Dish 500MW solar power plant», 2007
http://fr.youtube.com
[40] http://www.weizmann.ac.il/
[41] Socolow R., « Peut-on enterrer le réchauffement
climatique ? », Pour La Science, N°335, Septembre
2005, pp 76-81.
[42] Brown L.R., « Repenser notre avenir économique »,
Mai 2006, N°255, L’Observateur de l’OCDE.
[43] « PS 10 Solar thermal power station», 2008
http://fr.youtube.com
[44] Fall N., Giles L., Marchionini B. et Skolnik E.G.,
“Remote Area Power Supply RAPS Load and resource
profiles”, 2007, A study for the Sandia National
Laboratories / US Department Of Energy, Energy
Storage Program.
[45] Eyer J., Lannucci J. et Butler P., “Estimating Electricity
Storage Power Rating and discharge duration for utility
transmission and distribution deferral”, 2005, A study
for the Departement Of Energy - Energy Storage
Program.
[46] “Solar Thermal Repowering”, 1980, US Department of
Energy / Sandia National Laboratories.
[47] http://www.antarcticstation.org.
[48] http://www.schneider-
electric.fr/documents/sustainable-development-and-
foundation/fr/dp_20081016_polarstation_fr.pdf