Gute Aussicht – schlechte Aussicht

Am Ende läuft alles wieder darauf hinaus, dass Energie sparen – allen neuzeitlichen Umbenennungen zum Trotz – doch immer noch unsere beste »Energiequelle« ist, wie es die Bundesregierung noch immer formuliert, denn:

  • Früher haben wir versucht, den Verbrauch fossiler Brennstoffe zu reduzieren; heute versuchen wir, die dabei entstehenden CO2-Emissionen zu reduzieren.
  • Früher haben wir unsere Rechnungen in D-Mark bezahlt; heute bezahlen wir sie in Euro.
  • Oder, wie eine Werbekampagne einst verlauten ließ: »Raider heißt jetzt Twix; sonst ändert sich nix.«

Diese drei Aussagen haben verblüffend viel gemeinsam, denn die gleiche Menge Braunkohle lässt sich nicht mit weniger CO2-Emissionen verbrennen; das wäre ein Ding der chemischen Unmöglichkeit. Versuchen wir also lieber weiterhin, den Verbrauch einzuschränken!

Dazu gibt es einige Optionen, die ebenfalls im Zusammenhang mit der Energiewende diskutiert werden, jedoch zum einen Teil durch die Diskussionen über Speichertechnologien und alternative Erzeugung etwas aus dem Zentrum des Interesses zu rutschen drohen oder aber zum anderen Teil überbewertet werden. Oftmals werden alte Ladenhüter aufgepeppt und neu etikettiert – und dabei werden manchmal ihre wahren Potenziale übersehen. Daher sollen nachfolgend die zur Zeit diskutierten Lösungen zur erneuerbaren Erzeugung, Speicherung, Übertragung und zum rationelleren Einsatz elektrischer Energie einzeln einer nüchternen, sachlichen Betrachtung unterzogen werden.

Wärmepumpen

Noch einmal in Kürze die der Wärmepumpe zu Grunde liegenden Fakten:

  • Das Prinzip ist: Kaltes noch kälter machen, um damit Warmes noch wärmer zu machen. Wärme soll »bergauf« fließen, und deshalb benötigt die Wärmepumpe einen Antrieb. Normalerweise fließt Wärme nur »bergab«, vom Wärmeren zum Kälteren: Das Warme kühlt sich ab und wärmt so das Kalte an. Dieser Spieß wird umgedreht. Dabei helfen
  • Fakt 1: Gase / Dämpfe erwärmen sich beim Komprimieren;
  • Fakt 2: Der Siedepunkt von Flüssigkeiten (verflüssigten Gasen) steigt mit dem Druck;
  • Fakt 3: Das Verdampfen von Flüssigkeiten erfordert relativ viel Energie (Wärme). Diese Wärme wird beim Kondensieren (Verflüssigen) wieder freigesetzt (Kondensationswärme).
  • Vorgehensweise – erster Akt: Ein Gas wird komprimiert, erwärmt sich und wird der warmen Umgebung ausgesetzt. Dort kühlt es sich ab bis unterhalb jenes Siedepunkts, der dem hohen Druck entspricht. Dieser Siedepunkt liegt wegen des hohen Drucks noch immer über der warmen Umgebungstemperatur, weswegen das Gas kondensiert, obwohl es immer noch wärmer ist als die warme Umgebung. Kondensationswärme wird frei.
  • Vorgehensweise – zweiter Akt: Das Kondensat (»Flüssiggas«) wird wieder in die kalte Umgebung geleitet, der Druck wird abgelassen. Der Siedepunkt sackt dadurch bis unter die kalte Umgebungstemperatur, die Flüssigkeit fängt an zu sieden, nimmt dabei viel Wärme auf und kühlt sich dadurch bis unter die kalte Umgebungstemperatur ab. Sie siedet wegen des niedrigen Drucks und entsprechend niedrigen Siedepunkts trotz der tiefen Temperatur weiter. Das Gas / der Dampf strömt zurück zum ersten Akt.

Die Wärmepumpe nutzt also die Verflüssigung von Gasen zur Wärmeübertragung, aber das Prinzip wird, nebenbei bemerkt, auch umgekehrt genutzt: Wärme wird vom niedrigeren zum höheren Pegel transportiert, um Gase zu verflüssigen (Bild 6.1). Auch muss nicht immer die warme Seite des Prozesses das Ziel sein, sondern es kann sich auch um die kalte Seite handeln (Kühlschrank, Klimaanlage). Im Idealfall lässt sich beides kombinieren und sozusagen der »Abfall des Abfalls« auch noch nutzen.

Bild 6.1: Das sieht manchmal grotesk aus: Eis im Sommer außen an technischen Anlagen z. B. hier an einer Stickstoff-Verflüssigungsanlage in einer Kupferhütte in Belgien
Bild 6.1: Das sieht manchmal grotesk aus: Eis im Sommer außen an technischen Anlagen z. B. hier an einer Stickstoff-Verflüssigungsanlage in einer Kupferhütte in Belgien

Doch auch ohne dies handelt es sich um eine geniale Methode, so alt sie auch sein mag. Die Wärmepumpe ist die einzige Maschine, der man mit Fug und Recht einen Wirkungsgrad über 100% nachsagen kann; ja, sogar ein Mehrfaches davon! Seltsamerweise wird dieses Alleinstellungsmerkmal verschleiert statt »kommuniziert«, indem der Wirkungsgrad sich hier »Leistungszahl« ε (zu Deutsch »COP«, coefficient of performance) nennt.

Aber ganz so seltsam ist dies dann doch wieder nicht. Es liegt daran, dass man als den Wirkungsgrad ηWP die auch als Gütegrad einer Wärmepumpe bezeichnete Größe definiert hat. Hierbei handelt es sich um das Verhältnis des tatsächlichen zum theoretisch maximal möglichen Wirkungsgrad – welcher dem Kehrwert des Carnot-Wirkungsgrads der Wärmekraftmaschine – entspricht. Nichtsdestoweniger lassen sich mittels 1 kWh elektrischer Energie 3 kWh Wärme draußen einsammeln und so insgesamt 4 kWh Wärme ins Zimmer bringen (ε = 4). Damit ist gegenüber der Verbrennung des Brennstoffs direkt im Haus sehr wenig gewonnen, solange bei der Erzeugung des Stroms aus Wärme 2/3 der Wärme weggeworfen werden muss und nur 1/3 wirklich in Strom umgewandelt werden kann. Je besser aber der Wirkungsgrad beim Erzeuger und der COP beim Verbraucher wird, und je mehr nicht thermisch gewonnene, sondern draußen in der Natur vorgefundene Energie im Strommix steckt, desto besser sieht die Bilanz für die Wärmepumpe aus. Hier steckt großes Potenzial, insbesondere wenn man bedenkt:

  • Der Anteil erneuerbarer Energie im Strom ist traumhaft hoch, wenn man dies z. B. mit dem Wärmemarkt vergleicht, und er wird noch weiter steigen. Die Wärme tut sich hier schwer.
  • Der Energieverbrauch im Haushalt geht – kaum wahrgenommen – noch immer zum weit überwiegenden Teil in die Raumheizung. »Der Wärmebedarf hat einen Anteil von etwa 58 % am gesamten Energiebedarf. Am Endenergiebedarf der privaten Haushalte hat der Bedarf für Raumwärme und Warmwasser sogar einen Anteil von 85%« (Tabelle 6.1).
  • Gerade hier wird noch immer in ganz großem Stil »Sekt auf Blumenbeete gegossen«, da relativ wertvolle Energieformen wie Erdgas und Mineralöl für einen Zweck eingesetzt werden, für den es »Wärmemüll« ebenso gut täte.

Diesem Unfug setzt die Wärmepumpe ein Ende, sammelt den Müll draußen auf und hebt ihn – dank des alternativlosen Einsatzes elektrischer Energie in elektrischen Betriebsmitteln – mit einem Bruchteil des Aufwands auf einen im Haus nutzbaren Pegel. Umgekehrt wird mit Umweltwärme oder Kraftwerks-Abwärme niemals ein Auto oder ein Zug fahren, geschweige denn ein Flugzeug fliegen.

Warum tut sich die Wärmepumpe dann Jahrzehnte nach ihrer Markt-Einführung noch immer so schwer? Nun, sie ist im Vergleich zu einem Gasbrenner ein verhältnismäßig aufwändiges Betriebsmittel, und hier kommt wieder das Skalierungsgesetz zum Tragen: Je größer eine solche Anlage ist, desto eher rechnet sie sich – desto größer wird aber auch das Gebiet, in dem die Wärmepumpe Wärme von draußen aufsammeln muss. Dies wiederum hemmt das Wachstum hin zu größeren Anlagen, wie (fast) immer bei regenerativen Energien (nur Wasserkraftwerke sind zum Teil größer als alle fossilen und nuklearen Anlagen). Bei großen Gebäuden wird dann wieder eher die KWK günstig, weil dabei nichts »eingesammelt« werden muss. Hier gilt es, vernünftige Kompromisse zu finden, also etwa mit zentralen Wärmepumpen-Anlagen in größeren Mehrfamilienhäusern anzufangen.

Tabelle 6.1: Ein Drittel der in einem Privat-Haushalt verbrauchten Primär-Energie geht noch immer in den Sektor, von dem man praktisch nichts merkt, außer dass »die Bude warm ist«
Tabelle 6.1: Ein Drittel der in einem Privat-Haushalt verbrauchten Primär-Energie geht noch immer in den Sektor, von dem man praktisch nichts merkt, außer dass »die Bude warm ist«

Nach oben

Kraft-Wärme-Kopplung (»KWK«)

Andererseits: Wer sagt denn, dass bei der thermischen Stromerzeugung 2/3 der Wärme weggeworfen werden muss? Fernwärmenetze sind in dicht bebauten Gebieten eine altbekannte Möglichkeit, den »Wärmemüll« der Kraftwerke nutzbar zu machen, statt ihn durch Kühltürme oder Gewässer zu entsorgen. Wegen des Prinzips von Carnot ist Wärmeenergie umso mehr wert, je höher das Temperaturgefälle. Desto mehr nämlich lässt sich davon in mechanische Energie umwandeln. Die Niedertemperatur-Abwärme ist daher gerade noch gut genug für die Raumheizung; für sonst aber auch nichts. Genau hier liegt allerdings auch ein Haken an der Abwärmenutzung: Sie senkt den Wirkungsgrad in der konventionellen Stromerzeugung. Die Wirkungsgrade sind »ausgeknautscht« bis zum Letzten; die Restwärme wird weitest möglich genutzt. Soll diese noch zum Heizen taugen, muss die Temperatur etwas höher gesetzt werden, denn mit Fernwärme von 40°C fängt niemand etwas an – es sei denn Betreiber von Wärmepumpen! Die würden sich das Temperaturniveau einfach wieder etwas »höher pumpen«, was bei dieser Ausgangstemperatur – dank Carnot – mit einem traumhaft hohen COP möglich wäre. Ein Flächen deckend so ausgelegtes Fernwärmenetz hätte auch viel geringere Netzverluste, selbst wenn gleichzeitig der Aufwand zur Isolierung der Rohre reduziert würde.

Da ein Rohrleitungsnetz aber immer sehr aufwändig zu errichten und zu unterhalten ist, hat es Vorteile, die KWK dezentral – verbrauchernah – stattfinden zu lassen. Zunehmend wird davon Gebrauch gemacht, Strom mittels Dieselmotor aus Heizöl oder mittels Ottomotor aus Erdgas zu gewinnen. Ein guter Dieselmotor erreicht einen Wirkungsgrad von etwas über 40%. Hier besteht nicht die genannte Begrenzung auf 723°C; das Brenngas wird im Brennraum in dem kurzen Moment der Verbrennung deutlich heißer als die Zylinderwandungen. Leider ist im Gegenzug das Abgas noch sehr heiß. Beides aber, das Kühlwasser und vor allem das Abgas, bieten daher gute Voraussetzungen zur Deckung des Heizwärme-Bedarfs. Auch Biogas kommt hierfür als Treibstoff in Betracht, doch dieses entsteht naturgemäß fast ausschließlich in ländlichen Gegenden, wo nur sehr begrenzte Potenziale zur Nutzung der Abwärme bestehen, geschweige denn, dass dort jemand ein Fernwärmenetz errichten würde.

Wenn dagegen ein halbwegs modernes Reihen-Eckhaus mit guter Wärme-Isolierung im Jahr ungefähr 8000 kWh an Erdgas für Heizung und Warmwasser sowie 3000 kWh an Strom verbraucht (Tabelle 6.1), dann sieht das auf den ersten Blick schon wie das optimale Potenzial aus: In Form eines kleinen Blockheizkraftwerks treibt ein Gasmotor einen Generator an und erzeugt mit einem Wirkungsgrad von etwa 30% Strom. Idealerweise werden die anderen 70% der entstehenden Wärme, die nicht in elektrische Energie umgewandelt werden können, zum Heizen verwendet. Tendenziell wird im Winter nicht nur erheblich mehr Wärme, sondern auch etwas mehr Strom verbraucht (Bild 2.1).

Bild 6.2: Strom- und Wärmebedarf des Beispiel-Haushalts aus Tabelle 6.1 nach den Norm-Lastprofilen H0 bzw. HZ0
Bild 6.2: Strom- und Wärmebedarf des Beispiel-Haushalts aus Tabelle 6.1 nach den Norm-Lastprofilen H0 bzw. HZ0

Nach oben

Leider jedoch divergieren die Bedarfe trotzdem beträchtlich, wenn man genau hinsieht. Hierzu wurde das Haushalts-Normprofil H0 mit dem Normprofil für Nachtspeicherheizungen verglichen, das logischerweise streng mit dem Standard-Wärmebedarf für die Raumheizung korrelieren muss – beide hier als Tages-Mittelwerte dargestellt (Bild 6.2). Dies erklärt die bislang immer noch dürftige Verbreitung dieser auf den ersten Blick so genial wirkenden Technik, denn die zentrale Frage im Zusammenhang mit der Energiewende ist wieder die nach der Betriebsweise:

  • Wärme geführt, also immer zufällig gerade dann Strom erzeugend, wenn Wärme gebraucht wird? Dieser Strom ist auf dem Markt nicht viel wert.
  • Oder Strom geführt, also immer dann Strom erzeugend, wenn er gebraucht wird, und die Wärme nutzend, wenn gerade Bedarf besteht, ansonsten doch wieder wegwerfend?

Beides reduziert den Effekt zu einem Teilerfolg. Außerdem ist es in beiden Fällen unwirtschaftlich, die Anlage so auszulegen, dass die Wärmeleistung für den Spitzenbedarf am kältesten Tag des Jahres noch ausreicht. Es wird ein konventioneller Heizkessel daneben errichtet, und die beiden Anlagen arbeiten wechselweise oder parallel, wo eine einzige (etwas größere, aber deswegen nur wenig teurere) den Bedarf auch allein hätte decken können. Dies muss sich über den Verkauf des Stroms rechnen, sonst setzt sich die Methode nicht durch – und da hat es eben die kleinere Anlage schwerer (Skalierungsgesetz). Große Gebäude werden schon vielfach mit solchen Anlagen ausgestattet – je größer, desto eher.

Bei zentraler Struktur kommt jedoch wieder das Wärmenetz als Kostentreiber ins Spiel, wollte man Wärme in ein Fernwärmenetz einspeisen. Außerdem darf man sich nicht wundern, wenn der Gasverbrauch durch eine solche Anlage nicht etwa fällt, sondern im Gegenteil steigt, da das Gas zu 1/3 in Strom umgewandelt wird und »nur noch« zu 2/3 der Heizung zukommt.

Ebenso deutlich wird aber auch wieder, dass ein Potenzial, wenn irgendwo, dann im »Strommix« steckt: Legt man einen Verlauf wie etwa den aus Bild 3.10 über Bild 6.2, so lässt sich als optimale Kombination zweifelsfrei die Stromversorgung eines Haushalts im Sommer aus Fotovoltaik und im Winter aus KWK erkennen. Die Haken bei der Geschichte sind nur wieder:

  • Man benötigt zwei Anlagen parallel, die zudem jede über die volle Leistung verfügen müssen.
  • Als dritte Komponente wird zu der Fotovoltaik-Anlage ein Akkumulatorspeicher erforderlich, der schon für sich allein nur subventioniert existieren kann.

Dieses System käme zwar einer »bilanziellen Autarkie« recht nahe, wäre aber von einer wirklich autarken Betriebsweise noch weit entfernt. Es würde also weiterhin das Netz benötigen, ohne sich an dessen Kosten zu beteiligen. Über eine Preisdifferenz zwischen bezogener und eingespeister Energie ließe sich dieses nicht finanzieren. Durch eine entsprechende Differenz würde der – ohnehin schon subventionierte – Betrieb vollkommen unattraktiv.

Eine kritische, realistische Analyse streicht die Vorteile in vielen potenziellen Anwendungsfällen recht enttäuschend zusammen. Ein Wasserspeicher, so groß wie ein Zimmer, könnte genügend Wärmekapazität für einen Saisonalspeicher für ein Einfamilienhaus abgeben. Der Aufwand wäre aber schon beträchtlich – ein ganzes Zimmer!

Was sich logischerweise optimal ergänzt, ist die Nachbarschaft eines Gebäudes mit KWK zu einem Gebäude mit Wärmepumpe. Erfolgt der Einsatz des BHKW Wärme geführt, korreliert die »überschüssige« – also über den Bedarf im Haus hinaus gehende – Stromerzeugung mit dem Heizbedarf des (indirekt) elektrisch (aber eben sehr sparsam elektrisch) beheizten Wärmepumpen-Gebäudes (Bild 6.3): Noch nicht einmal hierfür würde ein »Smart Grid« erforderlich; die Steuerung beider Gebäude erfolgt schlicht und ergreifend über das gemeinsame Wetter.

Wundern darf man sich, dass die Heizung von Schwimmbädern nicht mit Spitzenlastkraftwerken kombiniert wird, denn hier ist ein Wasserspeicher bereits vorhanden, dem einmaliges Aufheizen am Tag völlig ausreichen würde. Womöglich wäre eine Biogasquelle mit einem hinreichend großen Gasspeicher in der Nähe? Anderenfalls jedoch ist der Haken an der Geschichte wieder, dass sich auch dieses Modell zwar für die herkömmliche, vorhersehbare Tageslastspitze eignen würde; zum Ausgleich der womöglich länger ausbleibenden Regenerativen jedoch wieder nicht bzw. nur teilweise. Das konventionelle System müsste daneben bestehen bleiben bzw. bei Neuanlagen zusätzlich errichtet werden – oder man wüsste nicht vorher, wann das Wasser warm ist. Die Begeisterung am örtlichen Schwimmbad ließe nach, das Defizit würde noch größer, und die Kommune müsste das Bad schließen – sicher nicht das schwerwiegendste Opfer, das wir einer mehr oder weniger vollständigen Energiewende bringen müssten, aber auch eines.

Bild 6.3: Optimal ergänzen sich ein Haus mit einer KWK-Anlage und ein Nachbarhaus mit Wärmepumpenheizung
Bild 6.3: Optimal ergänzen sich ein Haus mit einer KWK-Anlage und ein Nachbarhaus mit Wärmepumpenheizung

Nach oben

USV-Anlagen (unterbrechungsfreie Stromversorgungen) und Notstrom-Anlagen

»Auf Interesse stieß … besonders auch die Vision, mit USV-Geräten Primärregelleistung im Markt für Regelenergie bereitzustellen«, liest man in einem Bericht über eine Fachtagung. Techniker müssten auch Visionen haben, hört man bisweilen, doch kann man sich auch auf den Standpunkt stellen, diese gehörten ins Reich der Religionen. Wann soll diese Technik denn zum Einsatz kommen?

  • Entweder braucht man die USV, weil der Strom ausfallen könnte – aber dann darf der Akku niemals schon vorher leer sein! Darf er teilentleert sein, dann ist er überdimensioniert, und der Rest der Kapazität sollte besser an anderer (optimaler) Stelle speziell für die Bereitstellung von Regelleistung aufgestellt werden. Dies geschieht heute bisweilen schon, so wie die Preise für Akkumulatoren sinken und der Bedarf nach Regelleistung steigt, auch wenn Akkumulatoren noch immer teuer sind, aber sie eignen sich eben auch besonders gut hierfür.
  • Oder man geht davon aus, dass der Strom schon nicht ausfallen wird bzw. wenn, dass dies dann »nicht so schlimm sein wird«. Dann braucht man aber keine USV. Dies entspricht wieder einmal der genialen Empfehlung: »Kaufen Sie sich eine Kuh! Dann haben Sie immer Fleisch und Milch«.

Nein, eine viel banalere Idee drängt sich hier auf: Warum werden die vielen, vielen Notstrom-Aggregate, die in Krankenhäusern, Rechenzentren usw. herumstehen und (im Optimalfall) auch regelmäßig zur Probe angeworfen werden, nicht gezielt in der Spitzenlast eingesetzt? Nach einmaligem Start, also auch beim Probelauf, lässt man sie in der Regel ohnehin längere Zeit laufen, da der Verbrennungsmotor nicht »lauwarm« wieder stillgesetzt werden sollte. Diese Probeläufe sollten gezielt in die Zeiten der Spitzenlast gelegt werden. Installiert werden müsste eine entsprechende Vernetzung mit dem Netzbetreiber – eine relative Kleinigkeit. Aufwändiger ist schon die Fähigkeit zum Netzparallelbetrieb, die im Bestand meist nicht gegeben ist. Hexerei ist das aber auch nicht; zahlreiche Eigenerzeugungs-Anlagen zeigen es. Für oben genannte »Vision« käme dies ebenso zum Tragen, denn auch eine gewöhnliche USV-Anlage ist nicht für den Netzparallelbetrieb ausgelegt, da sie eben gerade dann und nur dann aktiv werden soll, wenn das Netz »weg« ist. Die »visionäre« dagegen benötigt dieses zusätzliche Leistungsmerkmal (zu Deutsch »Feature«) ohnehin.

Nach oben

Brennstoffzellen

»Langzeitspeicher mit Gas sind einfach zu realisieren«, urteilt eine Studie, doch der weltweit größte Gasspeicher (»Gasometer«, Bild 6.4) fasst 600 000 m³ Gas (praktisch bei Atmosphärendruck, also ohne nennenswerte Volumen-Einsparung), entsprechend einem Brennwert von 2160 MWh. Wollte man z. B. ein Kernkraftwerk von 1,3 GW durch 1000 Wasserstoff-Brennstoffzellen zu je 1,3 MW mit einem Wirkungsgrad von 60% ersetzen, wäre der Gasspeicher in genau einer Stunde leer. Und dabei ist ein Kernkraftwerk noch verhältnismäßig klein im Vergleich zu den wirklich großen (nachhaltigen, CO2-freien) Wasser-Kraftwerken.

Wesentlich weiter kommt man mit den schon erwähnten unterirdischen Kavernen. »Die an das deutsche Gasnetz angeschlossenen … Untertage-Erdgasspeicher … verfügten zum 31. Dezember 2016 über ein maximal nutzbares Arbeitsgasvolumen in Höhe von rund 26,9 Milliarden Norm-Kubikmeter«. Dies entspricht einem Brennwert von etwa 270 TWh. Hieraus könnten Gaskraftwerke mindestens vier Mal so viel Strom erzeugen wie zum saisonalen Ausgleich erforderlich wäre, basierte die Stromerzeugung ansonsten nur auf regenerativen Quellen!

Leider jedoch verfügen die Erdspeicher über kein flexibles Volumen und erfordern daher die Kompression des Gases – mit dem Aufwand, den dies nun wiederum mit sich bringt bringt.

Gas-und-Dampf-Turbinen (»GuD«)

Bild 6.4: Der berühmte »Gasometer« in Oberhausen
Bild 6.4: Der berühmte »Gasometer« in Oberhausen

Gasturbinen lassen sich schnell hochfahren und sehr schnell in der Leistung variieren. Damit stellen sie die optimale Ergänzung zu den regenerativen Einspeisungen dar. Ihre Arbeitstemperatur liegt deutlich höher als die von Dampfkraftwerken. Die Turbinenschaufeln bestehen aus Titanlegierungen, nicht aus Stahlwerkstoffen, und unterliegen daher ebenfalls nicht der Begrenzung auf eine Betriebstemperatur von 723°C. Verbrennungstemperaturen bis maximal 1600°C lassen sich nutzen. Das ist gut für den Carnot-Wirkungsgrad. Leider aber ist das Abgas mit ≈ 650°C auch noch ziemlich heiß. Das ist schlecht für den Carnot-Wirkungsgrad. Was liegt da näher als die Idee, das noch relativ heiße Abgas weiter zu nutzen, um damit Dampf zu erzeugen und zusätzlich eine Dampfturbine anzutreiben? Fertig ist die Gas-und-Dampf-Turbine. Die beiden Turbinen können auf einer gemeinsamen Welle angeordnet sein oder zwei separate Generatoren antreiben. Im Sonderfall kann auch eine der Turbinen direkt eine andere Antriebsaufgabe übernehmen. Umgekehrt lässt sich die Abwärme eines reinen Gasturbinen-Kraftwerks als Prozesswärme nutzen, auch z. B. in einem Kohlekraftwerk zur Brennluft-Vorwärmung. Die Turbine arbeitet dann mit einem starken Luft-Überschuss, so dass in ihrem Abgas noch genügend Sauerstoff für die Verbrennung der Kohle übrig ist.

GuD-Anlagen erreichen – für eine thermische Kraftwerksanlage – traumhaft hohe Wirkungsgrade, im Optimalfall über 60%. Dahinter kann sich jedes »BoA« (Braunkohlekraftwerk mit optimierter Anlagentechnik) verstecken. Die Kohle zu vergasen, also durch chemische Prozesse in einen gasförmigen Brennstoff umzuwandeln, so dass damit GuD-Anlagen betrieben werden könnten, ist so aufwändig, dass von der Verbesserung des Wirkungsgrads zu wenig übrig bleibt. Versuche laufen aber noch.

Dabei verfügt der Gasturbinenteil, der etwa 2/3 der Leistung erbringt, über genau die oben genannten Vorteile, die der neue Energiemarkt benötigt: Die Anlage läuft bei Anforderung schnell hoch, hat allerdings dann bei gut der halben Leistung ein »Plateau«, bis das Wasser endlich kocht. Danach steht jedoch der Vorteil der sehr schnellen Regelbarkeit im Bereich von etwa 35% bis 100% der Bemessungsleistung bereits zur Verfügung – im Bereich bis etwa 65% auch schon während des »Plateaus«.

Leider ist der Brennstoff Erdgas relativ teuer, was die Ausbreitung dieser Technik hemmt. Hier sollte eigentlich der CO2-Handel helfen, da Erdgas bei der Verbrennung weniger CO2 verursacht als Kohle und da wegen des hohen Wirkungsgrades wesentlich weniger Erdgas verbrannt werden muss, doch der CO2-Handel »liegt derzeit am Boden«. Da die Erzeugung aus Erdgas nicht direkt erneuerbar ist und folglich auch nicht durch das EEG gefördert wird, litten Gaskraftwerke einschließlich GuD durch häufiges An- und Abfahren und ständige Lastwechsel an schlechter Auslastung und wurden reihenweise wegen »roter Zahlen« stillgesetzt. Der Trend der Strompreise und der Bedarf nach Regelleistung haben diese Entwicklung jedoch offensichtlich wieder umgekehrt: »Erdgaskraftwerke erzeugten [im Jahr 2016] nach Jahren mit rückläufigen Erzeugungsmengen deutlich mehr Strom als noch im Jahr 2015 (+37,7%) und damit in etwa so viel Strom wie im Jahr 2012.«

Auch wird die GuD-Technik – in einem Ansatz von »Desertec« – in Algerien zur Einsparung teuren Brennstoffs in Kombination mit Solarthermie erprobt: Die Sonne hebt, wenn sie scheint, die Abgastemperatur noch etwas an und erhöht damit den Wirkungsgrad und die Leistung.

»Strom im Wärmemarkt«

Unter diesem und sinngemäß ähnlichen Titeln tauchen seit neuestem viele Veröffentlichungen auf. Dazu ist und bleibt anzumerken: Strom ist und bleibt zum direkten »Verheizen« viel zu wertvoll und viel zu teuer; zu mühsam ist seine Erzeugung – und dies wird wohl auch so bleiben. Wer meint, in Nachtspeicherheizungen ginge »nichts verloren«, solange dort Strom verheizt wird, der sich anders nicht mehr absetzen ließ, sagt auch bei Holz-Überschuss (z. B. nach Kyrill): »Wir wandeln das Holz in Möbel um! Diese lassen sich gut in Möbelhäusern zwischenlagern, und bei Holzmangel holen wir die Möbel wieder hervor und verfeuern sie dann.« Ebenso gut ließe sich hier wie beim Elektrolysegas der Vergleich mit dem Schaumwein anwenden. Der Fehler wurde doch zuvor schon begangen – als der Überschuss (in den Windkraftanlagen, während Kyrill und Konsorten tobten) entstand. Dort wurden Geld, Zeit, Arbeitskraft, Gehirnschmalz und Rohstoffe aufgewandt – und anschließend verbrannt. Dieser Verlust lässt sich weder wegreden noch wegrechnen.

Zudem gilt hier verschärft, wie zuvor zur KWK ausgeführt: Die Verwertung z. B. überschüssigen Fotovoltaik-Stroms klappt nur mit Glück hier und da mal; überwiegend landet eben doch wieder »fossiler Strom« im Wärmespeicher. Das Lastprofil passt so schlecht zum Einspeiseprofil wie selten irgendetwas zusammenpasst (Bild 6.5, Bild 6.6): Mitte April ist der Wärmespeicher leer und muss bis Mitte Oktober wieder für etwa 170 Tage Wärme geladen haben (Bild 6.7).

Bild 6.5: Na, das passt ja wie die sprichwörtliche Faust aufs Auge: BDEW-Lastprofil Nachtspeicherheizung zum EWE-Einspeiseprofil Fotovoltaik über das Jahr
Bild 6.5: Na, das passt ja wie die sprichwörtliche Faust aufs Auge: BDEW-Lastprofil Nachtspeicherheizung zum EWE-Einspeiseprofil Fotovoltaik über das Jahr

Nach oben

Doch wenn man genau hinsieht, ist von dieser Anwendung in den meisten Fällen gar nicht oder nur am Rande die Rede. Eine solche Veröffentlichung widmet der »flexibilisierten« Nachtspeicherheizung nur einen ganz kurzen Abschnitt und beschließt ihn: »Ob das System zukunftsfähig ist, bleibt abzuwarten«. Vielmehr geht es fast immer um elektrische Warmwasser-Bereitung, die in kleinen Mengen in der Tat oft ökonomisch wie ökologisch effizienter sind als fossil betriebene mit langen Rohrleitungen. Von Zwangsbelüftungen mit Wärmetauschern in Wohnräumen ist die Rede – alles elektrisch betrieben und elektrisch / elektronisch gesteuert. Wärmepumpen fallen ebenfalls darunter, die mit Nachtspeicherheizungen außer dem Verwendungszweck überhaupt nichts gemeinsam haben, sondern vielmehr eine sehr effiziente und »ökologische« Anwendung elektrischer Energie darstellen.

Bild 6.6: Norm-Lastprofil Nachtspeicherheizung für die Woche des kürzesten Tages im Jahr
Bild 6.6: Norm-Lastprofil Nachtspeicherheizung für die Woche des kürzesten Tages im Jahr

Nach oben

Auch der VDE spricht sich in einer Studie für die Nutzung der »Potenziale für Strom im Wärmemarkt « aus. Die Studie weist völlig zu Recht darauf hin, die elektrische Energie habe mit ihrer »Wende« die anderen Energiemärkte um Längen hinter sich gelassen: »Durch den forcierten EE-Ausbau [erneuerbare Energien] der letzten Jahre konnte bis heute eine Quote von etwa 27% (Stand Ende 2014) erreicht werden; bis zum Jahr 2025 soll das Mittelfristziel mit einer Ausbauquote von 40% … 45% erreicht sein. Während die meisten Experten die Erreichung dieser Ziele für realisierbar halten, erscheint im Wärmemarkt selbst die Erreichung des mittelfristig (hier bis zum Jahr 2020) gesetzten Ziels einer EE-Quote von 14% mit dem herkömmlichen Ansatz schwierig bis unwahrscheinlich. Im Gebäudebestand basieren derzeit noch 78% aller Anlagen direkt auf fossilen Energieträgern (Öl und Gas) und zu 13% auf Fernwärme, die ebenfalls überwiegend auf Basis fossiler Energieträger erzeugt wird.«

Das ist deutlich. Da bleiben nur 9% für Erneuerbare übrig, und bei diesen dürfte es sich überwiegend um Holzfeuerung handeln. Als monovalentes System eingesetzt, verheizt unser Reihen-Eckhaus etwa 800 m³ Gas (»Heute werden etwa 75% des Gasabsatzes in Deutschland für die Wärmeerzeugung benötigt«) oder alternativ 10 Bäume im Jahr, die in vielleicht 30 Jahren gewachsen sind. Dies allein erfordert einen Bestand von 300 Bäumen je Haushalt, einen auf je 34 m². Deutschland müsste also vollständig bewaldet sein – allein nur für die Raumheizung – wollte man sich allein auf diese Methode verlassen. So liefe dies wieder auf Importe hinaus, die man doch mit der Energiewende u. a. eigentlich vermeiden will.

Bild 6.7: Nachtspeicherheizung als »Energiespeicher« für Fotovoltaikstrom: Klappt zu 100% – wenn man Wärmespeicher für 164 bzw. 174 Tage hat!
Bild 6.7: Nachtspeicherheizung als »Energiespeicher« für Fotovoltaikstrom: Klappt zu 100% – wenn man Wärmespeicher für 164 bzw. 174 Tage hat!

Nach oben

Hochspannungs-Gleichstrom-Übertragung (HGÜ)

Vielfach liest man, zur Einsparung von Verlusten seien die für die Energiewende erforderlichen Stromtrassen als Gleichstromleitungen auszuführen. Eine Argumentation ist entweder nicht schlüssig oder fehlt ganz. Richtig ist:

  • Es entfallen die dielektrischen Verluste – doch diese sind vernachlässigbar gering.
  • Es entfällt auch der Wirbelstromverlust (Skin-Effekt) – doch auch dieser ist gering und ließe sich außerdem durch eine geringfügig größere Bemessung des Leiterquerschnitts ausgleichen.
  • Es entfällt auch die Notwendigkeit zur Kompensation von Blindleistung – doch wäre dies kein Kunststück. Auch kompensiert sich eine Freileitung sozusagen von selbst, wenn sie mit ihrer natürlichen Leistung betrieben wird, bei welcher sich die Einflüsse der Längsinduktivität und der Querkapazität gegenseitig aufheben.
  • Der Einsatz von HGÜ wird dagegen unumgänglich, wenn längere Strecken als Erdkabel oder als Seekabel geführt werden sollen. Die Kapazität wird dann wegen des viel geringeren Abstands der Außenleiter gegen Erde (Schirm) so groß, dass bei einer Länge von etwa 60 km der kapazitive Blindstrom der Leitung schon den Bemessungsstrom erreicht und für einen Laststrom keine »Luft« mehr bleibt.

Die Errichtung eines Umrichters an jedem Ende ist mit erheblichem Aufwand verbunden und frisst jeweils etwa 0,5% der Übertragungsleistung an Verlusten – ungefähr so viel wie 50 km Kabel. Sollte denn das HGÜ-Kabel tatsächlich 20% weniger Verluste aufweisen als das Drehstromkabel, so muss es schon 500 km lang sein, damit es gerade mal mit der Drehstromleitung gleichauf liegt.

Nein, die Entscheidung für HGÜ geschieht immer aus den anderen genannten Gründen und nicht, weil diese Art der Übertragung weniger Verluste hätte. Außerdem ist es immer eine Frage der Auslegung und Auswahl des Kabels, wie hohe Verluste man denn zulässt. Da die Verluste fast ausschließlich aus dem ohmschen Widerstand bestehen, kann man sie praktisch immer halbieren, indem man den Leiterquerschnitt verdoppelt – ob nun für Drehstrom oder Gleichstrom. Der Eindruck, HGÜ spare Verluste, rührt vermutlich daher, dass (bislang) HGÜ fast ausschließlich für Kabeltrassen eingesetzt wird (da dies mit Drehstrom über längere Strecken nun mal nicht geht) – und dann vergleicht man sie mit einer Drehstrom-Freileitung. Diese hat nur deswegen höhere Verluste, weil sie der Umgebungsluft als Kühlmittel ausgesetzt ist und daher höher belastet werden kann als das im Boden eingebettete Kabel. Die »besseren Kühlungsbedingungen« kann man immer auch als die »leistungsfähigere Energieverschwendung« bezeichnen. Ohne weiteres ließe sich die Freileitung überdimensionieren bzw. nicht voll auslasten – und schon zöge sie mit dem Erdkabel gleich.

Dies ändert allerdings nichts daran, dass die HGÜ einen wichtigen Baustein für die Energiewende bildet – schon deswegen, weil sie Verbundnetze untereinander verbinden kann, die nicht synchron laufen. Bislang gibt es zwar noch gar kein Gleichstromnetz, sondern nur Punkt-zu-Punkt-Verbindungen, denn die notwendigen Betriebsmittel (Leistungsschalter) befinden sich gerade eben erst in der Erprobung. Dies stellt jedoch in der gegenwärtigen Situation insofern auch wieder eine gewisse Stärke dar, als man nicht an bestimmte Spannungsebenen und Standard-Komponenten gebunden ist. Vielmehr kann für jede einzelne Verbindung eine passende Spannung gewählt – und somit auch z. B. die Leistung einer 380-kV-Drehstromleitung überboten – werden. Also: Das eine tun und das andere nicht lassen. Je mehr Leitungen und Netze, desto Energiewende.

Nach oben

Geothermie

In Tabelle 1.1 wird ersichtlich, dass die Geothermie – Gewinnung von Elektrizität aus Erdwärme – eine im Vergleich zu Sonne und Wind völlig unbedeutende Rolle spielt. Auch dies ist wieder mit Carnot zu erklären, weil man so tief nicht bohren kann und will, dass es so richtig schön warm wird. Man muss sich also mit geringen Temperatur-Differenzen zufrieden geben und entsprechend sehr viel Wärme aus der Erde holen, um davon einen entsprechend geringen Anteil zur Stromerzeugung nutzen zu können. Auch die Zange zwischen dem Wachstumsgesetz und der dezentralen Erzeugung (»Energie in der Umwelt zusammenkehren«) schlägt hier wieder voll zu:

  • Um z. B. den Querschnitt einer Rohrleitung zu vervierfachen, genügt es, den Durchmesser zu verdoppeln. Damit verdoppeln sich auch der Umfang und damit der Materialbedarf. Der Strömungswiderstand fällt dadurch sogar auf 1/16. Baut also möglichst große Anlagen!
  • Umgekehrt führt die Vervierfachung des Sammelgebiets nicht zum vierfachen Ertrag, weil der Boden in der Gegend schon »ausgelutscht« ist. Baut also möglichst viele kleine Anlagen!

Geothermie hat eher eine indirekte Bedeutung für die (elektrische) Energiewende, da sie sich zur Raumheizung im gemeinsamen Einsatz mit Wärmepumpen geradezu anbietet. Für diese hilft eine geringfügige Anhebung der Temperatur schon viel, um den COP und den Ertrag beträchtlich zu erhöhen.

Nach oben

Aus dem Meer: »Blaue Energie«

Selbstverständlich lassen sich Meeresströmungen analog den Fließgewässern oder dem Wind nutzen. Mit Turbinen, die versunkenen Windkraftanlagen ähneln, wird dies zum Teil versucht. Leider sind diese Strömungen in der Regel langsam und die Energiedichten entsprechend gering. Vorteilhaft ist die meist gute Konstanz der Strömungsgeschwindigkeit.

Daneben gibt es aber noch fünf spezifische, derzeit diskutierte Arten der Gewinnung elektrischer Energie aus dem Meer, die manchmal mit obiger unter dem Ausdruck »Blaue Energie« zusammengefasst werden (merke: Strom mag gelb sein, aber blaue Energie ist grün). Einige werden zur Zeit erprobt; andere taugen nur zur Diskussion.

Gezeitenkraftwerke

Natürlich lassen sich unter Umständen bestimmte Meeresbuchten durch einen Damm absperren und über eine Rohrleitung wieder mit dem Meer verbinden. Sperrt man die Rohrleitung beim Tiefststand der Ebbe und wartet, bis die Flut ihren Höchststand erreicht hat, so lässt sich der als Differenz zwischen »binnen« und »buten« auftretende Tidenhub nun als Wasserkraftwerk nutzen, indem man Wasser über die Rohrleitung und eine Turbine einströmen lässt. Bei Höchststand der Flut lässt sich umgekehrt verfahren und Wasser zurückhalten, bis die Ebbe für eine Pegel-Differenz von einigen Metern sorgt.

Für die Abschätzung der Potenziale gilt der gleiche Rechengang wie für die Stauwasserkraft; nur sind die Pegel-Differenzen entsprechend gering, im Extremfall vielleicht 8 m. Im Mittel über den Nutzungszyklus verbleiben also theoretisch < 4 m, da eine Nutzung bis auf Differenz 0 nicht möglich ist, und auf die Ebbe folgt unmittelbar die nächste Flut und umgekehrt. So kommt es zu einer zeitlichen Überlappung, die nur noch ≈ 2 m Höhe nutzbar bleiben lässt. Nimmt man an, man wolle den Sognefjord, den größten Fjord Norwegens, absperren, dann entspräche dies einer Wasserfläche von ganz grob 500 km², also einem Hubvolumen von 1 km³. Damit brächte man es auf ein Brutto-Potenzial von 10 TJ = 2,78 GWh – und das fast 4 Mal am Tag. Nur trifft kaum irgendwo eine solche Bucht mit einem brauchbaren Tidenhub zusammen; in Norwegen liegt er nur um 1 m.

Vorteil dieses Prinzips ist zumindest, dass sich die Gezeiten auf die Minute genau vorherbestimmen lassen. Nachteil ist die permanente »Phasenverschiebung« um etwa 1/15 Tag pro Tag (2 Tage pro Monat). Somit trifft der Leistungsschub mal auf die Bedarfsspitze, mal auf die Schwachlastzeit – berechenbar, aber unveränderlich.

Wellenkraftwerke

Andere Techniken nutzen die Wellenbewegung des Wassers. Die Bauform »Pelamis« besteht aus einer Kette von Schwimmkörpern, die sich gegeneinander bewegen und so über Hydraulik-Zylinder mechanische Energie gewinnen. Eine Versuchsanlage in Schottland und drei weitere – mittlerweile wieder stillgelegte – in Portugal verfügen über eine Nennleistung von je 750 kW und berichten eine mittlere Auslastung zwischen 25% und 40%.

Ein anderes Verfahren nutzt an der Küste aufgestellte Betonbauten, in die die Wellen hinein laufen und die Luft verdrängen. Beim Ablauf entsteht ein Unterdruck, und die Luft strömt wieder zurück. Hiervon wird eine Luftturbine angetrieben – oder deren zwei im Wechsel.

Allerdings steckt man mit diesen Techniken wieder in der Abhängigkeit von der Witterung.

Nach oben

Osmosekraftwerke

Experimentiert wird auch mit der Möglichkeit, an den Stellen, wo Frischwasser in das Salzwasser des Meeres fließt, deren unterschiedlichen osmotischen Druck auszunutzen. Dabei wandern Wassermoleküle von der Frischwasserseite in das Salzwasser, weil das Wasser ein starkes Bestreben aufweist, die Salzkonzentration zu verdünnen. Den Salzmolekülen hingegen gelingt es nicht oder nur in geringerem Ausmaß, die Membran mit entsprechender Geschwindigkeit in Gegenrichtung zu durchdringen. So kann sich theoretisch ein Druck von bis zu 28 bar aufbauen. Die Frage ist nur, welchen Druck die Membran denn überhaupt aushält und wie schnell die Wassermoleküle hindurch diffundieren können, um einen Wasserstrom zu bilden, der einen Generator antreiben kann. Zur Zeit geht man davon aus, dass 1 m² Membran etwa 3 W erzeugen kann (1 m² Solarzellen erzeugt rund 100 W – allerdings nur bei Sonnenschein).

Thermohaline Auftriebskraftwerke

Seewasser ist gewöhnlich an der Oberfläche wärmer und hat daher hier eine geringere Dichte als am Meeresgrund. Andererseits ist der Salzgehalt in der Tiefe geringer. Die Idee ist nun, ein Rohr von der Oberfläche in die Tiefe zu führen und darin eine Aufwärts-Strömung anzuregen. Wäre diese Strömung einmal angeregt, würde sie sich selbst aufrecht erhalten, da sich das Wasser innerhalb des Rohres auf dem Weg nach oben durch die langsam wärmer werdende Umgebung allmählich erwärmt. Es behielte jedoch zwangsläufig den niedrigen Salzgehalt vom Meeresgrund. Für die Dichte des Wassers wird etwa auf halber Höhe und 5°C ein Wert von 1035,45 kg/m³ außen, jedoch »nur« 1033,94 kg/m³ im Rohr angegeben. So entsteht eine Auftriebskraft von etwa 15 N je Kubikmeter Wasser. Eine Studie errechnet für eine Wassertiefe von 3000 m und eine 2 m dicke Leitung eine mechanische Leistung von 1,29 MW, Strömungswiderstand schon abgezogen. Dies ergäbe ein Potenzial von etwa 1 MW elektrischer Leistung. Der Aufwand hierfür ist jedoch vergleichsweise beträchtlich: Ein 3 km langes, senkrecht zu haltendes Rohr mit 2 m Durchmesser.

Tiefseespeicherkraftwerke (»TSSKW«)

Damit noch einmal zurück zur potenziellen Energie: Ein Vorschlag nutzt die tiefsten Stellen der Meere, um dort große Massen abzusenken, aus der potenziellen Energie elektrische zu gewinnen und bei Strom-Überschuss die Gewichte wieder hochzuziehen. Der Vorschlag umfasst (dort so genannte) »Kraftwerksschiffe«, in denen je 1000 »Sinkkörper« mit einer Masse von je 45 t z. B. aus Beton lagern. Abzüglich Auftrieb bleibt eine Gewichtskraft von etwa 300 kN je Sinkkörper übrig. Bei 6000 m Tiefe ergibt sich eine Energie-Lagerkapazität von 1000 * 300 kN * 6 km = 1800 GNm = 1800 GJ ≈ 491 MWh je Kraftwerksschiff. Damit könnte ein solches Schiff (um den Rahmen abzustecken, um den es hier geht) immerhin etwa 500 km weit fahren – brutto. In der betreffenden Veröffentlichung wird jedoch überhaupt nicht darauf eingegangen, dass die Sinkkörper – dort auch noch quaderförmig statt strömungsgünstig gestaltet – bei der vorgeschlagenen Geschwindigkeit von 2 m/s einen Strömungswiderstand von rund 5 kN aufweisen. Dieser ist beim Absenken vom Gewicht abzuziehen und beim Aufziehen hinzu zu rechnen. Vom Strömungswiderstand des 6 km langen »leichten« Seils, das sich unbelastet noch dazu mit der doppelten Geschwindigkeit abwärts bewegen soll (freiwillig?), ist ebenso wenig die Rede.

Letztlich sind diese Detailfragen auch müßig, da auch die Frage, wie denn die elektrische Energie zum Kraftwerksschiff und wieder von dort fort geleitet werden sollte, nicht angesprochen, sondern ein Seekabel einfach als vorhanden vorausgesetzt wird. Es gibt aber keine Seekabel in der Tiefsee. 6 km Seekabel wiegen über 30 t. Ein Seekabel trägt aber keine 30 t; also reißt es schon gleich beim Verlegen ab.

Nach oben

Solarthermie der einen Art: Hohlspiegel

Im Zusammenhang mit thermischen Energiespeichern wurde schon die Methode vorgestellt, Sonnenschein mittels Hohlspiegeln und einem Nachführsystem auf einen Punkt zu konzentrieren (Bild 6.8).

Als Alternative hierzu dient das Parabolrinnenkraftwerk (Bild 6.9). Bei diesem sind die Hohlspiegel, wie der Name sagt, als Rinnen mit parabolischem Querschnitt ausgeführt. Diese verfügen nicht über einen Brennpunkt, sondern über eine Brennlinie. Sie benötigen daher keinen Turm und ein Nachführsystem nur für die Höhe, nicht für die Breite. In der Brennlinie ist ein Rohr angeordnet, in dem eine hoch siedende Flüssigkeit erwärmt wird und die Wärme zur weiteren Verwendung abführt.

Nach oben

Bild 6.9: Reflektoren ohne Turm: Parabolrinnenkraftwerk
Bild 6.9: Reflektoren ohne Turm: Parabolrinnenkraftwerk

Ende 2017 soll in Israel das bislang größte Sonnenwärmekraftwerk der Welt (hier wieder mit Turm) fertig gestellt sein. Die Anlage soll jedoch eine Fläche von etwa 3 km² in Anspruch nehmen und 500 Millionen Euro kosten. Selbst wenn man mit den Kosten für kleine Fotovoltaik-Anlagen rechnet, bekäme man diese Leistung heute schon für 200 Millionen Euro – auf der Hälfte der Fläche. Dabei produzieren Fotovoltaik-Anlagen auch bei bedecktem Himmel noch anteilig zur Strahlungsleistung, die Spiegelkraftwerke der verschiedenen Bauarten aber nur bei direktem Sonnenschein. Für die Lösung mit der Solarthermie spricht jedoch, dass sie einen etwas besseren Lastgang bietet und sich die Wärme – wenigstens in begrenztem Umfang – speichern lässt.

Nach oben

Solarthermie der anderen Art: Aufwindkraftwerke (Thermikkraftwerke)

Luft hat eine geringe Dichte. Daher ist zur Gewinnung kinetischer Energie aus der Luftbewegung die »Erfassung« sehr großer Luftvolumina erforderlich – die Rotordurchmesser der Windkraftanlagen zeigen es. Doch haben alle Gase einheitlich mit 1 / (273 K) eine um mehrere Zehnerpotenzen größere Wärmeausdehnung als Wasser und alle anderen flüssigen und festen Stoffe. Die Unterschiede der Dichte warmer und kalter Luft sind daher doch beträchtlich. Die Gewinnung mechanischer Energie mittels Auftrieb ist also mit Luft sogar etwas aussichtsreicher als mit Wasser (siehe oben). Dieser Gedanke liegt den Aufwindkraftwerken zu Grunde: Man überdache ein Stück Wüste mit einer transparenten Folie, mit Glas oder Kunststoff (»Plexiglas«) und lasse die Luft darunter so richtig schön warm werden – weit wärmer noch als sie über dem Wüstensand normalerweise ohnehin schon wird. Diesen dazu mit einer schwarzen Folie zu bedecken unterstützt den Effekt. Über einen Kamin kann die Luft dann entweichen. Wenn der Kamin ordentlich »zieht«, lässt sich der Aufwind durch eine Turbine zur Erzeugung von Elektrizität nutzen.

Die erforderlichen Flächen sind jedoch nichtsdestoweniger erheblich. Wirkt die von der Sonne auf die Erde einwirkende »Globalstrahlung« mit gut 1 kW/m² zunächst ermutigend, so kommt für diesen Prozess leider ein recht geringer Wirkungsgrad zum Tragen, da auch hier das Gesetz von Carnot erbarmungslos zuschlägt: Die Differenz der Lufttemperatur zwischen Austritt aus dem Kamin und Eintritt in den Kamin (denn dazwischen entsteht die mechanische Leistung), geteilt durch die Eintrittstemperatur (alle gemessen in [K]), stellt den theoretischen Höchst-Wirkungsgrad dar.

Natürlich »zieht« der Kamin umso besser, je höher er ist. Warme Luft steigt nach oben, sagt man immer – doch warum ist es dann hoch oben auf den Bergen so kalt? Dies hat eine Reihe von Ursachen, angefangen von der Umwandlung von Licht in Wärme beim Auftreffen der Sonnenstrahlen auf den Boden. Dennoch ist es in den Bergen auch in Bodennähe kalt, denn der Hauptgrund ist eben dieser: Bis die Luft dort oben hin gestiegen ist, hat sie sich ihrer Expansion entsprechend abgekühlt. In Gegenrichtung strömend, wird sie komprimiert und erwärmt sich entsprechend.

Dabei sind hier – immer noch idealtypisch rechnend – Wärmeverluste durch die Kaminwandung noch nicht berücksichtigt. Es wird von einer rein adiabatischen Abnahme des Drucks und damit der Temperatur ausgegangen; die innere Energie der Luft bleibt also gleich: Was sie an mechanischer Energie bei der Ausdehnung abgibt, nimmt sie aus ihrer Temperatur und kühlt sich entsprechend ab. Dies gilt allerdings ähnlich auch für die Außenluft, weswegen der Auftrieb im Verlauf des Kamins näherungsweise gleich bleibt.

In einer Beispielrechnung für die Prototyp-Anlage in Manzanares in Zentralspanien ergibt sich eine Leistung von 47,3 kW – insofern »eine ausgezeichnete Übereinstimmung mit der Wirklichkeit, wenn man berücksichtigt, dass das absolute Maximum der Leistung 51,7 kW betrug«. Die Anlage wartet mit einer Turmhöhe von 195 m und einem Kollektorradius von 122 m auf. Dies ergibt eine Kollektorfläche von 4738 m², von denen also jeder eine Leistung von 10,9 W erbringt, entsprechend einem Wirkungsgrad – einer Ausnutzung der zur Verfügung stehenden Strahlung – um 1%. Dieser Wert fällt um eine Zehnerpotenz hinter Fotovoltaik-Anlagen zurück.

Da die adiabatische Temperaturänderung bei der vorliegenden Turmhöhe knapp 3 K beträgt (Bild 6.11), ist hiermit der maximal erreichbare Wirkungsgrad auch schon nahezu erreicht. Eine bessere Ausnutzung der Fläche lässt sich nur mit höheren Türmen erzielen. Es muss hier immer das Optimum zwischen dem Aufwand für die Höhe und jenem für die Fläche gefunden werden. Da jedoch die Preise für Solarmodule in den letzten Jahren so stark gesenkt werden konnten, sind Aufwindkraftwerke heute nicht mehr konkurrenzfähig, obwohl man ihnen wegen der Trägheiten im System einen etwas günstigeren Verlauf der Leistung über den Tag zugestehen muss als der Fotovoltaik-Technologie. Es bleibt aber bei der Notwendigkeit der nicht existierenden Speichertechnologien, und die Erträge rechtfertigen den Aufwand derzeit leider nicht.

Bild 6.11: Änderung von Luftdruck und Temperatur in Abhängigkeit von der Höhe über Meer – adiabatische Betrachtung, also ohne den Einfluss des Wettergeschehens und anderer atmosphärischer Einflüsse
Bild 6.11: Änderung von Luftdruck und Temperatur in Abhängigkeit von der Höhe über Meer – adiabatische Betrachtung, also ohne den Einfluss des Wettergeschehens und anderer atmosphärischer Einflüsse

Und wenn das alles nichts nützt? »CCS«?

Die Abscheidung und unterirdische Endlagerung von CO2 wurde schon kurz erwähnt. Leider hat diese Technologie – welche Version auch immer man davon betrachtet – einen sehr hohen Eigenbedarf an Energie. Bis zu 30% des gerade eben frisch erzeugten Stroms, günstigstenfalls aber 15%, werden dafür gleich wieder verbraucht. Falls wir nur ein CO2-Problem haben sollten, wäre das Verfahren dennoch einer Überlegung wert. Wenn wir aber ganz nebenbei auch ein Rohstoffproblem haben oder bekommen könnten, dann muss diese Vorgehensweise als kontraproduktiv angesehen werden.