Bilanz

Ausgerechnet bei Gasturbinen-Kraftwerken, die gerade im Zusammenhang mit der Energiewende als Lückenfüller dringend gebraucht würden, wird in letzter Zeit vermehrt von Stilllegungen »aus wirtschaftlichen Gründen« berichtet. Der wohl bedeutendste Hersteller schließt diese Sparte ganz. Es wird angeführt, dass sich die Anlagen allein aus dem Verkauf der Energie nicht mehr tragen, seit sie nicht mehr regelmäßig, sondern nur noch auf Anforderung laufen – und auch das nur mit ständig schwankender Auslastung. Es fehle ein Regelenergiemarkt, auf dem also nicht (nur) gelieferte Energie, sondern (auch) vorgehaltene – und womöglich in den meisten Fällen nicht abgerufene – Leistung bezahlt wird.

Regelenergie; Regelleistung

Doch das stimmt offensichtlich so nicht, wie ein Mitarbeiter von AEG PS auf einer Messe berichtet: Jeder, der sich registrieren ließe und für mindestens eine Stunde mindestens 1 MW anbieten könne, könne sich daran beteiligen. Nach der Original-Quelle, auf die er verweist, müssen es 5 MW sein. Ein Mustervertrag ist 52 Seiten lang zuzüglich 8 Anlagen. Vielleicht liegt hier das Markthindernis? Darauf kann an dieser Stelle nicht eingegangen werden; die technischen Zusammenhänge sind schon kompliziert genug.

In der Schweiz zumindest funktioniert dieser Markt, wie in der Fachpresse zu lesen war: 10 MW für eine Woche vorzuhalten brachte 2014 zwischen 30 000 CHF und 70 000 CHF ein (1 Schweizer Franken wird zur Zeit für knapp 1 Euro gehandelt). In einem Land, wo man für eine Kilowattstunde elektrischer Energie nur um die 15 Rappen berappen muss (Tabelle 7.1), sind das immerhin zwischen 12% und 28% dessen, was man für eine konstante Abnahme der vollen 10 MW über eine ganze Woche bezahlen müsste – gerechnet allerdings mit Haushaltstarifen und nicht jenen, die für Bandlast zu zahlen wären. Wird die bereit gehaltene Leistung tatsächlich in Anspruch genommen, so bekommt der Anbieter für die Energie zusätzlich den aktuellen Börsenpreis +20%. Wer negative Sekundär-Regelleistung im Angebot hat, also auf Kommando Strom abnimmt, bekommt einen Rabatt von 20% auf den aktuellen Preis. Was dort jedoch nicht stand, war, wer denn für diese Kosten aufkommt, doch müssen diese wohl am Netzbetreiber hängen bleiben. Der gibt sie entsprechend in Form der Netznutzungsgebühren an seine Kunden weiter. Was sonst bleibt ihm übrig?

Mittlerweile wird berichtet, dass sich der Netzbetreiber 50Hertz auch mit Windkraftanlagen für die Bereitstellung von 60 MW Primär-Regelleistung präqualifizieren konnte – verständlicherweise nur für negative Regelleistung, denn bislang gibt es leider noch immer keine »Stauwindkraftwerke«, sondern nur »Laufwindkraftwerke«. Dies bedeutet also, dass diese Windkraftanlagen abgeregelt werden, wenn der Netzbetrieb oder der Stromhandel es erfordern, und die Bereitschaft, dies zu tun, vergütet wird. Allerdings lassen sich die Anlagen bei Flaute weder auf- noch abregeln. Wie dies geregelt und vergütet wird, sagt der entsprechende Bericht leider nicht.

Die Kostenstruktur als zwingender Faktor

Dies führt geradewegs zum nächsten beachtenswerten Punkt: Auf einer sehr aufschlussreichen Webseite kann der Schweizer Stromkunde nicht nur ermitteln, wo er in welchem Tarif wie viel bezahlt, sondern auch, wie viel davon auf die Energie und wie viel auf Netznutzung entfällt (Tabelle 7.1). Tendenziell sind es in den Haushaltstarifen – es gibt dort deren nicht weniger als acht – 3/5 bis 2/3 für das Netz und nur 1/3 bis 2/5 für die Energie. Sonstige Abgaben sind vernachlässigbar – in einem Land mit 50% nachhaltiger Erzeugung! Ja, Berge sollte man haben.

Tabelle 7.1: Stromtarife in der Schweiz (KEV: Kostendeckende Einspeisevergütung – das Schweizer EEG)
Tabelle 7.1: Stromtarife in der Schweiz (KEV: Kostendeckende Einspeisevergütung – das Schweizer EEG)

Analyse

Davon gibt es in Deutschland leider zu wenige. Wir müssen, wie ausgeführt, solche erneuerbaren Energien nutzen, die nur dann zur Verfügung stehen, wenn sie mögen, und die sich (in unserem Land) nicht in nennenswertem Umfang speichern lassen. Das sind, wie dargelegt wurde, praktisch alle außer Stauwasserkraft und Biogas. Die zur Zeit bestehende Tarifstruktur gibt dabei – wahrscheinlich auch in der Schweiz, erst recht in Deutschland – nicht die wirklichen Verhältnisse wieder. Die zu zahlenden Preise sehen in Deutschland für einen Haushaltskunden (mit einem Verbrauch von rund 3000 kWh/a) etwa so aus:

Bild 7.1: Entwicklung der Stromtarife eines beispielhaften Privat-Haushalts (Stadtwerke einer Mittelstadt in Nordrhein-Westfalen)
Bild 7.1: Entwicklung der Stromtarife eines beispielhaften Privat-Haushalts (Stadtwerke einer Mittelstadt in Nordrhein-Westfalen)
  • 3 ct/(kWh) Netznutzungsgebühr / Bereitstellungspreis (Grundpreis / Leistungspreis),
  • 25 ct/(kWh) Arbeitspreis (Energie).

Wenn Strom für etwa 3 ct/(kWh) in das Stromnetz eingespeist wird, sehen die Kosten zur Versorgung eines Haushaltskunden (mit einem Verbrauch von rund 3000 kWh/a) etwa so aus:

  • 25 ct/(kWh) Netznutzung / Bereitstellungskosten,
  • 3 ct/(kWh) Energiekosten.

Dazu kommt nunmehr, dass mittlerweile schon 1/3 der elektrischen Energie aus erneuerbaren Quellen stammt und somit hierfür kein kostenpflichtiger Stoff verbraucht wird. Nur zu 2/3 wird noch Kohle, Öl oder Gas verbraucht. Damit sieht die Kostenrechnung insgesamt eher so aus:

  • 26 ct/(kWh) Netznutzung / Bereitstellungskosten,
  • 2 ct/(kWh) Energiekosten.

Wenn Prof. Claudia Kemfert, Abteilungsleiterin Energie, Verkehr, Umwelt am Deutschen Institut für Wirtschaftsforschung (DIW Berlin), in einem Gespräch äußert, Strom werde bald fast nichts mehr kosten, sobald die Energiewende erst einmal vollzogen sei, dann ist das so, wie sie es meint, barer Unsinn. Wörtlich genommen ist es aber fast noch untertrieben: Die elektrische Energie kostet auch heute schon fast nichts; »nur« die Anlagen sowohl zu ihrer Erzeugung als auch zu ihrer Übertragung und Verteilung kosten ein kleines Vermögen – mit regenerativer Erzeugung noch deutlich mehr als zuvor. Die Situation ist folgende:

  • Zuerst bauen wir neben der bestehenden Erzeugungsanlage, die vollkommen ausreicht, um alle Bedürfnisse aller Stromkunden zu decken, eine zweite auf, die dann eingreift, wenn sie verfügbar ist. Solange sie produziert, spart sie Brennstoff ein. Die Errichtung erfordert aber eine zweite Investition, die gemäß Erneuerbare-Energien-Gesetz (EEG) über einen Aufpreis auf den Strom bezahlt wird. Die Finanzierung aus den Einsparungen beim Brennstoff ist, wie man so schön sagt, »schwierig«, denn:
  • Der Strom aus dem bestehenden System wird nun auch teurer, da die Anlagen ständig auf und ab fahren. Wird ein Dampfkraftwerk abgefahren, kühlt es langsam, aber sicher völlig aus. Diese Energie ist verloren. Ist es erst einmal kalt, frisst das Kraftwerk über Stunden Brennstoff, ehe sich wieder irgendetwas rührt. Für Braunkohlekraftwerke rechnet man mit 9 bis 15 Stunden. Wir erinnern uns an die gute alte Dampflok: Wurde erwartet, dass es gleich ordentlich etwas zu ziehen geben würde, dann heizte der Heizer kräftig ein. Blieb das Signal dann aber länger als erwartet auf Rot, so musste der schöne, frisch erzeugte Dampf nutzlos, aber mit Donnergetöse abgeblasen werden. Kaum besser funktioniert das im Kohlekraftwerk; nur das Abblasen von Dampf beschränkt sich auf Notabschaltungen.
  • Bei Teillast verschlechtert sich jedoch der Wirkungsgrad. Auf der konventionellen Seite entsteht also weniger Elektrizität pro Brennstoff, weil nebenan die erneuerbar arbeitende Anlage Brennstoff spart. Der relative Mehrverbrauch auf der »alten« Seite müsste korrekterweise von der Einsparung auf der »neuen« abgezogen werden. Kraftwerks- und Netzbetreiber tun dies; die öffentliche Wahrnehmung eher nicht.
  • Wir wissen bis hierhin, dass Sonne und Wind zusammen, wenn sie beide annähernd voll verfügbar sind, zeitweise den gesamten Leistungsbedarf Deutschlands decken können.
  • Was wir nicht wissen, ist, wann und wie schnell diese Zeiten kommen und gehen.
  • Wir wissen ebenfalls, dass uns das reine Wissen über obige Unwissenheit auch noch nichts nützt.
  • Wir wissen aber, dass wir Braunkohlekraftwerke nicht unter 40%, ganz moderne Anlagen nicht unter 20% ihrer Nennleistung betreiben können (»Mit dem neuen Verfahren kann die technische Mindestlast des Blocks auf bis zu 20% der installierten Leistung reduziert werden«. Die technische Inbetriebnahme der Anlage erfolge im Frühjahr 2015).
  • Offenbar nehmen sie sonst Schaden. Oder ist diese Betriebsart wiederum »nur« unwirtschaftlich, was nun auf die gleiche Art »kommuniziert« wird wie dereinst bei den Kernkraftwerken? Schließlich sollen sich diese wie jene Kraftwerke im Fall der Fälle im Eigenbedarf abfangen können. Die Beschaffung genauer Aussagen tendiert schon wieder zu einer Herausforderung in genanntem Sinn. Letztlich aber wird man beim BDEW fündig, der u. a. an eine Agentur für Energie-Statistiken verweist.
  • Mit Sicherheit aber wissen wir, wie viel Zeit und Energie es kostet, ein Braunkohlekraftwerk still zu setzen und wieder anzufahren.
  • Nun beklagen wir uns, dass durch die Finanzierung dieses Systems der Strom zu teuer wird, um ihn z. B. für Heizzwecke einzusetzen und so »regenerativ« zu heizen: »In zukünftigen Szenarien mit sehr hohen EE-Anteilen [erneuerbare Energien] drängt sich daher die Nutzung von Strom im Wärmemarkt, oft auch als „Power-to-Heat“ (PtH) bezeichnet, förmlich auf. Auf diese Weise lassen sich fossile Energieträger, die heute im Wärmemarkt den überwiegenden Anteil darstellen, effizient und kostengünstig substituieren«. Doch genau hier beißt sich die Katze in den Schwanz: Der Strom ist eben nicht kostengünstig aus Sicht des Verbrauchers, also sprich billig – sonst fände dieser es auch »effizient und kostengünstig«, zu viele Möbel zu kaufen und die übrigen dann zu verfeuern.

Nach oben

Diamanten verheizen? (»Ist doch auch nur Kohlenstoff!«)

Der Strom ist eben deswegen teuer, weil der regenerativ erzeugte Anteil darin enthalten ist. Schließlich ist ein besseres Produkt in aller Regel teurer. Ein Produkt, das teurer, aber schlechter ist, gibt es nicht. Es findet keinen Markt, vereinfacht ausgedrückt. Man muss sich zwar im Einzelfall erst darüber unterhalten, was denn »besser« ist, doch besteht wohl Konsens darüber, dass regenerativ erzeugter Strom prinzipiell als höherwertig anzusehen ist; also ist er folgerichtig teurer. Dies ist die eine mögliche Sichtweise. Wir gehen doch auch nicht ins Reformhaus und meutern, dass die Preise dort höher sind als im Supermarkt. Wer glaubt, man bekäme den guten, »grünen« Strom zu Schleuderpreisen, so dass man ihn für kleines Geld und dennoch guten Gewissens verheizen kann, glaubt auch, dass »sich künftig die fossilen Kraftwerke, die Stromnachfrage und die Stromspeicher an der wetterabhängigen Stromproduktion von Windkraft- und Solaranlagen ausrichten müssen«. Müssen vielleicht, aber können vor Lachen! Ebenso gut könnte man fordern, das Wetter habe sich in Zukunft an der Stromnachfrage zu orientieren. Oder die Straßenbeleuchtung brennt fortan nur noch bei Sonnenschein. Welche Verbraucher lassen sich denn ohne Verlust an Nutzwert der wetterabhängigen Stromproduktion anpassen? Die Potenziale (in Anschlusswert oder Energieverbrauch gemessen) sind gering; wo sie groß sind, sind sie schon seit Jahrzehnten erschlossen – ganz abgesehen davon, dass hier wieder so getan wird, als gäbe es »die Stromspeicher« bereits an jeder Ecke. Welche Stromspeicher sind denn hier gemeint?

Oder Müllverbrennung?

Bild 7.2: Stromhandelsbilanz Deutschlands: 14% der Jahresproduktion gehen bei Sonnenschein und Wind billig ins Ausland (im Extremfall zu negativen Preisen), 7% kommen bei »Dunkelflaute« teuer von dort zurück (aus Kernkraftwerken, Kohlekraftwerken…)
Bild 7.2: Stromhandelsbilanz Deutschlands: 14% der Jahresproduktion gehen bei Sonnenschein und Wind billig ins Ausland (im Extremfall zu negativen Preisen), 7% kommen bei »Dunkelflaute« teuer von dort zurück (aus Kernkraftwerken, Kohlekraftwerken…)

Die andere mögliche Sichtweise ist: Erneuerbar erzeugter Strom ist noch weniger wert als Grundlast-Einspeisung. Ein Mitarbeiter des Kernkraftwerks Emsland berichtete (2009): »Wir speisen die Kilowattstunde für 2,9 Cent ins Netz ein«. Eine Eisenbahn-Zeitschrift berichtet: »Tagsüber erhalten Kraftwerksbetreiber im Sommer zwischen 2 ct/(kWh) bis 3 ct/(kWh).« Für Kohlekraftwerke werden anderen Orts ebenfalls 3 ct/(kWh) angegeben. Auch wenn der Strom-Großhandel heute über die großen Strombörsen läuft, entsprechen diese Angaben – als Jahresdurchschnittswerte – nach wie vor näherungsweise den Tatsachen und lassen sich somit für diese Betrachtungen heranziehen. Die Grundlast-Einspeisung steht zwar immer nur in konstanter Höhe, aber doch wenigstens rund um die Uhr, Sommer wie Winter zur Verfügung. Von der Fotovoltaik weiß man hingegen, dass sie bei Nacht schon mal gar nicht und im Winter nur sehr, sehr mäßig zur Verfügung steht; ansonsten weiß man nur, dass man nichts weiß. Das ist ziemlich wenig. Daher hat fotovoltaisch erzeugter Strom auf dem Markt zunächst einmal einen noch deutlich geringeren Wert als Grundlast-Einspeisung.

Nach oben

Der Spagat

Tabelle 7.2: Entwicklung der Preise an der Strombörse EEX am Muttertag, 08.05.2016
Tabelle 7.2: Entwicklung der Preise an der Strombörse EEX am Muttertag, 08.05.2016

Welchen der beiden Standpunkte man beziehen möchte, ist Geschmackssache. Dies erklärt den Fortbestand vieler kontroverser Debatten. Vielleicht müsste man deutlicher zwischen »Wert« und »Preis« unterscheiden, die hier, wenn man so will, ungewöhnlich stark auseinander klaffen, was eine objektive Bewertung und Beurteilung erneuerbarer Energie-Einspeisung und der Energiewende unmöglich macht. Dies bleibt deshalb vorerst eine Frage von »Meinung«, nicht von Fakten. Nur so viel lässt sich feststellen:

Offenbar hat erneuerbare Energie im Stromnetz so lange einen gewissen Wert (gemessen an Kosten / Preisen), wie sie als Ergänzung zu den konventionellen Quellen auftritt. Der Marktpreis entspricht ganz grob den Kosten für den eingesparten Brennstoff – oder jedenfalls müsste dies so sein, wenn es sich nicht um einen »regulierten Markt« handelte (der Begriff hat etwas von einem runden Quadrat). Spätestens dann, wenn sich keine konventionelle Einspeisung mehr ersetzen lässt, kommt es zu negativen Strompreisen (Bild 7.7). Zur Zeit pendelt die Situation im Netz also zwischen den beiden Sichtweisen – oftmals erstaunlich schnell – hin und her, wie die Ausschläge an den Strombörsen zeigen, und treffen gelegentlich die »Banden«. Da die Regenerativen nicht auf Abruf verfügbar sind und das konventionelle System daher daneben Gewehr bei Fuß stehen bleiben muss, besteht das betriebswirtschaftliche Dilemma der Regenerativen darin, dass ihre mittleren Kosten mit den Grenzkosten der Konventionellen konkurrieren. Das ist natürlich marktwirtschaftlich nicht zu schaffen.

Nach oben

Bild 7.3: Leistungscharakteristik einer Windkraftanlage Enercon E-82 E4 für Aufstellung an Land, 3000 kW, Rotordurchmesser 82 m
Bild 7.3: Leistungscharakteristik einer Windkraftanlage Enercon E-82 E4 für Aufstellung an Land, 3000 kW, Rotordurchmesser 82 m

Lösungen werden allenthalben vorgeschlagen wie z. B. »Schwachwindanlagen«, deren Rotoren eigentlich für 8 MW ausgelegt sind, deren Generator aber nur 3 MW leistet. Hierdurch ergäben sich »auch im Binnenland 3000 Vollbetriebsstunden«. Das Problem sind aber auch wieder die Kosten der 3-MW-Anlage, die fast so viel kosten wird wie eine 8-MW-Anlage – und bei Flaute dennoch nichts, bei starkem Wind aber nur 3 MW statt 8 MW liefert. So gerät auch diese Lösung leider schnell in die Nähe von »Schwachsinnanlagen«

Zu berücksichtigen ist dabei auch, dass die Auslegung der Windkraftanlagen je nach vorgesehenem Standort ohnehin schon variiert. So bietet selbst der Hersteller Enercon, der nach eigenen Angaben nur für das Festland (nicht für die Aufstellung auf See) produziert, durchaus verschiedene Auslegungen an (Bild 7.2, Bild 7.3 – C P ist dort der Leistungsbeiwert, praktisch der Wirkungsgrad der Maschine, der gemäß einer Theorie einen Wert von 16/27 nicht überschreiten kann, denn die kinetische Energie der Luft kann nicht vollständig ausgeschöpft werden, sonst würde sich die Luft an Ort und Stelle anhäufen, was nicht denkbar ist).

Bild 7.4: Leistungscharakteristik einer Windkraftanlage Enercon E-115 für Aufstellung an Land, 3000 kW, Rotordurchmesser 115 m
Bild 7.4: Leistungscharakteristik einer Windkraftanlage Enercon E-115 für Aufstellung an Land, 3000 kW, Rotordurchmesser 115 m

Ein anderer Beitrag untersucht die »technische Effizienz von Spitzenkappung«. Auch dieser stellt fest, dass »ein Netzausbau für die Aufnahme sämtlicher erneuerbarer Energien bis zur letzten Kilowattstunde nicht immer sinnvoll ist«, leider aber vom Gesetzgeber verlangt wird – ja, mehr noch: Dieser verlange vom Netzbetreiber auch einen Netzausbau, der dies ermöglicht. Es wird vorgeschlagen, diese rechtliche Lage zu ändern und »bei der Planung von Verteilnetzen eine Spitzenkappung um bis zu 3% der eingespeisten Jahresenergie von Solar- und Windenergieanlagen im Rahmen der Netzplanung zu ermöglichen«. Dazu benötigt man dann natürlich wieder Last- und Einspeiseprofile.

Nach oben

Der weitaus größte Schritt liegt noch vor uns

Bild 7.5: Der Zugewinn wächst mit dem betriebenen Aufwand immer langsamer, die Kosten immer schneller
Bild 7.5: Der Zugewinn wächst mit dem betriebenen Aufwand immer langsamer, die Kosten immer schneller

Bislang müssen noch die regenerativen Einspeisungen in das bestehende Netz integriert werden. 33% haben wir schon; bis 40% sieht die ETG kein unlösbares Problem – erhöhten Aufwand zwar, und der kostet Geld, aber es ist machbar. Diese Zahl ist zwar auch wieder mit Vorsicht zu genießen, denn von den 33% in Deutschland erzeugter regenerativer Einspeisung ist ein Teil ins Ausland gegangen und – zu anderen Zeiten – aus zum Teil konventioneller Erzeugung wieder importiert worden. Dabei muss davon ausgegangen werden, dass der »Re-Import« aus konventioneller Erzeugung einschließlich Kernkraft stammte, denn:

Um die bestehenden konventionellen Kraft¬werke stilllegen zu können, müssten die vor¬handenen re-generativen Einspeisungen jeweils um den Faktor 11,2 erhöht werden
Um die bestehenden konventionellen Kraft¬werke stilllegen zu können, müssten die vor¬handenen re-generativen Einspeisungen jeweils um den Faktor 11,2 erhöht werden
  • Der Export ins Ausland funktionierte überhaupt nur, weil es dort kein dem deutschen ähnliches EEG und keine entsprechend hohe installierte Leistung gab.
  • Und selbst wenn es dort in ähnlichem Umfang wie im Inland Solar- und Windeinspeisung gab, so ist in den Nachbarländern das Wetter ähnlich wie bei uns, so dass Überflüsse und Mangelsituationen hier wie dort stets zur gleichen Zeit in ähnlichen Ausmaßen entstehen. Die Handelsbilanz (Bild 7.2) korreliert erschreckend gut mit den negativen Strompreisen (Tabelle 7.2)!

So – und nur so – wurde ein Leistungsausgleich geschaffen. Doch spätestens dann, wenn die Sache »kippt«, also eher von einem Netz gesprochen werden muss, in dem die konventionellen einen niedlichen, kleinen Zusatz zu den vorwiegend und standardmäßig regenerativen Quellen bilden (Fernziel 80%), dann »hat sich was« mit Ausgleich. Dann wird man sich fragen müssen: Wie soll der Weg dorthin aussehen? Denn mit – zwecks einfacheren Rechnens stark geschönten – Beispielzahlen ergibt sich der Trend (Bild 7.6):

  • Eine Windkraftanlage oder 50 000 m² Solargeneratorfläche liefern im Jahr so viel Energie wie etwa 1000 Haushalte im selben Jahr verbrauchen. Tatsächlich sind die Haushalte damit aber nur zur Hälfte versorgt, weil Sonne und Wind nicht immer … – usw.
  • Mit zwei Windkraftanlagen bzw. 100 000 m² Solargeneratorfläche klappt die Versorgung vielleicht schon über 3/4 der Zeit, aber beide müssen im Mittel der Zeit um je 50% abgeregelt werden, liefern also nur noch halb so viel Energie wie sie könnten – mit den zwangsläufigen Folgen für die Erlöse: Die Errichtungskosten haben sich verdoppelt; der Ertrag leider nicht.
  • Vier Windkraftanlagen bzw. 200 000 m² Fotozellen versorgen die 1000 Haushalte schon zu 7/8; nur über 1/8 der Zeit treten Versorgungslücken auf
  • usw. Die Abregelung erneuerbarer Einspeisungen, die heute nur sporadisch in Extremsituationen notwendig wird, tritt umso häufiger ein, je mehr die Erneuerbaren in Konkurrenz zueinander treten. Wir befinden uns gerade eben an der Grenze, wo dieser Effekt anfängt, zum Tragen zu kommen. Je mehr Anlagen jedoch vorhanden sind, desto häufiger werden diese also untätig herumstehen oder in Teillast vor sich hin dümpeln und selbst während der relativ kurzen Zeiten, in denen sie »richtig etwas bringen« könnten, nur einen Bruchteil davon erbringen.

Oder, anders ausgedrückt:

Wir haben in Deutschland

  • 1/3 subventionierte regenerative Einspeisung, die von
  • 2/3 konventioneller Einspeisung mit getragen werden muss.

Wir wollen in Deutschland

  • 4/5 regenerative Einspeisung, die von
  • 1/5 konventioneller Einspeisung mit getragen werden soll

bzw. sich selbst trägt, wie dann hoffnungsfroh erwartet wird. Das heißt dann aber, dass

  • eine Windkraftanlage nur an jedem fünften Starkwindtag wirklich läuft,
  • also bei Starkwind eine laufende vier still stehende mit »durchfüttern« muss – jedenfalls finanziell gesehen,
  • bzw. alle fünf Anlagen nur mit 20% ihrer Bemessungsleistung laufen – wie bei sanfter Brise (Bild 7.2, Bild 7.3).

Erst wenn unser Netz, das seit Jahr und Tag über gut 90 GW (zwischen 1993 und 2003 sogar 100 GW) installierter konventioneller Leistung verfügt, statt dessen eine installierte erneuerbare Leistung von 1200 GW aufzuweisen hätte, ließen sich die 90 GW konventioneller Leistung stilllegen (Bild 7.5). Die einzelne regenerative Anlage wäre dann statistisch nur noch zu 4,75% ausgelastet – doch was sagt die Statistik schon aus? Liegt doch dieser Rechnung die Annahme zu Grunde, alle erneuerbaren Einspeisungen würden (gegenüber 2017) im gleichen Verhältnis zueinander ausgebaut. Dies aber würde bedeuten, dass allein das Biogas schon auf 78,5 GW käme (Bild 7.6). Da es nun auch wieder einen Umweltfrevel darstellt, überschüssiges Biogas in solchen Mengen, wie sie dann anfielen, ungenutzt abzufackeln oder unverbrannt in die Luft zu pusten, würde das Netz also fast nur noch von Biogas-Anlagen gespeist. Die (unter anderem auch) teuren »Landschaftsspargel« stünden dann wirklich überall (nur noch) herum – (Bild 7.7) während das Biogas auch in seiner heutigen Form nur subventioniert Bestand hat. Technisch bestünde hier die Möglichkeit, durch die Errichtung immenser Biogasspeicher das Speicherproblem gleich »mit zu erschlagen«, doch die Errichtungskosten und die Verluste bei der Kompression (Abschnitt 4.3.1) kämen noch hinzu – während selbst Erdgas auf dem heutigen Markt schon zu teuer ist.

Das System wird sich mit weiterem Ausbau von nun an also wieder weiter von der Selbstfinanzierung entfernen. Gebraucht würde ein völlig anderes Tarifsystem, dem Umstand Rechnung tragend, dass die erneuerbaren Quellen »eigentlich« nichts kosten; es sind »nur« die Anlagen zur Erzeugung und Verteilung der Energie zu finanzieren. Logische Folge wäre das, was sich im Mobilfunk »Flatrate«, in älteren Branchen nach wie vor »Pauschaltarif« nennt. Konventionelle Energie kostet, wie ausgeführt, etwa 3 ct/(kWh); regenerative kostet im Prinzip nichts. Zu einem Drittel ist die »kostenlose« regenerative Energie mittlerweile an der Erzeugung beteiligt; damit müsste der Arbeitspreis auf etwa 2 ct/(kWh) fallen. Statt dessen steigt er weiter und weiter, weil die Netzkosten darin untergebracht wurden. Das ist im Prinzip falsch; diese müssten dem Leistungspreis zugeschlagen werden. Dies jedoch endet mit »spanischen Verhältnissen« und würde jegliche Motivation für den sparsamen Umgang mit Energie zerstören, während Sparsamkeit und rationeller Einsatz trotz dieser Umstände eine wichtige Stütze der Energiewende bleiben. Für dieses Problem ist zur Zeit keine praktikable Lösung in Sicht.

Während dessen besagt die öffentliche Wahrnehmung: »Der Gesetzgeber will den Ausbau [hier: der Windkraft] deutlich bremsen.« Richtig müsste es heißen: »Der Gesetzgeber will den Ausbau weniger stark subventionieren (besser gesagt: subventionieren lassen) als bislang.« Denn das macht Sinn. Auch Gesetzgeber vollführen nicht nur Unsinn. Anderenfalls nämlich mutieren die konventionellen Kraftwerke von einem Bus, der (wenn auch mit wechselnder Auslastung) nahezu immer fährt, zu einem Taxi, das dauernd Gewehr bei Fuß steht und bei Bedarf gerufen wird. Die Preise sind entsprechend – obwohl man in Kauf nimmt, auch gelegentlich schon mal kein Taxi zur rechten Zeit zu bekommen, was beim Strom (in industrialisierten Ländern bislang) als indiskutabel angesehen wird. Im Extremfall muss die konventionelle Erzeugung nur noch als eine Art Feuerwehr bereit stehen, doch man stelle sich vor, ein Hydrant müsse sich über das abgegebene Wasser amortisieren!

Dabei ist es schon jetzt erstaunlich, dass die Abregelung erneuerbarer Einspeisungen noch nicht den Alltag darstellt, denn fassen wir zusammen, so haben wir in Deutschland

Tabelle 7.3: Veränderungen von 2017 (Tabelle 1.1) gegenüber 2016 (negative Werte in Rot dargestellt)
Tabelle 7.3: Veränderungen von 2017 (Tabelle 1.1) gegenüber 2016 (negative Werte in Rot dargestellt)
  • einen minimalen Leistungsbedarf von 35 GW,
  • einen maximalen Leistungsbedarf von 82 GW,
  • eine installierte Windkraftleistung von 45 GW,
  • eine installierte Fotovoltaik-Leistung von 40 GW.

Es muss also Zeiten geben – und zwar mehr als nur ein paar Stunden im Jahr – zu denen mehr Wind- und Solarstrom in das deutsche Netz eingespeist wird als daraus insgesamt elektrische Leistung entnommen wird. Der »Muttertag« 2016 glänzte mit ungetrübtem Sonnenschein, viel Wind und geringem Strombedarf, welcher dann zu 95% – noch nicht einmal zu 100% – aus Sonne und Wind gedeckt werden konnte. Dennoch sackten die Preise an der Strombörse um 14 Uhr auf -130 €/(MWh) ab (Tabelle 7.2). Dabei lag die Wind-Einspeisung erst bei gut 50% der installierten Leistung. Was ist nun bei 80% (Bild 7.2, Bild 7.3)? Und was ist während dieser Zeiten mit den zusätzlich laufenden konventionellen Kraftwerken, die sich, wie ausgeführt, nicht ohne weiteres abregeln oder gar stillsetzen lassen? Die Erklärung ist:

  • Wie bereits dargelegt, gibt es kein »deutsches Stromnetz«, sondern einen wesentlich weiträumigeren Verbund.
  • Innerhalb dessen nimmt Deutschland die Spitzenposition ein, was den Anteil aus erneuerbaren Quellen erzeugter elektrischer Energie betrifft.
  • Deutschland ist ein Strom-Exportland mit steigender Tendenz (Bild 7.2).
Bild 7.7: Die Windkraft leistet einen deutlich besseren Beitrag zur Energiewende als die Solarenergie, muss sich aber – teilweise auch von Umweltschützern – als »Verspargelung der Landschaft« brandmarken lassen
Bild 7.7: Die Windkraft leistet einen deutlich besseren Beitrag zur Energiewende als die Solarenergie, muss sich aber – teilweise auch von Umweltschützern – als »Verspargelung der Landschaft« brandmarken lassen

Nach oben

Bild 7.5: Der Zugewinn wächst mit dem betriebenen Aufwand immer langsamer, die Kosten immer schneller
Bild 7.5: Der Zugewinn wächst mit dem betriebenen Aufwand immer langsamer, die Kosten immer schneller

Der Überschuss wird also gegebenenfalls »nach Polen gedrückt«, wie es ein Vertreter von EnBW in einem Normen-Arbeitskreis formulierte. Andere Fachkollegen kommentieren, dass »die Energiewende in Deutschland nur so lange gutgeht, wie unsere Nachbarländer nicht auf dieselbe Idee kommen«. Tatsächlich bedeutet ein Export von 15% der jährlichen Energie-Erzeugung, dass (Beispielzahlen!) ein halbes Jahr lang durchschnittlich 30% der im Inland erzeugten Leistung ins Ausland fließt. Ein Import von 6% der jährlichen Energie-Erzeugung bedeutet, dass das andere halbe Jahr lang durchschnittlich 12% des inländischen Leistungsbedarfs aus dem Ausland bezogen wird. Da die Lastflüsse natürlich nicht konstant sind, also in kaum einem Moment dem Durchschnitt entsprechen, muss davon ausgegangen werden, dass der Grenzverkehr zeitweise auch sehr viel höher liegt. Nur so ist zu erklären, dass das System als Ganzes noch funktioniert, ohne dass alle »Windmühlen« bei starkem Wind stets unausgelastet sind und Fotovoltaik-Anlagen bei Sonnenschein meist gedrosselt werden müssen. Einige europäische Nachbarländer (Polen, Tschechien …) statten derzeit die Kuppelstellen an ihren Grenzen mit Längsdrosseln aus, damit der deutsche Nord-Süd-Transit nicht ständig deren Netze so hoch auslastet. Der Netzbetreiber 50Hertz mit einem Anteil von 49% regenerativer Stromerzeugung betont: »Wir haben dadurch einen sehr hohen Exportbedarf«.

Somit ist das häufig vorgebrachte Argument, die regenerative Stromerzeugung im Inland mache uns weniger abhängig vom Ausland, ebenfalls nicht richtig, sondern vielmehr werden die Übertragungsnetze – wie die Verteilnetze – nun doppelt statt einfach benutzt: Das eine Mal bei »Dunkelflaute« als Notversorgung und das andere Mal zum Export der Überschüsse.

Auch hierzu meldet die ETG: »Es sei darauf hingewiesen, dass die … abgeschätzte erforderliche installierte Leistung [für das dort entworfene Szenario] in einem Bereich von 276 GW bis 516 GW etwa das Drei- bis Sechsfache der heutigen Spitzenlast von rund 80 GW ist« (hier Tabelle 1.1) und »Der Zubau an erneuerbaren Energiequellen führt dazu, dass diese Leistung insgesamt etwa das Vierfache der heutigen Höchstlast beträgt«. Steigert man obiges Szenario nun noch auf 100%, so steigt der dafür notwendige Aufwand, um die bestehende Rundum-Vollversorgung voll erneuerbar sicherzustellen, ins Unendliche, wie man sieht. Damit ist das Problem einer »Dunkelflaute« noch nicht einmal gelöst. Speichertechnologien, die die in jedem Szenario verbleibenden Lücken schließen könnten, gibt es nicht – bis auf eine, die aus geografischen Gründen nur in einigen Ländern umsetzbar ist. Gäbe es die Flächen deckende Speicherlösung, so wäre diese umso seltener gefordert, je üppiger die Ausstattung mit einspeisenden Quellen wäre. Benötigt würden sie aber noch immer – am Ende des Szenarios nur noch für ein paar Augenblicke im Jahr, wie ein Notstrom-Aggregat. Die Kostendeckung würde dadurch immer schlechter; da helfen Subventionen ebenso wenig weiter wie fortwährende Sensationsmeldungen.

Nach oben

Sensationsmeldungen, Unwörter und Begriffsinflation

Wegen des stark gestiegenen Drucks zur Präsenz in der Öffentlichkeit, vor allem durch das Internet, fühlen sich weite Kreise in Industrie und Forschung genötigt, in regelmäßigen Abständen auf Gedeih und Verderb etwas Neues zu präsentieren. Mitunter mag hiervon auch die Bewilligung von Fördergeldern abhängen. Dies kann die Darstellung – unter Umständen nicht bestehender – Zusammenhänge oder die Neuprägung oder Umwidmung, das »Weichspülen« technischer Ausdrücke, betreffen. Offenbar unterliegen nicht nur elektrotechnische Anlagen, sondern auch elektrotechnische Fachbegriffe bisweilen einer »Nutzungsänderung«. Das treibt oftmals seltsame Blüten, die den rein technisch interessierten Leser aufbringen – oder es doch sollten, wenn er ein klein wenig genauer hinsieht. Dies sei an Hand einiger Beispiele aus dem hier angesprochenen Themenkreis erläutert:

Aus Alt mach‘ Neu

So ist zu berücksichtigen, dass unsere derzeitige Energiewende bereits die dritte ihrer Art und daher – als Komplementärstück zur ersten – eine vollständige 360°-Wende darstellt: Einstmals wurde die Windkraft abgeschafft, und Segelschiffe wurden durch Dampfschiffe, Windmühlen durch elektrische ersetzt. Dann glaubte man, alle Energie durch Kernkraft ersetzen zu können, doch ehe eine entsprechende Wende zu Ende geführt werden konnte, ereigneten sich zwei großräumige Unfälle, die die Einschätzung der mit der Kernkraft verbundenen Risiken veränderte und uns zur dritten Energiewende führte – der Umkehrung der ersten. Und jedes Mal glauben wir, etwas sensationell Neues erfunden zu haben. So weit ist es damit oft nicht her.

Das Mittel mit der Lösung verwechselt

Auch wird in entsprechenden Veröffentlichungen oftmals – ob nun bewusst oder unbewusst – der Eindruck erweckt, eine präzise Wettervorhersage sei die Lösung des Problems mit den Erneuerbaren. Nein, sie ist nur eine mehrerer notwendiger Voraussetzungen, aber eben noch keine hinreichende: Dadurch, dass man den Speicherbedarf – und sei es noch so präzise – vorhersagen kann, ist der Speicher noch nicht erfunden, geschweige denn errichtet. Man weiß nur wesentlich genauer als zuvor, wann und wo und wie sehr er fehlt. So kann die Wettervorhersage beim Packen des Koffers zwar sehr hilfreich sein, um zu entscheiden, ob man den Sommer- oder den Wintermantel einpackt, aber dazu müssen beide Mäntel schon vorhanden sein. Zum Einkaufen ist es jetzt zu spät – auch wenn das Geld verfügbar sein sollte.

Möglicherweise hilft hier eine Anleihe bei den großen Finanzmärkten. Bekanntlich lassen sich dort »Leerverkäufe« tätigen: Man verkauft also etwas, wovon man hofft, dass man es wohl beizeiten bekommen wird. Zu überlegen wäre die Einführung einer Doppel-Null-Lösung in Form eines Marktes für »Blindleistungs-Leerverkäufe«, wie ein Zyniker es vorschlug. Zahlreiche Patente zur Umwandlung von Blindleistung in Wirkleistung warten noch auf ihre Umsetzung und Vermarktung. Warum wohl? – Ein anderer Zyniker schlug Energiespeicherung per App vor. Wie diese funktionieren solle, das sei dann Aufgabe der Techniker. Denen jedoch bereitet die Energiespeicherung bislang noch erheblich größere Schwierigkeiten als die Datenspeicherung.

Cloud-Dienste

Ja, sogar ein großer Stromkonzern bietet jetzt etwas Ähnliches wie eine solche App an: Man kann dort offensichtlich eine »Cloud« mieten und im Sommer den Überschuss selbst erzeugten Solarstroms hochladen, um ihn im Winter wieder abzurufen. Wo die Energie in der Zwischenzeit gelegen hat, steht dort nicht. Den Speicherplatz kann man jedoch ab 21,99 € im Monat anmieten. Was ab hier heißt, steht dort auch nicht. Das erfährt man offenbar erst, wenn man dort anruft. Als potenziell wechselwilliger Stromkunde mit einem gegenwärtigen Grundpreis von 93,06 € – aber für das ganze Jahr, nicht pro Monat – fragt man sich dann schon, ob die Strom-Cloud einem den Strom klaut. Bei einem »Wert« des PV-Stroms von z. B. 13 ct/(kWh) und einem regulären Bezugspreis von z. B. 26 ct/(kWh) lassen sich durch Eigenverbrauch 13 ct/(kWh) einsparen. Man wird also schon im Sommer einen Überschuss von gut 2000 kWh – also für einen kleinen sparsamen Haushalt den kompletten Jahresverbrauch – »hochladen« und im Winter ein entsprechendes Defizit wieder »herunterladen« müssen, um gerade mal die Gebühren bezahlen zu können. Soll sich die Fotovoltaik-Anlage darüber hinaus auch noch finanzieren, wird es erheblich mehr sein müssen. In dem Fall aber dürfte einen die freundliche Stimme am Telefon aufklären: »Nein, bei diesen Mengen ist der Tarif höher…«.

Und natürlich wurde der Strom nicht ein halbes Jahr lang gelagert, nicht in einem Akkumulator (oder 1000 Stück davon) und auch nicht in einem Stausee. Selbstverständlich hat der Stromkonzern die Leistung zu dem Zeitpunkt, als sie anfiel, irgendwie irgendwo »mit verwurstet« und im Winter neu erzeugt – aus Kohle- oder Kernkraft, denn es war ja im Moment nichts Anderes verfügbar.

Dies lässt dreierlei erkennen:

  • Das Netz muss für die zweimalige Nutzung vorhanden sein, und das muss jemand finanzieren. Not macht erfinderisch.
  • Die großen, etablierten Stromkonzerne kämpfen um das nackte Überleben und müssen aus finanziellen, politischen, PR- und Akzeptanzgründen irgendetwas anbieten, das sich mit einem Etikett wie »Speicher« oder noch besser »Cloud« vermarkten lässt und dennoch Geld abwirft.
  • Auf leicht versteckte Art kommt so der zwangsläufige Übergang weg vom hohen Verbrauchstarif (da die Energie als solche nichts kostet) zurück zum hohen Grundtarif auf uns zu (denn »nur« die Erzeugungs- und Verteilungsanlagen, vor allem die Vorhaltung der Leistung, kosten viel Geld).

Wem vorher erzählt wurde, Nachtspeicheröfen könnten Strom speichern, findet es rundum plausibel, dass auch das Netz »irgendwie« Energie speichert – und versteht von der ganzen Energiewende nur die hoch fliegenden Hoffnungen (»so hoch hängen die Früchte doch gar nicht!«), aber nicht die Schwierigkeiten.

Nach oben

Hochrechnungen

Es geschah in einem Normungsgremium. Diskutiert wurde darüber, dass sich Energiesparmaßnahmen durch überdimensionierte Leiterquerschnitte in der Industrie sehr wohl lohnen, im Wohnbau dagegen eher nicht. Die Aufrüstung des Stromkreises für die Waschmaschine von 1,5 mm² auf 2,5 mm², rechnete ein Teilnehmer vor, spare 20 Cent im Jahr und zahle sich daher erst nach 50 Jahren aus – hätte man denn gleich die stärkere Leitung eingesetzt. Die Nachrüstung mache sich erst nach Jahrhunderten bezahlt. »Na ja«, lautete ein Kommentar, »aber bei 10 Millionen Haushalten kommt da schon etwas zusammen!« Sicher, doch gilt dies für die Investition ebenso wie für die Ersparnis. Es bleibt also bei 50 Jahren, ob nun für eine Wohnung oder für 10 Millionen Wohnungen. Vom Prinzip her mag sich das rechnen, doch den Betriebswirt wird es grausen.

Nach oben

Statistik

Bild 7.8: »Erneuerbare erstmals wichtigster Energieträger!«
Bild 7.8: »Erneuerbare erstmals wichtigster Energieträger!«

Es gibt drei Arten der Lüge, sagte einmal ein weiser Mensch: Die gewöhnliche Lüge, den Meineid und die Statistik. Doch das ist falsch.

Ein anderer glaubte nur an Statistiken, die er selbst gefälscht hatte. Auch falsch.

Bild 7.9: Alternativer Titel für dieselben Zahlen wie in Bild 7.8, jedoch in geänderter grafischer Darstellung: »Erneuerbare Energien weit abgeschlagen!«
Bild 7.9: Alternativer Titel für dieselben Zahlen wie in Bild 7.8, jedoch in geänderter grafischer Darstellung: »Erneuerbare Energien weit abgeschlagen!«

Ein dritter, seines Zeichens selbst Professor der Statistik an der TU Dortmund, betitelte eins seiner zahlreichen Fachbücher: »So lügt man mit Statistik«. So ist es richtig, denn äußerst selten lügt die Statistik selbst. Diese besteht nur aus Zahlen, die in aller Regel sogar stimmen. Die Lüge besteht in dem falschen Eindruck, den man durch die Art der Darstellung zu erheischen sucht. So titelte eine Fachzeitschrift: »Erneuerbare erstmals wichtigster Energieträger« – und nicht nur diese. An unzähligen Stellen wurde die Pressemitteilung des BDEW einschließlich der frei Haus mitgelieferten Grafik abgedruckt (hier sinngemäß, jedoch in anderer Form in Bild 7.8 wiedergegeben). Ebenso gut aber hätte man dieselben – sicherlich wahren – Zahlen des BDEW auch anders darstellen und genau gegenteilig betiteln können (Bild 7.9).

Es ist in diesem Zusammenhang noch einer Erinnerung wert, dass die allgemein übliche Aufzeichnung der Leistung in Viertelstunden-Mittelwerten, um zur Energie zu gelangen, nur einen – wenn auch bewährten – Kompromiss zwischen Genauigkeit und Datenflut darstellt. So wurden von der ENTSO-E bis März 2015 die Verläufe von Erzeugung / Verbrauch in Stundenmittelwerten aufgezeichnet. Dies ergab treppenförmige Kurven, was sich als nicht hinreichend genau erwies. So ging man auch dort zu 15-Minuten-Mittelwerten über.

Die » Agora Energiewende« hingegen, die sich als Beratungsinstanz der Bundesregierung gründen ließ oder selbst gründete, publiziert – wenn es denn gerade passt – auch Lastgänge (eigentlich müsste es hier »Einspeisegänge« heißen) in Tagesmittelwerten. So lässt sich erreichen, dass die Sonne auch nachts scheint. Herr Prof. Helmut Alt (FH Aachen) kommentiert dies wie folgt: »Einige wenige Menschen sterben nach 6 Tagen Oktoberfest (auch weit abseits negativer Bierpreise). Überlebende jedoch, die 6 Tage ohne jede flüssige Nahrung folgen lassen, sterben, obschon der Mittelwert der Getränkezufuhr optimal ist!«

Nach oben

Autarkie

Fragt man gestandene, altgediente Elektrofachkräfte, was sie unter einer »autarken« Stromversorgung verstehen, lautet die Antwort sinngemäß (aber auch schon mal wörtlich): »Wenn ich die Panzersicherung ziehe«. (»Ich bin reif für die Insel!«, beschloss die Hauptsicherung – und brannte durch). Autark in diesem Sinne waren früher nur Almhütten, bei denen Solarzellen plus Akkumulator plus (für alle Fälle) auch noch ein Notstrom-Aggregat immer noch billiger waren als eine Kilometer lange Stromleitung, oder ein Krankenhaus (Bild 7.10) im Notstrombetrieb bei Stromausfall.

Heute dagegen darf sich eine Versorgung offenbar bereits »autark« nennen, wenn sie im Sommer ungefähr so viel Energie in das Netz einspeist wie sie im Winter daraus entnimmt. Das wird jedoch nicht thematisiert, sondern die Erkenntnis, dass dies offensichtlich so gemeint ist, sickert implizit langsam und allmählich beim Lesen entsprechender Verlautbarungen durch. Seriöse Quellen weisen hierauf wenigstens durch den Gebrauch des Ausdrucks »bilanzielle Autarkie« hin; für die meisten ist dies jedoch nicht erforderlich – um nicht von »unerwünscht« zu reden.

Bild 7.10: Tatsächlich gemessenes Lastprofil eines Krankenhauses (2014) – gemessen wurde hier der Bezug vom Netz: Die Zeiten, in denen dieser Bezug auf 0 fällt, entsprechen den monatlichen Testläufen der Notstromversorgung
Bild 7.10: Tatsächlich gemessenes Lastprofil eines Krankenhauses (2014) – gemessen wurde hier der Bezug vom Netz: Die Zeiten, in denen dieser Bezug auf 0 fällt, entsprechen den monatlichen Testläufen der Notstromversorgung

Nach oben

»Null-Energie-Haus«

In genau diesem Sinne ist übrigens auch der Begriff »Null-Energie-Gebäude« zu verstehen: Es speist über den Sommer etwa so viel Energie ins Netz wie es im Winter daraus entnimmt. Die Aussage dahinter ist eigentlich gar keine und der Begriff damit so überflüssig wie ein Kropf – ja, sogar schädlich, da irreführend.

»Microgrids«

Dieser Ausdruck klingt an sich schon »smart«, wird aber auch mit völlig unterschiedlichen Bedeutungen belegt:

  • Das eine Mal bezeichnet er nur einen Teil des Netzes, der vielleicht nur an einer Stelle statt an mehreren mit dem umgebenden / vorgelagerten Netz verbunden ist. Das ist jedoch elektrotechnisch, grob gesagt, das gleiche. Auf die Stärke (und Entfernung usw.) der Kuppelstelle kommt es an. Es entsteht beim flüchtigen Hinsehen ein Eindruck, als werde es eigenständig betrieben; wird es aber nicht.
  • Ein anderes Mal handelt es sich tatsächlich um einen Inselbetrieb. Das Motiv für das Gedanken-Experiment – mehr ist es kaum jemals – kann darin bestehen, sicher stellen zu wollen, dass man wirklich nur regenerative Energie im (jetzt wort-wörtlich) »eigenen« Netz hat. Dann aber wäre der Aufwand für die Errichtung so wie eingangs des Abschnitts zu den Energiespeichern beschrieben. Bemerkenswerterweise wird in Abhandlungen und z. B. Vorträgen, die diesen Gedanken irgendwo »unterzubringen« suchen, oft ganz schnell auf die Möglichkeit hingewiesen, sich doch mit seinem Nachbarn zu verbinden, um einen besseren Lasten-Ausgleich zu erreichen. Nur weiter so; in fünf bis sieben Schritten landen wir damit wieder bei dem europäischen Verbundnetz, das wir – aus guten Gründen – schon haben.

Netzparität

Ganz ähnlich verhält es sich mit dem Begriff »Netzparität«. Dieser wäre besser nie erfunden worden, da er so bedeutungsvoll klingt, aber nichts aussagt:

  • Einerseits liegt eine stochastische Einspeisung vor, die zu keinem einzigen existierenden Lastprofil auch nur annähernd passt. Dieser Strom ist an sich nahezu wertlos. Er ist, wie ausgeführt, weniger wert als Grundlaststrom.
  • Auf der anderen Seite steht ein stark stochastischer Bedarf, aber der Stromkunde hält es für selbstverständlich, eine Stromversorgung zur Verfügung zu haben, die damit fertig wird, dass er bisweilen nach Belieben und Spontanlaune das 50-Fache seiner durchschnittlichen Leistung entnimmt. Solcher Strom stellt ein sehr hochwertiges Produkt dar und ist naturgemäß ziemlich teuer. Der Preis lag 2016 um 30 ct/(kWh).Darin waren allein 7,6 ct/(kWh) an Netzentgelten enthalten – die eigentlich immer fällig werden müssten, ob man das Netz nun als Verbraucher oder als Erzeuger benutzt.

Wenn die Kosten für solcherlei Erzeugung wie beschrieben nicht mehr höher sind als die Preise, die ein Kunde für solcherlei Verbrauch wie beschrieben bezahlt, ist dies weit entfernt von einem Grund zum Jubeln. Wer das eine mit dem anderen gleichsetzt (»Parität«), sollte sich doch besser im alten Sinn des Wortes »autark« schalten, sich also vom Netz trennen und auf seiner Strominsel glücklich, zufrieden und vor allem billig leben. Warum berichten die Leute denn immer so eifrig darüber, anstatt es einfach zu tun? Weil es halt so einfach nicht ist! Das Reden fällt viel leichter. Und wird eine Preisgleichheit zwischen Haushalts-Stromtarif und Fotovoltaik-Einspeisung tatsächlich beobachtet, so ist dies weder der Technik, noch dem Markt, sondern der jeweiligen Subventionspolitik zu verdanken und insofern kein Meilenstein, sondern willkürlich herbeigeführt; werden doch die Mehrkosten zur Ermöglichung solarer Einspeisung zunächst durch eine Abgabe von etwa 6,8 ct/(kWh) auf den Verbraucherpreis gedeckt, und die »Parität« wird gegen diesen künstlich erhöhten Preis gerechnet.

Dies jedoch ist noch der weitaus kleinere Teil der Diskrepanz. Der größere entsteht dadurch, dass die Kosten für Errichtung und Betrieb einer Solaranlage über ihre Lebensdauer mit dem Verbraucherpreis verglichen werden statt mit den Preisen, die andere Erzeuger erzielen. Wenn

  • ein Großkraftwerk Strom für 3 ct/(kWh) in das Netz einspeist, aber
  • eine private Fotovoltaik-Anlage Strom für 18 ct/(kWh) zu erzeugen in der Lage ist,

nennt sich dies »Netzparität«. Was ist denn daran »gleich«? Gleichwertig mit Strom aus dem Netz ist der Strom aus einer Fotovoltaik-Anlage erst dann, wenn er zu einem Preis von 2 ct/(kWh) Tag und Nacht verfügbar ist. Wenn sich die Anlage dennoch für den Betreiber schon bei Gestehungspreisen ab 18 ct/(kWh) »rechnet«, dann liegt das daran, dass die Differenz über eine Umlage von den Kunden ohne Fotovoltaik-Anlage bezahlt wird. Doch was wird denn nun, wenn alle eine haben? Eigentlich müssten in den Preis für eine solar erzeugte Kilowattstunde die Kosten der konventionellen Anlage, die untätig daneben steht und erst bei Sonnenuntergang anläuft, mit eingepreist sein. Dies ist aber niemals der Fall, wo immer auch von »Netzparität« die Rede ist. Wer so rechnet, bezahlt auch die Berufsfeuerwehr und die Rettungskräfte nur für diejenigen Stunden, die sie im Einsatz zubringen. Womit wir bei den Arbeitsplätzen angelangt wären.

Nur allzu gern nämlich werden an dieser Stelle die gewonnenen Arbeitsplätze als Argument bemüht: »Allein die PV-Branche bietet heute schon mehr Menschen Arbeit als die Steinkohle- und Braunkohleindustrie zusammen.« Wenn also zur Gewinnung von 215 TWh elektrischer Energie aus Kohle weniger Arbeitskräfte erforderlich sind als zur Gewinnung von 40 TWh elektrischer Energie aus Fotovoltaik, dann ist doch auch offensichtlich , dass die wirklichen Gestehungskosten – von Subvention und Regulierung bereinigt – bei der Fotovoltaik mehr als 5 Mal so hoch liegen müssen wie bei der Kohle.

Ebenso gut ließe sich z. B. beim Regen eine »Agrarparität« definieren, die besagt, dass es in einem bestimmten Land in einem Jahr (das ist beim Strom – immer noch – der Abrechnungszeitraum) genau so viel regnet wie für die Landwirtschaft optimal ist. Fällt aber sämtlicher Regen ausgerechnet in einem Monat – womöglich auch noch in einem, in dem ohnehin nichts wächst – so ist das Land im Folgemonat erst einmal mit den Aufräumungsarbeiten der Überschwemmungen beschäftigt und leidet danach 10 Monate an der Dürre. Besser würde es dort überhaupt nicht regnen. Eine rechnerische Gleichheit des Ausmaßes von Dürre und Hochwasser macht diesen Zustand kein Bisschen erträglicher.

Nach oben

V2G

Bild 7.11: Soll das E-Auto hier nur vollgeladen oder etwa in Zukunft auch bei Nacht und Nebel wieder »leergelutscht« werden können?
Bild 7.11: Soll das E-Auto hier nur vollgeladen oder etwa in Zukunft auch bei Nacht und Nebel wieder »leergelutscht« werden können?

Warum eigentlich die ganze Sorge um die Speichertechnologien? Demnächst fahren wir doch alle Elektroautos – wenn wir sie denn fahren. Die meiste Zeit stehen sie ungenutzt herum, ihre Akkumulatoren sind aber während dessen mit dem Stromnetz verbunden (Bild 7.11). Hier wird schon wieder eine neue Turbo-Kuh, von der noch gar nicht sicher ist, ob sie jemals wird gezüchtet werden können, gleichzeitig geschlachtet und gemolken. Wenn Akkumulatoren hierfür wirtschaftlich einsetzbar wären, gäbe es keine Pumpspeicherkraftwerke. »V2G (vehicle to grid)« nennt sich das schon nicht mehr ganz neue Zauberwort, manchmal auch »bidirektionales Laden« genannt (was ist dann eigentlich z. B. »bidirektionales Essen«? Und zweckmäßigerweise sprechen wir dann zukünftig auch von »bidirektionaler Kommunikation«, wenn wir wirklich Kommunikation im traditionellen Sinne des Wortes meinen). Ebenso gut könnte man einen Feuerwehrwagen für Auslands-Einsätze vermieten, solange es nicht brennt. Das eigene Auto ist doch nun mal der Inbegriff von Freiheit und Unabhängigkeit. Wer bereit ist, seine Fortbewegung von anderer Leute Fahrplänen oder Lastgängen abhängig zu machen, fährt ohnehin mit dem Bus. Der mögliche Beitrag einer Million Elektrofahrzeuge zur Milderung der durch die Einspeisung regenerativer Energien verursachten Lastgang-Probleme wäre minimal, errechnet denn auch der VDE. Dabei bedürfte es zu dieser Erkenntnis noch nicht einmal einer »Studie«. Ein paar Überlegungen an Hand einiger öffentlich zugänglicher Zahlen führen nahezu zum gleichen Ergebnis: Sollte das politische Ziel von einer Million Elektroautos erreicht werden, und wären dies – was technisch zur Zeit nicht möglich ist – PKW mit dem gleichen Leistungsumfang wie wir ihn gewohnt sind, stiege der Strombedarf in Deutschland um 0,3%. Bedenkt man aber, dass diese eine Million die kleinsten, schwächsten, langsamsten Autos und ausschließlich die Kurzstrecken-Fahrzeuge im gesamten Bestand darstellen, da sie schnell leer und nur langsam wieder voll werden, bleiben noch 0,1% der gesamten Stromerzeugung übrig, die zu einer vollständigen Aufladung aller E-Autos aufzuwenden wären. In dieser Größenordnung würde sich also die gesamte aufsummierte Akkumulator-Kapazität bewegen, von der sich dann wiederum ein Bruchteil zur Stabilisierung des Netzes erübrigen ließe.

Das sieht schlecht aus für das neue Modewort. Was tut man in einem solchen Fall? Man reagiert mit Abwertung: Wiederum ohne eine explizite Äußerung hierzu wird unter »V2G« neuerdings nur noch ein halbwegs intelligent gesteuerter Ladevorgang verstanden. Wenn man es aber wirklich meint, muss man es »bidirektionales V2G« nennen – so ähnlich wie ein »Mehrgang-Schaltgetriebe«. Neu ist uns dergleichen allerdings nicht. Wir Elektrotechniker kennen das schon vom Effektivwert her, der sich Echt-Effektivwert nennen muss, wenn er wirklich gemeint ist.

Lastmanagement

Was aber, wenn schon zu viele Elektrofahrzeuge am Netz hängen, die nichts rückzuspeisen haben, sondern im Gegenteil aufgeladen werden wollen? Das Netz könnte lokal überlastet werden. Es fehlt noch an Lastprofilen und Gleichzeitigkeitsfaktoren zur Beurteilung. Die Lösung lautet »Lastmanagement«. Das klingt wie etwas Tolles, bedeutet jedoch in jedem Fall Einschränkungen für den Stromkunden: Er kann nicht – wie gewohnt – verbrauchen, was er möchte, wann immer er es möchte. »Lastmanagement« bedeutet, dass manche Geräte und Funktionen zeitweise – manchmal überraschend – gesperrt sind. Ein Teilnehmer der Firma Mennekes bringt es in einem Arbeitskreis zum Thema auf den Punkt: »Lastmanagement« heißt auf Deutsch »Mangelverwaltung«.

Auch mangelt es in den betreffenden Berichten stets an Beispielen, welche Lasten denn ein Industriebetrieb aufweist, die für eine Verschiebung der Betriebszeiten in Frage kommen. Dort, wo dies ohne bedenkliche Einschränkungen möglich ist, wird es seit Jahrzehnten praktiziert, so etwa in einem Stahlwerk schon in den sechziger Jahren, wo ein Lichtbogen-Schrottschmelzofen immer dann in Betrieb ging, wenn die werkseigene Erzeugungsanlage – befeuert mit »Gichtgas«, einem Nebenprodukt der Stahlerzeugung – anderenfalls nicht ausgelastet gewesen wäre.

Diese Option ist jedoch offenbar so alt, dass sie mittlerweile in Vergessenheit geriet, wie eine Studie zu Tage brachte. Insgesamt sieben Betriebe aus sechs Bereichen (Abwasser, Papier, zwei Kühlhäuser, Eisengießerei, Chemie, Nichteisen-Metalle) wurden dort in einer Fragebogen-Erhebung zu ihren Potenzialen zur Lastverschiebung befragt. Je nach Branche, Anlage, Geschäftsmodell und »Flexibilitätsquelle« reichten die errechneten Werte der Lastverschiebung von 2,5 €/(MWh) bis 7,21 €/(MWh). Darüber hinaus wurden die Ergebnisse aus den befragten Branchen wie folgt zusammengefasst:

  • Der Flexibilitätswert des Geschäftsmodells wurde auf 3% bis 4% der Energiekosten des flexibilisierten Prozesses bzw. knapp 1% der gesamten Energiekosten des Betriebs geschätzt.
  • Der Flexibilitätswert verdreifacht sich, wenn auf dem Werksgelände statt einer Erzeugungsanlage für erneuerbare Energien eine Kraft-Wärme-Kopplung eingerichtet wird (was nun nicht besonders überrascht).
  • Die erwarteten Netto-Einsparungen nach Abzug des zusätzlichen Energiebedarfs (etwa um die Schmelze warm zu halten) werden als unter 1% der Stromkosten des gesamten Unternehmens liegend eingeschätzt.
  • Wird eine elektrische Prozessheizung (»Boiler« – dort nicht näher spezifiziert) in Abhängigkeit von den Echtzeit-Preisen betrieben, um den Lastfluss anzugleichen, wird die Obergrenze der Kostenreduktion zur Stromversorgung des Boilers bei 1,5% der gesamten Energiekosten gesehen.
  • Ist der absolute Erwartungswert der Flexibilität auch groß, erreichte er dennoch nur knapp über 1% der zur Flexibilisierung des Prozesses zusätzlich erforderlichen Investitionen (entsprechend also einer Amortisationszeit von fast 100 Jahren).
  • Schwierigkeiten bei der Bezifferung der erwarteten Erträge und Sorge um die Unausgeglichenheit von Erzeugung und Verbrauch stellen gegenüber der Eigen-Erzeugung mit Windkraftanlagen ein Hindernis dar.

Dies ist nur einer mehrerer Punkte, an denen man sich wundert, nämlich warum hier die Windkraftanlagen zur Eigen-Erzeugung (theoretisch) mit betrachtet werden; würde sich doch das betreffende Unternehmen genau die Probleme (wieder) ins Haus holen, die durch die Flexibilisierung der Lasten gelöst werden sollten. Elektrisch ist es das gleiche, ob die Windkraftanlage auf dem Gelände oder vor den Toren steht, und das Problem mit der Vorhersage besteht auch an jedem prospektiven Standort. Zudem lässt sich dieses heute dank reichhaltiger Erfahrung durch entsprechende Windgutachten recht gut lösen.

Auch wird nicht klar, warum die befragten Betriebe über flexible Tarife verfügen – bzw. ob überhaupt oder ob dies eine bloße Annahme darstellt. Man wird annehmen dürfen, dass die Ökonomen und Einkäufer der Betriebe schon zäh verhandelt haben werden, um die für sie günstigsten Tarife zu erlangen. Wenn diese Tarife dann Flexibilitäts-Elemente umfassen, im Betrieb aber kein Mensch daran denkt, diese umzusetzen, ist das ungereimt.

Überhaupt werden die Verschiebungs-Potenziale einfach als vorhanden vorausgesetzt, um dann auf dieser Basis einen finanziellen Nutzen zu errechnen – in Euro je Megawattstunde. Wieder mangelt es an Beispielen, welche Art von Lasten sich denn dort zur Verschiebung geeignet hätten. Von was für einem »Boiler« war dort die Rede? Und mit keinem Wort wird erwähnt, um wie viele Megawattstunden es sich handelt bzw. handeln müsste, damit die Sache sich lohnt, wie steil die Flanken und wie lang die Reaktionszeiten sind bzw. sein müssen und sein dürfen, noch um welche zeitliche Verschiebung es sich denn handelt. Hiervon aber hängt der technische ebenso wie der finanzielle Wert solcherlei Verschiebung in entscheidender Weise ab.

Lohnend ist das »Lastmanagement« also unter Umständen sehr wohl für den einzelnen Betrieb, der dadurch seine Lastspitzen und hiermit den zu entrichtenden Leistungspreis reduziert. Aus der Schweiz wird von einem Metall verarbeitenden Industriebetrieb berichtet, der ein solches »SEMS« (Smart Energy Management System) eingerichtet hatte, dort hätten sich die Stromkosten von etwa 950 000 CHF im Jahr um 20 000 CHF senken lassen. Hiervon sei die Hälfte auf Energie-Einsparungen, die Hälfte auf die Senkung des Leistungspreises zurück zu führen gewesen, da die monatlichen Leistungsspitzen um knapp 3% bis gut 5% gesenkt werden konnten. Aus den Kosten von 60 000 CHF wird eine Amortisationszeit von 3 Jahren errechnet. Hätte sich das System allein durch die Senkung der Lastspitzen finanzieren müssen, wären es aber schon 6 Jahre gewesen. Moral:

  • Energie sparen lohnt sich immer.
  • Energie-Einsparungen ergeben sich mitunter nebenbei durch andere, zu anderen Zwecken eingeführte Maßnahmen.
  • Die Amortisation eines Leitsystems zur Verschiebung der Betriebszeiten einiger großer Lasten, für die dies in Frage kommt, ist für den betroffenen Betrieb schon ein wenig »schwierig«.
  • Die Reduktion der Lastspitze eines einzelnen Betriebes um 3% … 5% durch Verschiebung des Einsatzes großer Lasten um einige Minuten oder maximal vom Tag in die Nacht ist für die »Energiewende« von marginalem Wert.
  • Sie kann sogar kontraproduktiv sein, da der einzelne Betrieb seine Lastspitze nach den eigenen Bedürfnissen und nach den Messwerten an seinem Anschlusspunkt an das Versorgungsnetz steuert – nicht im Hinblick auf die Verfügbarkeit von Sonne und Wind.

Auch ein Blick auf die großen Kühlhäuser zeigt, dass deren Zeitkonstanten zu kurz sind und Verschiebungs-Potenzial nur für einige Stunden bringt. Dieses Potenzial wiederum ist – wie solle es anders sein? – wo vorhanden, bereits seit Jahrzehnten erschlossen (Stichwort »Nachtstrom«). Dort, wo dies gegenwärtig nicht der Fall ist, sollte man auch in Zukunft dringend die Finger davon lassen! Sonst lautet gleich die nächste Schlagzeile: »Die Energiewende kostet so und so viele tausend Tonnen verdorbener Lebensmittel im Jahr«! Selbstverständlich besteht hier auch eine sehr starke saisonale Abhängigkeit: Je nach Jahreszeit kann die zwischen innen und außen zu haltende Temperatur-Differenz 10 K oder 50 K betragen. Der elektrische Leistungsbedarf ändert sich überproportional hierzu. Liegt hier endlich einmal ein Verbraucher vor, dessen Lastprofil recht gut zu solaren Einspeiseprofilen passt, ist leider aus dem selben Grund das Verschiebungs-Potenzial im Sommer, wenn die Last hoch ist, besonders gering.

Bild 7.12: Leistungsaufnahme und summierter Energieverbrauch eines Kühlschranks Baujahr 1999 (Fabrikat Miele) über einen Tag
Bild 7.12: Leistungsaufnahme und summierter Energieverbrauch eines Kühlschranks Baujahr 1999 (Fabrikat Miele) über einen Tag

Nach oben

Im Wohnungsbereich kommen hierfür praktisch nur Kühlschränke, Tiefkühlgeräte und die Warmwasserbereitung in Betracht. Rechnen wir nach: Verbraucht ein Haushalt jährlich beispielsweise 27 m³ Wasser, das von 10 C auf 60 C erwärmt wird, so erfordert dies eine Energie von 5625 MJ = 1570 kWh. Dies steht also für Kosten in Höhe von knapp 400 €/a; die beiden Kühlgeräte stehen für jeweils etwa 15 €/a (Bild 7.12) bzw. 50 €/a (Bild 7.13). Von diesen Beträgen lässt sich jeweils ein Bruchteil sparen, indem man die Verbräuche von Hochtarif- in Niedertarifzeiten verschiebt. Von dieser Differenz ist noch der Verlust abzuziehen, der dadurch entsteht, dass die betroffenen Geräte unter dem Strich etwas mehr Energie verbrauchen: Die Wassertemperatur muss etwas erhöht werden, um die Verluste während der Lagerung in einem dann erforderlich werdenden Speicherbehälter auszugleichen, und die Kühlgeräte müssen aus dem selben Grund etwas kälter eingestellt werden, wodurch der Wirkungsgrad des Kühlaggregats empfindlich sinkt. Von dem, was dann noch übrig bleibt, muss eine »smarte« Infrastruktur zur Steuerung der Geräte finanziert werden. Danach erst kann die Sache anfangen, dem Nutzer Geld zu sparen; bis dahin hat er nur investiert.

Der Ersatz der direkten elektrischen Erwärmung des Brauchwassers durch eine Wärmepumpe dagegen hätte den Verbrauch an elektrischer Energie deutlich gesenkt – größenordnungsmäßig gleich um zwei Drittel – statt ihn noch leicht zu erhöhen. Bei dem Kühlschrank hatte sich der Ersatz schon damals – 1999 – zu damaligen Kühlschrank- und Strompreisen nach etwa 5 Jahren über die Energiekosten amortisiert (Bild 7.12), und das hochwertige Markengerät ist noch heute in Betrieb. Das alte, billige Gerät war noch funktionsfähig außer Dienst gestellt worden und liefe vielleicht heute noch, hätte man es belassen, aber das »neue« spart seit nunmehr 18 Jahren Energie und seit 13 Jahren Geld. Das muss eine »smarte« Anlage erst einmal nachmachen, ehe man von Marktreife reden kann.

Bild 7.13: Leistungsaufnahme eines Tiefkühlschranks (Fabrikat Bosch), Baujahr 2011, Umgebungstemperatur 14°C, Innentemperatur -20,5°C, über einen Tag
Bild 7.13: Leistungsaufnahme eines Tiefkühlschranks (Fabrikat Bosch), Baujahr 2011, Umgebungstemperatur 14°C, Innentemperatur -20,5°C, über einen Tag

Nach oben

Bild 7.14: Aus alt mach alt: Rechts der soeben erneuerte Haushaltszähler; der Zähler für den Allgemeinstrom (links) wurde belassen – digitalisiert wurde im Jahre 2016 gar nichts.
Bild 7.14: Aus alt mach alt: Rechts der soeben erneuerte Haushaltszähler; der Zähler für den Allgemeinstrom (links) wurde belassen – digitalisiert wurde im Jahre 2016 gar nichts.

Genannt werden als Beispiele für »smarte« Kandidaten im Haushalt außerdem oft Spülmaschinen, Waschmaschinen und Wäschetrockner, doch bei diesen ist die Ersparnis mit einer Einbuße am Komfort verbunden, die dem Nutzer schwierig zu vermitteln sein wird: Die Energiekosten je Arbeitsgang belaufen sich größenordnungsmäßig auf 25 Cent bei Spül- und Waschmaschinen bzw. 50 Cent bei einem Wäschetrockner. Hiervon einen Bruchteil durch einen gewissen, sich für jeden Arbeitsgang wiederholenden Planungsaufwand einzusparen wirkt nicht überzeugend lukrativ. Die Reduktion des Verbrauchs rechnet sich also allemal eher als dessen zeitliche Verschiebung, und je weiter die Effizienz-Anforderungen an die Geräte fortschreiten (und auch befolgt werden; dies vorausgesetzt), desto härter wird das Leben für deren »smarte« Steuerung.

Für die Verteilnetzbetreiber sieht dies ähnlich aus. Daher mögen diese noch nicht einmal den »eHZ«, den elektronischen Haushaltszähler, einbauen – obwohl dieses Produkt schon verfügbar ist und dem Stromversorger auch noch das jährliche Ablesen des Zählers ersparen könnte. So war z. B. in einem Reihenhaus seit 1982 derselbe alte mechanische »Ferraris-Zähler« im Einsatz. Weder wurde er jemals ersetzt noch nachgeeicht noch in sonst irgendeiner Weise geprüft – bis 2016. Dann kündigte sich ein vom Netzbetreiber beauftragtes Unternehmen an, um den Zähler zu ersetzen. Ob sie denn nun einen elektronischen Zähler bekäme, wollte die Hausfrau berechtigter Weise von dem »Strommann« wissen, setzte sich jedoch nur dessen höhnischem Gelächter aus: »Davon sind wir noch Jahrzehnte entfernt!« (Bild 7.14). Der eHZ mag mehr Energie-Bewusstsein beim Endverbraucher wecken, doch auch dieses mündet – sinnvoller Weise, muss man sagen – eher in einer Reduktion als in einer Verschiebung des Verbrauchs. Die Verbraucherzentrale mag die schleppende Markteinführung von Smart Metern bemängeln, doch wo die Geschäftsmodelle denn liegen sollten, weiß sie auch nicht. Eine ganze Reihe von Veröffentlichungen in der Schweiz beleuchtete diese Themen und kam zu ernüchternden Ergebnissen. Auch in Deutschland rühren sich skeptische Stimmen, die vor überzogenen Hoffnungen auf das »Smart Grid« warnen.

Eine anerkannte Größe der Wirtschaftswissenschaften – offenbar mit erstaunlichen Kenntnissen von Naturwissenschaft und insbesondere der Energietechnik – kam in einem ähnlichen Werk wie dem vorliegenden zu erstaunlich ähnlichen Ergebnissen. Darin findet sich u. a. auch eine Berechnung, wie viel Speicherkapazität sich denn durch »Lastmanagement« ersetzen ließe. Angenommen wurde (mit den Stromzahlen von 2014), die Last ließe sich vollständig an die volatile Erzeugung aus Sonne und Wind anpassen. Die Bilanz ist ernüchternd:

  • Die Verschiebbarkeit sämtlicher Last innerhalb eines Tages – d. h., wenn sich die Last innerhalb des Tages nach Belieben umverteilen ließe – würde den Speicherbedarf um 0,9% reduzieren.
  • Die Verschiebbarkeit innerhalb einer Woche würde den Speicherbedarf um 5,9% reduzieren.
  • Die Verschiebbarkeit innerhalb eines Monats würde den Speicherbedarf um 11% reduzieren.

Das wirkt verblüffend; sollte doch eine Speicherkapazität von 20 TWh – entsprechend dem kompletten Strombedarf Deutschlands von »nur« knapp 2 Wochen – ausreichen, um mit Sonne, Wind und Biogas über das Jahr zu kommen. Die Verschiebbarkeit innerhalb eines Monats bringt aber dennoch so wenig, weil eigentlich eine Verschiebung des Verbrauchs von einem Wintermonat in einen Sommermonat benötigt würde.

Sehr wohl kann die Lastverschiebung zur kurzfristigen Regelung (Sekunden-, Minuten- und Stundenreserve, Frequenzhaltung) eingesetzt werden. Das aber können die althergebrachten Speichertechniken auch; die neuen noch viel besser. Das, was die Speicher nicht leisten, kann das so genannte »Lastmanagement« auch nicht.

Nach oben

Sektorkopplung

Dies ist das neueste der Modewörter – wie seine Artgenossen vielfach als Aufhänger genutzt, um von sich reden zu machen oder die Aufmerksamkeit auf irgendwelche Konferenzen oder dergleichen zu lenken. Wörtlich genommen, hieße »Sektorkopplung« eigentlich:

  • Die Möbel-Industrie bildet eine Allianz mit dem Heizungssektor, um überschüssig produzierte, nagelneue Möbel als Brennstoff einzusetzen.
  • Das städtische Wasserwerk wartet mit einer Sektkellerei zur Bewässerung (»Besektung«?) der Parkanlagen mit Schaumwein auf. Wer das tut oder propagiert, ist kein »Sektierer«, sondern schreibt sich »Sekt-Tor« und gehört mit nichts und niemandem gekoppelt.
  • Der »Strom im Wärmemarkt« wird dazu herangezogen, um die Nachtspeicheröfen in »Stromspeicher« umzubenennen und sie dann im Sommer mit überflüssigem Solarstrom für den Winter aufzuladen.
  • Das städtische Elektrizitätswerk schafft sich einen Elektrolyseur an, um mit einem Wirkungsgrad < 50% seinen Strom, der ansonsten einen Erlös von 24 ct/(kWh) erbrächte, zur Erzeugung von Wasserstoff einzusetzen und diesen in das Gasnetz einzuspeisen, wo er dann für 6 ct/(kWh) »verramscht« wird.

So beschreibt z. B. eine Fachveröffentlichung: »Aus Solar- und Windstrom erzeugter Wasserstoff soll das Erdgas allmählich als Energieträger ersetzen.« Bis dahin ist es allerdings noch ein sehr weiter Weg. Der erforderliche Aufwand ist immens, denn:

  • Die Verluste der zweimaligen Umwandlung von Strom zu Gas und wieder zurück sind erheblich. Der Beitrag gibt einen Gesamt-Wirkungsgrad von 38% an. Die Strom-Gestehungskosten von Sonne und Wind würden sich also allein hierdurch um einen Faktor von 1 / 0,38 = 2,63 erhöhen.
  • Darüber hinaus bräuchten wir nicht nur Unmengen von Elektrolyseuren und Brennstoffzellen, sondern das Gas muss auch gelagert werden. Betrachtet man zum Vergleich die bestehenden Biogas-Anlagen (die in 2017 schon mehr Strom in das öffentliche Netz einspeisten als die Solaranlagen – s. Tabelle 1.1), so sehen die daneben stets angeordneten Speicherbehälter zwar imposant aus, speichern aber im Verhältnis fast nichts.

Weiter heißt es dann: »Die Solarstromerzeugung wird immer preiswerter und es ist gelungen, die Stromgestehungskosten in Deutschland innerhalb von 20 Jahren von 100 auf 5 Cent pro Kilowattstunde zu senken, also auf ein Zwanzigstel.«

Nun gut, die Nennleistung der größten Fotovoltaik-Anlage in Nordrhein-Westfalen wird (von der Aachener Zeitung am 27. 02. 2018) mit 14 MW angegeben. Die erste Ausbaustufe von 10 MW soll 15 Millionen Euro gekostet haben. Mit für die Region großzügig angenommenen 1000 Volllast-Stunden im Jahr errechnen sich Gestehungskosten von 15 ct/(kWh), wenn man die Lebensdauer der Anlage mit 10 Jahren annimmt. Bei 20 Jahren sind es noch 7,5 ct/(kWh). Wartung, Reparaturen, Kapitalkosten, Versicherungen und dergleichen sind darin noch nicht enthalten.

Dies jedoch ist überhaupt nicht der kritische Punkt. Ließen sich die Gestehungskosten des Solarstroms auf 0 senken, brächte dies die Energiewende noch immer nicht viel weiter. Würde man die installierte Leistung auf das 15-Fache erhöhen, so könnten die Fotovoltaik-Anlagen zwar – über das Jahr summiert – so viel Strom erzeugen wie wir insgesamt verbrauchen, doch auch dies brächte uns einer kompletten »Energiewende« noch nicht viel näher als wir ihr gegenwärtig sind. »Aber die Solarstromerzeugung braucht große Flächen, und in den Städten sind die Dachflächen knapp im Verhältnis zum Strombedarf«, liest man weiter. »Deshalb zielen die Forschungsbemühungen vor allem darauf, den Wirkungsgrad zu steigern.« Dieses Argument jedoch trifft überhaupt nicht zu. Welcher Anteil unserer Dachflächen ist denn bereits mit Solarzellen bestückt? Außerdem ist Solarstrom-Produktion nicht an Städte gebunden. Andere Erzeugungsanlagen stehen auch selten in den Innenstädten, Windparks niemals. Auch stehen viele Solaranlagen nicht auf »Soda«-Flächen, sondern als »Freiflächen-Anlagen« auf hierfür gesondert ausgewiesenen Flächen. Der Flächenbedarf ist hier also kein begrenzender Faktor – und der Wirkungsgrad somit ebenso wenig.

Und wie man an diesem Beispiel sieht, ist die »Sektorkopplung« an dieser Stelle – abweichend von der entsprechenden Überschrift – schon gar nicht mehr das Thema. Nichtsdestoweniger macht sie immer mehr von sich reden – jetzt auch schon in dem letzten Organ, das sich noch dem Realismus und dem technisch Machbaren verschrieben hatte. Auch dort sieht man unter »Sektorkopplung« in erster Linie die »thermische Verwertung« überschüssig produzierten Wind- und Solarstroms durch Widerstandsheizungen eingesetzt, weil diese Anlagen besonders kostengünstig seien. Diese Sichtweise ignoriert jedoch schon wieder die drei alten Punkte:

  • Die Nutzung von Wind und Sonne auch dann, wenn sie im Überfluss vorhanden sind, ersetzt noch immer nicht die konventionellen Anlagen, die bei »Dunkelflaute« einspringen – also auch schnell genug anspringen – müssen, sondern nur einen Teil des (immer noch sündhaft billigen) Brennstoffs.
  • Die Begrenzung auf die Zeiten des Überflusses lässt auch die billigste Anlage unrentabel erscheinen, weil diese Zeiten (noch immer) recht selten auftreten und kurz sind (maximal 125 h/a; Bild 7.2). Außerdem sind die negativen Preise in dem Moment verschwunden – die Preise also wieder mindestens auf null angestiegen – wenn jemand die Entsorgung der Überschüsse kostenfrei übernimmt. Das ist wie bei der alten philosophischen Frage von Fredl Fesl, ob denn ein Raucher, der das Rauchen aufgäbe und dadurch zum Nichtraucher würde, wieder rauchen dürfe, wenn ein Rauchverbot nur für Raucher erlassen würde; würde doch der Nichtraucher in diesem Moment wieder zum Raucher und fiele damit wieder unter das Verbot. So beißt sich die Katze in den Schwanz.
  • Und schlussendlich ignoriert diese Sichtweise auch wieder, dass Zeiten der Erzeugung und des Bedarfs höchstens durch Zufall hin und wieder mal zusammenfallen. Es fehlt an einem gigantischen Wärmespeicher, der die Wärme tendenziell vom Sommer in den Winter rettet – hat sich was mit »kostengünstig«. Hätten wir den, dann entfielen zwar die beiden anderen Punkte, aber davon sind wir leider noch weit entfernt.

Nach oben

Was studiert eine Studie?

Dies ist genau der Punkt, an dem eine bereits zitierte ETG-Studie warnt: »Die Anforderungen an das elektrische Netz können sich im Vergleich zu heute aufgrund der Wärmepumpen und Elektromobilität auf Verbraucherseite sowie PV-Anlagen und WEA auf Erzeugerseite deutlich erhöhen« (S. 33) und »Beim Bezug ist zu sehen, dass der Höchstlastanteil für sehr viele Abnehmer Pmax1 (n → ∞) … deutlich geringer ist, als die Höchstlast Pmax1 [eines einzelnen Abnehmers]. Bei der Einspeisung ist die Gleichzeitigkeit sehr groß, da beispielsweise PV-Anlagen jeweils zur gleichen Zeit einspeisen, und somit tritt der Effekt der Vergleichmäßigung der Belastung nicht auf« (S. 34).

Sehr verwunderlich ist es jedoch, wenn dann dieselbe Studie zu dem Schluss kommt: »Die Untersuchungen haben gezeigt, dass sich durch die lokale Bilanzierung der Erzeugung und des Verbrauchs in den einzelnen Energiezellen der notwendige Energieübertragungsbedarf erheblich reduziert« und »Die Versorgung Energiezelle Haushalt erfolgt hierbei einzig durch die der Energiezelle Haushalt zugehörige PV-Anlage. Der Wärmebedarf wird durch eine Wärmepumpe bereitgestellt«. Diese wird den Strombedarf jedoch noch einmal gut verdoppeln, und wie oben hergeleitet, wäre hierfür eine Batterie-Speicherkapazität von nunmehr etwa 2 MWh erforderlich – was den Preis des so versorgten Eigenheims grob vervierfacht.

Auch wird das am »Zellularen Ansatz« prinzipiell Neue nicht so recht klar. Indem man alles, was hinter einem Hausanschlusskasten liegt, nun in eine »Energiezelle Haushalt« umbenennt, hat sich in elektrischer Hinsicht noch nichts geändert. Das Zusammenfassen einer Anzahl solcher »Zellen« – z. B. am Verteiltransformator – zu einer übergeordneten Zelle erbringt ebenfalls nur ein neues Etikett für bestehende Strukturen. »Das neue Grundprinzip, also das Ausbalancieren von Erzeugung und Verbrauch auf einer möglichst niedrigen Ebene kann erheblichen Einfluss auf den Ausbau bzw. die Ertüchtigung von bestehenden Netzen haben« – das bedeutet:

  • Das Ausbalancieren kann einen steigernden Einfluss auf den Netzausbau haben.
  • Das Ausbalancieren kann einen mindernden Einfluss auf den Netzausbau haben.
  • Das Ausbalancieren kann einen Einfluss haben – muss aber nicht.

Ein altes deutsches Sprichwort sagt:

»Wenn der Hahn kräht auf dem Mist,

ändert sich das Wetter – oder es bleibt, wie‘s ist«.

Entsprechendes gilt für die Zielsetzung der Studie: »Ziel des Zellularen Ansatzes ist es, den Energiebedarf mit der Energiebereitstellung in möglichst kleinen Einheiten auszugleichen«. Eben dafür aber nützt es zum einen sehr wenig, nur den Energiebedarf zu sehen. Es muss in erster Linie der Leistungsbedarf und dessen Zeitpunkt betrachtet werden. »Überschüssige Energie kann vor Ort gespeichert, aber auch für andere Energiezellen im Nahbereich durch Energienetze genutzt werden«. Dazu muss aber zeitgleich ein Bedarf bestehen, während die Studie selbst, wie erwähnt, aufzeigt, dass die Tendenz eher in die andere Richtung geht: »Die Anschlussleistung wird … über dem heutigen Niveau liegen«. Zum anderen ist der Gedanke, Verbrauch und Erzeugung zeitlich und räumlich möglichst dicht beieinander haben zu wollen, keine Erfindung der Neuzeit, sondern ein Grundbedürfnis der Stromerzeugung und des Netzbetriebs seit deren Anfängen. Ein neuer Name hierfür bringt uns keinen Schritt vorwärts.

Weiterhin »wird untersucht, ob das Prinzip von autarken Energiezellen über alle Ebenen der Energieversorgung realisiert werden kann«. Dazu sagt die Studie an anderen Stellen mal »ja« und mal »nein« und fährt an dieser Stelle fort: »Das bedeutet, dass mehrere Zellen in einer Ebene sich auf der nächsthöheren Ebene wieder als eine einzelne Zelle abbilden und nach dem gleichen Grundprinzip behandelt werden«. Auf diese Weise landet man letztlich beim UCTE-Netz, und – ja – dieses ist für sich allein betriebsfähig, aber das haben wir doch schon seit 1951. »Es wäre also vorstellbar«, heißt es weiter, »dass sich die Struktur der Energieversorgung in Deutschland an örtlichen Gegebenheiten und Verwaltungsebenen wie z.B. Haus, Straße, Ortsteil, Ort / Stadt, Kreis, Regierungsbezirk und Bundesland orientiert«. Ja, an was denn sonst? Wie ist es denn jetzt?

»Steuerung und Überwachung wurden wie bisher gelöst« (S. 30) und »Der Anschluss der Energiezelle GHD [Gewerbe / Handel / Dienstleistungen] an elektrische Netze weist keine grundsätzlichen Neuerungen auf«. Also kein DSM, kein »smart Grid« und kein Bedarf hiernach. Das kann man nur unterschreiben, aber was war dann Sinn und Ergebnis dieser Studie?

Zur Beurteilung des Bedarfs nach Netzausbau werden stets die Jahresenergiemengen herangezogen, ohne zu betrachten, wann welche Leistung zum Fließen kommt (kommen muss): »Aus Winddaten des Deutschen Wetterdienstes wird für jede Region eine mittlere Windgeschwindigkeit berechnet. Unter der vereinfachten Annahme, dass eine WEA mit dieser mittleren Windgeschwindigkeit dauerhaft betrieben wird, kann aus der Leistungskennlinie auf eine zu erwartende Jahresenergie pro WEA geschlossen werden« und »In Ansatz A müssen erhebliche Energiemengen aus der Nordsee nach Nordrhein-Westfalen übertragen werden. Der dafür erforderliche Übertragungskorridor muss eine Übertragungsfähigkeit von 180 TWh/a … haben. Die größte erforderliche Übertragungsaufgabe im Ansatz B zwischen Thüringen und Hessen beträgt 64 TWh/a«. Gefolgert wird dann mit der genannten, hier jedoch weit in die Irre führenden Vereinfachung: »Im Ansatz A muss pro Jahr eine Energiemenge von 602 TWh, im Ansatz B hingegen nur 394 TWh ausgeglichen werden. Damit muss im Ansatz B lediglich 55% der Energiemenge von Ansatz A übertragen werden« (S. 57). Somit ist zwar das Verhältnis der beiden Szenarien zueinander ungefähr beschrieben (Nordseewind als dem Ostseewind ähnlich unterstellend), doch zur Auslegung der jeweiligen Leitung sagt dies rein gar nichts aus. Allerdings wird bei der Windkraft mit einer Auslastung der Anlagen von 4700 Vollast-Stunden im Jahr ausgegangen. Damit wäre für Schwankungen nicht mehr gar so viel »Luft«. Nach BDEW (Tabelle 1.1) sind es aber nur 1715 h/a. Hiermit liegt die Leistungsspitze um den Faktor 6 höher als die mittlere Leistung. Das Minimum liegt naturgemäß bei 0 (totale Flaute); für wie lange dieser Zustand anhalten kann, muss ggf. ermittelt werden (Bild 3.6, Bild 3.7). Diese Aspekte jedoch werden in der gesamten Studie nur am Rande angesprochen und nicht quantifiziert.

Entsprechend häufig wird die Studie denn auch in der Öffentlichkeit zitiert, die praktische Umsetzung dann aber von den Fachleuten, die dies tun müssten, verworfen. Man liest das Argument, 97% des Wind-, Solar- und Biostroms, der als Begründung für den Ausbau der Übertragungsnetze diene, flösse nicht in die Übertragungsnetze, sondern in die Verteilnetze. Man brauche also den »zellularen Ansatz«, wie es unter Hinweis auf die so betitelte Studie verlautet. Das ist gerade so hanebüchen wie zu sagen: »In den Rhein fließt gar kein Wasser, sondern nur in die Nebenflüsse. Wenn der Rhein Hochwasser führt, kann dies also nichts mit dem Regenwetter zu tun haben.« Humanistisch (auch sehr) gebildete Politiker sowie Journalisten mögen hieraus nun den durchaus logischen Schluss ziehen, die Verteilnetze seien eine separate Sache und mit den Übertragungsnetzen gar nicht verbunden – daher auch die unterschiedlichen Ausdrücke dafür. Was soll man denn sonst denken, wenn man es nicht – von Berufs wegen – besser weiß?

Richtig ist, wie so oft, wieder einmal das, was eigentlich gemeint war: Die Verteilnetze müssen auch ausgebaut werden. Man kann nicht argumentieren: »Wozu Spielstraßen? Wir haben doch die Autobahnen!« Und genau so wenig umgekehrt. Übertragungs- und Verteilnetze sind gleichermaßen unverzichtbar; eines ohne das andere ist vollkommen nutzlos. Der »zellulare Ansatz« dagegen suggeriert – und auch dies wieder einmal eigentlich nur in der Überschrift – es ließe sich viel mehr auf Ebene der Verteilnetze regeln als es bisher Praxis ist. Im Text steht dann bei genauer Betrachtung die Ernüchterung. Eine solche Studie hätte die Welt nicht gebraucht, denn sie bringt die Energiewende nicht weiter.

So schließt der Bericht denn auch mit der Stellungnahme von TenneT zum »zellularen Ansatz«: »Die Übertragungsnetzbetreiber berechnen den Bedarfsplan 2030 … Spielraum für Alternativszenarien ist dabei nicht vorgesehen.« So kann man es auch ausdrücken – wenn man höflich bleiben möchte.

Nach oben

Wie wird es weitergehen?

Ein Blick auf die Zahlen lässt es schon erahnen: Nicht so wie bisher. Der Zubau in der Fotovoltaik beschränkte sich in 2016 auf etwa 4%. Trotz weiteren Zubaus ist der Ertrag aus der Fotovoltaik aber um 4% gefallen (Tabelle 7.3). Sieht man sich die Wetterdaten des Deutschen Wetterdienstes (DWD) an (Bild 7.15), dann wird zwar erkennbar, dass es im Jahr 2016 etwa 8% weniger Sonnenschein gegeben hat als 2015. Das wäre eine Erklärung für 4% weniger Energie aus 4% mehr installierter Leistung gewesen – wenn denn die Sonnenscheindauer die richtige Größe zum Vergleich wäre.

Ausblick Sonne

Das ist sie aber nicht, sondern auf die Globalstrahlung kommt es an, denn Solarzellen können auch diffuses Licht verwerten. Die auf Deutschland niedergegangene mittlere Globalstrahlung ist jedoch von 1111 kWh/m² auf 1079 kWh/m² gefallen. Das sind nur 3%, was allein den Rückgang nicht erklärt. Die Erträge hätten vielmehr um rund 1% gestiegen sein müssen. Die verbleibende Differenz wird wohl der Abregelung zum Opfer gefallen sein.

Bild 7.15: Jährliche Sonnenscheinstunden in Deutschland von 1951 bis 2016: Starke zeitliche Schwankungen, regional weniger starke Abweichungen
Bild 7.15: Jährliche Sonnenscheinstunden in Deutschland von 1951 bis 2016: Starke zeitliche Schwankungen, regional weniger starke Abweichungen

Ausblick Wind

Interessant ist in diesem Zusammenhang ein Blick auf die Winddaten von 270 Wetterstationen des DWD im Vergleich zu den von Enercon bereit gestellten Maschinendaten (Bild 7.3, Bild 7.4). Ein Auszug der Übersicht wird hier wiedergegeben (Tabelle 7.4). Diese Daten wurden vom DWD freundlicherweise so sortiert, dass jeweils einem Bereich von Windgeschwindigkeiten die summierten Zeiten zugeordnet wurden, während derer die Stundenmittelwerte der Windgeschwindigkeit in eben diesem Bereich lag. Die Geschwindigkeits-Intervalle wurden so gewählt, dass sie wiederum zu den Leistungs-Intervallen von Enercon passten. Aus der Zeitdauer der jeweiligen Windgeschwindigkeit und der Charakteristik der Windkraftanlage ließ sich mit guter Näherung – bezogen auf die jeweilige Anlage – die in diesen Zeitabschnitten mögliche Energie-Erzeugung errechnen. So gewinnt man einen interessanten Überblick, welche Windstärke am jeweiligen Standort mit der jeweiligen Maschine im jeweiligen Jahr wie viele Volllast-Betriebsstunden ermöglicht hätte. In der letzten Spalte wurden diese Volllast-Betriebsstunden dann addiert und ergeben so den mit der jeweiligen Maschine im jeweiligen Jahr möglichen Ertrag in Form von Volllast-Betriebsstunden. Dabei stellt sich heraus:

Tabelle 7.4: Hypothetische Erträge einer Schwachwind- und einer Starkwind-Anlage für die Jahre 2015 und 2016 in Vollast-Betriebsstunden – Auszug: Die drei windschwächsten Standorte (Garmisch-Patenkirchen, Bergen in Niedersachsen und Oberstdorf), die vier windstärksten Standorte (Brocken im Harz, Fichtelberg, Leuchtturm Kiel und Zugspitze), der Mittelwert über 270 Wetterstationen sowie drei Anlagen im Mittelfeld (Birkelbach, Dresden-Klotzsche und Schwerin)
Tabelle 7.4: Hypothetische Erträge einer Schwachwind- und einer Starkwind-Anlage für die Jahre 2015 und 2016 in Vollast-Betriebsstunden – Auszug: Die drei windschwächsten Standorte (Garmisch-Patenkirchen, Bergen in Niedersachsen und Oberstdorf), die vier windstärksten Standorte (Brocken im Harz, Fichtelberg, Leuchtturm Kiel und Zugspitze), der Mittelwert über 270 Wetterstationen sowie drei Anlagen im Mittelfeld (Birkelbach, Dresden-Klotzsche und Schwerin)

Es gab in der Tat in 2016 etwa 8% weniger »verwertbaren« Wind als 2015. Der Rückgang des Ertrags um etwa 12% – trotz weiteren Zubaus an installierter Leistung in Höhe von 2,6% – ist hiermit jedoch nicht ganz erklärt. Ungeklärt – da der DWD dort keine Wetterstationen betreibt – ist allerdings auch, warum der weitaus größere Teil des Rückgangs auf die Erzeugung auf See entfällt. Möglicherweise hat dies mit dem Netzausbau zu tun – obwohl von einem »Rückgang« beim Bestand der Netze auch nicht gesprochen werden kann. Nebenbei lassen sich jedoch noch einige interessante Beobachtungen machen:

  • Ein Zusammenhang mit den geografischen Längen- und Breitengraden ist auf den ersten Blick nicht erkennbar (müsste genauer untersucht werden, was aber hier nicht der Gegenstand ist).
  • Eine eindeutige Korrelation zur Meereshöhe gibt es auch nicht. So läge eine Starkwind-Anlage auf der Zugspitze lediglich auf Platz 4 bis 14, je nach Jahr und Maschine. Der »zugigste« Ort Deutschlands ist vielmehr der Brocken im Harz als alljährlicher Spitzenreiter für alle Maschinen. Er wies 2015 die geringste »Flautedichte« mit nur 541 von 8760 Stunden bei Windgeschwindigkeiten unter 3,5 m/s auf. Mit 1595 von 8760 Stunden bietet er gleichzeitig die längste Zeit mit Wind von mehr als 16 m/s, bei der eine Starkwind-Anlage erst ihre volle Leistung entfaltet. Die Zugspitze dagegen konnte hiervon nur 280 Stunden im Jahr vorweisen. Ansonsten liegt allgemein das Flachland erwartungsgemäß in Führung vor den Mittelgebirgslagen.
  • Eine Schwachwind-Anlage erbrächte allerdings selbst auf dem Brocken immer noch um 25% mehr Ertrag als eine Starkwind-Anlage gleicher Nennleistung; nur kostet jene auch mehr (gleiche Generatorleistung mit größerem Rotor), weshalb der Vergleich hinkt.
  • Beide Technologien erbringen den größten Teil ihrer Energielieferungen bei Windgeschwindigkeiten im Bereich zwischen 6 m/s und 10 m/s. In diesem Bereich liegen am besten Standort etwa 3000 bis 3300 Stunden, am ungünstigsten nur 20 bis 30 Stunden und im Mittel um 1400 Stunden eines Jahres.
  • Der windstillste Ort Deutschlands war 2015 Garmisch-Patenkirchen (719 m ü. N. N.) und 2016 Bergen in Niedersachsen (70 m ü. N. N.), wo die Windgeschwindigkeit für 8042 bzw. 8229 Stunden im Jahr unter 3,5 m/s lag – und damit unterhalb der Ansprechschwelle üblicher Windkraftanlagen. Kein vernünftiger Mensch wird also dort eine Windkraftanlage errichten.
  • Im Mittel aller Wetterstationen lag die Windgeschwindigkeit für 4885 (2015) bzw. für 5197 Stunden (2016) unter 3,5 m/s (Zahlen nicht in Tabelle 7.4 enthalten, sondern nur in den Quelldaten des DWD hierfür). Der »mittlere« Standort ist also noch lange kein geeigneter Standort zur Windkraft-Erzeugung: Auch die Schwachwind-Maschine stünde über mehr als die Hälfte des Jahres still. Diese Spreizung zwischen besseren und schlechteren Standorten ist ganz erheblich breiter als bei der Solarenergie; dort ist das Verhältnis nur etwa 2:1.

Neue Netze braucht das Land

Es wäre also weise, sich mit dem Fernziel zunächst auf die 40-%-Marke zu konzentrieren. Damit ist schon viel gewonnen, und alle Beteiligten werden genug zu tun haben, die Netze so umzubauen, aufzurüsten und zu erweitern, dass dieses Szenario »rund« läuft. Wichtig ist es hier, zwei völlig verschiedene Arten zu unterscheiden, wie die massive Einspeisung »erneuerbaren Stroms« die bestehenden Netze beansprucht:

Bild 7.16: Am 29. Oktober 2017 ereignete sich das Sturmtief »Herwart« – nicht ganz so dramatisch wie »Xavier« am 5. Oktober, aber an einem Sonntag, und die Strompreise fielen unter -50&nbsp;€/(MWh)
Bild 7.16: Am 29. Oktober 2017 ereignete sich das Sturmtief »Herwart« – nicht ganz so dramatisch wie »Xavier« am 5. Oktober, aber an einem Sonntag, und die Strompreise fielen unter -50 €/(MWh)
  • Zum einen ist die Situation bekannt, dass die Preise an den großen Strombörsen des Kontinents negativ werden (Bild 7.16). Das ist wörtlich gemeint: Wer nun Strom abnimmt, bekommt eine »Belohnung« dafür bezahlt, dass er dieses lästige Übel, die elektrische Energie, entsorgt. Erklärt wird dies durch die Einspeisung von Sonne und Wind; eine Erklärung ist dies hingegen nicht. Lassen sich doch gerade solche Anlagen, wie ausgeführt, besonders gut »abregeln« oder ganz ausschalten. Plausibel ist nur die Erklärung, dies liege an der Gesetzesgrundlage des EEG, das die Netzbetreiber zur Aufnahme des EEG-Stroms verpflichtet. Nur wenn er befürchten muss, sein Kohlekraftwerk ganz abfahren zu müssen und bei Dämmerung nicht rechtzeitig wieder »hoch« zu bekommen und so einen großräumigen Stromausfall (zu Deutsch »Blackout«) zu riskieren, darf der Netzbetreiber statt dessen die erneuerbaren Einspeisungen abregeln – Missbrauch nicht ausgeschlossen.
  • Völlig anders liegt die Sache bei den lokalen Auswirkungen der einzelnen dezentralen Einspeisungen. Auch hier dürfen die Netzbetreiber (ab)regelnd eingreifen, wenn sie den Betrieb ihrer Netze als gefährdet ansehen. Die Natur der Gefahr ist jedoch hier eine völlig andere. Es ist nicht ausgeschlossen, dass diese Situation sogar zeitgleich eintritt, während an den großen Strombörsen wegen akuten Leistungsmangels gerade Traumpreise gezahlt werden. Unsere Netze sind nun mal nicht dazu gedacht, dass man »hier unten« Leistung einspeist; sie wurden vor Zeiten als reine Verbrauchernetze entworfen. So liegt z. B. die Leerlaufspannung stets etwas über der Nennspannung. Durch die Spannungsfälle in Kabeln, Freileitungen und Transformatoren liegt sie bei voller Last etwas unter Nennwert. Im Optimalfall stimmt sie bei halber Last genau. Diese Verhältnisse kehren sich natürlich um, wenn sich die Energierichtung umkehrt – die Spannung kann über den zulässigen Höchstwert von 253 V / 440 V steigen. Dies muss verhindert werden. »Batteriespeicher für Solarstrom vermindern Kosten für den Netzausbau«, titelt wieder einmal eine Kurzmeldung unscharf. Zunächst ist unklar, ob von den verminderten Kosten für den Netzausbau die Mehrkosten für den Speicher bereits abgezogen wurden. Sodann wird im Text die Kostenreduktion auf die Verteilnetzebene beschränkt. Diese Rechnung kann den Akkumulator nicht enthalten. Warum auch? Dieser wird doch von seinem Betreiber bezahlt – der dann aber auch über die Betriebsart entscheidet. Voraussetzung des Ersatzes von etwas Netz durch ein paar Akkus wäre jedoch, dass der Netzbetreiber die Oberhoheit über den privaten Akku erhält – sonst kann der Effekt auch der gegenteilige sein. Das steht dort aber nicht.
Bild 7.17: Eine nicht zu unterschätzende Komponente zur Umsetzung der Energiewende »von unten«: Der »RONT«, hier sogar mit Kern aus amorphem Eisen (≈&nbsp;60% weniger Leerlauf-Verlustleistung) auf der Hannover Messe 2013
Bild 7.17: Eine nicht zu unterschätzende Komponente zur Umsetzung der Energiewende »von unten«: Der »RONT«, hier sogar mit Kern aus amorphem Eisen (≈ 60% weniger Leerlauf-Verlustleistung) auf der Hannover Messe 2013
Bild 7.18: Das Stufenschaltwerk wirkt beim RONT aus technischen Gründen stets auf die Oberspannungsseite, obwohl eigentlich die Unterspannungsseite »gemeint« ist
Bild 7.18: Das Stufenschaltwerk wirkt beim RONT aus technischen Gründen stets auf die Oberspannungsseite, obwohl eigentlich die Unterspannungsseite »gemeint« ist

Im zweiten Fall sei nur der »RONT«, der regelbare Ortsnetz-Transformator, genannt (Bild 7.17). Während zwischen Höchst- und Hochspannungsnetz, zwischen Hoch- und Mittelspannungsnetz schon seit eh und je Transformatoren im Einsatz sind, die – zum Teil auf beiden Seiten – über eine feinstufig einstellbare Spannung verfügen, um die Lastflüsse im Netz zu regeln und die Verbraucherspannung stabil zu halten, verfügte der traditionelle Verteiltransformator (von Mittel- auf Niederspannung) über dergleichen nie. Das war niemals notwendig; es ging immer ohne. Das sieht nun anders aus (Bild 7.18). Die nächsten Jahre und Jahrzehnte werden uns noch viele »RONTs« bescheren. Einige wenige befinden sich bereits im Einsatz. Dazu kommt der Netzausbau auf Nieder- und Mittelspannungsebene: Mehr Kabel und mehr Freileitungen werden Erzeuger und Verbraucher engmaschiger miteinander vernetzen; dickere Kabel und stärkere Freileitungen werden die Impedanzen zwischen Erzeuger und Verbraucher reduzieren und so die Spannung stabilisieren.

Doch Achtung: Dies alles löst noch nicht das »obere« Problem! Den Kraftwerksbetreibern hilft all dies noch kein Bisschen weiter, mit ihrem unsteten Betrieb fertig zu werden – es sei denn, sie nutzen dieses »untere« Problem der zu schwachen Netzstrukturen vor allem der Niederspannungsnetze als Ausrede zum Abregeln, was sicherlich gelegentlich auch geschieht. Um »oben« weiter zu kommen, sind noch ganz andere Kaliber gefragt. Im Prinzip ginge aber auch das – alles ist möglich.

Naturgemäß sind in beiden Fällen völlig verschiedene Maßnahmen zu ergreifen. Gesetze und Regularien können an dieser Stelle, wie schon früher ausgeführt, nicht kommentiert werden. Ein älterer Zyniker pflegte aber seinerzeit die Deregulierung des Strommarktes als »Reregulierung« zu beschreiben – zumindest für seine Heimat Großbritannien.

Nach oben

Energiewende »gegen den Strom«

Hiermit ist natürlich nicht der elektrische Strom gemeint, sondern der der Zeit. Der will es im Moment gerade schon mal wieder, dass der einige Jahre lang viel gepriesene Netzausbau völlig überflüssig sei und »nur« dem Stromhandel diene. Doch was ist denn Stromhandel, wenn nicht der Verkauf der auf der Nordsee erzeugten elektrischen Energie nach dorthin, wo sie gebraucht wird?

Viel besser sei es, an vielen Stellen dezentral jeweils das einzuspeisen, was sich am Ort des Geschehens anbiete. Dies ist im Ansatz richtig, nicht aber die Konsequenz hieraus, sonst könnte man auch verlangen, die Landwirtschaft sei abzuschaffen (etwa wegen der Nachteile der »Massentierhaltung«): Statt Blumenbeet in jedem Vorgarten ein kleines Stück Kartoffelacker, ein paar Halme Weizen, und jeder Bewohner hält sich ein Huhn, 1/3 Schwein, 1/15 Kuh … und die Stadtbewohner tun dies auf ihren Flachdächern. Dann dürfen sie diese allerdings nicht mit Solarzellen verschatten, sonst wird nichts aus der Ernte. Auch gibt zu denken, dass bei der »dezentralen« Erzeugung elektrischer Energie aus Wind der Trend hin zu immer größeren Einheiten und zu deren zentraler Anordnung in Windparks geht – sicherlich nicht, weil die dezentrale Anordnung technisch oder wirtschaftlich günstiger ist.

Doch haben »Dunkelflauten« die unangenehme Angewohnheit, mehrere europäische Nachbarländer gleichzeitig zu überziehen – und dies bisweilen auch für mehrere Tage. Der richtige Ansatz muss also lauten: Das eine tun, aber das andere nicht lassen! Je mehr dezentrale Einspeisung, desto besser ist es, aber desto wichtiger wird auch das interkontinentale Verbundnetz (Bild 7.19) – und keinesfalls etwa weniger wichtig, wie gerne behauptet wird und aus Laiensicht auch plausibel erscheint. Ein die ganze Welt umspannendes Stromnetz wäre die Lösung – ein immenser Aufwand, aber im Gegensatz zu den stetig propagierten Speichertechnologien wenigstens rein technisch und physikalisch machbar. Irgendwo ist es immer hell, irgendwo ist es immer windig – keine netzweiten »Dunkelflauten« mehr. Wie gezeigt wurde, wurden und werden die größten Wasserkraftwerke der Welt wegen der jahreszeitlichen »Gezeiten« heute so gebaut, dass bei »Flut« eine Menge Potenzial daran vorbei fließt, weil die Nutzung der relativ kurzzeitigen Flut nicht lohnt (siehe auch Bild 3.5): Das nächste Kraftwerk in der Nähe hat auch gerade Hochsaison und steht vor der gleichen Situation. Bestünde jedoch eine hinreichend starke Stromtrasse von Kanada nach Paraguay, so träfe die »Ebbe« (der Sunk) an den Niagarafällen auf die »Flut« (den Schwall) in Itaipú und umgekehrt, und an beiden Enden würde die Auslegung auf »Flut« unter Umständen doch sinnvoll – abhängig davon, was man dafür zu bezahlen bereit wäre. Schon wäre eine Menge mehr erneuerbarer Energie an bestehenden Standorten gewonnen. Die Leitungsverluste lassen sich durch entsprechenden Material-Aufwand nahezu grenzenlos reduzieren – eine reine Frage des Geldes, nicht der Machbarkeit. »Desertec« wäre ein Schritt in diese Richtung gewesen; die zunehmende Zahl an Seekabeln zwischen Großbritannien, Norwegen, Deutschland und den Niederlanden sowie weitere geplante und in Bau befindliche Verbindungen sind welche! Dies ist gelebte Energiewende – ohne dass dies notwendigerweise unter diesem Namen vermarktet werden muss, wie es bei vielfältigen Fachveröffentlichungen, Konferenzen und Seminaren der Fall ist. Von »Speicher als Option zur Flexibilisierung der Netze und Vermeidung von Netzausbaukosten« ist dort die Rede. Nach allem, was bis hierhin ausgeführt werden konnte, muss es eher umgekehrt lauten: »Netzausbau als Option zur Flexibilisierung der Netze und Vermeidung von Speicherkosten«. Das lässt sich auch die ENTSO-E durch eine Studie so vorrechnen. Wenn dies so umgesetzt werden sollte wie es dort steht, würde dies »Netzausbau bis zum Exzess« bedeuten (Bild 7.20, Bild 7.21). Der BDEW plädiert zumindest dafür, das eine zu tun, ohne das andere zu lassen: »Der Ausbau von Energiespeichern und der Ausbau von Stromübertragungs- und -verteilnetzen stehen nicht in Konkurrenz zueinander. Speicher und Netze tragen nur gemeinsam zu einer erfolgreichen Umsetzung der Energiewende bei.« Das dürfte den Nagel auf den Kopf treffen.

Bild 7.19: Energiewende? Da hilft nur eins: Netzausbau!
Bild 7.19: Energiewende? Da hilft nur eins: Netzausbau!

Gestützt werden müsste das Ganze noch lange Zeit, wenn nicht für immer, mit GuD-Kraftwerken und für die ganz kurzfristigen Einsätze mit reinen Gasturbinen. An dieser Stelle – für die ganz kurzfristigen Einsätze zur Frequenzhaltung – kommt auch der Einsatz von Akkumulator-Speichern in Betracht; für die Stundenreserve allerdings schon nicht mehr. Doch am Ende des Erdgases? Biogas? Nahrungsmittel vergasen? Man kann es drehen und wenden, wie man will, und stößt immer wieder irgendwo auf irgendwelche Grenzen oder Konfliktfelder. Einen Königsweg gibt es nicht.

Bild 7.20: Der ENTSO-E in einer Studie empfohlene Ertüchtigungen und Neubauten bestehender Leitungen an Land&nbsp;…
Bild 7.20: Der ENTSO-E in einer Studie empfohlene Ertüchtigungen und Neubauten bestehender Leitungen an Land …

Völlig unabhängig davon, ob es gelingen wird, den weltweiten CO2-Ausstoß tatsächlich zu reduzieren, und ob das CO2 wirklich das vorwiegende Problem ist, was manche Quellen bezweifeln, bezweifelt niemand, dass wir zur Zeit in 100 Jahren verbrennen, was in 100 Millionen Jahren entstanden ist. Man könnte auch den Standpunkt beziehen, wir möchten getrost alles Brennbare verbrennen; wenn die fossilen Brennstoffe zu Ende seien, werde sich das Problem des CO2-Ausstoßes von selbst regulieren. Das kann aber auch zu spät sein. Nichts geht jedoch von heute auf morgen zu Ende, und bislang ist Energie immer noch viel zu billig. Stromkosten sollen in der Industrie Europas bislang noch immer nur 3% der gesamten Produktionskosten ausmachen. Der sparsame Umgang mit Energie stellt schlicht und ergreifend kaum einen Anreiz zur Kostensenkung dar; die Anpassung des Lastgangs an das Angebot schon gleich gar nicht. Die Preise geben nicht den Wert dessen wieder, was da verbrannt wird, doch bei knapper werdenden Vorräten und zugleich zunehmendem Verbrauch, weil die Weltbevölkerung unaufhaltsam wächst und vor allem in Asien der Lebensstandard kräftig steigt, wird in näherer oder fernerer Zukunft so manches finanzierbar werden, was heute absurd erscheint; nur wirklich möglich muss es sein. Es gilt, in dieser Diskussion dreierlei ganz deutlich voneinander getrennt zu halten und entsprechend zu beurteilen:

  • Dinge, die funktionieren und zu großen Teilen schon umgesetzt sind, allerdings etwas mehr Geld kosten;
  • Dinge, die funktionieren würden, aber unmäßig viel Geld kosten würden;
  • Dinge, die schon vom Prinzip her gar nicht funktionieren können.

Damit wären wir schon einen guten Schritt weiter insofern, als sich die Anzahl zu diskutierender Punkte erheblich reduzieren würde und diese sich dadurch – wenigstens annähernd – in der notwendigen sachlichen Tiefe diskutieren ließen. Es ist relativ, was man als »unmäßig« teuer ansieht, und ändert sich mit den »Umgebungsparametern«. Der Netzausbau stellt eine zwischen den ersten beiden Punkten beliebig skalierbare Option dar; die viel thematisierten Speichertechnologien fallen eher in die dritte. Luftschlösser helfen jedoch nicht wirklich weiter, und wer Visionen hat, gehe besser zum Neurologen.

Bild 7.21: … und auf See
Bild 7.21: … und auf See