Sättigung bei den „Erneuerbaren Energien“. Der κ (Kappa-) Effekt

.

Zusammenfassung (Abstract). Untersucht wurde das dynamische Verhalten von Erntefaktoren (EROI) „Erneuerbarer“ Energien, insbesondere Wind- und Solarkraft, hinsichtlich installierter Leistung.

.

Fazit: Berücksichtigt man vollumfänglich die effektiv bereitgestellte bzw. anderweitig abgezwackte Pufferungsenergie, so gab es in den letzten Jahren in Puncto Beitrag zur Energieversorgung gar ein Negativwachstum bei den „Erneuerbaren“. Während die Pufferungsenergie insbesondere bei Wind überproportional stieg, sackte der gepufferte EROI spätestens 2019 unter 1 ab.   

.
Die Treppenlinie für die installierte Leistung der Onshore-Windkraft © Rolf Schuster.
Der zeitliche Zubau wird so viel exakter wiedergegeben.

Aufmerksamen Lesern der „AG Energetik“ wird aufgefallen sein, dass der Titel vom Teil 1 unserer AG zur »Sättigung bei den „Erneuerbaren…“ « vom ursprünglichen „κ- (Kappa) Effekt“ in „χ- (Chi) Effekt“ abgeändert worden ist. Nun hat dies folgende Bewandtnis. Auf der Suche nach den Ursachen der einwandfrei beobachteten Sättigungseffekte bei den „Erneuerbaren“ stellte sich heraus, dass die gewonnene Brutto-Energie mit dem weiteren Zubau der „Erneuerbaren“ eben nicht Schritt hält. Den korrespondierenden Differenzen-Quotienten haben wir eben als  „χ- (Chi)“ bezeichnet:

; „u“ steht für unbuffered – dazu gleich mehr.

Nun wollen wir uns im 2. Teil der AG der klassischen Pufferung widmen. Wir vermuten nämlich stark, dass diese einen weitaus höheren Einfluss auf die Sättigungseffekte haben dürfte, als das ungepufferte – und erst recht, wenn man die Pufferungsenergie umfangreicher auffasst, als dies gemeinhin der Fall ist.

Der κ- (Kappa-) Effekt. Die AG Teil 2

.

Um den gepufferten Koeffizienten zu ermitteln, kommen wir nicht umhin, uns genau plausibel zu machen, was mit der Pufferungsenergie gemeint ist. Es handelt sich nämlich um diejenige Energie (bzw. graue Energie von technischen Vorrichtungen), die für die Pufferung „extra“ bereitgestellt werden muss. Energie wiederum, die so oder so da ist und nicht speziell durch die Pufferung erzwungen wird, zählt hingegen nicht zu dazu. Dies haben wir im Teil 1 an folgenden Beispielen festgemacht:

» Beispiele:

OlivierMaire_Swisswinds_f2ec60f334
Eine Idylle, die hoffentlich Fotomontage bleiben wird.
© Olivier Maire. Swisswinds

1) Das Stromnetz selbst hat eine (wenn auch eine äußerst geringe) Speicherkapazität, die zur Pufferung von EE’s genutzt wird. Die Aufwendungen, die damit verbunden sind, können jedoch nicht aufs -Konto gerechnet werden, da das Stromnetz „so oder so“ da ist. Muss es hingegen ausgebaut werden, um z.B. mit zunehmender Menge an volatilem Strom fertig zu werden, zählen diese Aufwendungen, etwa die graue Energie, ganz klar zu dazu;

 

2) Ein Wasserkraftwerk, das z.B. einen kleinen Windpark intermittierend puffert, hat einen begrenzten Wasserzufluss, also erzwingt der Windpark selbst keinen „suboptimalen“ (weil gedrosselten) Betrieb, wie dies z.B. beim Kohlekraftwerk, das auf 60% der Nominalleistung fährt, der Fall ist. Verluste an den Wasserturbinen entstehen so oder so, früher oder später. Dies funktioniert freilich nur so lange, bis der Stausee voll- oder leerläuft. 😳 «

Soweit so gut. Die Frage, die sich einem interessierten Leser sofort aufdrängt, ist wohl die, inwieweit sich das Szenario aus Beispiel 2 auf eines mit einem konventionellen- statt Wasserkraftwerk übertragen lässt. Nun, entgegen dem Eindruck, den man auf den ersten Blick gewinnen kann, unterscheiden sich beide Szenarien ganz prinzipiell voneinander: Ein KKW (Kohle- oder Kernkraftwerk – je nach Gusto) verfügt nämlich nicht über einen angeschlossenen Speicher in Form von einem Stausee. So läuft es zwar bei Dunkelflaute im günstigen Nominalbereich, aber sobald es windiger und/oder sonniger wird, muss das KKW herunter gedrosselt werden, damit der „Ökostrom“ :mrgreen: kraft EEG in die Netze aufgenommen werden kann.

Selbstverständlich werden solche Phasen in der EE-Branche wie auch in den EE-affinen Medien frenetisch bejubelt...🙄 Eine ganz kurze energetische Analyse des Sachverhaltes zeigt jedoch, dass die EE in einem solchen Szenario in hohem Maße parasitär wirken. Sie rauben nämlich dem KKW seinen EROI, indem sie seine Energieernte verhindern, entschädigen es aber keineswegs bei der Gestehungsenergie – von einem suboptimalen 60%-Betrieb ganz zu schweigen. Dabei ist diese „geraubte“ Energie schon alleine von der Kausalität hier schlicht die Pufferungsenergie und zählt somit vollumfänglich zu dazu!

Eine PPV mit zwei Teslas und zwei hauseigenen Batterien.
Aber selbst im sonnigen Kalifornien ist es nur bei einem geeigneten Verhalten energetisch sinnvoll. © tesla.com

Um die energetische Zumessung ein wenig zu üben (und auch um den EE-Fan bei Laune zu halten) machen wir einen Abstecher und untersuchen eine typische Nischenanwendung in Form von privater PV-Anlage -im folg. „PPV“. Wir wissen zwar aus den Untersuchungen der Schweizer Wissenschaftler ➡, dass der gepufferte EROI bei PV unter 1 liegt, aber so einfach ist die Sache nicht. Wie so häufig, steckt der Teufel im Detail und dieses Detail heißt auch hier die Pufferung. Denn das, was ein industrieller EE-Betreiber nicht machen kann – nämlich die Produktion antizipieren und ein Demand-Management betreiben – schafft’s der Eigenheim- und PPV-Besitzer u.U. sehr wohl. Verzichtet er auf die Einspeisevergütung, aus den vorhin genannten Gründen, bleibt er bei fossiler Heizung (da ansonsten die saisonalen Schwankungen durch nichts auszugleichen wären) etc. so kann er durch ein ausgeklügeltes Demand Management zusammen mit dem Elektroauto, den Klimaanlagen, Kühlschränken etc. einerseits sein minimieren, anderseits die Stromspitzen sinnvoll verwerten und zwar ohne einen gesonderten energetischen Aufwand. Dies funktioniert freilich nur dann, wenn er sich all die eAutos, Weinkühlschränke etc. auch ohne die PV zugelegt hätte 😉. Aber auch wenn wir dies wohlwollend unterstellen, kommen wir nicht über einen EROI von 3 oder (im Süden) 4 hinaus! Der Grund ist das ans Lebensende der PV-Anlage anzuschließende Recycling, das u.U. als Plasmarecycling extrem hohe energetische Kosten nach sich zieht. Nun ja… Physik ist manchmal schrecklich unbarmherzig...👿

➡ Es handelt sich um eine Studie von Ferruccio Ferroni, Alexandros Guekos und Robert J. Hopkirk aus dem Jahre 2016

.

Speicherung des Windstroms, aus „Wieviel Zappelstrom verträgt das Netz“
© 2014 IFO-Institut, H. W. Sinn

Soweit so gut. Allerdings wird sich der Leser der beiden AG’s an dieser Stelle womöglich fragen, was denn diese Überlegungen mit dem eigentlichen Gegenstand der beiden AG’s zu „Sättigungseffekten“, insb. die des vorliegenden Teil 2, zu tun haben. Nun, das sieht man spätestens dann, wenn man versucht die Pufferungsenergie direkt zu berechnen. Denn offensichtlich dürfte es enorm schwierig werden zu ermitteln, welche Energien und in welchem Umfang zu zu zählen sind und welche nicht. Diese Berechnungen würden den Rahmen und auch die Ressourcen der „AG Energetik“ sprengen. Aber nun eröffneten unsere bisherigen Überlegungen eben eine andere Möglichkeit zu ermitteln und zwar mittels des Ausschlussverfahrens. Denn wir wissen nicht zuletzt aus all den stolzen 🙄 Verlautbarungen der Ökobranche, wieviel „Ökostrom“ (brutto!) im Jahre X abgegeben wurde – auf der anderen Seite kennen wir die gesicherte Leistung ➡ der EE sowie die verfügbaren Speicher mitsamt deren Kapazitäten, Wirkungsgraden, EROI’s etc.:

Dabei ist die „gesicherte“ ➡ Energie, während für die aus dem Speicher steht; „“ für Vorratsbecken im Pumpspeicherkraftwerk 😀.

➡ Als gesicherte Leistung gilt eine über 99.5% der Betriebszeit hinweg bereitgestellte Leistung. Die korrespondierende „gesicherte“ Energie bezeichnen wir als .
.

Mit anderen Worten, all das, was auf gesicherte oder netto gepufferte Leistung zurückgeht, ist effektive Nutzenergie, während der Rest schlicht ist; man könnte auch mit Fug und Recht vom „Energiemüll“ sprechen 👿. Jedenfalls können wir den Pufferungskoeffizienten – immer noch als Verhältnis des ungepuffertem zu gepuffertem EROI – wie folgt angeben:

Speicherung von Wind- und Sonnenstrom (kumuliert)
Aus „Wieviel Zappelstrom verträgt das Netz“
© 2014 IFO-Institut, H. W. Sinn

Eigentlich ist alles klar. Bei einem konventionellen Kraftwerk ist die gesamte Energie, die es abgibt, gleichzeitig die gesicherte Energie, also gilt . Hingegen ist das gleich Null, denn das KWK kann höchstens, falls eine Fehlplanung vorliegt, einem trocken gelaufenen PSW (Pumpspeicherkraftwerk) sein Wasserbecken auffüllen, was wiederum eine völlig andere Geschichte wäre😉. Jedenfalls gilt für konventionelle Kraftwerke nun einmal , was bei den EE eben nicht der Fall ist. Ob die Faktoren von 4 bei Windkraft und 2.5 bei Solarkraft, wie es das bekannte Diagram nebenan suggeriert, wirklich stimmen, das wollen wir freilich genau wissen.

Was die gesicherte Leistung bei der Windkraft anbelangt, so liegt diese mit etwas über 130 MW gerade so im Bereich der OnBoard-Leistung der „Akademik Lomonosow“ 😛. Die betr. Jahresproduktion von immerhin nicht-volatilem Strom beträgt somit stolze 1.15 TWh. Der Rest müsste dann freilich dem Speicher kommen und hier geht der Katzenjammer erst so richtig los. Denn die einzig brauchbare Speichertechnologie sind in der Tat die Pumpspeicherwerke (PSW). Alles andere – P2G, P2H etc. – weist z.T. so miserable Wirkungsgrade auf, dass deren Beitrag zur Bereitstellung von Speicherkapazitäten derzeit noch zu vernachlässigen ist. Von den PSW hat Deutschland 35 an der Zahl und deren „Leistung“ wird mit 6.7 GW angegeben. Das hört sich erst einmal nicht schlecht an, denn das wären immerhin 6 EPR’s. Aber bei näherem Hinsehen entpuppt sich alles doch als der sprichwörtliche Tropfen auf heißen Stein. Denn die Gesamtkapazität all dieser PSW’s beträgt nur ca. 38 GWh. Was das wiederum heißt, zeigt ein kurzes Review auf unser vorheriges Beispiel 2.

Ein Diagram – ein Klassiker! Es entstand nach unserer Kenntnis um das Jahr 2010 herum aus einer uns unbekannten Feder. Wer unter © gesetzt werden sollte, möchte uns bitte einen dezenten Hinweis geben. :mrgreen:

Wir machen wir folgendes Gedankenexperiment. Unser Speicher ist zunächst leer. Dann kommt quasi wie gerufen ein kräftiger Wind auf, so dass wir es auf 6.7 GW bringen – eine Last, die unsere PSW gerade so schultern können. Wir lassen den Speicher auf 38 GWh voll- und anschließend, ebenfalls mit 6.7 GW, wieder leerlaufen. Beide Vorgänge dauern (unter Idealbedingungen) gleich lang und zwar jeweils knappe 6 Stunden.

Demzufolge geben unsere Speicher im Schnitt 3,3 GW her, wovon wir 2.5 GW auf den Windstrom zurückführen wollen – macht eine jährliche Windstrom-„Produktion“ von 22 TWh, was nach Abzug von Friktionsverlusten, Gestehungsenergie etc. 13-15 TWh per anno ergibt. Und wie es der Zufall will, ergibt dies für den Anfang der Dekade bei einer Stromproduktion um die 50 TWh einen um die 4 :mrgreen:. Dem aufmerksamen Leser dürfte diese Zahl irgendwie bekannt vorkommen – vgl. Diagram nebenan! →

Und da haben wir es, unser „qed“! Denn seit Anfang dieser Dekade hat sich an den PSW-Kapazitäten so gut wie gar nichts geändert, während die (brutto) Windstrom-Produktion um den Faktor 2.5 stieg. Und so liegt bei der Winkraft im Jahre 2019 bei etwa 10 😳 – will heißen, dass der gepufferte EROI selbst bei Offshore-Wind mittlerweile unter 1 liegt 😯.

Facebook-Thread:

New Mobility – New NUC

.
💡 Zusammenfassung (Abstract). Untersucht werden die infrastrukturellen Anforderungen im Zusammenhang mit der allenthalben beabsichtigten Elektromobilität. Ferner wird eine Überbrückung der Engpässe entlang der deutschen Autobahnen angegeben und durchgerechnet: Es handelt sich um ein autarkes Gleichstrom-Netz für Supercharger an den Tank- und Rastanlagen, das von kernenergetischen Reaktoren der 4. Generation, den Dual Fluid Reaktoren, angetrieben wird.
💡
.
Mit „New Nuc“ ist hier die Generation 4 der Spaltreaktoren gemeint
z.B. Dual Fluid Reaktor DFR

Im Januar 2012, also noch lange vor der „AG Energetik“, schrieb ich den Blogbeitrag „Energiewende – Elektromobilität ade!“, dem ich (damals ein Novum!) eine fundierte energetische Berechnung zugrunde legte und zwar: Anhand des durchschnittlichen Verbrauchs aller PKW in Deutschland (seinerzeit gut 1000 Liter/s 😯) errechnete ich über den Canot-Prozess eine durchschnittliche Stromlast bei 100% Elektromobilität in Höhe von 20 GW. Trotz einer klaren Bestätigung dieser Zahl durch eine einfache Gegenrechnung ➡ erlebte ich in den letzten Jahren immer wieder ein hartnäckiges Leugnen und Bestreiten dieses doch so klaren Sachverhaltes. So vermochte z.B. jemand, der für Verbreitung von EE-Märchen nicht ganz unbekannt ist, diese Zahl auf 5 GW zu reduzieren. Und wie? Na mittels Car-Sharing😀 Continue reading „New Mobility – New NUC“

Quantenalgorithmus für das Store Checkin Problem (SCinP)

.

💡 Zusammenfassung (Abstract). Das vorliegende Tutorial widmet sich der Frage, inwieweit das in der Logistik bekannte Store Checkin Problem (SCinP) mit Hilfe des Quantencomputers in nicht-kritischer Laufzeit gelöst werden kann.
💡
GudrunMaerskOakland
Gudrun Maersk im Hafen von Oakland (CA).
Quelle © dpa

Stellen wir uns vor, keine geringere als die „Sovereign Maersk“ ➡ wird demnächst in einen Containerhafen reinlaufen, wo ihre 7.500 Container gelöscht werden sollten. Die Aufgabe für das hafenweite Dispositionssystem besteht nun darin, für all die Container mitsamt den unterschiedlichen Inhalten geeignete Stellplätze zu finden und diese zu reservieren. Dabei handelt es sich selbstverständlich um rein elektronische Vorgänge, die mit der heutigen IT auch machbar erscheinen – entsprechende Datenbanken mit allumfassenden Informationen über die gegenwärtige Belegung des Containerhafens stets vorausgesetzt. Dass aber eine solche Aufgabe trotz modernster IT alles andere als trivial ist und mit noch so schnellen Prozessoren immer noch laufzeitkritisch werden kann, sei an dieser Stelle schon mal vorweggenommen: Das vorliegende Tutorial wird zeigen, dass das Durchstöbern eines Containerhafens nach geeigneten Lagerplätzen für ein paar Tausend Container naturgemäß laufzeitkritisch ist!

➡ Die Sovereign Maersk – Schiffe zählen zu den Post-Panamax-Containerschiffen und verfügen über eine Kapazität von 6600 TEU (beladene Container mit je 14 Tonnen Gewicht), beziehungsweise 8160 TEU an echten Stellplätzen.
.

 

HafenShnhai
Containerhafen von Shanghai. Der Jahresumsatz liegt knapp unter 40.000 Containern.
Quelle © N. Trentmann @welt.de

Eine einfache Überlegung, die an dieser Stelle nicht näher vorgestellt werden sollte, die aber durch Beobachtungen im Alltag durchaus gestützt wird, zeigt, dass ein Containerhafen im Schnitt in etwa so viele disponible Containerplätze haben sollte, wie der (Container-) Jahresumsatz ist. Im Falle von Shanghai wären es 40.000 Stellplätze durchschnittlich. Unsere Aufgabe anhand des Beispiels von Shanghai besteht demzufolge darin, eine Datenbank mit 40.000 Einträgen zu durchlaufen (zu „iterieren“) und die Eignung des jeweiligen Stellplatzes für den einzulagernden Container zu prüfen. Zu der äußerst diffizilen „Eignungsprüfung“ ➡ als Funktion von einer Reihe von Stellplatz- und Container-Parametern später mehr.

Für jeden Kenner der Algorithmentheorie ist dieser Fall klar: die Laufzeit einer solchen Datenbank-Iteration geht linear mit dem Umfang derselben, was mit dem Operator  markiert wird (das „“ steht hier für unsere 40.000 Container-Stellplätze). Demzufolge ist die Laufzeit einer vollen Datenbank-Iteration über 40.000 virtuelle „Stellplätze“ offensichtlich – stets vorausgesetzt, dass das  (also die Latenzzeit einer Eignungsprüfung ) für alle Stellplätze gleich ist, was in der Praxis weitgehend der Fall ist.

➡ Die Einzeleignungsprüfung  ist das entscheidende Momentum für den vorliegenden Algorithmus. Formell handelt es sich um eine Funktion, die eine Reihe von Stellplatz-Paramatern auf „0“ („nicht geeignet“) oder „1“ („geeignet“) abbildet: . Natürlich kann man die Funktion erweitern, indem man eine Art Punktesystem macht und damit eine differenzierende Antwort heraus bekommt.
.
YangShan
University Of Bern www.geography.unibe.ch/EG

Im Folgenden setzen wir für  0.1ms=100μs (Mikrosekunden) an und nehmen somit den künftigen technischen Fortschritt vorweg. Denn alleine die I/O-Operationen auf den modernsten Datenträgern dauern derzeit (Stand Anfang 2019) ungefähr so lang. Unter dieser Annahme dauert eine Datenbank-Iteration 4 Sekunden lang und das hört sich erst mal nicht dramatisch an. Allerdings dürfen wir die übrigen 7499 Container 😀 nicht vergessen, die ebenfalls auf ihre Iterationen warten. Claro, nicht jeder Container wird es brauchen. Denn wenn ich mehrere nahezu identisch beladene rechne, weiß ich aus der ersten Iteration (durch das Punktesystem), was die geeigneten Stellplätze für die anderen sind. Dennoch müssen wir von dem berühmten worst case ausgehen, denn nur dieser beschreibt die immanente Komplexität eines Algorithmus wirklich.

Die Laufzeit fürs virtuelle Löschen unserer voll und heterogen beladenen „Sovereign Maersk“ beträgt demnach:

 und das sind immerhin 8 Stunden und 20 Minuten Laufzeit 😯

An dieser Stelle wird sich der Leser möglicherweise fragen wie ist denn kommt, dass in Seehäfen wie Shanghai nicht alles buchstäblich stillsteht… Denn bei einer nunmehr 8-stündigen Beanspruchung ganzer Rechenzentren (Laufzeiten von 100 µs fürs sind nur mit Multinode-Computing möglich) müsste das ja über die meiste Zeit hinweg der Fall sein.

BrandInTianjin
Apokalyptische Bilder von der Brandkatastrophe in Tianjin.
Eine zu enge Lagerung von explosivem Gefahrgut hat zu einer regelrechten Kettenreaktion geführt. Die genaue Opferzahl kennt niemand. © bbc.com

Nun, die Antwort liegt in einer Optimierung des vorliegenden Algorithmus. Eine dieser Optimierungsoptionen haben wir bereits zuvor aufgezeigt: man pickt sich gleichartig bestückte Container heraus und errechnet für diese die geeigneten Stellplätze in nur einer Datenbank-Iteration (dies setzt freilich voraus, dass uns nicht der berühmt-berüchtigte worst case einholt). Eine andere Möglichkeit besteht darüber hinaus darin, bestimmte Bereiche des Containerhafens von der Zuteilung für eine zu löschende Ladung gänzlich auszuschließen und so die Zahl geringer zu halten.

All das kann man natürlich machen – nur hört der Spaß spätestens dann auf, wenn jemand der Verlockung unterliegt und unmittelbar ans heran geht, indem er die Einzeleignungsprüfung aufweicht. Dass dieses „Optimierungspotenzial“ verlockend ist, liegt in der Natur der Sache. Zum einen kennen die Umsätze in den Seehäfen nur eine Richtung, nämlich nach oben, während der rechtliche Rahmen, etwa in Puncto Gefahrgut-Handling, Versicherung, Brand- und Strahlenschutz, Datenschutz etc. immer enger gezogen wird. Die Zeit arbeitet also gnadenlos gegen uns: das Optimierungspotenzial wird allmählich ausgeschöpft und der technische Fortschritt (Moorsches Gesetz) vermag dies nicht aufzufangen. Mit anderen Worten, wir laufen immer mehr in eine Zwickmühle hinein zwischen immer höheren Anforderungen auf der einen und nur begrezt vielen Möglichkeiten auf der anderen Seite. Die Fragestellung dieser AG lautet, kann uns der Quantencomputer aus dieser Zwickmühle heraushelfen?

NichtLinearKrystal
Erzeugung von verschränkten Photonen im nicht-linearen Krystal.
Verschränkung ist ein fürs Quantencomputing unabdingbarer Effekt.
Quelle © BBC.uk.com

Im Jahre 1996 stellte der Mathematiker Lov Grover einen Quantenalgorithmus vor, der in einer unsortierten Datenbank einen bestimmten Inhalt auffindet. Die Laufzeit , die ja für jedwede Datenbank-Iteration unumgänglich ist, konnte auf sensationelle gesenkt werden 😯. Die Frage, die wir uns vorliegend stellen, lautet, kann der Grove-Algorithmus – freilich in einer für uns geeigneten Modifikation – unsere Stellplatz-Datenbank ebenfalls in iterieren? Und wenn ja, wäre damit unser Store Checkin Problem in einer nicht-kritischen Laufzeit gelöst?

Nun, letztere Frage kann man nur mit einem klaren Ja beantworten. Denn die Quadratwurzel aus 40.000 ergibt 200 und das mal 100 μs genommen bedeutet nur einen Sekundenbruchteil für eine volle Datenbank-Iteration. Bei dieser Laufzeit bräuchten wir keinerlei Kompromisse einzugehen – das virtuelle Löschen von unserer „Sovereign Maersk“ würde nur wenige Minuten dauern.

Die andere Frage, nämlich die nach der Korrespondenz des Grove-Algorithmus zur betreffenden Datenbank-Iteration, ist hingegen gleich mehrere Bits komplizierter. Es ist klar, dass sich die Stellplatz-Datenbank für den Grove-Algorithmus nahezu anbietet. Der Teufel 👿 dürfte aber im Detail stecken. Denn die alles entscheidende Frage lautet: Können wir die immanenten Eignungszahlen in Qubits abbilden?

Nach meinem Dafürhalten ist es der Fall, d.h. es existiert sehr wohl ein Quantenalgorithmus, der die vorliegend geforderte Iteration in verrichtet. Diese Vermutung ist vorläufig das einzige (Zwischen-) Resultat der vorliegenden AG, die somit – wie die AG übers QDD seinerzeit auch schon – mit einem an die Außenwelt gerichteten Ruf nach Hilfe zunächst endet. :mrgreen:

Wenn da nicht der EROI wär‘, wär‘ ich ein Physikär ;-)

.

💡 Zusammenfassung (Abstract). Der Erntefaktor (EROI) einer energetischen Anlage gehört zu den am meisten missverstanden Kennzahlen in der energetischen Physik. Es kommt noch erschwerend hinzu, dass die immer weiterer verfeinerten Ermittlungsmethoden des EROI insbesondere die „erneuerbaren Energien“ immer schlechter haben aussehen lassen. So entstand ein handfestes wirtschaftliches Interesse an Missdeutungen bzw. Relativierungen dieser Kennzahl. Die vorliegende AG sollte all den Fakenews entgegen treten.
💡

 

Erntefaktoren
Quelle (C) Institut für Festkörpermechanik
Sagenhafter EROI für den Dual Fluid Reaktor auf der einen, sowie homöopathische EROI’s für die „Erneuerbaren“ auf der anderen Seite dürften der wahre Grund sein für die neuerliche Welle von Verklärungen dieser Kennzahl.

Noch bis vor ein paar Wochen hätte ich über den Erntefaktor einer energetischen Anlage (im folgenden verwenden wir das englische „EROI“) gesagt, dieser sei eine allenthalben wohl verstandene physikalische Größe. Denn weder in den Social-Media-Threads noch in den Schulveranstaltungen, etwa Gastvorträgen etc. hatte ich bis dato Anhaltspunkte für irgendwelche Verständnisschwierigkeiten im Zusammenhang mit dieser Kennzahl festgestellt.

Doch dies hat sich in den letzten Wochen und Monaten grundlegend verändert. Auf einmal prasselten Fakenews auf mich ein, die ich früher nicht für möglich gehalten hätte. Dabei ist grundsätzlich zwischen zweierlei Kategorien zu unterscheiden: Die einen sind diejenigen, denen der Sachverstand in Physik schlichtweg fehlt. ➡ Sie haben gar nicht verstanden, welche energetische Umwandlungsprozesse z.B. in einem Kernkraftwerk stattfinden und können somit den EROI aus objektiven Gründen gar nicht erfassen. Und da gibt es aber auch jene, die offensichtlich das Ziel verfolgen, den für die „Erneuerbaren Energien“ ungünstigen EROI zu relativieren. Dabei haben wir zuletzt eine Reihe von z.T. grotesken Auswüchsen dieser eiligst bemühten Parawissenschaft erlebt, von denen wir einige auf den nachfolgenden Screenshots abgebildet haben.

Wir unterscheiden innerhalb der AG nicht zwischen diesen beiden Gruppen – sprechen stattdessen neutral von „Denkfehlern“, mit welchem Hintergrund auch immer.

➡ zu meinem Erstaunen zählte zu dieser Kategorie ein Opponent aus der Schweiz, der Physiklehrer sein bzw. gewesen sein wollte… 😈
.
.

EROI. Die Definition
.

eroiFail1
Ein Beispiel einer kompletten Auf-den-Kopf Stellung des EROI

Ob WKA oder KKW – alle Energie-„Erzeuger“ (eigentlich „Umwandler“) wandeln in einer Kette von Umwandlungsprozessen Primärenergie in Endenergie um, d.h. in jene Form, in der wir die Energie haben, also „ernten“ wollen. In den beiden nachfolgend verglichenen Fällen ist die Endenergie jeweils die elektrische, während die Primärenergie ein Bit komplizierter ist. Klar, bei einer WKA ist es schlicht die kinetische Windenergie, aber bei einem Kernkraftwerk? Die Antwort ist schlicht: die Masse! Denn ja, am Anfang der Umwandlungskette steht in der Tat die in der Masse gem. E=mc2 „versteckte“ ➡ Energie.

➡ Demzufolge sprechen manche an dieser Stelle von der einzig realisierten „echten“ Energieerzeugung (aus Masse eben), während es sich ansonsten lediglich um eine Energieumwandlung handelt. Wie dem auch sei: dieses Beispiel verdeutlich doch am besten, wie unsinnig es ist, die Primärenergie zu der Gestehungsenergie dazu zu rechnen 😯; hierzu gleich mehr unter „Denkfehler“
.

eroiFail2

Wofür steht dann der EROI? Nun, ganz bestimmt nicht für das Verhältnis End-/Primärenergie, was ja der klassische Wikungsgrad wäre. Nein, der EROI beschreibt schlicht und ergreifend, wie energieintensiv das Kraftwerk oder die Anlage ist. Genauer: wieviel Energie muss in die Anlage hineinfließen, um die gewünschte Energieumwandlung zustande zu bekommen; dies relativ zu der am Ende geernteten Energie, versteht sich:

Soweit so gut – kennen wir eigentlich. steht für die „geerntete“ Energie (somit Endenergie), für die „Gestehungsenergie“. Letztere ist eben jene summarische Energie, die über den gesamten Lebenszyklus der Anlage hinweg – von deren Gestehung mitsamt der Brennstoffe (well-to-wheel), über Maintenance bis hin zur Entsorgung – umzusetzen ist, um… Achtung!!! …um eben den Umwandlungsprozess Primär-zu-Endenergie zustande zu bringen (zu „gestehen“). Die Primärenergie des Prozesses zu dessen Gestehungsenergie dazu zu rechnen, ist eine Art Tautologie 😉 und gehört zu den meist verbreiteten EROI-Denkfehlern; s. ff. 💡 Continue reading „Wenn da nicht der EROI wär‘, wär‘ ich ein Physikär ;-)“

Was taugen Reststoffe schneller Brutreaktoren?

.

💡 Zusammenfassung (Abstract). Untersucht werden Möglichkeiten der Nachbehandlung bzw. Weiterverwertung von Spaltnukliden, die als Reststoffe einen schnellen Brutreaktor – z.B. den Belojarsker BN800’er oder einen künftigen DFR etc. – verlassen. Es sollten Optionen sowohl einer energetischen Weiterverwertung als auch einer radiotoxischen Entschärfung dieser Stoffe ausgelotet werden.
💡

 

ZerfallsNuklide
Quelle: https://en.wikipedia.org/wiki/Long-lived_fission_product

Man kann vortrefflich darüber debattieren, ob eine solche Fragestellung sehr viel an jenem Aufklärungspotential in sich birgt, was das Hauptanliegen der „AG Energetik“ ausmacht. So erfuhr ich im Vorfeld zwar nicht gleich harsche Kritik, aber schon etwas kritische Hinterfragungen, frei nach dem Motto, wen interessiert schon der Rest von dem ursprünglich so problematischen „Atommüll“? Man sollte doch darin nicht mehr „rumwühlen“ und außerdem leistet man dadurch einem Framing der Anti-Atomkraft Bewegung Vorschub, die zu jeder Lösung im Bereich der Kernenergie das passende Problem braucht.

Doch gerade das mit dem Framing sehe ich ganz anders. Vielmehr meine ich selber einen Frame zu setzen und zwar um die Frage nach all den Brütern und schnellen Neutronen überhaupt! Für mich ist Genenation 4 eben nicht mehr die Frage des Ob, sondern evtl. des Wie bzw. Wann. Oder aber „Was taugen Reststoffe von…“. Ganz bewusst frage ich nicht „wohin damit“. Wenn das kein Framing ist… 😉

Soweit so gut. Damit ist aber die Frage immer noch nicht beantwortet, was das alles mit dem Hauptanliegen der „AG Energetik“ zu tun hat, das unverändert darin besteht, eine Aufklärung in Physik zu betreiben, Methoden der Erkenntnisgewinnung zu vermitteln etc. Nun, diese Frage scheint dann doch relativ einfach zu sein. Denn die Erfahrungen gerade mit Quantencomputing haben gezeigt, dass eine noch so abgehobene Physik die wirklich Wissbegierigen zumeist jungen Leute überhaupt nicht abschreckt; eher ist das Gegenteil der Fall. Fragen à la „Was passiert, wenn wir den Brennstoff länger im Reaktor belassen?“ oder „Wie reagieren Spaltnuklide, denen wir eine Neutronendusche verpassen?“ zeugen von einer doch sehr großen Gier nach Informationen und zwar in einer Disziplin, die immer noch zu den unerwünschten da politisch nicht korrekten 🙄 dazu zu rechnen ist.

Und bei dieser Begründung für die Namensgebung unserer AG wollen wir es auch bewenden lassen. Denn es würde den Rahmen des Blogs klar sprengen, mögliche Anwendungsgebiete für all die Spaltnuklide der Aktinide zu erörtern. Klar, bei einem Blick auf https://en.wikipedia.org/wiki/Fission_products_(by_element) läuft einem das Wasser im Mund zusammen. Denn da gibt es allerhand wertvolle Stoffe – von seltenen Erden über Refraktärmetalle bis hin zu Edelmetallen – häufig bereits in stabiler (also nicht-strahlender) Form. Dennoch lassen wir es mit dem lapidaren Hinweis auf die Fachliteratur gut sein und konzentrieren uns fortan auf die Frage, ob und wenn ja, wie die radioaktiven Spaltnuklide, etwa die problematischen 127Cs und 90Sr, radiotoxisch entschärft werden können. Mit anderen Worten, wir legen nun los unter der eigentlichen Überschrift:

Wie kann man die Radiotoxizität der Reststoffe loswerden? Die AG Teil 1

.

Dual Fluid Reaktor (DFR) © IFK
Die integrierte PPU (Pyroprocessing Unit) verspricht eine sortenreine Trennung der Reststoffe. Sollte darüber hinaus eine Isotopen-bezogene Trennung möglich sein, wäre das Problem der Rest-Radiotoxizität unter Gewinnung von überaus wertvollen Stoffen vollständig gelöst.

Bereits ein kurzer Blick auf die rechte Hälfte der obigen Tafel lässt einen schon staunen. Denn dass die Spaltung von 235U eine Fülle von Isotopen hervorbringen würde (die dann womöglich jeweils anders zu behandeln wären) lässt sich nun wahrlich nicht behaupten. Vielmehr sehen wir eine überschaubare Anzahl von Nukliden – gerade mal ein Dutzend – die sich offensichtlich in zweierlei Gruppen aufteilen lassen:

    • MLFP (medium-lived fission products): 155Eu, 90Sr, 85Kr, 113mCd, 137Cs, 151Sm, 121mSn;
    • LLFP (long-lived fission products): 99Tc, 126Sn, 79Se, 93Zr, 135Cs, 107Pd, 129I .

Dazwischen sowie unterhalb MLFP’s wie auch oberhalb der LLFP’s gibt es schlicht nichts und das verspricht schon mal die Sache zu vereinfachen. Denn auch wenn unser DFR nicht dafür gedacht ist, ausgerechnet das 235U zu spalten, sind obige Isotope Bestandteil von dem sog. „Atommüll“, also kommen sie zunächst als Brennstoff in den DFR rein, sofern sie von der PPU nicht von vorne herein abgetrennt werden. Dass letzteres nicht sinnvoll ist – dazu gleich mehr.

Ein zweites und viel interessanteres Merkmal, das die Zerfallsnuklide ebenfalls voneinader unterscheidet, ist der sog. (Neutronen-) Resonanzquerschnitt , wobei für uns der Einfangsquerschnitt von besonderem Interesse ist. Was gleichermaßen wie bei der Halbwertszeit sofort auffällt, ist, dass es ebenfalls zweierlei Gruppen gibt, in die sich die Zerfallsprodukte einteilen lassen. Es handelt sich auf der einen Seite um Nuklide mit einem im Bereich von ein paar Barn, bis sogar darunter und auf der anderen Seite um solche mit im Bereich einiger kbarn (Kilobarn); letztere haben wir zuvor grün markiert.

➡ (Neutronen-) Resonanzquerschnitte (auch „Wirkungsquerschnitte“) kann man sich vortrefflich als Zielscheiben vorstellen. Trifft ein Neutron genau ins „Schwarze“, ist die Wahrscheinlichkeit eine Resonanz (also eine wie auch immer geartete Wechselwirkung, Eindringen in den Target-Kern etc.) zu erzielen, nahe 1. Je mehr wir uns von dem Mittelpunkt entfernen, umso geringer wird die Wahrscheinlichkeit einer Wechselwirkung, bis sie außerhalb der Zielscheibe praktisch ausgeschlossen ist. Die Fläche dieser imaginären Zielscheibe ist gerade der Resonanzquerschnitt und wird in Barn angegeben: 1 barn = 10-28 m2.
.

Einfangsquerschnitte von einigen Kilobarn, wie wir sie bei den „grünen“ Isotopen ausgemacht haben, bedeuten jedoch nichts anderes, als dass der Neutroneneinfang praktisch sofort erfolgt, also unmittelbar nach Entstehung des jeweiligen Nuklids bzw. nach dessen Beimischung als Brennstoff aus dem sog. „Atommüll“.

Beispiel Europium. 155Eu, mit seinen 3.95 kbarn (!), fängt sich im Nu ein Neutron ein. Das daraus resultierende 156Eu ist mit einem unter 1 barn vor weiteren Neutronen einigermaßen sicher – u.U. Zeit genug um es abzutrennen (dem Flüssigsalz-Kreislauf zu entziehen) und in aller Ruhe den β Zerfall abzuwarten (die Halbwertszeit von 156Eu beträgt 15 Tage). Das hochwertige und stabile 😮 Gadolinium kann bereits nach einigen Wochen „geerntet“ werden:

:mrgreen: (steht für stabil, also nicht strahlend...😉 Continue reading „Was taugen Reststoffe schneller Brutreaktoren?“

Sättigung bei den „Erneuerbaren“ Energien. Der χ- (Chi-) Effekt

.

Zusammenfassung (Abstract). Untersucht wird das dynamische Verhalten von Erntefaktoren (EROI) „Erneuerbarer“ Energien, insbesondere Wind- und Solarkraft, hinsichtlich installierter Leistung.
.
Das Zwischenfazit der AG ist wirklich niederschmetternd für die Windkraft- und Solarindustrie – ja, man kann mit Fug und Recht von einem Super-GAU sprechen. Denn wie zuvor vermutet, hat sich der Negativtrend bei den χu-Koeffizienten auch im Jahre 2018 fortgesetzt: Demnach wird bereits der ungepufferte EROI mit zunehmendem Ausbau der „EE’s“ immer schlechter und zwar allem technischen und technologischen Fortschritt zum Trotz! Berücksichtigt man ferner noch die Pufferungseffekte (was eine anderweitige AG in ihrer Fortsetzung untersuchen wird), dürfte der Nachweis für eine „EE-Sättigung“ endgültig erbracht sein! Ein weiterer Zubau von Wind- oder Solar würde dann nahezu vollständig verpuffen und das viel apostrophierte Ziel „100% EE“ als physikalisch unerreichbar ausweisen. 

.

Motivation. Hintergründe

.

Wind-und-Solar-2011-bis-2015
Man sieht allenfalls minimale Zunahmen bei den Peaks – und das trotz einer beinahe Verdopplung (!) der installierten Leistung.
© Rolf Schuster (@science-skeptical.de)

Am 15. September 2015 schloss die AG „Energieeffizienz von Windkraftanlagen“ mit der für manche (aber eben nur für manche… 😉 Continue reading „Sättigung bei den „Erneuerbaren“ Energien. Der χ- (Chi-) Effekt“

QDD – ein Algorithmus zur quantenmechanischen Datenübertragung

NichtLinearKrystal
Erzeugung von verschränkten Photonen im nicht-linearen Krystal.
Quelle © BBC.uk.com

Nach der Erstveröffentlichung des „Algorithmus zur quantenmechanischen Datenübertragung“ – seinerzeit noch unter der Bezeichnung „EPR“ – am 2. März 2017, erfuhr ich aus dem Netz ein Feedback, was ich eingedenk der „Trockenheit“ der Materie so nicht erwartet hätte. Überrascht hat mich vor allem das häufig geäußerte „faszinierend!“ – auch und gerade von denjenigen, die ansonsten in einer unnachahmlichen Freimütigkeit zugaben, nicht allzu viel davon verstanden zu haben. :mrgreen:

Ich persönlich kann mir diese doch recht überraschende Reaktion nur dadurch erklären, dass die Aussicht auf eine Datenübertragung mit Überlichtgeschwindigkeit bzw. über einen abhörsicheren „Kanal“ eben jene Faszination hervorruft, die die Hemmschwellen zur Quantenmechanik bzw. gar Quanteninformatik etwas absinken lässt. So wird im Allgemeinen gespannt zugehört, man lässt sich alles noch mal und noch mal erklären, man schreckt nicht vor jeder banalen mathematischen Gleichung in einem Beitrag zurück (ein Effekt, den ansonsten jeder Buchverlag zu Genüge kennt 😉 Continue reading „QDD – ein Algorithmus zur quantenmechanischen Datenübertragung“

Die KiKK-Studie und das Gesetz der kleinen Zahlen

Daniel Kahneman (*1934), ein israelisch-US-amerikanischer Psychologe und Wirtschafts-Nobelpreisträger des Jahres 2002, beschreibt in seinem legendären „Schnelles Denken, langsames Denken“ u.a. Urteilsheuristiken und kognitive Verzerrungen, auf die es sowohl die Journalisten als auch u.U. verantwortungslose „Wissenschaftler“ abgesehen haben. Von höchster Relevanz für die vorliegenden Betrachtungen ist das zusammen mit Amos Tversky untersuchte Gesetz der kleinen Zahlen.

Irgendwann mal die Tage jährt sich zum 10. Mal die sog. „KiKK-Studie“, des Bundesamtes für Strahlenschutz (BfS), die eine Korrelation zwischen Kinderleukämie und der Nähe des Wohnortes zu den Kernkraftwerken 🙄 belegt haben wollte… und es wider besseres Wissen bis heute immer noch tut, wenn auch in einer inzwischen stark relativierten Form… Und es jährt somit auch und insbesondere die wohl größte Blamage für die deutsche Wissenschaft nach dem 2. Weltkrieg, denn nichts anderes als das ist wohl der Sermon, dessen aktuelle Form man sich auf der weiter unter verlinkten Website reinziehen kann.

Anno 2007 fand ich die Studie nicht nur falsch, sondern auch „kriminell“ und „verhetzerisch“. Theoretisch waren es auch diese und ähnliche Epitheta, die mir die Androhung rechtlicher Schritte durch einen anonymen Blogger (der ein Mitglied des Forscherteams gewesen sein wollte… 😉 Continue reading „Die KiKK-Studie und das Gesetz der kleinen Zahlen“

Wasserstoffantrieb energetisch betrachtet…

Mirai
Toyota Mirai mit Brennstoffzelleantrieb an der Wasserstofftankstelle
Quelle © Toyota USA

Im Teil 1 der AG über alternative Fahrzeug-Antriebe, der AG „Elektromobilität energetisch betrachtet“, haben wir das eAuto ausführlich untersucht und einen Vergleich mit dem klassischen Antrieb angestrengt. In dem vorliegenden Teil 2 wollen wir unsere Überlegungen auf Wasserstoffantriebe ausdehnen.

Wasserstoff übt eine nahezu magische Faszination aus – längst nicht nur auf Menschen, die dem Gedanken der „grünen“ :mrgreen: Ökologie zugewandt sind. Auch von erklärten Gegnern der sozusagen „Energiewende“ bis hin zu Skeptikern der Elektromobilität höre ich des Öfteren „mit Wasserstoff… das ist dann was völlig anderes, da macht es ja Sinn…“ 😉 Continue reading „Wasserstoffantrieb energetisch betrachtet…“