Alternative Antriebe – zu Lande, zu Wasser und in der Luft

»
Seit sich das batteriegetriebene Automobil BEV durchaus signifikante Marktanteile gesichert hatte und die Brennstoffzelle (FCV) deren Nische etwas vergrößern konnte, kommen – zumeist von der Enthusiasten-Szene :mrgreen: – verstärkt Forderungen nach einer Ausdehnung dieser Antriebskonzepte auf andere Verkehrssektoren, etwa auf die Schiff- und Luftfahrt. Doch welche Größenordnungen an Batterien bzw. Wasserstoff-Tanks es erfordern würde, um etwa einen transatlantischen Flug zu absolvieren und liegen da objektiv die physikalischen Grenzen? Die vorliegende AG widmet sich all diesen Fragen und zeigt u.a. auf, dass die Erweiterung von Batterien zumindest in der Luftfahrt in keinem Verhältnis zum Reichweitengewinn steht. TE
LE
GR
AM
Bugatti Hyper Truck (Concept)
© Prathyush Devadas / Behance.net

Bei der praktischen Umsetzung von alternativen Antriebskonzepten spielt offensichtlich die Energiedichte eine Schlüsselrolle. Fragen etwa nach der Wasserstoffmenge, die benötigt wird, um z.B. einen Flug von A nach B zu absolvieren, oder Fragen nach der Größe von Batterien eines BE-Trucks, um es einem Diesel-Truck gleich zu tun, sind absolut entscheidend.

Gleichwohl fällt der Unterschied zwischen den beiden Größen sofort auf. Denn während bei dem ultraleichten Wasserstoff eher die Frage „wohin damit“ im Vordergrund steht – sprich, wie groß müssen die Tanks sein ? – ist es bei den Batterien mehr die Frage nach deren Gewicht. Wieviel wiegt dann ein so fantastisch gesteilter Truck wie der Bugatti HT (→) wirklich?

In der Tat existieren in der Physik zwei hierzu korrespondierende Größen, „Energiedichten“, wenn Ihr so wollt. Die gravimetrische Energiedichte setzt die gespeicherte Energie ins Verhältnis zur Masse eines Speichers, normalerweise einer Batterie, während die volumetrische Energiedichte die Energie pro Volumen angibt. ➡

So beträgt die gravimetrische Energiedichte einer Tesla-Batterie beispielsweise effektiv 0.15 kWh/kg – ein Wert, der kaum über 0.2 kWh/kg steigen dürfte, jedenfalls nicht auf Basis herkömmlicher Ionen-Technik. Dennoch werden wir nachfolgend mit diesem Wert rechnen, um sozusagen den künftigen Fortschritt vorweg zu nehmen.

➡ Der Versuch eine „ökometrische“ Energiedichte zu postulieren, darf als mißlungen angesehen werden 🙄. Jedenfalls ist der EROÏ aus der AG „EROÏ – Energy Return of Invested Impact“ die korrespondierende Größe hierzu.
.

Die AG wird in zwei Phasen aufgeteilt. Zunächst wollen wir die Größenordnungen der Energiespeicher in den einzelnen Verkehrssektoren untersuchen und zwar jeweils für Batterie bzw. Wasserstoff. Synthetische Treibstoffe (im folgenden „Synfuel“) werden in dieser Phase außer Betracht gelassen, weil deren Energiedichten mit jenen fossiler Brennstoffe vergleichbar sind. Erst im zweiten Teil der AG, wo wir den energetischen Gestehungsaufwand der alternativen Antriebe untersuchen, wird auch Synfuel zu untersuchen sein.

AG Teil 1

.
Tesla Model X 2021 Plaid
© tesla.com

Zunächst einmal bleiben wir „auf dem Boden“ – sprich, wir betrachten den Straßenverkehr. Des weiteren wollen wir das Rechenschema bei der Extrapolation von Verbrenner zur Batterie aufzeigen.

Zu diesem Zwecke betrachten wir einen Diesel SUV der gehobenen Klasse – einen X7, Q7 o.ä. – mit einem Tankinhalt von 80 Litern. Der Durchschnitt aus Heizwert und Brennwert ➡ beträgt beim Diesel 10 kWh/L , also „schlummern“ in dem vollen Tank des SUV 800 kWh (kalorische) Energie. Diese können wir aber nur in etwa zu 25 % in mechanische Energie umsetzen, also gewinnen wir um die 200 kWh aus einer solchen Tankfüllung. Bei einem Verbrauch von 10 L/100 km fahren wir mit den 200 kWh 800 km weit, macht einen „elektrischen“ Verbrauch von 25 kWh/100 km, was wiederum ziemlich genau dem Verbrauchswert des Tesla X bei gemäßigter Sommerfahrt entspricht. Klar wird der BEV im Winter und/oder bei höheren Geschwindigkeiten gegenüber dem Verbrenner entsprechend ineffizienter – das wissen wir nicht zuletzt aus der AG „Elektromobilität energetisch betrachtet“. Innerhalb dieser AG machen wir dennoch den folgenden Ansatz (zugunsten des BEV :mrgreen:):

– soll heißen „mechanische Energie aus 1 Liter Diesel entspricht ca. 2.5 kWh elektrische Energie“

➡ der Unterschied zwischen Heiz- und Brennwert ist marginal. Es geht lediglich darum, ob man die Abgasenergie zu der gewonnenen Energie dazu zählt.
.

Es sei an dieser Stelle betont, dass es sich um eine rein energetische Äquivalenz handelt. Dass der Verbrenner seine 800 km mit nur einer Tankfüllung bewältigt, während ein BEV zwischendurch mindestens 1 Mal nachladen muss (einzige Ausnahme ist derzeit der Tesla S Plaid+), ist vollkommen klar. Das Reichweitenproblem der Elektroautos wurde durch das „System Tesla“ auch nicht wirklich aus der Welt geschafft – nur einigermaßen handhabbar gemacht. Doch spätestens im nächstgrößeren Sektor, nämlich bei Bussen und Trucks, fällt uns das Reichweitenproblem gnadenlos auf die Füße.

»
Tesla Semi Truck 2019. © auto-motor-und-sport.de

Im Sektor LKW/Reisebus reichen die Verbrauchswerte von unter 20 bis über 40 Liter Diesel, jeweils auf 100 km. Da wir hierfür absehbar entsprechend schwere Batterien benötigen werden, rechnen wir von vorne herein mit einem höheren Äquivalent und zwar: . Daraus folgt ein Bedarf von 60 bis 120+ kWh auf 100 km. Wenn wir jetzt einem LKW oder einem Reisebus eine Reichweite von – sagen wir – 500 km verleihen möchten, so bedeutet es ein Batterie-Package von 300 bis über 600 kWh, was beim derzeitigen Stand der Technik 2 bis über 4 t Zusatzgewicht ausmacht. Dies wiederum bedeutet 10 bis 25 % der ansonsten verfügbaren und kostbaren Zuladung – von dem exorbitant hohen Materialaufwand ganz abgesehen.

Freilich kann man hier den gleichen Weg gehen wie im PKW-Sektor auch schon: Batterien verkleinern und die Supercharger-Infrastruktur ausbauen; bei Tesla spricht man von „Megachargern“. Die Fernfahrer hätten gegen eine Pause alle 300 km wohl kaum etwas einzuwenden, denn zu Pausen sind sie eh von Gesetzeswegen verpflichtet. Aber eine FlixBus-Reisender, der von Stuttgart nach München fährt, möchte vielleicht dann doch in knappen 3 Stunden ankommen und kann auf eine Kaffeepause von etwa 1 Stunde gut verzichten. Es ist schon ein Kreuz mit der gravimetrischen Energiedichte.

Die Frage, die sich dabei sofort aufdrängt, ist, ob das gute alte Hydrogen uns aus der „gravimetrischen“ Falle herausführen kann. Immerhin verbraucht der Toyota Mirai nur 1 kg Wasserstoff auf 100 km, also wäre das vom Gewicht her die Größenordnung von gerade mal 1 Liter Diesel. Somit würde gar ein 40 t Truck gerade mal 30 kg Wasserstoff für seine 500 km benötigen.

(💡) Allerdings schlägt hierbei die andere Energiedichte, nämlich die volumetrische, gnadenlos zu. Denn vom Volumen her „verbraucht“ ein Fuel Cell Antrieb (Brennstoffzelle) das 3-fache gegenüber dem Diesel. 600 Liter Tanks jedoch sind bei Bussen und Trucks zwar technisch machbar – wenn auch aufwendig – in der Fliegerei sind sie es aber nicht mehr. (💡)

»
Batteriebetriebenes Flugtaxi © https://lilium.com
(aufs Bild klicken für Animation)

Bei der zivilen Fliegerei (über die militärische brauchen wir uns wohl kaum Gedanken zu machen) wird die gravimetrische Energiedichte indes noch gravierender. Denn es ist offensichtlich – und da müssen wir nicht erst groß herumrechnen – dass wir eine Passagiermaschine nie und nimmer mit Batterien alleine werden über den großen Teich schicken können. Und auch ein Kleinflugzeug, wie etwa die Cessna Skyhawk, käme rein elektrisch nicht allzu weit, so sie denn überhaupt die Flughöhe mitsamt deren Batterien erreichen würde. ➡

Wir sehen also, dass der Batterieantrieb in der Luftfahrt – wenn überhaupt, dann nur für eine eng dimensionierte Nische interessant sein kann. Eine solche Nische könnte beispielsweise eine Art Flugtaxi sein, konzipiert für kurze Strecken und nur eine Handvoll Passagiere.

➡ Es wäre übrigens eine Anregung an die Postillion-Redaktion: zeichnet doch einen Supercharger der mit Düsenantrieb in Schwebe gehalten wird :mrgreen:😀
.

So steht beispielsweise der Senkrechtstarter des deutschen Startups Lilium exemplarisch für ein solches Flugtaxi. Der Hersteller will eigenen Angaben zufolge die Flughäfen München und Nürnberg als Drehkreuze für ein geplantes regionales Luftmobilitätsnetz mit dem Lilium-Jet bedienen. Der Jet soll dabei – rein elektrisch – 3000 m Flughöhe erreichen und 8 Passagiere mitsamt Gepäck 250 km weit und mit 280 km/h zwischen den Flughäfen fliegen können. Wir stellen uns die Frage, ob das hinkommt.

Nun, nehmen wir an, der Jet wiegt ohne Batterien 0.5 t, mit Passagieren und deren Gepäck sind es dann 1.5 t. Dann geben wir dem Fluggerät noch einmal 1.5 t an Batterien mit an Bord, ergibt summa summarum 3 t Gewicht. Die Frage ist nun, wieviel Energie benötigt wird, um die 3 t auf 3000 m Flughöhe und 280 km/h Reisegeschwindigkeit zu bringen – um es anschließend, nach 200 km Flug, sanft zu landen.

Ich habe mir sagen lassen, dass eine Cessna Citation beispielsweise, beladen auf 3 t Fluggewicht, ungefähr 35 Liter Sprit auf 100 km (bei 280 km/h) braucht. Zusammen mit dem Auf- und Abstieg rechnen wir rund 100 Liter Sprit auf elektrisch aufzubringende Energie um, ergibt 250 kWh Energie für einen 1-fachen Flug. Bei einer gravimetrischen Energiedichte von derzeit 0.15 kWh/kg würden wir die veranschlagten Batterien mit 1.666 t leicht überfordern, aber bei von 0.2 kWh/kg würde es hinkommen. Knapp aber sicher!

Wenn denn aber schon so knapp, warum dann nicht mit Wasserstoff fliegen, wird sich der Leser jetzt vielleicht fragen. Nun, in der Tat ist die Aussicht auf ein „Loswerden“ von 1.5 t Gewicht sehr verlockend. Denn eine Cessna Skyhawk braucht dann nur noch 20 Liter auf 100 km, also nur etwas mehr als 50 Liter Sprit für den ganzen Überflug. Das würde gerade mal 150 Liter Wasserstoff bedeuten, was kein „volumetrisches“ Problem darstellen dürfte. Wir werden im Teil 2 der AG sehen, wo hier der Haken bei der Sache ist und warum Lilium zurecht auf Batterieantrieb setzt.

Für den Verkehrszweig Schiff kann man selbstverständlich ähnliche Überlegungen anstellen. Auch hier kennen wir Wassertaxis u.ä. mit Batterieantrieb, wenn auch nur in Nischenanwendungen, etwa im Tourismus. Auch hier stoßen wir – eher früher denn später – an die Implikationen der Energiedichte. Weil es sich hierbei um einen ähnlichen Gedankengang handelt, möchte ich diesen dem Leser überlassen und den Teil 1 der AG abschließen.

AG Teil 2

.
©Tesla Design Center China
s. auch „Schon wieder Tesla, verflixt…“

Meiner Manager-Schelte 😛 in Sachen Fehleinschätzung der Rolle von Lade-Infrastruktur wird gelegentlich entgegen gehalten „wozu Supercharger, wenn wir demnächst Batterien bekommen, die uns 1000 km weit und darüber hinaus bringen werden…“ Ins gleiche Horn blasen dabei die Elektroauto-Influencer, die folgerichtig vom Kauf eines eAutos, zugunsten etwa eines Leasing abraten.

Doch dass daraus nichts werden kann, sehen wir spätestens an Teslas Verlautbarungen aus dem letzten „battery day“. Demnach sehen Tesla-Ingenieure gerade in der stärkeren Integration der Batterie in die tragenden Strukturen der Karosserie die höchsten Optimierungspotenziale und eben nicht so sehr in der Steigerung der Energiedichte.

Außerdem hießen 1000 km Reichweite eine Verdreifachung der jetzigen durchschnittlich 350 km bzw. 60 kWh-Batterien, was sich zwar volumetrisch vielleicht hinbiegen ließe – gerade mit Teslas Batterien als Bestandteil der Karosserie – aber vom Gewicht her wäre ein Tesla Model 3 mit 2.5 t Leegewicht doch ziemlich unbeweglich. Und 1000 km würde er nicht zuletzt wegen des enormen Gewichts dann nicht mehr schaffen! Dieser Effekt – dass sich sozusagen die Katze in den Schwanz beißt – ist im Sektor der zivilen Fliegerei noch viel krasser, wie wir gleich untersuchen werden.

Wir betrachten noch einmal den Lilium-Jet, nur diesmal etwas genauer. Der Einfachheit halber reduzieren wir die „Flight Mission“ auf den Schwebeflug, also den Aufstieg auf eine bestimmte Flughöhe (um z.B. den Touris den Blick aus der Vogelperspektive zu ermöglichen ) und den Abstieg bis hin zur (sanften!) Landung.

➡ Eine Geschäftsidee (zu haben für jedermann) wäre die, den grün-affinen Touris :mrgreen: aus Deutschland und anderswo einen Flug mit einem solchen Elektro-Flugtaxi über die bizarren Wasserfälle von Iguazú anzubieten. Da der Strom aus dem unweit gelegenen paraguayisch-brasilianischen 12 GW-Wasserkraftwerk Itaipú kommt und zudem spottbillig ist, dürfte durch den Appell ans grüne Umweltgewissen auch eine recht üppige Gebühr einzustreichen sein…😉
.

Wenn wir den Boden-Abstoßeffekt sowie den sog. Coandă-Effekt außer Betracht lassen (was wir hier tun), ist es unter energetischen Gesichtspunkten irrelevant, auf welche Höhe das Fluggerät zwischendurch steigt. Entscheidend ist einzig und alleine die Flugdauer , also jene Zeitspanne, in der die Triebwerke der Gravitation trotzen müssen. Wenn wir an unsere Batterie denken, ist dies sozusagen unsere „Reichweite“.

Die Leistung („“ steht dabei für „Schwebeflug“), die die Triebwerke aufbringen müssen, um den Schub zu erzeugen, errechnet sich aus der Formel:

; Herleitung s. Fachliteratur.

Der Einfachheit halber fassen wir die Luftdichte , die Rotorenfläche sowie die Erdbeschleunigung in einer Konstanten zusammen:

somit

Nun bleibt auch die Masse bei einem Batterieflug konstant (es wir ja kein Sprit verbrannt), also sehen wir eine ganz klar proportionale Abhängigkeit von und . Dies gilt übrigens auch für , also diejenige Energie, die wir effektiv aus den Batterien ziehen müssen. Weil der Gesamtwirkungsgrad des Antriebsstranges mitsamt der Rotoraerodynamik weitgehend konstant bleibt, wirkt sich die Umrechnung auf nur auf die Konstante aus:

Somit können wir unsere „Rechweite“, sprich die maximale Flugdauer, die unsere Batterie unter der gegebenen Zuladung hergibt, wie folgt berechnen:

Und hier schlägt die gravimetrische Energiedichte voll durch. Denn solange wir genügend Energie in den Batterien haben, müssen wir beispielsweise für eine Verdopplung der Flugdauer (es funktioniert übrigens für eine Verdopplung der Flugstrecke genauso) die doppelte Energie aus den Batterien ziehen. Fliegen wir aber jetzt schon am Limit, so müssen wir – um nicht nur von München nach Nürnberg sondern z.B. bis nach Frankfurt/M fliegen zu können – größere Batterien an Bord nehmen. Das bedeutet aber ein höheres Gewicht und folglich einen höheren Schub und hier beißt sich die Katze in den Schwanz. Am Beispiel vom 3 t Lilium-Jet, den wir im Teil 1 grob gerechnet haben, heißt das:

Verdoppeln wir die Batterien von 1.5 auf 3 t, so ergibt sich anstatt der erwarteten Verdopplung der „Reichweite“ auf lediglich:

Bedenkt man ferner den höheren technischen Aufwand, der mit einer größeren Batterie nun einmal verbunden ist, so kann man mit Fug und Recht sagen, dass da nichts mehr bei rauskommt. Mit anderen Worten: München/Nürnberg ja – längere Strecken nein, da müsste Wasserstoff her.

Dass man sich bei Lilium dennoch für Batterieantrieb entschieden hat, kann ich indes gut nachvollziehen. Wasserstoff stellt zwar kein gravimetrisches Problem dar, gleichwohl ist die kryotechnische Speicherung technisch anspruchsvoll und aufwendig. Außerdem fehlen langjährig erfahrene Hersteller von zuverlässigen FCell-Antrieben, wie es im „e-Sektor“ der Fall ist. Bedenkt man dann noch, dass die Kilowattstunde „Wasserstoff“ 2.5 bis 3 kWh Strom bei der Herstellung benötigt, kann man Batterieantrieb in dieser einen speziellen Nische mit gutem Grund favorisieren.

eTruck Nicola mit Wasserstoff-Power ©autobild.de

Eine überaus treffende Versinnbildlichung des gravimetrischen Energiedichte-Problems von Wasserstoff ist der nebenbei → abgebildete e-Truck Nicola mit H2-Power: die Hydrogen-Tanks sind sozusagen unübersehbar 😉.

Ich wage es gar zu bezweifeln, dass selbst diese Tanks einen 40-Tonner 1000 km weit bringen können. Ein konventioneller Truck braucht hierfür immerhin an die 500 Liter Diesel, was für den Nicola etwa das 3- bis 5-fache an Wasserstoff bedeuten würde. Und selbst wenn: um diese Menge an Wasserstoff zu produzieren, ihn abzukühlen, zu verflüssigen etc. müssten wir elektrischen Strom im MWh-Bereich investieren. Da fehlt mir offen gestanden die Fantasie, um mir hierzulande eine solche Stromproduktion vorstellen zu können.

Abschließend noch die Eingangs angekündigte Kurzanalyse der synthetischen Treibstoffe. Es ist nun offensichtlich, dass „Synfuel“ eine ähnliche Energiedichte aufweisen, wie deren fossile Pendants. Mit letzteren sind wir immerhin zu anderen Planeten geflogen, genauso wie wir Modellflugzeuge damit antreiben können. Außerdem wäre die Tankstellen-Infrastruktur bereits vorhanden, also hört sich das ganze sehr gut an. Doch der Teufel steckt hier wie immer im Detail. Denn nach allem was mir vorliegt, ist der energetische Aufwand bei der Herstellung von Synfuel mit dem der Wasserstoff-Herstellung vergleichbar. Wenn dem so ist, sind Wasserstoff und Synfuel für ein Umfeld, in dem Energie knapp und teuer ist, eindeutig nicht geeignet.

Wir haben gesehen, dass die Energiedichte – sowohl die gravimetrische als auch die volumetrische – uns mehr oder weniger enge Grenzen bei der technischen Realisierung von alternativen Antrieben setzt. Diese Grenzen manifestieren sich in einer Reduktion der Reichweite bzw. Zuladung beim Batterieantrieb (), bis hin zum Erzwingen bzw. Ausschluss bestimmter Konstruktionen beim Wasserstoff (). Letzteres kann z.B. großräumige Passagierflugzeuge ab einer gewissen Flugdistanz schlicht unpraktikabel machen.

.

Synthetische Treibstoffe unterliegen ebenso den Beschränkungen der Energiedichte, jedoch sind die betr. Grenzen mit jenen der fossilen Pendants identisch. Das Problem von Synfuel ist vielmehr der energetische Gestehungsaufwand – vom monetären ganz zu schweigen. Um Wasserstoff oder Synfuel eines Tages breit einführen zu können, würden wir Energiemengen benötigen, für die uns die vorliegende AG allenfalls nur eine rudimentäre Vorstellung geben konnte. Diese Energien können sodann nur auf subatomarer Ebene gewonnen werden. Wer meint, dies mit den sog. Erneuerbaren Energien alleine bewerkstelligen zu können, hat ein Problem, das nicht Gegenstand der vorliegenden AG ist..🙄

FA
ZI
T.
FA
ZI
T.
FA
ZI
T.
.

https://www.facebook.com/rainer.stawarz/posts/2787877688094768

Neutrinovoltaik – doch nur eine weitere „Erneuerbare Energie“?

»
Die Aussicht auf Energiegewinnung aus den Neutrinos ist natürlich sehr verlockend. Man stelle sich nur vor, Strom wird unabhängig von der Tages- und Jahreszeit kontinuierlich gewonnen – gänzlich ohne die „Zappeligkeit“ herkömmlicher „Erneuerbarer Energien“. Die vorliegende AG widmet sich der Frage, welche Energiemengen theoretisch aus dem Neutrino-Stream gewonnen werden können. Oder anders gefragt: ist die Neutrinovoltaik mehr als nur eine weitere typisch „erneuerbare“ :mrgreen: Energie, mit geringer Energiedichte, hohem Impact und grottenschlechtem EROI? TE
LE
GR
AM
Strahlungsmuster im Super-Kamiokande-Detektor bei einem Elektron-Neutrino. Aus „Erklären Neutrinos die Existenz unseres Universums?“
Quelle © Scinexx

Neutrinos werden manchmal in der Fachwelt als „Ignoranten“ im Teilchenuniversum bezeichnet. Denn in der Tat wechselwirken tun sie kaum: ein bisschen mit schwacher Kernkraft. Aber starke Kernkraft, Elektromagnetismus und – wie man lange glaubte – Gravitation… Fehlanzeige! Dafür tun die Neutrinos so ziemlich alles durchdringen, als gebe es für sie keinen Halt im Universum!

Eben, „man glaubte“ lange Zeit, dass Neutrinos – ähnlich wie Photonen – masselos seien, was sie für eine Energiegewinnung aus deren kinetischer Energie vollkommen unattraktiv erscheinen ließ. Doch diese Vorstellung fand 2015 ihr jähes Ende, als dem Japaner Takaaki Kajita und dem Kanadier Arthur McDonald die Entdeckung der Neutrino-Oszillation, gekrönt mit dem Nobelpreis 2015, gelang. Warum aber war damit die Masselosigkeit der Neutrinos perdu?

Nun, wenn sich Neutrinos immer wieder „umziehen“ können, also zwischen , und hin und her wechseln, dann können sie sich nicht mit Lichtgeschwindigkeit fortbewegen – sonst stünde deren Uhr still und würde das „Umziehen“ nicht ermöglichen. Außerdem wurde gezeigt, dass die Wahrscheinlichkeit einer Umwandlung der Neutrinos u.a. von der Massendifferenz der jeweiligen Neutrino-Generationen abhängt; insbesondere dass genau dann gilt, wenn die Massen gleich sind. Wenn aber ungleich Null ist, muss es für mindestens eine der beiden Massen ebenfalls gelten. Mit anderen Worten: Neutrinos haben eine Masse!

Wenn dem aber so ist, so gibt es eine – wenn auch nur sehr schwache – Wechselwirkung im Gravitationsfeld. Es gibt demnach zumindest eine theoretische Möglichkeit, die kinetische Energie abgreifen zu können, indem man die Neutrinos irgendwie ausbremst. Lt. einiger Forscherteams, bis hin zu kommerziellen Unternehmungen (s. https://neutrino-wiki.de – ansonsten bitte googeln) ist diese Möglichkeit längst nicht mehr nur theoretisch. Vielmehr will man Stoffe gefunden haben, die sich den scheinbar alles durchdringenden Neutrinos sehr wohl in den Weg stellen können. Von der „Neutrinovoltaik“ ist die Rede!

Allerdings kann es für uns nicht ausreichend sein, mit spektakulärer Aufmachung die energiepolitische Revolution heraufzubeschwören; wir wollen es schon genauer wissen… Was uns insbesondere als „AG Energetik“ interessiert, ist, mit welchen Energiedichten und -Mengen real zu rechnen ist. Ist die so wohl klingende „Neutrinovoltaik“ wirklich eine energetische Revolution oder doch nur eine weitere typisch „erneuerbare“ Energie – mit grottenschlechtem EROI bzw. EROÏ und überschaubaren bis homöopathischen energetischen Erträgen :mrgreen:? Continue reading „Neutrinovoltaik – doch nur eine weitere „Erneuerbare Energie“?“

Machen Speicher „100%EE” möglich? oder „theEND”-Studie 2.0

»
Framing ist in – und so versucht auch der ökoindustrielle Komplex dem Zombie 👿 namens „Energiewende“ mittels eines Frames unter die Arme zu greifen. Demnach sei das dahin siechende Lieblingsprojekt des politisch-medialen Mainstreams hierzulande nur noch eine Frage der… Speicher 🙄. Auch das Aktionsbündnis #saveGer6 schlägt eine Laufzeitverlängerung der noch am Netz befindlichen Kernkraftwerke vor, um Zeit zu gewinnen für die Entwicklung dieser Speicher! Dass dies fernab der Realität liegt, soll in Rahmen der vorliegenden AG untersucht und belegt werden. TE
LE
GR
AM

Wunschdenken (rot/grün :mrgreen: ) gegen Realität (orange/graublau)

»
Um zu widerlegen, dass die „Energiewende“ nur noch an den bis dato nicht vorhandenen Energiespeichern scheitern würde, muss man eben von einem abstrakten Szenario ausgehen, in dem es diese Speicher sehr wohl gibt. Sollte selbst dann kein „100%EE“ möglich sein, hätte sich die anderslautende These des ökoindustriellen Mainstreams grandios erledigt. Dies zur Methodik, doch wie komme ich auf eine solche Idee?

Nun, die einschlägigen Erfahrungen, die mich dazu gebracht haben, reichen bis in den Herbst des Fukushima-Jahres 2011 zurück. Damals stieß ich auf eine Studie zweier Professoren einer deutschen Uni , in der stoisch behauptet wurde, dass ein „100%EE“ in Deutschland bereits anno 2020, spätestens jedoch 2022 möglich und effektiv machbar sei. In der anschließenden Diskussion erlebte ich sodann ein meisterliches Framing: Demnach fehle mir schlicht die Fachkompetenz um zu begreifen, dass Energiespeicher doch überhaupt kein Problem seien (jene Fachkompetenz, die bei den beiden Lehrstuhl-Inhabern selbstverständlich einwandfrei vorhanden sei :mrgreen: – Anm.d.Verf.). Und kaum hatte ich mich umgeschaut, schon war ich mittendrin in dem Frame, der da hieß, es gibt stets genügend Speicher.

➡ Ich nenne bewußt keine Namen, weil ich auf eine sermonhafte Jurispondenz 🙄 wenig Bock habe. Jedenfalls gewann ich damals praktisch sofort den Eindruck, die Studie selbst sei von den Assistenten und Doktoranten verfasst worden, währen beide „Professörchen“ lediglich die Aufgabe hatten, die Studie nach außen zu vertreten. Das sah man spätestens bei der Frage, ob mit „100%EE“ die gesamte Energie oder nur der Strom gemeint sei (es verging eine Zeit bis zur Antwort…) usw.
»

Eben jene Diskussion von damals möchte ich hier und unter gleichen Voraussetzungen fortsetzen. Denn schließlich neigt sich das Jahr 2020 dem Ende entgegen und lt. vollmundiger Bekundungen der beiden Lehrstuhl-Inhaber müsste der EE-Strom bereits 90% – wenn nicht gar 100% – des Strombedarfs decken. Es lohnt sich daher anzuschauen, wie weit wir heuer wirklich sind.

Die AG

.

Einer der beiden Lehrstuhl-Inhaber verlinkte mir damals ein Diagramm, das ich nun in Form der rot/grünen Kurven (s. obige Abbildung) zu entsinnen suche. Demnach sei eine Vervierfachung der EE-Stromproduktion binnen 10 Jahren (also damals bis 2021) nicht zuletzt aufgrund des absehbaren technologischen Fortschritts locker machbar! 2021, vielleicht sogar schon früher (also 2020..?!), sind wir dann dicke über 500 TWh/a. Auf der anderen Seite würde sich die Verbrauchskurve von 600 TWh/a der Produktionskurve nähern (ich würde insbesondere nicht verstehen, dass Energieeffizienz die wichtigste Energiequelle der Zukunft sei), so dass ein „rot/grüner“ Überschneidung 2020, spätestens aber 2022, wenn alle Atomkraftwerke vom Netz gingen, vorliegen werde.

Primärenergie nach Energieträgern, Deutschland 2019
© 2019 BMWi

Doch was ist die Realität im Jahre 2020? Nun, hier haben die Herrschaften wohl eine Rechnung ohne den Wirt namens „Physik“ gemacht. Denn anno 2020 haben wir keine Vervierfachung der EE-Stromproduktion gegenüber 2011, sondern gerade mal eine Verdopplung. Und wenn man den Verlauf der graublauen Kurve in die Zukunft extrapoliert, so sieht man deutlich, dass 500 TWh/a schlicht nicht möglich sind – nicht 2030, nicht 2040… und auch 2050 wohl kaum! Dies obwohl die Abflachungseffekte χ- (Chi-) und κ- (Kappa) äußerst moderat angesetzt sind: die graublaue Kurve verläuft ja fast linear!

Es ist schwer vorstellbar, dass irgendetwas in der Lage sein könnte, diesen Trend ein Stück umzukehren und die (graublaue) Kurve „nach oben“ zu reißen. Denn was sollte es bitteschön sein? Wasser-, Geo-, Bio- etc. sind praktisch nicht mehr ausbaufähig, Windkraft – nicht zuletzt aufgrund des verheerenden Impacts in die Biosphäre, was die AG „EROÏ = Energy Return of Impacted Input“ erarbeitet hat – kaum noch durchsetzbar… bliebe da nur noch die gute alte Sonne. Diese mag zwar keine Rechnungen verschicken 😉, aber die Frage ist dann doch, ob sie wirklich genug hergibt, um die Produktion vom erneuerbaren Strom auf über 500 TWh/a zu hieven? Anders gefragt, wie viele Dächer müssten wir (zusätzlich!) mit PV-Modulen bestücken, um weitere 300 TWh/a zu generieren? Hierzu die folgende rudimentäre Überlegung:

  • Bei einer nahezu flächendeckenden Überdeckung mit PV-Modulen, sind wir mit durchschnittlich 10 kWp pro Ð (Dacheinheit) sehr gut bedient, was wiederum 6.000 kWh/a·Ð ergibt. Daraus folgt:  300 TWh/a = 300.000.000.000 kWh/a ÷ 6.000 kWh/a·Ð = 50.000.000 Р

Wir haben aber keine 50 Mio Dächer oder sonstige PV-geeignete Flächen in Deutschland… und selbst wenn: 50 Mio PV-Einheiten wären in Puncto graue Energie überhaupt nicht darstellbar. Insbesondere der EROI würde weit unter 1 absacken 👿. Insofern müssen wir uns mit der Tatsache arrangieren, dass die EE-Stromproduktion auch langfristig weit unter 500 TWh/a liegen wird!

Auch beim Stromverbrauch, also der realen Nachfrage, divergieren die Wunschvorstellungen und Realität weit voneinander. Denn der „reißende Fluss“, mit dem seinerzeit die beiden Profs die „erneuerbare Energie“ aus Effizienzsteigerung verglichen hatten, entpuppte sich in den letzten Jahren allenfalls als ein kleines „Bächli“. Die Stromnachfrage fiel kaum, vielmehr blieb sie bei leichten Schwankungen im Großen und Ganzen konstant knapp unter 700 TWh/a, will heißen, dass selbst wenn es uns gelingen sollte, dieses Niveau zu halten, läge der Schnittpunkt mit ohnehin schon optimistisch extrapolierten graublauen Kurve weit über das Jahr 2050 hinaus!

In der AG „New Mobility – New NUC“ wurde u.a. der Strom-Mehrbedarf für Elektromobilität ermittelt.

Und dann stellt sich unweigerlich die Frage, wie realistisch es ist, dieses Verbrauchsniveau zu halten bzw. gar zu senken, um 2050 (vielleicht) am Ziel zu sein..? Was bedeutet es denn für die Volkswirtschaft einer Industrienation wie die deutsche?

Nun, zunächst ist zu konstatieren, dass die Potentiale der Effizienzsteigerungen weitestgehend ausgereizt sein dürften. Bei dem heutigen Stand der Technik ist da nicht mehr viel zu holen und selbst wenn, so muss dies zumeist mit zusätzlichen energetischen aber auch monetären Aufwendungen teuer erkauft werden.

Auf der anderen Seite erfordert auch und gerade die „grüne“ :mrgreen: Revolution, die nur mit einem technischen wie technologischen Fortschritt einhergehen kann, abermals mehr und nicht weniger Energie! Der Strom-Mehrbedarf bei einem nur zu 50% elektrifizierten Verkehrssektor beträgt um die 100 TWh/a, wie wir nicht zuletzt aus der AG „New Mobility – New NUC“ bereits wissen. Rechnen wir dann noch, stets wohlwollend, für alle anderen Sektoren, für Digitalisierung etc. lediglich weitere 100 TWh/a dazu, so hätten wir um 2030 herum einen Strombedarf in Höhe von über 800 TWh/a. Dies dürfte sich dann im Laufe 2030’er Jahre der Grenze von 1 PWh/a stark nähern – natürlich stets vorausgesetzt, dass die Politik in Deutschland sich nicht dem Trend zur Digitalisierung, Elektrifizierung etc. verschließt und den Strom weiter so verteuert und verkompliziert, dass all die („grünen“ :mrgreen:) Zukunftsprojekte obsolet werden.

Die AG hat somit die Eingangs aufgestellte These ganz klar bewiesen. Denn » dass dies (das „100%EE“) fernab der Realität liegt «, kann dem Verlauf der orangenen sowie der graublauen Kurve entnommen werden. Beide Kurven differieren voneinander und somit ist ein „100%EE“ eine pure Illusion. Dies wohl gemerkt unter der abenteuerlichen Voraussetzung, dass es stets genügend Speicher gibt und dass diese nichts kosten, weder energetisch noch monetär.

Die TL;DR AG zur Elektromobilität und alternativen Fahrzeugantrieben

»
Das Argumentieren für- und wider Elektroautos, Verbrennungsmotor, Brennstoffzelle etc. wird allmählich etwas mühsam. Die Argumente – gleich von welcher Seite diese auch kommen mögen – wiederholen sich immer und immer wieder, nachdem die jeweiligen Gegenargumente offensichtlich nicht verinnerlicht worden sind. Die vorliegende AG sollte diese Argumentationslinien tabellarisch in Form These/Antithese festhalten. TE
LE
GR
AM
.
Ein BEV (links) und ein PIHV (rechts).

„AG Energetik“ hat mittlerweile etliche Beiträge zum Thema Elektromobilität bzw. zu alternativen Fahrzeugantrieben vorzuweisen. Dies bietet eine doch recht bequeme Möglichkeit, beispielweise in einem Facebook-Thread 😉 gleich einen entsprechenden Link setzen zu können und so den aufkommenden Mythen oder Falschbehauptungen den Wind aus den Segeln zu nehmen. Die Sache hat allerdings den einen Haken und zwar, die Fragestellung berührt u.U. nur einen Teilaspekt einer recht umfangreichen Problematik – z.B. die energetischen Aufwendungen bei der Herstellung von eAuto-Batterien – während die jeweils verlinkte AG auf die gesamte Problematik in gebotener Ausführlichkeit eingeht.

Somit ist es einerseits mit Torpedo auf Goldfische geschossen, anderseits wird nicht selten etwas auf die hohe Ebene der Wissenschaft gehoben, was besser ein wenig volkstümlicher denn in mathematischen Formeln auszudrücken gewesen wäre...🙄 Außerdem lassen Mitdiskutierende man mein „Abstract“ für gewöhnlich nicht als TL;DR gelten, womit die gesamte Argumentationskette dahin ist.

Um diesem unerwünschten Effekt zu entgehen und nicht zuletzt dem Leser eine bessere Möglichkeit der Argumentation bzw. der Quellen-Unterlegung an die Hand zu geben, habe ich die nachfolgende tabellarische Zusammenstellung der am häufigsten diskutierten Aspekte der Elektromobilität sowie anderer Antriebe konzipiert. Die Tabelle sollte im Laufe der „open end“ AG kontinuierlich erweitert und jeweils den neuesten Erkenntnissen angepasst werden.
.

### These Antithese. Stellungnahme
#01 Elektroauto ist verglichen mit einem Verbrenner… dies und jenes Vergleiche zwischen Stromer und Verbrenner sind in. Zu den häufigsten Tricks oder Denkfehlern – je nach Wissensstand 😉 – zählt der Vergleich zweier eben nicht-vergleichbarer Fahrzeuge. Vergleichbar sind die Fahrzeuge aber nur dann, wenn sie in etwa gleiches Format aufweisen und in Puncto Komfort, Sicherheit, Fahrleistungen etc. ähnliches zu bieten haben. Dies nennen wir nachfolgend unser „Grundgebot der Vergleichbarkeit“, bzw. kurz „#01“.
#02 Elektroauto verbraucht so und soviel Energie, stößt so und so viel Schadstoffe und CO2 aus Der methodische Fehler, der diesen Argumentationsketten innewohnt, ist zumeist das völlige Abstrahieren von der Frage, wie der Strom gewonnen wird, insb. wie „dreckig“ er ist. Entscheidend ist der primärenergetische Mix, der sich sowohl auf die Herstellung des eAutos, vor allem aber auf dessen Betrieb auswirkt. Dies bezeichnen wir nachfolgend als das Grundgebot der Primärenergie, kurz „#02“
#10 Elektroautos sind (energetisch) effizienter Es sei vorerst auf die AG „Elektromobilität energetisch betrachtet“ verwiesen.
#11 Elektroautos stoßen weniger/mehr CO2 aus Es sei auf #1 und #2 verwiesen (…)
#12 Elektroautos sind teurer in Anschaffung und Betrieb als Verbrenner Das Gegenteil ist richtig. Elektroautos sind – unter strikter Wahrung von #1 – in der Regel kontengünstiger, sowohl in der Anschaffung als auch im Betrieb. Dabei wird der Vorteil umso höher, je gehobener die Fahrzeugklasse ist – s. etwa Tesla X vs. BMW X6 oder Tesla 3 vs. BMW 3’er. Ausnahmen bilden lediglich total missratene Konzepte, wie z.B. der VW eUP oder Mercedes EQC, die jeweils etwas günstigere Pendants im eigenen Hause bilden. Aber den Vergleich gegen einen äquivalenten Tesla entscheidet letzterer stets haushoch für sich.
#13 Elektroautos sind anfälliger (bzw. 100-fach weniger anfällig) gegenüber Brandunfällen 🙄 Was die brennenden Teslas für die einen sind, sind die Knallgasexplosionen der Reaktorgebäude in Fukushima für die anderen (oder gar dieselben…😉?): ein Grund zur Panik und zu völlig falschen Schlussfolgerungen; ein evtl. wirtschaftliches oder politisches Interesse bleibt davon freilich unberührt.
.
Viel interessanter in diesem Zusammenhang ist wohl die gegenteilige Behauptung, nämlich wonach das Elektroauto um den Faktor 10 oder auch 100 (!) weniger „brandgefährlich“ sein sollte, als ein Verbrenner. Es kommt noch erschwerend hinzu, dass die Unfallstatistiken diese Zahlen durchaus hergeben… was sie jedoch noch lange nicht richtig macht. Denn Elektroautos sind nun mal (noch) sehr wenig verbreitet und das dünnt die Datenbasis aus. Eine geringe Datenbasis birgt aber in sich die Gefahr in die Falle der kleinen Zahlen (gem. Kahneman) hineinzulaufen. Eine kleine Verzerrung im System – etwa ein höherer Anteil an Premium-Fahrzeugen, mit all den Assistenzsystemen, mit aktiver und passiver Sicherheit etc. – reicht dann bereits aus, um tatsächlich Faktoren von 10 oder gar 100 zu produzieren.
.So gesehen verwundert es nicht sonderlich, dass Tesla in den USA das mit Abstand sicherste Auto ist. Gewiss ist es das, aber die Frage ist, wieviel davon dem eAuto als solchem geschuldet ist. Meine Vermutung, die sich auf die physikalische Betrachtung stützt, ist die folgende: die intrinsische Neigung zum Brandunfall dürfte sich bei beiden Antriebskonzepten in etwa die Waage halten. Der tiefere Schwerpunkt sowie der zusätzliche Aufprallschutz dank der Batterie dürfte dem eAuto zu einem Vorteil um den Faktor 2-4 gereichen.
#14 Elektroautos taugen allenfalls etwas für die Stadt. Längere Strecken sind nicht praktikabel Diese Behauptung kann bereits alleine durch den Screenshot aus der AG „Über das System Tesla“ widerlegt werden. Denn wenn ich 1000 km fahren soll, dann ist eine Pause von einer Stunde – auch wenn man zu zweit fährt und sich immer wieder abwechseln kann – schlicht ein Muss! Was also übrig bleibt, ist lediglich ein wenig mehr Planung, wo man die Stopps einlegt (es müssen 3-4 Stopps sein – s. AG) etc. Das Reichweiten-Problem kann somit zumindest innerhalb des Tesla-Systems bereits als gelöst angesehen werden, spätestens mit dem kommenden Supercharger- und Ladeleistungs-Upgrade.
#15 Elektroautos senken die Wertschöpfungstiefe und vernichten so die Arbeitsplätze in der dt. Automobilindustrie Diese Argumentation ist substantiell mit dem früheren „Computer ist der Jobkiller“ inhaltsgleich. Wenn ein Gut – hier ein Auto – mit weniger Ressourcen und/oder Manpower hergestellt werden kann, so nennt man so etwas Rationalisierung oder auch technischer Fortschritt...😳 Von daher ist es kein Wunder, dass dies einerseits aus der populistischen Ecke kommt, anderseits von der klassischen Autoindustrie und deren Lobby.
#16 Deutschland kann seinen Energiebedarf für die Elektromobilität zu 100% aus EE bestreiten. Diese Vorstellung „100% eAuto aus 100% EE“ wurde durch die AG „New Mobility – New NUC“ aufs Korn genommen. Bei nur 50% der eAuto-Quote benötigten wir beim Verkehrsaufkommen des Jahres 2019 in DE ca. 10 GW konstante Leistung, was eine ideale Bedarfs-Ausbalancierung voraussetzt. Diese ist jedoch nun einmal nicht machbar – und selbst wenn: die EE sind für eine wetterunabhängige 24×7 – Versorgung definitorisch nicht geeignet. Die Vorstellung „100% eAuto aus 100% EE“ gehört daher ins Reich der Träume und Phantastereien 👿
#17 Norwegen hat es bereits geschafft: fast alles fährt elektrisch und der Strom ist zu 100% erneuerbar Norwegen ist gewissermaßen das heilige Land für die Apologeten des „100% eAuto aus 100% EE“ :mrgreen:, jedoch ist die Realität wieder mal eine andere. Ende 2018 hatte dieses von der Natur gesegnete Land eine eAuto-Quote von… 6% – dennoch haben ein paar heiße Wochen bereits gereicht, um die Wasserreservoirs soweit abdampfen zu lassen, dass Stromimporte nötig wurden. Von daher wissen die Verantwortlichen ganz genau, dass bereits bei 30% eAuto-Quote die heimische „weiße Kohle“ nicht mehr ausreichen wird.
#18 BEV sind keine Alternative zum Verbrenner, wohingegen Synfuel und Wasserstoff sehr wohl. Dieses Argument ist ganz klar in der klassischen Automobil-Lobby zu verorten. Der Hintergrund: der Trend zum batteriegetriebenen Elektroauto wurde verschlafen und das System Tesla gar nicht verstanden. Die Losung, die dann noch übrig bleibt, lautet daher: kauft vorerst ruhig unsere Verbrenner weiter und wir machen das schon mit dem Synfuel oder Wasserstoff irgendwann mal. Aber wie wir aus der AG „Wasserstoffantrieb Energetisch betrachtet“ wissen, braucht ein Brennstoffzellen-Fahrzeug mindestens das Doppelte an Energie eines BEV und ein Kolbenmotor gar das Dreifache, mindestens! Letzteres würde aber für Deutschland die Größenordnung von 50 GW Dauerlast bedeuten, also bereits 2/3 der gesamten Stromlast 😮
#19 BEV erfordern Unmengen an Lithium, Kobalt und seltenen Erden. Deren Gewinnung ist problematisch, Stichwort Kinderarbeit in Kongo 🙄
#20 Die Herstellung von BEV verbraucht Unmengen an Wasser. Tesla gibt für die Fabrik in Grünheide den Wasserbedarf von 372.000 Litern pro Stunde an. Das bedroht die Trinkwasserversorgung 🙄 Die 372.000 Liter Trinkwasser pro Stunde, die von Tesla für die Fabrik Grünheide angegeben werden, bedeuten 3.258.720.000 Liter im Jahr, macht bei der geplanten Jahresproduktion von 500.000 Fahrzeugen 6.517 Liter Wasser pro Fahrzeug. Zum Vergleich: der Wasserbedarf bei der Herstellung eines konventionellen Fahrzeugs beträgt 400.000 bis 500.000 Liter 👿 Von einer Bedrohung der Trinkwasser-Reservoires in der betr. Region kann also nicht die Rede sein. Zwar ist hier die Gewinnung von Lithium ebenfalls „wassertechnisch“ zu berücksichtigen (diese Fällt ja nicht in der Gigafactory an), aber es bleibt immer noch weit unter 100.000 Litern Wasser. Hier ist also BEV klar im Vorteil
#21 Elektroautos sind ohne Subventionen nicht marktfähig Lässt man bei den konventionellen Fahrzeugen all die direkten und indirekten, all die Kreuz- und Quer-Subventionen, Abwrackprämien etc. nicht gelten, darf man es beim BEV ebenso wenig tun. Was dann übrig bleibt, sind die eAuto-Kaufprämien, evtl. auch noch Subventionierung der Ladestationen (Letzteres trifft auf Tesla bekanntlich nicht zu). Hier muss man allerdings konstatieren, dass das eAuto zwar der Gegenstand aber nicht der Verursacher dieser Subventionierung ist. Der Verursacher ist vielmehr eine falsche energiepolitische Weichenstellung. Die Verknappung von Energie gepaart mit hoffnungsloser Unterschätzung deren Bedeutung für Industrie 4.0, Quantenrevolution 2.0 etc. – und somit auch und gerade für die Elektromobilität – haben dazu geführt, dass man sein Heil in den Subventionen sucht.

 

.

https://www.facebook.com/rainer.stawarz/posts/2495671813982025

eAuto-Wärmepumpe oder Praxistest „Carnot vs. Joule-Tomson“

»
Die ursprüngliche Idee dieser AG war es, anhand eines Praxistests den praktische Nutzen von Wärmepumpen in Elektroautos zu untersucht und zwar anhand eines werden; hier am Beispiel von Tesla Model 3 bzw. Model Y mit oder ohne Wärmepumpe. Doch die Datenaufnahme anhand von Tesla-Akkuanzeige hat sich als viel zu ungenau herausgestellt, so dass die AG unverrichteter Dinge geschlossen werden musste. TE
LE
GR
AM
Klima-App im Tesla. Die Heizung lässt sich per Remote einschalten und der energetische Aufwand hierfür zumindest grob abschätzen.

Anfang 2020 kündigte der US eAuto Bauer Tesla an, das neue Model Y serienmäßig mit einer Wärmepumpe auszustatten – sehr zur Freude der auf „Öko“ ausgerichteten Kundschaft sowie der Fans. „Endlich !“, „warum erst jetzt?“ war da am meisten zu hören… ja eben, warum nicht gleich so?? Warum bekamen die Premium-Modelle X und S, bei deren Kundschaft die Kosten eine eher untergeordnete Rolle spielen, nicht von vorne herein eine solch sinnvolle Vorrichtung und sollen bis auf Weiteres ohne eine solche herumfahren?

Könnte es vielleicht sein, dass eine Wärmepumpe gar nicht so sinnvoll ist, wie es sich auf den ersten Touch anfühlt, da dies – wie schon häufig in der „AG Energetik“ festgestellt – mit einem unverhältnismäßigen Aufwand und Impact erkauft werden muss? Könnten es nicht doch eher Imagegründe gewesen sein, die letztendlich Tesla zu solch einem Schritt bewogen haben?

Die AG „Carnot vs. Joule-Tomson“ vom September 2015 kann diese Fragen jedenfalls kaum beantworten. Denn zum einen ging es dort um die Häuslerbauer, die gute Möglichkeiten haben beide Endpunkte des Pumpvorgangs 0 → 1 geschickter zu wählen, (etwa Erd-Wärmepumpe), und zweitens beschränkte ich mich seinerzeit auf die theoretische Gegenüberstellung beider gegenläufiger Prozesse und zwar unter den in der Praxis unerreichbaren Idealbedingungen:

Doch bei einem Elektroauto haben wir all das nicht. Die Wärmequelle kann hier nur die Luft sein und deren Temperatur ist, je nach Witterung, so wie sie ist, ja und auch eine großflächige Fußbodenheizung lässt sich in einem PKW kaum realisieren. Dessen ungeachtet wenden die Versierteren unter den Opponenten bei dieser Gleichung häufig ein, die -Kurve würde doch asymptotisch gegen 1 gehen, weshalb eine Wärmepumpe in jedem Falle einen energetischen Gewinn abwerfe 🙄. Nun, an dieser Stelle muss ich denjenigen Leser, der das so sieht, leider enttäuschen. Denn die Berücksichtigung von Verlusten (Realgas, unvollkommene Isolierung, Verwirbelungsverluste etc.) führt keineswegs nur zur Abflachung der -Kurve, sondern auch zu deren Verschiebung nach unten. So durchbricht sie ab einem gewissen Temperaturgradienten die 1’er Achse und die Wärmepumpe arbeitet mit einem grottenschlechten . ➡

Die Aufgabe der vorliegenden AG besteht jedoch nicht darin, einen „realen“ Joule-Tomson Prozess durchzurechnen, denn das dürften schon viele vor uns gemacht haben. Wir wollen vielmehr empirisch herausfinden, was eine Wärmepumpe wirklich bringt und hierfür bemühen wir einen Langzeitvergleich zweier Teslas, jeweils mit- und ohne Wärmepumpe. Es läuft somit auf einen Vergleich „M3 vs. MY“ hinaus. Doch wie kann ein solcher Langzeittest aussehen? Welche Datensätze wollen wir konkret zusammentragen?

Nun, ich persönlich schätze gerade in den kalten Monaten die Möglichkeit, mein Auto per Remote-App vorheizen zu können, doch sehr. Dass dieser Luxus Energie kostet, ist klar, aber wieviel genau? Hier wird es schon ein Bit komplizierter. Denn die Energie-Anzeige im Tesla beschränkt sich auf eine Genauigkeit von einem Prozentpunkt, also im Falle von Tesla M3 LWR steht ein Prozentpunkt für 0.75 kWh. Dies ist für sich genommen schon ziemlich ungenau, ferner dürfte das Abfragen (also Messen!) der Restenergie in der Batterie mit recht deutlichen Fehlern behaftet sein. Dies trifft aber auf absolute Werte zu, weniger auf die Differenzen (womit wir wieder bei dem Fluxionsverhalten wären…sorry 😉). Außerdem relativieren sich diese Fehler bei einer großen Zahl der Messungen eben dieser Zahl entsprechend. Anders ausgedrückt, wenn wir eine hinlänglich große Zahl an Wiederholungen hinlegen, die eine relative Veränderung der Restenergie infolge eines Heizvorgangs hervorbrinmgen, erhalten wir eine doch gut belastbare Datenbasis. Dies ist die Grundidee der vorliegenden AG.

➡ bei den Joule-Tomson-Prozessen nennt man – im Gegensatz zu dem Carnotschen „Wirkungsgrad“ – häufig „Leistungszahl“.

.

Anleitung zur Datenaufnahme (Tesla):

  1. Batterieanzeige von Restreichweite (km) auf Restenergie (%) umstellen;
  2. Außen- und Innenraumtemperatur, sowie Anfangs-Restenergie aufschreiben;
  3. Zieltemperatur (z.B. 22°C) einstellen und Heizvorgang starten;
  4. Nach Erreichen der Innenraum-Zieltemperatur noch ca. 1 Min. weiterheizen;
  5. Währen des Heizvorgangs die Energieanzeige beobachten, insb. wann die Prozentpunkte „fallen“. Daraufhin die verbrauchte Energie „π mal Daumen“ abschätzen. Fertig.

 

Tesla M3 LWD 75 kWh Außentemp. T0 → T1 T1 – T0 Energie Bemerkungen
2°C 4°C →22°C 18°C 1.2 kWh
1°C 2°C →22°C 20°C 1.3 kWh inkl. Scheiben-Entfrostung
2°C 5°C →22°C 17°C 1.1 kWh zuvor vorgeheizt gehabt
10°C 12°C →22°C 17°C 0.7 kWh beruht auf mehreren Messungen
.

.

https://www.facebook.com/rainer.stawarz/posts/2485697101646163

EROÏ – Energy Return of Invested Impact

»
Konzipiert wurde ein „Energy Return of Invested Impact“ , der im Gegensatz zum reinen EROI dem Impact in die Biosphäre Rechnung tragen sollte. Wir nennen es EROII bzw. EROÏ. Die einzige Energieform, bei der der EROÏ dem EROI praktisch gleicht, ist eindeutig die Kernenergie. Mit einigen Abstrichen lässt sich Ähnliches mit einem Gaskraftwerk bzw. einer eigens gemanagten PV-Anlage auf einem (bereits vorhandenen!) Dach annähernd erzielen. Bei der Windkraft hingegen differieren EROII und EROÏ um den Faktor 5 voneinander, weshalb es sich hierbei um die am meisten zerstörerische Energieform handelt. Sie sollte vollumfänglich eingestellt werden.
TE
LE
GR
AM
EROI unbuffered, weak/full bufferedaus der AG „Sättigungseffekte bei den EE“

 

Wenn es überhaupt etwas gibt, was die „AG Energetik“ in ihrer nunmehr bald 5-jährigen Geschichte ein Stück weiterentwickelt hat, dann ist es eindeutig das Konzept des EROI. Nicht umsonst wurde ich schon mal „Mr. EROI“ genannt :mrgreen:, was ich jedoch nur deshalb erwähnen möchte, weil diese Zuschreibung klar ironisch gemeint war und insofern keine Gefahr besteht, eine Menge dicke Luft zu produzieren😳

Jedenfalls haben all unsere ➡ AG’s eben zum Thema EROI eine Menge erforscht und interessante Resultate erarbeitet. So haben wir Methoden einer heuristischen Ermittlung des EROI am Beispiel der Offshoreparks „alpha-ventus“ sowie „Amrumbank West“ (Teil1, Teil2) kennengelernt und dabei den Pufferungs-Koeffizienten postuliert. Dieses haben wir dann im Rahmen der beiden AG’s über den χ- (Chi-) sowie den κ- (Kappa)-Effekt auf Fluxionsverhalten untersucht und dabei Abflachungs- bis Sättigungs-Effekte festgestellt. All das sind doch Erkenntnisse, die – so sie denn von den Entscheidern in Politik und Wirtschaft beherzigt worden wären – uns jede Menge Unheil hätten ersparen können.

Dennoch, bei all der bescheidenen Kompetenz in Sachen EROI, räume ich freimütig ein, dass diese Kennzahl nicht alles ist. Denn was der EROI definitorisch beschreibt, ist die Beanspruchung von energetischen Ressourcen einer Anlage, z.B. eines Kraftwerks, im (umgekehrten) Verhältnis zu der am Ende gewonnenen Nutzenergie. Hingegen, was hier allenfalls nur partiell erfasst wird, ist die Beanspruchung von natürlichen Ressourcen ➡ bei dem Gestehungsprozess; wir nennen es kurz und bündig „Impact“.

➡ bereits in einem alten Blogbeitrag https://ssl.loggpro.net/rainer/?p=217 im Frühjahr 2012 unter der Überschrift „the-END Studie“ („END“ stand für „Energiewende? Nein, Danke“) machte ich mir Gedanken über die Beanspruchung bzw. Verbrauch von natürlichen Ressourcen energetischer Anlagen, also Kraftwerke, Energiespeicher etc. Damals postulierte ich – in Anlehnung an die volumetrische bzw. gravimetrische Energiedichte bei den Energiespeichern – den Begriff der „ökometrischen Energiedichte“. Das war der erste Versuch den Impact ins Verhältnis zu dem Nutzen, etwa der Energieernte, zu setzen. In einer nachgeschalteten Studie »Impact „Erneuerbarer Energien“ in die Biosphäre« https://ssl.loggpro.net/rainer/?p=1166 versuchte ich den Impact an der statistischen Anzahl der Todesopfer (bezogen auf kWh Energiegewinn) festzumachen; dazu gleich mehr.
.

Betrachten wir zunächst einmal eine WKA auf der einen und eine PV auf der anderen Seite. Der EROI ist – egal wie gerechnet – stets 1-stellig, also von der gleichen Größenordnung, und dennoch ist der Impact offensichtlich diametral unterschiedlich. Denn die PV-Anlage auf dem Dach stört niemanden, die im Solarpark schon eher, aber auch nicht so arg – während alleine das monströse WKA-Fundament aus mehreren Tausend t Stahlbeton einen verheerenden Eingriff in die Natur darstellt. Ein anderer Vergleich gilt einem Kohlekraftwerk gegenüber einem Kernkraftwerk. Auch hier sind die EROI in beiden Fällen vergleichbar und dennoch unterscheidet sich die Statistik der Todesopfer gleich um mehrere Größenordnungen.

Beide Beispiele zeigen, dass der Impact über den EROI hinaus mindestens zwei weitere Komponenten zu haben scheint und zwar die ökometrische Energiedichte auf der einen sowie die „Deaths per PWh“ auf der anderen Seite. Was wir nun innerhalb dieser AG versuchen wollen, ist beide Komponenten energetisch zu quantifizieren.

Die Frage, die wir uns im ersteren der beiden Fälle stellen, lautet schlicht, wieviel Energie aufzuwenden wäre, um all die Schäden an der Umwelt – ob nun dauerhaft oder nicht – auszugleichen? Das ist noch unproblematisch, das kann man mit Fug und Recht fragen. Jedoch bei der 2. Komponente beginnt schon die erste ethische Problematik… Denn kann man bei den „Deaths per PWh“ guten Gewissens energetische (oder gar monetäre…😳) Äquivalente fürs menschliche Leben angeben? Nein, so unreflektiert sicher nicht! Auf der anderen Seite dürfte es noch schlimmer und menschenverachtender werden, dies völlig außer Betracht zu lassen. Dann halte ich doch mehr davon, es doch zu quantifizieren, dafür aber mit dem gebührenden Wert. Daher versehen wir den EROI mit einem Korrekturfaktor wie folgt:

EROÏ – Energy Return of Invested Impact. Die AG

.

EROI vs. EROÏ

Et voilà! Zunächst, was das ethisch nicht unproblematische anbelangt, so ist die Sache wenigstens von der Arithmetik her gesehen trivial. Natürlich haben wir hier den Umrechnungsfaktor willkürlich auf 1:200.000 gesetzt, aber dies gilt nun einmal für alle Energien gleichermaßen. Klar ist, dass es auch andere Statistiken „how deadly is your kWh“ gibt, die bei diesem Umrechnungsfaktor zu merkwürdigen Ergebnissen geführt hätten. Allerdings beträfe dies wie gesagt alle Energien gleichermaßen, so dass sich hier keinerlei Bevorzugungen oder Benachteiligungen für oder gegen die eine oder andere Energieform herleiten lassen.

Was hier quasi vorneweg ganz besonders bös erwischt wird, ist eindeutig die Kohle, bei der das sage und schreibe 0.15 beträgt, was den EROÏ auf 4.5 absacken lässt 👿. Die Befürworter des Kohleausstiegs können also jubeln… während bei der Biomasse wie bei Wasserkraft die Korrektur mit einem von je etwa 0.88 eher noch überschaubar bleibt. Bei den Erneuerbaren ➡ – und erst recht bei der Kernkraft – beträgt das beinahe 1, ist also in diesem Zusammenhang vollkommen irrelevant.

Bei dem 2. Term, wo das drin steckt, wird die Sache hingegen ein Bit komplizierter. Zunächst müssen wir wohl auch hier einen Umrechnungsfaktor ansetzen, nicht zuletzt deshalb, weil auch das eine dimensionslose Größe bleiben muss. Die Frage, die wir uns nun stellen müssen, lautet, wie können wir dimensionslos den Bedarf an natürlichen Ressourcen via ökometrische Energiedichte beziffern? Wir schlagen vor, den „normalen“ Flächenbedarf eines Kraftwerks schlicht ins Verhältnis zur durchschnittlichen Leistung zu setzen; auch hier ist der Umrechnungsfaktor 1:50 [km2/MW] willkürlich gewählt.

➡ Wir wissen nicht zuletzt aus der AG »Impact „Erneuerbarer Energien“ in die Biosphäre« vom Oktober 2015, dass die „Deaths-per-PWh“-Statistiken für Erneuerbare nicht vollständig sind. Sie berücksichtigen insbesondere nicht die Abhängigkeit qua EROI von der wesentlich tödlicheren Kohle. Aber gnädig wie wir nun mal sind :mrgreen:, wollen wir dies hier zugunsten der EE außer Betracht lassen.
.

Wir setzen also an .

Zunächst sehen wir auf Anhieb, dass die thermischen Kraftwerke – also Kohle-, Gas-, Biomasse-, Kernkraftwerke – hiervon quasi unberührt bleiben. Denn bei einer Leistung von mehreren Hundert Megawatt aus nur einigen Quadratkilometern resultiert eine sehr hohe Energiedichte, die im Kehrwert ≈1 ergibt.

Die Sache beginnt sich jedoch im Falle der Wasserkraft langsam zu relativieren. Denn je nach dem, was man alles zu der beanspruchten Fläche zählt – etwa die versiegelte Fläche, die Staudämme etc. – kommt man bei nur einigen Megawatt Leistung u.U. auf durchaus relevante Korrekturfaktoren. So errechneten wir für Wasserkraft einen Korrekturfaktor von 0.4, was den EROÏ auf 10 absacken lässt.

Bei der Fotovoltaik müssen wir indes aufpassen. Die Fläche, die ein Solarpark beispielsweise beansprucht, ist klar und einfach quantifizierbar. Allerdings ist es im Falle einer häuslichen PV-Anlage auf dem Dach nicht mehr so einfach, denn diese Fläche, zwar physikalisch einwandfrei beansprucht, war ohnehin als Nutzfläche verloren. Anders ausgedrückt, der Impact, der hieraus resultiert, ist praktisch Null.

Zu guter Letzt erlebt die Windkraft – ob Offshore oder Onshore – einen wahren Super-GAU in diesem Zusammenhang. Denn angewandt beispielsweise auf den Vorzeige-Offshore-Windpark Amrumbank West, mit 3,5 MW durchschnittlicher Leistung aus 35 km2 Fläche ergibt sich ein von 5, was den EROÏ weit unter 1 absacken lässt. Windkraft ist somit nicht nur gefühlt die mit dem allerhöchsten Impact verbundene Energieform.

.

.


https://www.facebook.com/rainer.stawarz/posts/2457720227777184

Über das System Tesla

»
Das Reichweitenproblem von batteriegetriebenen Autos ist per se unaufhebbar; es resultiert schlicht und ergreifend aus den naturgemäß gegebenen Einschränkungen der (gravimetrischen) Energiedichte, zumindest solange wir bei der Ionen-Technik bleiben. Was wir allenfalls noch tun können, ist dieses Problem irgendwie zu umgehen bzw. es ein wenig handhabbarer zu gestalten. Wie das wiederum in der Praxis geht, zeigt der nachfolgende Langstrecken-Praxistests mit dem System „mV/s2“ (Tesla 😀, da gilt). Leider sind die im Text genannten Preise für den Supercharger-Strom in Frankreich inzwischen überholt. TE
LE
GR
AM
.
Tesla Model 3 LR 4WD
Langstreckentest: französische Autobahnen (130 km/h Tempolimit):
90% max. Zuladung, Außentemperatur unter 10°.
Verbrauch: 19.5 kWh = 4,50 € pro 100 km

Zu den mainstream-konsensualen Konstanten der veröffentlichten Meinung hierzulande zählt – neben dem baldigen Durchmarsch der „Erneuerbaren Energien“, dem sicheren Exit von Brexit oder dem kurz bevorstehenden Ende von Donald Trump – auch und insbesondere die baldige Pleite von Tesla. Jeden Tag lesen oder hören wir von den Milliarden und Abermilliarden Dollar, die Tesla in der und der Zeit verbraten würde, außerdem sei Tesla wie jedes andere BEV wegen der kurzen Reichweiten vollkommen alltagsuntauglich, ansonsten können die Amis gar keine Autos bauen 🙄 – und ja und überhaupt…

Nun könnte man bei derartigen Auslassungen einfach die Mundwinkel leicht hochziehen und zur Tagesordnung übergehen. Denn schließlich ist uns allen klar, in welchem Interessensfeld sich unsere Journaille bewegt. Gleichzeitig wird der sachkundigere Teil derselben, also die Börsen-Analysten und -Journalisten, durch ein so unkonventionelles Unternehmen wie Tesla, mit den verrückt scheinenden Ideen, der besonderen Message etc. regelrecht auf dem Plattfuß erwischt. So bleibt unseren Profis nichts anderes übrig, als die eigenen Vorhersagen zu relativieren und sie zeitlich in die Zukunft zu schieben… während Tesla unbeirrt die SuC-Infrastruktur ausbaut und deren energetische Versorgung womöglich bald ohne die Politik unter eigener Ägide regelt.

Also einfach „so what“ und alles gut? Mitnichten! Denn bereits ein kurzes Revue-Passieren-Lassen der letzten Monate lässt erkennen, wie falsch… ja, wie gefährlich eine solche Vorstellung ist! Angefangen von kleineren Firmen, über Stadtwerke, bis hin zu den Automobilherstellern – unter all denen finden sich zunehmend welche, die das BEV als gescheitert ansehen und zugunsten des „Wundermittels“ Wasserstoff (evtl. Synfuel, Bio2Power etc.) umsteuern. Das am häufigsten vorgebrachte Argument: die Reichweite; dazu gleich in der vorliegenden Mini-AG mehr.

➡ BMW Hydrogen 7 E68
Quelle © WikiCommons by Christian Schütt

An dieser Stelle wird mir zumeist entgegen gehalten „…lass die doch machen. Das Geld dafür scheinen die zu haben und vielleicht kommt dann doch was bei raus?“

Aber so einfach ist die Sache nicht. Denn erstens wissen wir nicht zuletzt aus den anderen AG’s, dass da nichts „bei rauskommt“. Und zweitens, es wäre für die Politik und Wirtschaft hierzulande langsam an der Zeit zu begreifen, dass wir es uns nicht mehr leisten können, mehrere Milliarden etwa in einem Projekt zur Wasserstoff-Verbrennung in einem gewöhnlichen Kolbenmotor ➡ zu versenken. Spätestens jetzt sollten insbesondere die Autobosse solche Phantasien aufgeben und sich stattdessen überlegen, was das System Tesla ausmacht. Einen kleinen Beitrag könnten die nachfolgenden Überlegungen zwar leisten, wenngleich sie es wohl eher nicht werden...

Was die Sache aber wirklich gefährlich macht – und was den eigentlichen Beweggrund für diese Mini-AG ausmacht – ist die Ähnlichkeit der Gemengelage zwischen 2011 und heute. 2011 hatten wir – damals bzgl. „Atomkraft“ – ein Feindbild, eine mächtige Lobby und eine breite Basis an Unwissen, tatkräftig unterstützt durch die Medien. Dann hat eine Knallgasexplosion in Japan gereicht um in einer Kurzschlussreaktion eine Entscheidung herbeizuführen, die zur Stunde immer noch nicht korrigiert ist und unter deren Folgen noch ganze Generationen zu leiden haben werden. Jetzt stellen wir uns einen Strom-Blackout vor, mit verheerenden Folgen. Der Verursacher ist schnell ausgemacht und deckt sich mit dem Feindbild, dem Elektroauto. Was läge dann näher als eine „Verkehrswende“ einzuläuten, das Elektroauto zu verbieten und den Wasserstoff fortan mit Bazookas zu pushen? Die Öko-, Auto-, Euro-Lobby – alle sind glücklich und die Qualitätspresse hält die wahren Hintergründe von uns fern… So haben wir weiterhin ein gutes Gefühl 👿.

Die AG

.

Supercharger in Frankreich „fahren“ bis zu 150 kW

Im vergangenen Herbst unternahm ich zusammen mit zwei Geschäftspartnern eine Tour nach Médoc. Die insgesamt 2700 km legten wir mit einem Tesla 3 LR AWD zurück. Ich beschreibe hier gezielt die Rückfahrt, da die Hinfahrt wegen vieler Umfahrungen etc. atypisch verlief.

So fuhren wir am Sonntag in aller Herrgottsfrühe los in Richtung des 1050 km entfernten Südbaden. Unsere erste Zwischenstation war der Flughafen Bordeaux-Merignac, wo ein Teilnehmer unserer Tour seinen Flug anzutreten hatte. Wir kamen mit einer ziemlich leeren Batterie an – kein Wunder, denn zum einen hatte es sich merklich abgekühlt und zum anderen zeigte sich der an die Grenze der max. Zuladung beladene Tesla (um welche Ladung es sich handelte, ist hier unerheblich 😉) nicht gänzlich unbeeindruckt hiervon. Der uns inzwischen wohl bekannte SuC war aber quasi um die Ecke, also kein Problem. Auto angeschlossen und dann ab ins Novôtel, wo wir uns ein Hotelfrühstück gegönnt haben. Hier ließen wir uns Zeit und fuhren dann um 7:20 Uhr mit einer ziemlich vollen Batterie weiter, um am SuC Brive-la-Gaillarde ein kurzes Intermezzo einzulegen. Schnell für kleine Jungs, Fahrerwechsel und gegen 10:00 Uhr ein „Weiter geht’s“. In Clermond-Ferrand eine kleine Panne, als der SuC den Ladevorgang abgebrochen hatte. Schnell restartet und dann gings gegen 11:55 Uhr schon wieder weiter Richtung Suc „Aire du Poulet de Bresse“. Hier ein knapp 1-stündiger Lunch bis 14:55 Uhr und mit voller Batterie weiter. Ankunft daheim um 17:45 Uhr. :mrgreen:

Supercharger [kWh]* Preis [€] Verweildauer/Bemerkungen
Merignac 56 13.44 45 Min. Novotel-Frühstücksbuffet ohne Hast in Anspruch genommen
Brive-la-Gaillarde 29 6.96 12 Min.
Clermont-Ferrand 51 12.24 30 Min. Ladevorgang zwischendurch unterbrochen, deshalb die Verweildaer
Aire du Poulet de Bresse 64 16.00 55 Min. An diesem SuC kostet die kWh 0.25 €, sonst 0.24 €.
*) Dass sich der Energieverbrauch auf exakt 200 kWh summiert, ist reiner Zufall. Dem ungläubigen Leser gegenüber kann ich es gerne belegen :mrgreen:
.
Der Supercharger Mâcon verfügt über 20 Ladepunkte à 150 kW, die aus den umliegenden Kernkraftwerken gespeist werden. Eine saubere Sache!

Welche Schlussfolgerungen sind aber hieraus zu ziehen, insbesondere, wer „punktet“ hier? Nun, den ersten Punkt macht hier erst mal ganz klar Frankreich mit dessen Kernenergie ! Denn für gerade mal 48 € bekamen wir eine gut verfügbare und relativ saubere Energie für unsere 1050 km – Heimreise. In Deutschland wäre diese Energie um einiges „dreckiger“ gewesen und mit max. 120 kW weniger verfügbar – gekostet hätte sie uns dennoch um die 70 €, wie bei einem sparsamen Diesel auch schon👿

Der zweite Punkt geht dann an Tesla als Auto. Wir blieben knapp unter 20 kWh pro 100 km und das trotz voller Zuladung und permanent betriebener Heizung, außerdem standen alle Systeme auf „Sport“. Der BMW i3, den ich auch mal unter ähnlichen Bedingungen getestet hatte, wäre wohl darüber gelegen und das bei deutlich bescheideneren Fahrleistungen und einem Komfort, der einfach auf einem ganz anderen Level angesiedelt ist.

Jedoch den mit Abstand wichtigsten Punkt macht hier eindeutig Tesla als System. Denn die Idee, die Supercharger in eigener Regie voranzutreiben, sie zu vernetzen etc. – und das alles ohne auf die Politik zu schielen 😉 – ist und bleibt einzigartig. Und es wird wohl für eine ziemlich lange Zeit eine fachliche wie intellektuelle Überforderung der Führungseliten nicht nur in Deutschland darstellen. Die Herrschaften werden ihre Zeit brauchen um zu verstehen, dass die Beschleunigung des Porsche Taycan nutzlos ist, wenn sie an der nächsten, bedauerlicherweise besetzten 😮 Ladesäule ihre Grenze findet…

Toyota Mirai, ein „Brennstoffzeller“. © Toyota USA.
FCV müssen in einem technisch wie zeitlich aufwändigen Verfahren mit über 100 L. flüssigen Wasserstoffs betankt werden.

Natürlich wird mich der kritische Leser jetzt fragen, wie ich denn darauf komme, das Reichweiten-Problem im System Tesla als gelöst oder zumindest so gut wie gelöst anzusehen, wo doch knappe drei Stunden Verweildauer an den Ladestationen nicht ganz ohne sind? Oder anders gefragt, was wäre denn mit einem Verbrenner – oder vielleicht mit einem künftigen Brennstoffzellauto – anders gewesen?

Nun, bei näherem hinschauen nicht allzu viel. Denn die zwei Stopps für die Mahlzeiten hätten wir auch mit einem Verbrenner eingelegt, außerdem hätten wir die Batterie über Nacht vollmachen und nach dem Frühstück gleich nach Brive la Gaillarde durchfahren können. Die zwei weiteren Stopps zwischendurch sind ebenfalls geschenkt, denn ohne den Unterbruch in Clermont-Ferrand wären gerade mal 30 Minuten draufgegangen. Einmal Tanken plus zweimal für kleine Jungs mit Espresso hätten aber kaum kürzer gedauert. Was also übrig bleibt, ist vielleicht ein bisschen mehr Planung, Optimierung im Vorfeld etc. und evtl. damit verbundene Einschränkung bei der Wahl der Stopps. Allerdings, eine echte Zeitersparnis hätten wir nur dann erzielt, wenn wir auf „Schnell-schnell“ gemacht hätten. Die Espressi in Pappbecher, Fastfood als Lunch ebenfalls „to go“ und dann schnell weiterfahren… ja, damit hätten wir eine gute Stunde eingespart. Aber auf welche und vor allem auf wessen Kosten? Denn gesund ist solche Hast wohl kaum, Fastfood ist es auch nicht und zur Erholung (und damit zur Verkehrssicherheit) tut’s nicht gerade positiv beitragen😳

.

https://www.facebook.com/rainer.stawarz/posts/2395699150645959

Ein Quantenalgorithmus für Molekulardesign

.

Zusammenfassung (Abstract). Untersucht wird ein Quantenalgorithmus zur Modellierung von Wechselwirkungen der Atome innerhalb eines Moleküls, vorgestellt durch Schütt, Gastegger, Tkatchenko, Müller, Maurer 2019 in „nature“; im folgenden „SGTMM-Algorithmus“.

.

Knappe 3 Jahre ist es her, als ich über die Fortschritte von Rainer Blatt’s Qubit-Forschung und der damit verbundenen Hoffnung auf ganz neue Werkstoffe in dem nachfolgend verlinkten – Post berichtete. Dies hat zunächst die üblichen Bedenkenträger auf den Plan gerufen: „braucht kein Mensch“, „zu teuer“, „geht auch einfacher“ und ja und überhaupt 🙄. Dann tauchten darunter aber auch andere Stimmen auf, die neben der verständlichen Frage, wie das denn funktionieren solle, eben die Kernfrage stellten: warum schafft es ab 36, 40 oder wieviel auch immer Atomen im Molekül nur der Quantencomputer? Anders ausgedrückt, warum liegt die Grenze zur „quantum primacy“ ausgerechnet bei dieser Größenordnung von Qubits im Quantenregister? Genau dieser Fragestellung widmet sich die vorliegende AG.

Leser, die an dieser Stelle womöglich fragen werden, ob es denn nicht eine Nr. kleiner geht, kann ich wohl ein wenig beruhigen. Denn auch diese AG hat – wie jede andere „AG Energetik“ auch – unverändert den Zweck der Vermittlung von Methoden der Erkenntnisgewinnung💡 Außerdem stützen wir uns hier auf einen bereits fertig konzipierten Algorithmus, der kürzlich in der Zeitschrift „Nature“ unter »https://www.nature.com/articles/s41467-019-12875-2« vorgestellt worden ist. Wir nennen es „SGTMM-Algorithmus“ (nach den Namen dessen Urheber); das Paper der Studie ist im Anschluss an die AG eingebettet. Mit anderen Worten, wir erfinden hier keinen modifizierten oder gar neuen Quantenalgorithmus, sondern betrachten vielmehr bekannte Sachen unter einem anderen Blickwinkel; vgl. Tutorial zu Deutsch-Jozsa-Problem.

.
s41467-019-12875-2

.
https://www.facebook.com/rainer.stawarz/posts/1821870624695484
.

Sättigung bei den „Erneuerbaren Energien“. Der κ (Kappa-) Effekt

»
Untersucht wurde das dynamische Verhalten von Erntefaktoren (EROI) „Erneuerbarer“ Energien, insbesondere Wind- und Solarkraft, hinsichtlich installierter Leistung. Fazit: Berücksichtigt man vollumfänglich die effektiv bereitgestellte bzw. anderweitig abgezwackte Pufferungsenergie, so gab es in den letzten Jahren in Puncto Beitrag zur Energieversorgung gar ein Negativwachstum bei den „Erneuerbaren“. Während die Pufferungsenergie insbesondere bei Wind überproportional stieg, sackte der gepufferte EROI spätestens 2019 unter 1 ab. TE
LE
GR
AM
Die Treppenlinie für die installierte Leistung der Onshore-Windkraft © Rolf Schuster.
Der zeitliche Zubau wird so viel exakter wiedergegeben.

Aufmerksamen Lesern der „AG Energetik“ wird aufgefallen sein, dass der Titel vom Teil 1 unserer AG zur »Sättigung bei den „Erneuerbaren…“ « vom ursprünglichen „κ- (Kappa) Effekt“ in „χ- (Chi) Effekt“ abgeändert worden ist. Nun hat dies folgende Bewandtnis. Auf der Suche nach den Ursachen der einwandfrei beobachteten Sättigungseffekte bei den „Erneuerbaren“ stellte sich heraus, dass die gewonnene Brutto-Energie mit dem weiteren Zubau der „Erneuerbaren“ eben nicht Schritt hält. Den korrespondierenden Differenzen-Quotienten haben wir eben als  „χ- (Chi)“ bezeichnet:

; „u“ steht für unbuffered – dazu gleich mehr.

Nun wollen wir uns im 2. Teil der AG der klassischen Pufferung widmen. Wir vermuten nämlich stark, dass diese einen weitaus höheren Einfluss auf die Sättigungseffekte haben dürfte, als das ungepufferte – und erst recht, wenn man die Pufferungsenergie umfangreicher auffasst, als dies gemeinhin der Fall ist.

Der κ- (Kappa-) Effekt. Die AG Teil 2

.

Um den gepufferten Koeffizienten zu ermitteln, kommen wir nicht umhin, uns genau plausibel zu machen, was mit der Pufferungsenergie gemeint ist. Es handelt sich nämlich um diejenige Energie (bzw. graue Energie von technischen Vorrichtungen), die für die Pufferung „extra“ bereitgestellt werden muss. Energie wiederum, die so oder so da ist und nicht speziell durch die Pufferung erzwungen wird, zählt hingegen nicht zu dazu. Dies haben wir im Teil 1 an folgenden Beispielen festgemacht:

» Beispiele:

OlivierMaire_Swisswinds_f2ec60f334
Eine Idylle, die hoffentlich Fotomontage bleiben wird.
© Olivier Maire. Swisswinds

1) Das Stromnetz selbst hat eine (wenn auch eine äußerst geringe) Speicherkapazität, die zur Pufferung von EE’s genutzt wird. Die Aufwendungen, die damit verbunden sind, können jedoch nicht aufs -Konto gerechnet werden, da das Stromnetz „so oder so“ da ist. Muss es hingegen ausgebaut werden, um z.B. mit zunehmender Menge an volatilem Strom fertig zu werden, zählen diese Aufwendungen, etwa die graue Energie, ganz klar zu dazu;

 

2) Ein Wasserkraftwerk, das z.B. einen kleinen Windpark intermittierend puffert, hat einen begrenzten Wasserzufluss, also erzwingt der Windpark selbst keinen „suboptimalen“ (weil gedrosselten) Betrieb, wie dies z.B. beim Kohlekraftwerk, das auf 60% der Nominalleistung fährt, der Fall ist. Verluste an den Wasserturbinen entstehen so oder so, früher oder später. Dies funktioniert freilich nur so lange, bis der Stausee voll- oder leerläuft. 😳 «

Soweit so gut. Die Frage, die sich einem interessierten Leser sofort aufdrängt, ist wohl die, inwieweit sich das Szenario aus Beispiel 2 auf eines mit einem konventionellen- statt Wasserkraftwerk übertragen lässt. Nun, entgegen dem Eindruck, den man auf den ersten Blick gewinnen kann, unterscheiden sich beide Szenarien ganz prinzipiell voneinander: Ein KKW (Kohle- oder Kernkraftwerk – je nach Gusto) verfügt nämlich nicht über einen angeschlossenen Speicher in Form von einem Stausee. So läuft es zwar bei Dunkelflaute im günstigen Nominalbereich, aber sobald es windiger und/oder sonniger wird, muss das KKW herunter gedrosselt werden, damit der „Ökostrom“ :mrgreen: kraft EEG in die Netze aufgenommen werden kann.

Selbstverständlich werden solche Phasen in der EE-Branche wie auch in den EE-affinen Medien frenetisch bejubelt...🙄 Eine ganz kurze energetische Analyse des Sachverhaltes zeigt jedoch, dass die EE in einem solchen Szenario in hohem Maße parasitär wirken. Sie rauben nämlich dem KKW seinen EROI, indem sie seine Energieernte verhindern, entschädigen es aber keineswegs bei der Gestehungsenergie – von einem suboptimalen 60%-Betrieb ganz zu schweigen. Dabei ist diese „geraubte“ Energie schon alleine von der Kausalität hier schlicht die Pufferungsenergie und zählt somit vollumfänglich zu dazu!

Eine PPV mit zwei Teslas und zwei hauseigenen Batterien.
Aber selbst im sonnigen Kalifornien ist es nur bei einem geeigneten Verhalten energetisch sinnvoll. © tesla.com

Um die energetische Zumessung ein wenig zu üben (und auch um den EE-Fan bei Laune zu halten) machen wir einen Abstecher und untersuchen eine typische Nischenanwendung in Form von privater PV-Anlage -im folg. „PPV“. Wir wissen zwar aus den Untersuchungen der Schweizer Wissenschaftler ➡, dass der gepufferte EROI bei PV unter 1 liegt, aber so einfach ist die Sache nicht. Wie so häufig, steckt der Teufel im Detail und dieses Detail heißt auch hier die Pufferung. Denn das, was ein industrieller EE-Betreiber nicht machen kann – nämlich die Produktion antizipieren und ein Demand-Management betreiben – schafft’s der Eigenheim- und PPV-Besitzer u.U. sehr wohl. Verzichtet er auf die Einspeisevergütung, aus den vorhin genannten Gründen, bleibt er bei fossiler Heizung (da ansonsten die saisonalen Schwankungen durch nichts auszugleichen wären) etc. so kann er durch ein ausgeklügeltes Demand Management zusammen mit dem Elektroauto, den Klimaanlagen, Kühlschränken etc. einerseits sein minimieren, anderseits die Stromspitzen sinnvoll verwerten und zwar ohne einen gesonderten energetischen Aufwand. Dies funktioniert freilich nur dann, wenn er sich all die eAutos, Weinkühlschränke etc. auch ohne die PV zugelegt hätte 😉. Aber auch wenn wir dies wohlwollend unterstellen, kommen wir nicht über einen EROI von 3 oder (im Süden) 4 hinaus! Der Grund ist das ans Lebensende der PV-Anlage anzuschließende Recycling, das u.U. als Plasmarecycling extrem hohe energetische Kosten nach sich zieht. Nun ja… Physik ist manchmal schrecklich unbarmherzig...👿

➡ Es handelt sich um eine Studie von Ferruccio Ferroni, Alexandros Guekos und Robert J. Hopkirk aus dem Jahre 2016

.

Speicherung des Windstroms, aus „Wieviel Zappelstrom verträgt das Netz“
© 2014 IFO-Institut, H. W. Sinn

Soweit so gut. Allerdings wird sich der Leser der beiden AG’s an dieser Stelle womöglich fragen, was denn diese Überlegungen mit dem eigentlichen Gegenstand der beiden AG’s zu „Sättigungseffekten“, insb. die des vorliegenden Teil 2, zu tun haben. Nun, das sieht man spätestens dann, wenn man versucht die Pufferungsenergie direkt zu berechnen. Denn offensichtlich dürfte es enorm schwierig werden zu ermitteln, welche Energien und in welchem Umfang zu zu zählen sind und welche nicht. Diese Berechnungen würden den Rahmen und auch die Ressourcen der „AG Energetik“ sprengen. Aber nun eröffneten unsere bisherigen Überlegungen eben eine andere Möglichkeit zu ermitteln und zwar mittels des Ausschlussverfahrens. Denn wir wissen nicht zuletzt aus all den stolzen 🙄 Verlautbarungen der Ökobranche, wieviel „Ökostrom“ (brutto!) im Jahre X abgegeben wurde – auf der anderen Seite kennen wir die gesicherte Leistung ➡ der EE sowie die verfügbaren Speicher mitsamt deren Kapazitäten, Wirkungsgraden, EROI’s etc.:

Dabei ist die „gesicherte“ ➡ Energie, während für die aus dem Speicher steht; „“ für Vorratsbecken im Pumpspeicherkraftwerk 😀.

➡ Als gesicherte Leistung gilt eine über 99.5% der Betriebszeit hinweg bereitgestellte Leistung. Die korrespondierende „gesicherte“ Energie bezeichnen wir als .
.

Mit anderen Worten, all das, was auf gesicherte oder netto gepufferte Leistung zurückgeht, ist effektive Nutzenergie, während der Rest schlicht ist; man könnte auch mit Fug und Recht vom „Energiemüll“ sprechen 👿. Jedenfalls können wir den Pufferungskoeffizienten – immer noch als Verhältnis des ungepuffertem zu gepuffertem EROI – wie folgt angeben:

Speicherung von Wind- und Sonnenstrom (kumuliert)
Aus „Wieviel Zappelstrom verträgt das Netz“
© 2014 IFO-Institut, H. W. Sinn

Eigentlich ist alles klar. Bei einem konventionellen Kraftwerk ist die gesamte Energie, die es abgibt, gleichzeitig die gesicherte Energie, also gilt . Hingegen ist das gleich Null, denn das KWK kann höchstens, falls eine Fehlplanung vorliegt, einem trocken gelaufenen PSW (Pumpspeicherkraftwerk) sein Wasserbecken auffüllen, was wiederum eine völlig andere Geschichte wäre😉. Jedenfalls gilt für konventionelle Kraftwerke nun einmal , was bei den EE eben nicht der Fall ist. Ob die Faktoren von 4 bei Windkraft und 2.5 bei Solarkraft, wie es das bekannte Diagram nebenan suggeriert, wirklich stimmen, das wollen wir freilich genau wissen.

Was die gesicherte Leistung bei der Windkraft anbelangt, so liegt diese mit etwas über 130 MW gerade so im Bereich der OnBoard-Leistung der „Akademik Lomonosow“ 😛. Die betr. Jahresproduktion von immerhin nicht-volatilem Strom beträgt somit stolze 1.15 TWh. Der Rest müsste dann freilich dem Speicher kommen und hier geht der Katzenjammer erst so richtig los. Denn die einzig brauchbare Speichertechnologie sind in der Tat die Pumpspeicherwerke (PSW). Alles andere – P2G, P2H etc. – weist z.T. so miserable Wirkungsgrade auf, dass deren Beitrag zur Bereitstellung von Speicherkapazitäten derzeit noch zu vernachlässigen ist. Von den PSW hat Deutschland 35 an der Zahl und deren „Leistung“ wird mit 6.7 GW angegeben. Das hört sich erst einmal nicht schlecht an, denn das wären immerhin 6 EPR’s. Aber bei näherem Hinsehen entpuppt sich alles doch als der sprichwörtliche Tropfen auf heißen Stein. Denn die Gesamtkapazität all dieser PSW’s beträgt nur ca. 38 GWh. Was das wiederum heißt, zeigt ein kurzes Review auf unser vorheriges Beispiel 2.

Ein Diagram – ein Klassiker! Es entstand nach unserer Kenntnis um das Jahr 2010 herum aus einer uns unbekannten Feder. Wer unter © gesetzt werden sollte, möchte uns bitte einen dezenten Hinweis geben. :mrgreen:

Wir machen wir folgendes Gedankenexperiment. Unser Speicher ist zunächst leer. Dann kommt quasi wie gerufen ein kräftiger Wind auf, so dass wir es auf 6.7 GW bringen – eine Last, die unsere PSW gerade so schultern können. Wir lassen den Speicher auf 38 GWh voll- und anschließend, ebenfalls mit 6.7 GW, wieder leerlaufen. Beide Vorgänge dauern (unter Idealbedingungen) gleich lang und zwar jeweils knappe 6 Stunden.

Demzufolge geben unsere Speicher im Schnitt 3,3 GW her, wovon wir 2.5 GW auf den Windstrom zurückführen wollen – macht eine jährliche Windstrom-„Produktion“ von 22 TWh, was nach Abzug von Friktionsverlusten, Gestehungsenergie etc. 13-15 TWh per anno ergibt. Und wie es der Zufall will, ergibt dies für den Anfang der Dekade bei einer Stromproduktion um die 50 TWh einen um die 4 :mrgreen:. Dem aufmerksamen Leser dürfte diese Zahl irgendwie bekannt vorkommen – vgl. Diagram nebenan! →

Und da haben wir es, unser „qed“! Denn seit Anfang dieser Dekade hat sich an den PSW-Kapazitäten so gut wie gar nichts geändert, während die (brutto) Windstrom-Produktion um den Faktor 2.5 stieg. Und so liegt bei der Winkraft im Jahre 2019 bei etwa 10 😳 – will heißen, dass der gepufferte EROI selbst bei Offshore-Wind mittlerweile unter 1 liegt 😯.

Nachtrag vom Januar/Oktober 2020

EROI unterschieden nach „unbuffered“ sowie weak/full buffered.
Der EROI eines Gen.4 Reaktors, etwa DFR, würde mit dem Wert von 2000 den Diagramm-Rahmen komplett sprengen.
➡ „PV häuslich“ (Tippfehler in der Grafik 😮 ) sollte in der nächsten Fassung durch „PV (self-managed)“ ersetzt werden.

Zu den häufigsten Einwänden, die uns seit der Veröffentlichung der AG erreicht haben, gehört wohl jener betreffend der Rechenart, gewissermaßen „Zählart“. Denn diese sei zwar berechtigt – Energie die zur Unzeit kommt, ist und bleibt Energiemüll – aber eben nicht üblich und von daher verwirren die ermittelten EROI ein wenig, da man nicht wisse, welcher Rechenart diese jeweils entstammen würden.

Nun, um dieser Euren dankenswerten Anregung zu genügen, haben wir die folgende Unterscheidung vorgenommen. Den herkömmlich gepufferten EROI – also ohne die Entsorgung von Überschüssen – nennen wir einfach „weak buffered“, im Gegensatz zu „full buffered“, der diese „Müllentsorgung“ sehr wohl berücksichtigt. Dies führt zu der Projektion wie auf dem Diagramm nebenan dargestellt ⇒

Zunächst ist klar, dass bei den konventionellen Kraftwerken die Balken gleich lang sind; diese haben keine Pufferung nötig. Gleiches haben wir der Biomasse zugebilligt, wobei hier eine gewisse saisonale Schwankung zu beobachten sein und so den grünen Balken wohl etwas kürzer ausfallen lassen dürfte. Dies ist im Falle von Wasserkraft eindeutig der Fall, auch wenn wir diesen Effekt bei einer sehr gnädigen Schätzung bewenden lassen möchten.

Allerdings so richtig interessant wird es erst in der Kategorie „PV (häuslich)“. Denn was nicht nur einem aufmerksamen Leser 😉 aufgefallen sein dürfte, ist, dass entgegen der Erstfassung der AG die beiden gepufferten EROI eben nicht gleich sind; will heißen, dass selbst eine self-managed PV ➡ nicht um eine Entsorgung der Lastspitzen ins öffentliche Netzt umhin kommt. Zumindest dann nicht, wenn man sie nicht sinnlos verpuffen lässt!

Was den Verfasser dazu veranlasst hat, diese Einschätzung zu korrigieren?? Nun, es waren schlicht eigene einschlägige Erfahrungen mit einer „self-managed PV“, deren Eckdaten hinsichtlich Pufferung kaum günstiger hätten ausfallen können: Ein typisches Small-Office in einem konventionell beheizten und nicht bewohnten Einfamilienhaus, mit einer 14.8 kWp Ost/West-PV inklusive 120 kWh-Elektroauto-Batterien, mit einem Pool und noch paar anderen prozyklisch wirkenden Vorrichtungen. Dennoch, an den sonnigen Sommertagen müssen mehrere kWh ins Netz entsorgt, an den dunklen Wintertagen wiederum vom Netz bezogen werden. Von daher ist es schlicht eine Illusion zu glauben, die Pufferung durch proaktives Handeln bzw. inteligentes Demand-Management erschlagen zu können. Ob nun eine hauseigene oder eine „self-managed“ PV – es gilt stets !

.

.

https://www.facebook.com/rainer.stawarz/posts/2328368764045665

New Mobility – New NUC

»
Die vorliegende AG hat belegt, dass die infrastrukturellen Anforderungen bereits bei eAuto-Quote von 2/3 enorm sind. An einem „Tag der Blechlawine“ sind bei einem Bestromungsfaktor (der gesamten Verkehrsleistung) von lediglich 1/3 sage und schreibe 5 MW Leistung je 10 km Autobahn vonnöten. Es kommt noch erschwerend hinzu, dass diese Leistung bereits am darauffolgenden Tag nur noch zu einem Bruchteil gebraucht werden wird. Den so schwankenden Anforderungen kann nur mit Hilfe von POD-Kraftwerken (power on demand), womöglich mit mobilen Ladestationen, begegnen. Für ein wenigstens eingeschränkt mobiles POD-Kraftwerk ist der Dual Fluid Reaktor DFR bestens prädestiniert. TE
LE
GR
AM

 

Mit „New Nuc“ ist hier die Generation 4 der Spaltreaktoren gemeint
etwa der Dual Fluid Reaktor DFR

Im Januar 2012, also noch lange vor der Zeit der „AG Energetik“, schrieb ich den Blogbeitrag „Energiewende – Elektromobilität ade!“, dem ich (damals ein Novum!) eine fundierte energetische Berechnung zugrunde legte und zwar: Anhand des durchschnittlichen Verbrauchs aller PKW in Deutschland (seinerzeit gut 1000 Liter/s 😯) errechnete ich über den Canot-Prozess eine durchschnittliche Stromlast bei 100% Elektromobilität in Höhe von 20 GW. Trotz einer klaren Bestätigung dieser Zahl durch eine einfache Gegenrechnung ➡ erlebte ich in den letzten Jahren immer wieder ein hartnäckiges Leugnen und Bestreiten dieses doch so klaren Sachverhaltes. So vermochte z.B. jemand, der für Verbreitung von EE-Märchen nicht ganz unbekannt ist, diese Zahl auf 5 GW zu reduzieren. Und wie? Na mittels Car-Sharing😀 Continue reading „New Mobility – New NUC“