EROÏ – Energy Return of Invested Impact

.

Zusammenfassung (Abstract). Konzipiert wurde ein „Energy Return of Invested Impact“ , der im Gegensatz zum reinen EROI dem Impact in die Biosphäre Rechnung tragen sollte. Wir nennen es EROII bzw. EROÏ.
EROI unbuffered, weak/full buffered
aus der AG „Sättigungseffekte bei den EE“

Wenn es überhaupt etwas gibt, was die „AG Energetik“ in ihrer nunmehr bald 5-jährigen Geschichte ein Stück weiterentwickelt hat, dann ist es eindeutig das Konzept des EROI. Nicht umsonst wurde ich schon mal „Mr. EROI“ genannt :mrgreen:, was ich jedoch nur deshalb erwähnen möchte, weil diese Zuschreibung klar ironisch gemeint war und insofern keine Gefahr besteht, eine Menge dicke Luft zu produzieren😳

Jedenfalls haben all unsere ➡ AG’s eben zum Thema EROI eine Menge erforscht und interessante Resultate erarbeitet. So haben wir Methoden einer heuristischen Ermittlung des EROI am Beispiel der Offshoreparks „alpha-ventus“ sowie „Amrumbank West“ (Teil1, Teil2) kennengelernt und dabei den Pufferungs-Koeffizienten postuliert. Dieses haben wir dann im Rahmen der beiden AG’s über den χ- (Chi-) sowie den κ- (Kappa)-Effekt auf Fluxionsverhalten untersucht und dabei Abflachungs- bis Sättigungs-Effekte festgestellt. All das sind doch Erkenntnisse, die – so sie denn von den Entscheidern in Politik und Wirtschaft beherzigt worden wären – uns jede Menge Unheil hätten ersparen können.

Dennoch, bei all der bescheidenen Kompetenz in Sachen EROI, räume ich freimütig ein, dass diese Kennzahl nicht alles ist. Denn was der EROI definitorisch beschreibt, ist die Beanspruchung von energetischen Ressourcen einer Anlage, z.B. eines Kraftwerks, im (umgekehrten) Verhältnis zu der am Ende gewonnenen Nutzenergie. Hingegen, was hier allenfalls nur partiell erfasst wird, ist die Beanspruchung von natürlichen Ressourcen ➡ bei dem Gestehungsprozess; wir nennen es kurz und bündig „Impact“.

➡ bereits in einem alten Blogbeitrag https://ssl.loggpro.net/rainer/?p=217 im Frühjahr 2012 unter der Überschrift „the-END Studie“ („END“ stand für „Energiewende? Nein, Danke“) machte ich mir Gedanken über die Beanspruchung bzw. Verbrauch von natürlichen Ressourcen energetischer Anlagen, also Kraftwerke, Energiespeicher etc. Damals postulierte ich – in Anlehnung an die volumetrische bzw. gravimetrische Energiedichte bei den Energiespeichern – den Begriff der „ökometrischen Energiedichte“. Das war der erste Versuch den Impact ins Verhältnis zu dem Nutzen, etwa der Energieernte, zu setzen. In einer nachgeschalteten Studie »Impact „Erneuerbarer Energien“ in die Biosphäre« https://ssl.loggpro.net/rainer/?p=1166 versuchte ich den Impact an der statistischen Anzahl der Todesopfer (bezogen auf kWh Energiegewinn) festzumachen; dazu gleich mehr.
.

Betrachten wir zunächst einmal eine WKA auf der einen und eine PV auf der anderen Seite. Der EROI ist – egal wie gerechnet – stets 1-stellig, also von der gleichen Größenordnung, und dennoch ist der Impact offensichtlich diametral unterschiedlich. Denn die PV-Anlage auf dem Dach stört niemanden, die im Solarpark schon eher, aber auch nicht so arg – während alleine das monströse WKA-Fundament aus mehreren Tausend t Stahlbeton einen verheerenden Eingriff in die Natur darstellt. Ein anderer Vergleich gilt einem Kohlekraftwerk gegenüber einem Kernkraftwerk. Auch hier sind die EROI in beiden Fällen vergleichbar und dennoch unterscheidet sich die Statistik der Todesopfer gleich um mehrere Größenordnungen.

Beide Beispiele zeigen, dass der Impact über den EROI hinaus mindestens zwei weitere Komponenten zu haben scheint und zwar die ökometrische Energiedichte auf der einen sowie die „Deaths per PWh“ auf der anderen Seite. Was wir nun innerhalb dieser AG versuchen wollen, ist beide Komponenten energetisch zu quantifizieren.

Die Frage, die wir uns im ersteren der beiden Fälle stellen, lautet schlicht, wieviel Energie aufzuwenden wäre, um all die Schäden an der Umwelt – ob nun dauerhaft oder nicht – auszugleichen? Das ist noch unproblematisch, das kann man mit Fug und Recht fragen. Jedoch bei der 2. Komponente beginnt schon die erste ethische Problematik… Denn kann man bei den „Deaths per PWh“ guten Gewissens energetische (oder gar monetäre…😳) Äquivalente fürs menschliche Leben angeben? Nein, so unreflektiert sicher nicht! Auf der anderen Seite dürfte es noch schlimmer und menschenverachtender werden, dies völlig außer Betracht zu lassen. Dann halte ich doch mehr davon, es doch zu quantifizieren, dafür aber mit dem gebührenden Wert. Daher versehen wir den EROI mit einem Korrekturfaktor wie folgt:

Die AG

(…)

Fessenheim-OUI – aber wie?

.

Nach dem three-eleven des Jahres 2011, also nach Fukushima, schlug ich im Blog der Badischen Zeitung unseren französischen Nachbarn vor, dem Druck der Fessenheim-Gegner nachzugeben und im Gegenzug einen Bailout in Sachen Reaktor-Upgrade zu verlangen. Aus der Oberrheinischen Umwelt-Initiative OUI wurde jedoch bekanntlich nichts… Schade 😳

Der heutige Tag ist für jeden waschechten Umweltschützer – und erst recht für einen Ökomodernisten, der ich nun einmal bin – zweifelsohne ein rabenschwarzer Tag. Denn nach etwas mehr als 42 Jahren Betriebszeit wird heute der erste der beiden M310-Reaktorblöcke des französischen Kernkraftwerkes Fessenheim, mit dem bis dato innewohnenden legendären Druckwasserreaktor CP0, wohl für immer heruntergefahren. Im Sommer geht dann auch der 2. Reaktorblock in den vorzeitigen Ruhestand und das dürfte es dann gewesen sein mit dem sauberen Strom und freiem Horizont in meiner Markgräfler Wahlheimat, zu der diese „Nuckiebude“ irgendwie stets dazugehört hatte...😳

Auch wenn ich diesen zweifelhaften „Erfolg“ dem hiesigen „Trinationalen Atomschutzverband“ ➡ nur ungern gönne, so ist zunächst die Entscheidung der Betreiber sowie der französischen Regierung als die eines souveränen Staates selbstverständlich zu respektieren. Es ist freilich etwas anderes sich die Frage zu stellen, wie es dazu kommen konnte und vor allem, wie es denn weitergehen soll. Denn die Argumente, die gegen die Schließung von dem Meiler sprachen, wurden in den letzten Jahren immer mehr. Da waren die überaus ernüchternden Erfahrungen mit der deutschen „Energiewende“ auf der einen sowie der zunehmende Konsensus in Sachen Co2-Reduktion (weswegen auch immer) auf der anderen Seite. Und dann soll ausgerechnet nucleaire de Fessenheim, das eine einzigartige Symbiose mit dem benachbarten Wasserkraftwerk einging, vom Netz gehen?? Das verstehe wer will. Continue reading „Fessenheim-OUI – aber wie?“

Über das System Tesla

.

Zusammenfassung (Abstract). Anhand eines Langstrecken-Praxistests soll der Lösungsansatz des vermeintlichen Reichweitenproblems von batteriegetriebenen Elektroautos durch das System „mV/s2“ (Tesla 😀) erörtert werden ➡
Tesla Model 3 LR 4WD
Langstreckentest: französische Autobahnen (130 km/h Tempolimit):
90% max. Zuladung, Außentemperatur unter 10°.
Verbrauch: 19.5 kWh = 4,50 € pro 100 km

Zu den mainstream-konsensualen Konstanten der veröffentlichten Meinung hierzulande zählt – neben dem baldigen Durchmarsch der „Erneuerbaren Energien“, dem sicheren Exit von Brexit oder dem kurz bevorstehenden Ende von Donald Trump – auch und insbesondere die baldige Pleite von Tesla. Jeden Tag lesen oder hören wir von den Milliarden und Abermilliarden Dollar, die Tesla in der und der Zeit verbraten würde, außerdem sei Tesla wie jedes andere BEV wegen der kurzen Reichweiten vollkommen alltagsuntauglich, ansonsten können die Amis gar keine Autos bauen 🙄 – und ja und überhaupt…

Nun könnte man bei derartigen Auslassungen einfach die Mundwinkel leicht hochziehen und zur Tagesordnung übergehen. Denn schließlich ist uns allen klar, in welchem Interessensfeld sich unsere Journaille bewegt. Gleichzeitig wird der sachkundigere Teil derselben, also die Börsen-Analysten und -Journalisten, durch ein so unkonventionelles Unternehmen wie Tesla, mit den verrückt scheinenden Ideen, der besonderen Message etc. regelrecht auf dem Plattfuß erwischt. So bleibt unseren Profis nichts anderes übrig, als die eigenen Vorhersagen zu relativieren und sie zeitlich in die Zukunft zu schieben… während Tesla unbeirrt die SuC-Infrastruktur ausbaut und deren energetische Versorgung womöglich bald ohne die Politik unter eigener Ägide regelt.

Also einfach „so what“ und alles gut? Mitnichten! Denn bereits ein kurzes Revue-Passieren-Lassen der letzten Monate lässt erkennen, wie falsch… ja, wie gefährlich eine solche Vorstellung ist! Angefangen von kleineren Firmen, über Stadtwerke, bis hin zu den Automobilherstellern – unter all denen finden sich zunehmend welche, die das BEV als gescheitert ansehen und zugunsten des „Wundermittels“ Wasserstoff (evtl. Synfuel, Bio2Power etc.) umsteuern. Das am häufigsten vorgebrachte Argument: die Reichweite; dazu gleich in der vorliegenden Mini-AG mehr.

➡ BMW Hydrogen 7 E68
Quelle © WikiCommons by Christian Schütt

An dieser Stelle wird mir zumeist entgegen gehalten „…lass die doch machen. Das Geld dafür scheinen die zu haben und vielleicht kommt dann doch was bei raus?“

Aber so einfach ist die Sache nicht. Denn erstens wissen wir nicht zuletzt aus den anderen AG’s, dass da nichts „bei rauskommt“. Und zweitens, es wäre für die Politik und Wirtschaft hierzulande langsam an der Zeit zu begreifen, dass wir es uns nicht mehr leisten können, mehrere Milliarden etwa in einem Projekt zur Wasserstoff-Verbrennung in einem gewöhnlichen Kolbenmotor ➡ zu versenken. Spätestens jetzt sollten insbesondere die Autobosse solche Phantasien aufgeben und sich stattdessen überlegen, was das System Tesla ausmacht. Einen kleinen Beitrag könnten die nachfolgenden Überlegungen zwar leisten, wenngleich sie es wohl eher nicht werden...

Was die Sache aber wirklich gefährlich macht – und was den eigentlichen Beweggrund für diese Mini-AG ausmacht – ist die Ähnlichkeit der Gemengelage zwischen 2011 und heute. 2011 hatten wir – damals bzgl. „Atomkraft“ – ein Feindbild, eine mächtige Lobby und eine breite Basis an Unwissen, tatkräftig unterstützt durch die Medien. Dann hat eine Knallgasexplosion in Japan gereicht um in einer Kurzschlussreaktion eine Entscheidung herbeizuführen, die zur Stunde immer noch nicht korrigiert ist und unter deren Folgen noch ganze Generationen zu leiden haben werden. Jetzt stellen wir uns einen Strom-Blackout vor, mit verheerenden Folgen. Der Verursacher ist schnell ausgemacht und deckt sich mit dem Feindbild, dem Elektroauto. Was läge dann näher als eine „Verkehrswende“ einzuläuten, das Elektroauto zu verbieten und den Wasserstoff fortan mit Bazookas zu pushen? Die Öko-, Auto-, Euro-Lobby – alle sind glücklich und die Qualitätspresse hält die wahren Hintergründe von uns fern… So haben wir weiterhin ein gutes Gefühl 👿.

Die AG

.

Supercharger in Frankreich „fahren“ bis zu 150 kW

Im vergangenen Herbst unternahm ich zusammen mit zwei Geschäftspartnern eine Tour nach Médoc. Die insgesamt 2700 km legten wir mit einem Tesla 3 LR AWD zurück. Ich beschreibe hier gezielt die Rückfahrt, da die Hinfahrt wegen vieler Umfahrungen etc. atypisch verlief.

So fuhren wir am Sonntag in aller Herrgottsfrühe los in Richtung des 1050 km entfernten Südbaden. Unsere erste Zwischenstation war der Flughafen Bordeaux-Merignac, wo ein Teilnehmer unserer Tour seinen Flug anzutreten hatte. Wir kamen mit einer ziemlich leeren Batterie an – kein Wunder, denn zum einen hatte es sich merklich abgekühlt und zum anderen zeigte sich der an die Grenze der max. Zuladung beladene Tesla (um welche Ladung es sich handelte, ist hier unerheblich 😉) nicht gänzlich unbeeindruckt hiervon. Der uns inzwischen wohl bekannte SuC war aber quasi um die Ecke, also kein Problem. Auto angeschlossen und dann ab ins Novôtel, wo wir uns ein Hotelfrühstück gegönnt haben. Hier ließen wir uns Zeit und fuhren dann um 7:20 Uhr mit einer ziemlich vollen Batterie weiter, um am SuC Brive-la-Gaillarde ein kurzes Intermezzo einzulegen. Schnell für kleine Jungs, Fahrerwechsel und gegen 10:00 Uhr ein „Weiter geht’s“. In Clermond-Ferrand eine kleine Panne, als der SuC den Ladevorgang abgebrochen hatte. Schnell restartet und dann gings gegen 11:55 Uhr schon wieder weiter Richtung Suc „Aire du Poulet de Bresse“. Hier ein knapp 1-stündiger Lunch bis 14:55 Uhr und mit voller Batterie weiter. Ankunft daheim um 17:45 Uhr. :mrgreen:

Supercharger [kWh]* Preis [€] Verweildauer/Bemerkungen
Merignac 56 13.44 45 Min. Novotel-Frühstücksbuffet ohne Hast in Anspruch genommen
Brive-la-Gaillarde 29 6.96 12 Min.
Clermont-Ferrand 51 12.24 30 Min. Ladevorgang zwischendurch unterbrochen, deshalb die Verweildaer
Aire du Poulet de Bresse 64 16.00 55 Min. An diesem SuC kostet die kWh 0.25 €, sonst 0.24 €.
*) Dass sich der Energieverbrauch auf exakt 200 kWh summiert, ist reiner Zufall. Dem ungläubigen Leser gegenüber kann ich es gerne belegen :mrgreen:
.
Der Supercharger Mâcon verfügt über 20 Ladepunkte à 150 kW, die aus den umliegenden Kernkraftwerken gespeist werden. Eine saubere Sache!

Welche Schlussfolgerungen sind aber hieraus zu ziehen, insbesondere, wer „punktet“ hier? Nun, den ersten Punkt macht hier erst mal ganz klar Frankreich mit dessen Kernenergie ! Denn für gerade mal 48 € bekamen wir eine gut verfügbare und relativ saubere Energie für unsere 1050 km – Heimreise. In Deutschland wäre diese Energie um einiges „dreckiger“ gewesen und mit max. 120 kW weniger verfügbar – gekostet hätte sie uns dennoch um die 70 €, wie bei einem sparsamen Diesel auch schon👿

Der zweite Punkt geht dann an Tesla als Auto. Wir blieben knapp unter 20 kWh pro 100 km und das trotz voller Zuladung und permanent betriebener Heizung, außerdem standen alle Systeme auf „Sport“. Der BMW i3, den ich auch mal unter ähnlichen Bedingungen getestet hatte, wäre wohl darüber gelegen und das bei deutlich bescheideneren Fahrleistungen und einem Konfort, der einfach auf einem ganz anderen Level angesiedelt ist.

Jedoch den mit Abstand wichtigsten Punkt macht hier eindeutig Tesla als System. Denn die Idee, die Supercharger in eigener Regie voranzutreiben, sie zu vernetzen etc. – und das alles ohne auf die Politik zu schielen 😉 – ist und bleibt einzigartig. Und es wird wohl für eine ziemlich lange Zeit eine fachliche wie intellektuelle Überforderung der Führungseliten nicht nur in Deutschland darstellen. Die Herrschaften werden ihre Zeit brauchen um zu verstehen, dass die Beschleunigung des Porsche Taycan nutzlos ist, wenn sie an der nächsten, bedauerlicherweise besetzten 😮 Ladesäule ihre Grenze findet…

Toyota Mirai, ein „Brennstoffzeller“. © Toyota USA.
FCV müssen in einem technisch wie zeitlich aufwändigen Verfahren mit über 100 L. flüssigen Wasserstoffs betankt werden.

Natürlich wird mich der kritische Leser jetzt fragen, wie ich denn darauf komme, das Reichweiten-Problem im System Tesla als gelöst oder zumindest so gut wie gelöst anzusehen, wo doch knappe drei Stunden Verweildauer an den Ladestationen nicht ganz ohne sind? Oder anders gefragt, was wäre denn mit einem Verbrenner – oder vielleicht mit einem künftigen Brennstoffzellauto – anders gewesen?

Nun, bei näherem hinschauen nicht allzu viel. Denn die zwei Stopps für die Mahlzeiten hätten wir auch mit einem Verbrenner eingelegt, außerdem hätten wir die Batterie über Nacht vollmachen und nach dem Frühstück gleich nach Brive la Gaillarde durchfahren können. Die zwei weiteren Stopps zwischendurch sind ebenfalls geschenkt, denn ohne den Unterbruch in Clermont-Ferrand wären gerade mal 30 Minuten draufgegangen. Einmal Tanken plus zweimal für kleine Jungs mit Espresso hätten aber kaum kürzer gedauert. Was also übrig bleibt, ist vielleicht ein bisschen mehr Planung, Optimierung im Vorfeld etc. und evtl. damit verbundene Einschränkung bei der Wahl der Stopps. Allerdings, eine echte Zeitersparnis hätten wir nur dann erzielt, wenn wir auf „Schnell-schnell“ gemacht hätten. Die Espressi in Pappbecher, Fastfood als Lunch ebenfalls „to go“ und dann schnell weiterfahren… ja, damit hätten wir eine gute Stunde eingespart. Aber auf welche und vor allem auf wessen Kosten? Denn gesund ist solche Hast wohl kaum, Fastfood ist es auch nicht und zur Erholung (und damit zur Verkehrssicherheit) tut’s nicht gerade positiv beitragen😳

 

 

 

Ein Quantenalgorithmus für Molekulardesign

.

Zusammenfassung (Abstract). Untersucht wird ein Quantenalgorithmus zur Modellierung von Wechselwirkungen der Atome innerhalb eines Moleküls, vorgestellt durch Schütt, Gastegger, Tkatchenko, Müller, Maurer 2019 in „nature“; im folgenden „SGTMM-Algorithmus“.

.

Knappe 3 Jahre ist es her, als ich über die Fortschritte von Rainer Blatt’s Qubit-Forschung und der damit verbundenen Hoffnung auf ganz neue Werkstoffe in dem nachfolgend verlinkten – Post berichtete. Dies hat zunächst die üblichen Bedenkenträger auf den Plan gerufen: „braucht kein Mensch“, „zu teuer“, „geht auch einfacher“ und ja und überhaupt 🙄. Dann tauchten darunter aber auch andere Stimmen auf, die neben der verständlichen Frage, wie das denn funktionieren solle, eben die Kernfrage stellten: warum schafft es ab 36, 40 oder wieviel auch immer Atomen im Molekül nur der Quantencomputer? Anders ausgedrückt, warum liegt die Grenze zur „quantum primacy“ ausgerechnet bei dieser Größenordnung von Qubits im Quantenregister? Genau dieser Fragestellung widmet sich die vorliegende AG.

Leser, die an dieser Stelle womöglich fragen werden, ob es denn nicht eine Nr. kleiner geht, kann ich wohl ein wenig beruhigen. Denn auch diese AG hat – wie jede andere „AG Energetik“ auch – unverändert den Zweck der Vermittlung von Methoden der Erkenntnisgewinnung💡 Außerdem stützen wir uns hier auf einen bereits fertig konzipierten Algorithmus, der kürzlich in der Zeitschrift „Nature“ unter »https://www.nature.com/articles/s41467-019-12875-2« vorgestellt worden ist. Wir nennen es „SGTMM-Algorithmus“ (nach den Namen dessen Urheber); das Paper der Studie ist im Anschluss an die AG eingebettet. Mit anderen Worten, wir erfinden hier keinen modifizierten oder gar neuen Quantenalgorithmus, sondern betrachten vielmehr bekannte Sachen unter einem anderen Blickwinkel; vgl. Tutorial zu Deutsch-Jozsa-Problem.

.
s41467-019-12875-2

.

.

„Project Planet A“ – das deutsche Manifest der Ökomoderne

.
» Deutschland, quo vadis?

© https://www.oekomodernismus.de

Die deutsche Energiewende und der angestrebte Kohleausstieg beschäftigen uns schon seit geraumer Zeit, weil der CO2-Ausstoß aus fossilen Energieträgern zunehmend als problematisch erkannt wird. In Deutschland haben wir bisher den Umstieg auf 40% erneuerbar erzeugten Strom geschafft. “100% Erneuerbare Energien” bis 2050 sind das Ziel, auf das derzeit unsere Regierung und besonders die Grünen hinarbeiten. Verschärft wird die aktuelle Diskussion durch die Jugendbewegung Fridays for Future. Continue reading „„Project Planet A“ – das deutsche Manifest der Ökomoderne“

Sättigung bei den „Erneuerbaren Energien“. Der κ (Kappa-) Effekt

.

Zusammenfassung (Abstract). Untersucht wurde das dynamische Verhalten von Erntefaktoren (EROI) „Erneuerbarer“ Energien, insbesondere Wind- und Solarkraft, hinsichtlich installierter Leistung.

.

Fazit: Berücksichtigt man vollumfänglich die effektiv bereitgestellte bzw. anderweitig abgezwackte Pufferungsenergie, so gab es in den letzten Jahren in Puncto Beitrag zur Energieversorgung gar ein Negativwachstum bei den „Erneuerbaren“. Während die Pufferungsenergie insbesondere bei Wind überproportional stieg, sackte der gepufferte EROI spätestens 2019 unter 1 ab.   

.
Die Treppenlinie für die installierte Leistung der Onshore-Windkraft © Rolf Schuster.
Der zeitliche Zubau wird so viel exakter wiedergegeben.

Aufmerksamen Lesern der „AG Energetik“ wird aufgefallen sein, dass der Titel vom Teil 1 unserer AG zur »Sättigung bei den „Erneuerbaren…“ « vom ursprünglichen „κ- (Kappa) Effekt“ in „χ- (Chi) Effekt“ abgeändert worden ist. Nun hat dies folgende Bewandtnis. Auf der Suche nach den Ursachen der einwandfrei beobachteten Sättigungseffekte bei den „Erneuerbaren“ stellte sich heraus, dass die gewonnene Brutto-Energie mit dem weiteren Zubau der „Erneuerbaren“ eben nicht Schritt hält. Den korrespondierenden Differenzen-Quotienten haben wir eben als  „χ- (Chi)“ bezeichnet:

; „u“ steht für unbuffered – dazu gleich mehr.

Nun wollen wir uns im 2. Teil der AG der klassischen Pufferung widmen. Wir vermuten nämlich stark, dass diese einen weitaus höheren Einfluss auf die Sättigungseffekte haben dürfte, als das ungepufferte – und erst recht, wenn man die Pufferungsenergie umfangreicher auffasst, als dies gemeinhin der Fall ist.

Der κ- (Kappa-) Effekt. Die AG Teil 2

.

Um den gepufferten Koeffizienten zu ermitteln, kommen wir nicht umhin, uns genau plausibel zu machen, was mit der Pufferungsenergie gemeint ist. Es handelt sich nämlich um diejenige Energie (bzw. graue Energie von technischen Vorrichtungen), die für die Pufferung „extra“ bereitgestellt werden muss. Energie wiederum, die so oder so da ist und nicht speziell durch die Pufferung erzwungen wird, zählt hingegen nicht zu dazu. Dies haben wir im Teil 1 an folgenden Beispielen festgemacht:

» Beispiele:

OlivierMaire_Swisswinds_f2ec60f334
Eine Idylle, die hoffentlich Fotomontage bleiben wird.
© Olivier Maire. Swisswinds

1) Das Stromnetz selbst hat eine (wenn auch eine äußerst geringe) Speicherkapazität, die zur Pufferung von EE’s genutzt wird. Die Aufwendungen, die damit verbunden sind, können jedoch nicht aufs -Konto gerechnet werden, da das Stromnetz „so oder so“ da ist. Muss es hingegen ausgebaut werden, um z.B. mit zunehmender Menge an volatilem Strom fertig zu werden, zählen diese Aufwendungen, etwa die graue Energie, ganz klar zu dazu;

 

2) Ein Wasserkraftwerk, das z.B. einen kleinen Windpark intermittierend puffert, hat einen begrenzten Wasserzufluss, also erzwingt der Windpark selbst keinen „suboptimalen“ (weil gedrosselten) Betrieb, wie dies z.B. beim Kohlekraftwerk, das auf 60% der Nominalleistung fährt, der Fall ist. Verluste an den Wasserturbinen entstehen so oder so, früher oder später. Dies funktioniert freilich nur so lange, bis der Stausee voll- oder leerläuft. 😳 «

Soweit so gut. Die Frage, die sich einem interessierten Leser sofort aufdrängt, ist wohl die, inwieweit sich das Szenario aus Beispiel 2 auf eines mit einem konventionellen- statt Wasserkraftwerk übertragen lässt. Nun, entgegen dem Eindruck, den man auf den ersten Blick gewinnen kann, unterscheiden sich beide Szenarien ganz prinzipiell voneinander: Ein KKW (Kohle- oder Kernkraftwerk – je nach Gusto) verfügt nämlich nicht über einen angeschlossenen Speicher in Form von einem Stausee. So läuft es zwar bei Dunkelflaute im günstigen Nominalbereich, aber sobald es windiger und/oder sonniger wird, muss das KKW herunter gedrosselt werden, damit der „Ökostrom“ :mrgreen: kraft EEG in die Netze aufgenommen werden kann.

Selbstverständlich werden solche Phasen in der EE-Branche wie auch in den EE-affinen Medien frenetisch bejubelt...🙄 Eine ganz kurze energetische Analyse des Sachverhaltes zeigt jedoch, dass die EE in einem solchen Szenario in hohem Maße parasitär wirken. Sie rauben nämlich dem KKW seinen EROI, indem sie seine Energieernte verhindern, entschädigen es aber keineswegs bei der Gestehungsenergie – von einem suboptimalen 60%-Betrieb ganz zu schweigen. Dabei ist diese „geraubte“ Energie schon alleine von der Kausalität hier schlicht die Pufferungsenergie und zählt somit vollumfänglich zu dazu!

Eine PPV mit zwei Teslas und zwei hauseigenen Batterien.
Aber selbst im sonnigen Kalifornien ist es nur bei einem geeigneten Verhalten energetisch sinnvoll. © tesla.com

Um die energetische Zumessung ein wenig zu üben (und auch um den EE-Fan bei Laune zu halten) machen wir einen Abstecher und untersuchen eine typische Nischenanwendung in Form von privater PV-Anlage -im folg. „PPV“. Wir wissen zwar aus den Untersuchungen der Schweizer Wissenschaftler ➡, dass der gepufferte EROI bei PV unter 1 liegt, aber so einfach ist die Sache nicht. Wie so häufig, steckt der Teufel im Detail und dieses Detail heißt auch hier die Pufferung. Denn das, was ein industrieller EE-Betreiber nicht machen kann – nämlich die Produktion antizipieren und ein Demand-Management betreiben – schafft’s der Eigenheim- und PPV-Besitzer u.U. sehr wohl. Verzichtet er auf die Einspeisevergütung, aus den vorhin genannten Gründen, bleibt er bei fossiler Heizung (da ansonsten die saisonalen Schwankungen durch nichts auszugleichen wären) etc. so kann er durch ein ausgeklügeltes Demand Management zusammen mit dem Elektroauto, den Klimaanlagen, Kühlschränken etc. einerseits sein minimieren, anderseits die Stromspitzen sinnvoll verwerten und zwar ohne einen gesonderten energetischen Aufwand. Dies funktioniert freilich nur dann, wenn er sich all die eAutos, Weinkühlschränke etc. auch ohne die PV zugelegt hätte 😉. Aber auch wenn wir dies wohlwollend unterstellen, kommen wir nicht über einen EROI von 3 oder (im Süden) 4 hinaus! Der Grund ist das ans Lebensende der PV-Anlage anzuschließende Recycling, das u.U. als Plasmarecycling extrem hohe energetische Kosten nach sich zieht. Nun ja… Physik ist manchmal schrecklich unbarmherzig...👿

➡ Es handelt sich um eine Studie von Ferruccio Ferroni, Alexandros Guekos und Robert J. Hopkirk aus dem Jahre 2016

.

Speicherung des Windstroms, aus „Wieviel Zappelstrom verträgt das Netz“
© 2014 IFO-Institut, H. W. Sinn

Soweit so gut. Allerdings wird sich der Leser der beiden AG’s an dieser Stelle womöglich fragen, was denn diese Überlegungen mit dem eigentlichen Gegenstand der beiden AG’s zu „Sättigungseffekten“, insb. die des vorliegenden Teil 2, zu tun haben. Nun, das sieht man spätestens dann, wenn man versucht die Pufferungsenergie direkt zu berechnen. Denn offensichtlich dürfte es enorm schwierig werden zu ermitteln, welche Energien und in welchem Umfang zu zu zählen sind und welche nicht. Diese Berechnungen würden den Rahmen und auch die Ressourcen der „AG Energetik“ sprengen. Aber nun eröffneten unsere bisherigen Überlegungen eben eine andere Möglichkeit zu ermitteln und zwar mittels des Ausschlussverfahrens. Denn wir wissen nicht zuletzt aus all den stolzen 🙄 Verlautbarungen der Ökobranche, wieviel „Ökostrom“ (brutto!) im Jahre X abgegeben wurde – auf der anderen Seite kennen wir die gesicherte Leistung ➡ der EE sowie die verfügbaren Speicher mitsamt deren Kapazitäten, Wirkungsgraden, EROI’s etc.:

Dabei ist die „gesicherte“ ➡ Energie, während für die aus dem Speicher steht; „“ für Vorratsbecken im Pumpspeicherkraftwerk 😀.

➡ Als gesicherte Leistung gilt eine über 99.5% der Betriebszeit hinweg bereitgestellte Leistung. Die korrespondierende „gesicherte“ Energie bezeichnen wir als .
.

Mit anderen Worten, all das, was auf gesicherte oder netto gepufferte Leistung zurückgeht, ist effektive Nutzenergie, während der Rest schlicht ist; man könnte auch mit Fug und Recht vom „Energiemüll“ sprechen 👿. Jedenfalls können wir den Pufferungskoeffizienten – immer noch als Verhältnis des ungepuffertem zu gepuffertem EROI – wie folgt angeben:

Speicherung von Wind- und Sonnenstrom (kumuliert)
Aus „Wieviel Zappelstrom verträgt das Netz“
© 2014 IFO-Institut, H. W. Sinn

Eigentlich ist alles klar. Bei einem konventionellen Kraftwerk ist die gesamte Energie, die es abgibt, gleichzeitig die gesicherte Energie, also gilt . Hingegen ist das gleich Null, denn das KWK kann höchstens, falls eine Fehlplanung vorliegt, einem trocken gelaufenen PSW (Pumpspeicherkraftwerk) sein Wasserbecken auffüllen, was wiederum eine völlig andere Geschichte wäre😉. Jedenfalls gilt für konventionelle Kraftwerke nun einmal , was bei den EE eben nicht der Fall ist. Ob die Faktoren von 4 bei Windkraft und 2.5 bei Solarkraft, wie es das bekannte Diagram nebenan suggeriert, wirklich stimmen, das wollen wir freilich genau wissen.

Was die gesicherte Leistung bei der Windkraft anbelangt, so liegt diese mit etwas über 130 MW gerade so im Bereich der OnBoard-Leistung der „Akademik Lomonosow“ 😛. Die betr. Jahresproduktion von immerhin nicht-volatilem Strom beträgt somit stolze 1.15 TWh. Der Rest müsste dann freilich dem Speicher kommen und hier geht der Katzenjammer erst so richtig los. Denn die einzig brauchbare Speichertechnologie sind in der Tat die Pumpspeicherwerke (PSW). Alles andere – P2G, P2H etc. – weist z.T. so miserable Wirkungsgrade auf, dass deren Beitrag zur Bereitstellung von Speicherkapazitäten derzeit noch zu vernachlässigen ist. Von den PSW hat Deutschland 35 an der Zahl und deren „Leistung“ wird mit 6.7 GW angegeben. Das hört sich erst einmal nicht schlecht an, denn das wären immerhin 6 EPR’s. Aber bei näherem Hinsehen entpuppt sich alles doch als der sprichwörtliche Tropfen auf heißen Stein. Denn die Gesamtkapazität all dieser PSW’s beträgt nur ca. 38 GWh. Was das wiederum heißt, zeigt ein kurzes Review auf unser vorheriges Beispiel 2.

Ein Diagram – ein Klassiker! Es entstand nach unserer Kenntnis um das Jahr 2010 herum aus einer uns unbekannten Feder. Wer unter © gesetzt werden sollte, möchte uns bitte einen dezenten Hinweis geben. :mrgreen:

Wir machen wir folgendes Gedankenexperiment. Unser Speicher ist zunächst leer. Dann kommt quasi wie gerufen ein kräftiger Wind auf, so dass wir es auf 6.7 GW bringen – eine Last, die unsere PSW gerade so schultern können. Wir lassen den Speicher auf 38 GWh voll- und anschließend, ebenfalls mit 6.7 GW, wieder leerlaufen. Beide Vorgänge dauern (unter Idealbedingungen) gleich lang und zwar jeweils knappe 6 Stunden.

Demzufolge geben unsere Speicher im Schnitt 3,3 GW her, wovon wir 2.5 GW auf den Windstrom zurückführen wollen – macht eine jährliche Windstrom-„Produktion“ von 22 TWh, was nach Abzug von Friktionsverlusten, Gestehungsenergie etc. 13-15 TWh per anno ergibt. Und wie es der Zufall will, ergibt dies für den Anfang der Dekade bei einer Stromproduktion um die 50 TWh einen um die 4 :mrgreen:. Dem aufmerksamen Leser dürfte diese Zahl irgendwie bekannt vorkommen – vgl. Diagram nebenan! →

Und da haben wir es, unser „qed“! Denn seit Anfang dieser Dekade hat sich an den PSW-Kapazitäten so gut wie gar nichts geändert, während die (brutto) Windstrom-Produktion um den Faktor 2.5 stieg. Und so liegt bei der Winkraft im Jahre 2019 bei etwa 10 😳 – will heißen, dass der gepufferte EROI selbst bei Offshore-Wind mittlerweile unter 1 liegt 😯.

Nachtrag vom Januar 2020

EROI unterschieden nach „unbuffered“ sowie weak/full buffered.
Der EROI eines Gen.4 Reaktors, etwa DFR, würde mit dem Wert von 2000 den Diagramm-Rahmen komplett sprengen.

Zu den häufigsten Einwänden, die uns seit der Veröffentlichung der AG erreicht haben, gehört wohl jener betreffend der Rechenart, gewissermaßen „Zählart“. Denn diese sei zwar berechtigt – Energie die zur Unzeit kommt, ist und bleibt Energiemüll – aber eben nicht üblich und von daher verwirren die ermittelten EROI ein wenig, da man nicht wisse, welcher Rechenart diese jeweils entstammen würden.

Nun, um dieser Euren dankenswerten Anregung zu genügen, haben wir die folgende Unterscheidung vorgenommen. Den herkömmlich gepufferten EROI – also ohne die Entsorgung von Überschüssen – nennen wir einfach „weak buffered“, im Gegensatz zu „full buffered“, der diese „Müllentsorgung“ sehr wohl berücksichtigt. Dies führt zu der Projektion wie auf dem Diagramm nebenan dargestellt ➡

Zunächst ist klar, dass bei den konventionellen Kraftwerken die Balken gleich lang sind; diese haben keine Pufferung nötig. Gleiches haben wir der Biomasse zugebilligt, wobei hier eine gewisse saisonale Schwankung zu beobachten sein und so den grauen Balken wohl etwas kürzer ausfallen lassen dürfte. Dies ist im Falle von Wasserkraft eindeutig der Fall, auch wenn wir diesen Effekt bei einer sehr gnädigen Schätzung bewenden lassen möchten.

Auf den ersten Blick überraschend – insbesondere für den Nicht-Leser der AG 😉 – mag da erscheinen, dass die häusliche PV eine „Null-Pufferung“ haben kann, genauso wie konventionelle Kraftwerke. Aber wie wir aus den Überlegungen der AG wissen, kann es bei einem (hauseigenen) Demand-Management sowie einem strikten Verzicht auf die Einspeisung sehr wohl der Fall sein. Bei einer großindustriellen PV hingegen, also einem Solarpark ö.ä, nimmt gewissermaßen die Katastrophe ihren Lauf. Denn bereits den einfach gepufferten EROI sehen z.B. Schweizer Wissenschaftler bei gerade mal 1. Somit ist ein Solarpark – ähnlich wie Windpark – mit einem full buffered EROI unter 1 👿 ein ökonomischer und ökologischer Unsinn, der als solcher dringend einzustellen ist!

New Mobility – New NUC

.
💡 Zusammenfassung (Abstract). Untersucht werden die infrastrukturellen Anforderungen im Zusammenhang mit der allenthalben beabsichtigten Elektromobilität. Ferner wird eine Überbrückung der Engpässe entlang der deutschen Autobahnen angegeben und durchgerechnet: Es handelt sich um ein autarkes Gleichstrom-Netz für Supercharger an den Tank- und Rastanlagen, das von kernenergetischen Reaktoren der 4. Generation, den Dual Fluid Reaktoren, angetrieben wird.
💡
.
Mit „New Nuc“ ist hier die Generation 4 der Spaltreaktoren gemeint
z.B. Dual Fluid Reaktor DFR

Im Januar 2012, also noch lange vor der „AG Energetik“, schrieb ich den Blogbeitrag „Energiewende – Elektromobilität ade!“, dem ich (damals ein Novum!) eine fundierte energetische Berechnung zugrunde legte und zwar: Anhand des durchschnittlichen Verbrauchs aller PKW in Deutschland (seinerzeit gut 1000 Liter/s 😯) errechnete ich über den Canot-Prozess eine durchschnittliche Stromlast bei 100% Elektromobilität in Höhe von 20 GW. Trotz einer klaren Bestätigung dieser Zahl durch eine einfache Gegenrechnung ➡ erlebte ich in den letzten Jahren immer wieder ein hartnäckiges Leugnen und Bestreiten dieses doch so klaren Sachverhaltes. So vermochte z.B. jemand, der für Verbreitung von EE-Märchen nicht ganz unbekannt ist, diese Zahl auf 5 GW zu reduzieren. Und wie? Na mittels Car-Sharing😀 Continue reading „New Mobility – New NUC“

Meine Tipps an „Fridays for Future“

Braunkohlekraftwerk Niederaussem © Stodtmeister – „Eigene Werke“ CC BY 3.0. https://commons.wikimedia.org/w/index.php?curid=13279041
Der Meiler verbrennt 1 t Braunkohle pro Sekunde!

Zunächst möchte ich Euch allen, die Ihr bei „Fridays for Future“ in der einen oder anderen Form mitmacht, recht herzlich gratulieren! Denn spätestens mit der neuerlichen Europawahl dürfte wohl jedem noch so verklausulierten Politiker klar geworden, dass er oder sie an der „F4F“-Bewegung, insbesondere dem Geist, den diese hervorgebracht hat, nicht mehr vorbeikommt.

Allerdings hat diese Medaille auch ihre Kehrseite. Ihr habt nämlich das gesamte Establishment regelrecht herausgefordert. Man wird Euch jetzt nicht mehr nur ernst oder „bitter ernst“ nehmen, sondern auch als ein Stück Bedrohung ansehen. Mit anderen Worten, die Politiker, Journalisten, Wirtschaftsbosse und sonstige Verbandsfunktionäre etc. werden in den nächsten Wochen und Monaten immer aggressiver 😕 versuchen Euch zu stellen. Und da ich grundsätzlich mit Eurem Anliegen sympathisiere, möchte ich Euch in diesem kurzen Blogbeitrag ein paar Tipps geben wie Ihr den absehbaren Attacken von rhetorisch bestens geschulten Leuten entgehen könnt.

Doch vorab schulde ich Euch wohl die Antwort auf die Frage, wie ich selber zu Eurer Bewegung stehe. Nun, ich finde es grundsätzlich legitim, dass Ihr Euch für Eure Zukunft einsetzt, denn in der Tat werdet Ihr es sein, die in dieser Welt leben werden – auch wenn ich das Schulschwänzen, um es in aller Klarheit zu sagen, für illegitim halte. Continue reading „Meine Tipps an „Fridays for Future““

Quantenalgorithmus für das Store Checkin Problem (SCinP)

.

💡 Zusammenfassung (Abstract). Das vorliegende Tutorial widmet sich der Frage, inwieweit das in der Logistik bekannte Store Checkin Problem (SCinP) mit Hilfe des Quantencomputers in nicht-kritischer Laufzeit gelöst werden kann.
💡
GudrunMaerskOakland
Gudrun Maersk im Hafen von Oakland (CA).
Quelle © dpa

Stellen wir uns vor, keine geringere als die „Sovereign Maersk“ ➡ wird demnächst in einen Containerhafen reinlaufen, wo ihre 7.500 Container gelöscht werden sollten. Die Aufgabe für das hafenweite Dispositionssystem besteht nun darin, für all die Container mitsamt den unterschiedlichen Inhalten geeignete Stellplätze zu finden und diese zu reservieren. Dabei handelt es sich selbstverständlich um rein elektronische Vorgänge, die mit der heutigen IT auch machbar erscheinen – entsprechende Datenbanken mit allumfassenden Informationen über die gegenwärtige Belegung des Containerhafens stets vorausgesetzt. Dass aber eine solche Aufgabe trotz modernster IT alles andere als trivial ist und mit noch so schnellen Prozessoren immer noch laufzeitkritisch werden kann, sei an dieser Stelle schon mal vorweggenommen: Das vorliegende Tutorial wird zeigen, dass das Durchstöbern eines Containerhafens nach geeigneten Lagerplätzen für ein paar Tausend Container naturgemäß laufzeitkritisch ist!

➡ Die Sovereign Maersk – Schiffe zählen zu den Post-Panamax-Containerschiffen und verfügen über eine Kapazität von 6600 TEU (beladene Container mit je 14 Tonnen Gewicht), beziehungsweise 8160 TEU an echten Stellplätzen.
.

 

HafenShnhai
Containerhafen von Shanghai. Der Jahresumsatz liegt knapp unter 40.000 Containern.
Quelle © N. Trentmann @welt.de

Eine einfache Überlegung, die an dieser Stelle nicht näher vorgestellt werden sollte, die aber durch Beobachtungen im Alltag durchaus gestützt wird, zeigt, dass ein Containerhafen im Schnitt in etwa so viele disponible Containerplätze haben sollte, wie der (Container-) Jahresumsatz ist. Im Falle von Shanghai wären es 40.000 Stellplätze durchschnittlich. Unsere Aufgabe anhand des Beispiels von Shanghai besteht demzufolge darin, eine Datenbank mit 40.000 Einträgen zu durchlaufen (zu „iterieren“) und die Eignung des jeweiligen Stellplatzes für den einzulagernden Container zu prüfen. Zu der äußerst diffizilen „Eignungsprüfung“ ➡ als Funktion von einer Reihe von Stellplatz- und Container-Parametern später mehr.

Für jeden Kenner der Algorithmentheorie ist dieser Fall klar: die Laufzeit einer solchen Datenbank-Iteration geht linear mit dem Umfang derselben, was mit dem Operator  markiert wird (das „“ steht hier für unsere 40.000 Container-Stellplätze). Demzufolge ist die Laufzeit einer vollen Datenbank-Iteration über 40.000 virtuelle „Stellplätze“ offensichtlich – stets vorausgesetzt, dass das  (also die Latenzzeit einer Eignungsprüfung ) für alle Stellplätze gleich ist, was in der Praxis weitgehend der Fall ist.

➡ Die Einzeleignungsprüfung  ist das entscheidende Momentum für den vorliegenden Algorithmus. Formell handelt es sich um eine Funktion, die eine Reihe von Stellplatz-Paramatern auf „0“ („nicht geeignet“) oder „1“ („geeignet“) abbildet: . Natürlich kann man die Funktion erweitern, indem man eine Art Punktesystem macht und damit eine differenzierende Antwort heraus bekommt.
.
YangShan
University Of Bern www.geography.unibe.ch/EG

Im Folgenden setzen wir für  0.1ms=100μs (Mikrosekunden) an und nehmen somit den künftigen technischen Fortschritt vorweg. Denn alleine die I/O-Operationen auf den modernsten Datenträgern dauern derzeit (Stand Anfang 2019) ungefähr so lang. Unter dieser Annahme dauert eine Datenbank-Iteration 4 Sekunden lang und das hört sich erst mal nicht dramatisch an. Allerdings dürfen wir die übrigen 7499 Container 😀 nicht vergessen, die ebenfalls auf ihre Iterationen warten. Claro, nicht jeder Container wird es brauchen. Denn wenn ich mehrere nahezu identisch beladene rechne, weiß ich aus der ersten Iteration (durch das Punktesystem), was die geeigneten Stellplätze für die anderen sind. Dennoch müssen wir von dem berühmten worst case ausgehen, denn nur dieser beschreibt die immanente Komplexität eines Algorithmus wirklich.

Die Laufzeit fürs virtuelle Löschen unserer voll und heterogen beladenen „Sovereign Maersk“ beträgt demnach:

 und das sind immerhin 8 Stunden und 20 Minuten Laufzeit 😯

An dieser Stelle wird sich der Leser möglicherweise fragen wie ist denn kommt, dass in Seehäfen wie Shanghai nicht alles buchstäblich stillsteht… Denn bei einer nunmehr 8-stündigen Beanspruchung ganzer Rechenzentren (Laufzeiten von 100 µs fürs sind nur mit Multinode-Computing möglich) müsste das ja über die meiste Zeit hinweg der Fall sein.

BrandInTianjin
Apokalyptische Bilder von der Brandkatastrophe in Tianjin.
Eine zu enge Lagerung von explosivem Gefahrgut hat zu einer regelrechten Kettenreaktion geführt. Die genaue Opferzahl kennt niemand. © bbc.com

Nun, die Antwort liegt in einer Optimierung des vorliegenden Algorithmus. Eine dieser Optimierungsoptionen haben wir bereits zuvor aufgezeigt: man pickt sich gleichartig bestückte Container heraus und errechnet für diese die geeigneten Stellplätze in nur einer Datenbank-Iteration (dies setzt freilich voraus, dass uns nicht der berühmt-berüchtigte worst case einholt). Eine andere Möglichkeit besteht darüber hinaus darin, bestimmte Bereiche des Containerhafens von der Zuteilung für eine zu löschende Ladung gänzlich auszuschließen und so die Zahl geringer zu halten.

All das kann man natürlich machen – nur hört der Spaß spätestens dann auf, wenn jemand der Verlockung unterliegt und unmittelbar ans heran geht, indem er die Einzeleignungsprüfung aufweicht. Dass dieses „Optimierungspotenzial“ verlockend ist, liegt in der Natur der Sache. Zum einen kennen die Umsätze in den Seehäfen nur eine Richtung, nämlich nach oben, während der rechtliche Rahmen, etwa in Puncto Gefahrgut-Handling, Versicherung, Brand- und Strahlenschutz, Datenschutz etc. immer enger gezogen wird. Die Zeit arbeitet also gnadenlos gegen uns: das Optimierungspotenzial wird allmählich ausgeschöpft und der technische Fortschritt (Moorsches Gesetz) vermag dies nicht aufzufangen. Mit anderen Worten, wir laufen immer mehr in eine Zwickmühle hinein zwischen immer höheren Anforderungen auf der einen und nur begrezt vielen Möglichkeiten auf der anderen Seite. Die Fragestellung dieser AG lautet, kann uns der Quantencomputer aus dieser Zwickmühle heraushelfen?

NichtLinearKrystal
Erzeugung von verschränkten Photonen im nicht-linearen Krystal.
Verschränkung ist ein fürs Quantencomputing unabdingbarer Effekt.
Quelle © BBC.uk.com

Im Jahre 1996 stellte der Mathematiker Lov Grover einen Quantenalgorithmus vor, der in einer unsortierten Datenbank einen bestimmten Inhalt auffindet. Die Laufzeit , die ja für jedwede Datenbank-Iteration unumgänglich ist, konnte auf sensationelle gesenkt werden 😯. Die Frage, die wir uns vorliegend stellen, lautet, kann der Grove-Algorithmus – freilich in einer für uns geeigneten Modifikation – unsere Stellplatz-Datenbank ebenfalls in iterieren? Und wenn ja, wäre damit unser Store Checkin Problem in einer nicht-kritischen Laufzeit gelöst?

Nun, letztere Frage kann man nur mit einem klaren Ja beantworten. Denn die Quadratwurzel aus 40.000 ergibt 200 und das mal 100 μs genommen bedeutet nur einen Sekundenbruchteil für eine volle Datenbank-Iteration. Bei dieser Laufzeit bräuchten wir keinerlei Kompromisse einzugehen – das virtuelle Löschen von unserer „Sovereign Maersk“ würde nur wenige Minuten dauern.

Die andere Frage, nämlich die nach der Korrespondenz des Grove-Algorithmus zur betreffenden Datenbank-Iteration, ist hingegen gleich mehrere Bits komplizierter. Es ist klar, dass sich die Stellplatz-Datenbank für den Grove-Algorithmus nahezu anbietet. Der Teufel 👿 dürfte aber im Detail stecken. Denn die alles entscheidende Frage lautet: Können wir die immanenten Eignungszahlen in Qubits abbilden?

Nach meinem Dafürhalten ist es der Fall, d.h. es existiert sehr wohl ein Quantenalgorithmus, der die vorliegend geforderte Iteration in verrichtet. Diese Vermutung ist vorläufig das einzige (Zwischen-) Resultat der vorliegenden AG, die somit – wie die AG übers QDD seinerzeit auch schon – mit einem an die Außenwelt gerichteten Ruf nach Hilfe zunächst endet. :mrgreen: