Netzdynamik in Zeiten der Energiewende

  • Zitat von photoenchen4me

    Vielleicht könnt ihr im weiteren Verlauf die Unterproblematiken jeweils in jeweils getrennten Postings weiterführen? (regelungstechnische Details einerseits der Erzeugermaschinen incl. WR andererseits des Netzausreglens ..)


    Gerne.


    Zitat von hfrik

    Nun, wenn das britische Netz derzeit keinen redispatch zulässt


    Das Britische Netz lässt Redispatch zu, allerdings haben die wegen der vergleichsweise kleinen Synchronzone (nicht 3000 km x 1000 km wie auf dem Kontinent), das Problem der Leitungsbelastungen nicht, so dass die Sekundärregelung weniger stark in Anspruch genommen wird und die einen Fokus auf der Primärregelung haben. Die Anforderung an die Frequenzantwort von Erzeugern sind viel größer, weil es einen Unterschied macht, wenn ein 1,4 GW Kraftwerk in einer 40 GW Zone trippt oder in einer 400 GW Zone. Das 50,2 Hz Problem heisst in GB ROCOF (Rate of Change of Frequency), der dort verwendete Schutz zur Inselnetzerkennung: es ist schon vorgekommen, dass eine 1 GW Importleitung von Frankreich ausgefallen ist, und die Frequenz sackte ab. Das ging ein paar mal so schnell, dass einige Windparks darauf angesprungen sind und abgeschaltet haben. Gott sei dank war das kein breites Phänomen, sonst hätte das britische Netz kollabiert, da beim weiteren Verlust von Erzeugungsleistung die Frequenz weiter runterfällt.


    Zitat von hfrik

    Der Leitungswinkel ist eine Eigenschaft der Leitung selbst bzw. deren Länge. Da hilft Redispatch im Netz garnichts, sondern nur Kompensation (Blindstromkompensation, Phasenschieber)


    Hier verwechselst Du den Leitungswinkel theta (Winkel des Spannungszeigers am Punkt A und dem Spannungszeigers am Punkt B) mit dem mit Verschiebungswinkel phi (Winkel zwischen Spannungszeiger am Punkt X und Stromzeiger am Punkt X). Der Wirkleistungsfluss entlang einer Leitung ist proportional zum sin theta (mal Spannung in A mal Spannung in B geteilt durch Impedanz der Leitung - analog zur Synchronmaschine). Wenn man die Leistung entlang der Leitung durch Redispatch zurücknimmt, dann verrringert sich auch der Leitungswinkel theta (Voltage phase angle differences in the UCTE system, Fig. D1a, S. 78). Die Spannung in B kann man natürlich gemäß U=R*I (alles komplex) auch mit Blindstrom bzw. -leistung beeinflussen und zurückdrehen, damit man nicht in den unstabilen Bereich kommt.


    Zitat von hfrik

    Ansonsten rede ich hier nicht über Differentialregler in Wechselrichtern, sondern über die bestehende Momentanreserve in Synchrongeneratoren und Asynchrongeneratoren, wie sie real im Netz sind. Dort reagieren die Generatoren auf den Winkel zwischen Strom und Rotor bei der Synchronmaschine, sowie auf den Schlupf zwischen Rotor und Strom bei der Asynchronmaschine. Also näherungsweise proportional, aber jeweils proportional einer anderen Grösse. Die Motoren reagieren ebenfalls proportional - nur eben nicht mit einer steigerung der abgegebenen Leistung, sondern mit einer Reduktion der aufgenommenen Leistung.


    Du vergisst die Zeitkonstanten. Wie gesagt, die Synchronmaschine entspricht einer Torsionsfeder bzw. -welle (~ dünne Kardanwelle im Auto), die Asynchronmaschine entspricht einem schlupfenden Drehmomentwandler (-hydrodynamisches Getriebe im Auto). Die Synchronmaschine wird direkt eingefangen, wenn sich ein Frequenzunterschied einstellt und das sind recht schnelle Vorgänge entlang der Gleichung sin theta ~ P. Beim Asynchronmotor sind das Vorgänge, die ebenfalls in erster Näherung proportional zur Drehzahlunterschied passieren, aber die Dynamik ist eine andere. Wenn z.B. die Netzfrequenz absinkt, dann muss die Asynchronmaschine erst mal Schlupf aufbauen, bevor die Rückstellkräfte wirken. Ein Drehzahlunterschied (ASM) ist etwas anderes als ein Winkelunterschied (SM): delta omega integriert ergibt delta theta oder umgekehrt delta theta ableiten ergibt delta omega. Das ist regelungstechnisch ein fundamentaler Unterschied, ob da noch ein I- oder D-Glied dazwischen hängt.


    Bevor man die Türkei ans Zentraleuropäischen Verbundnetz angeschlossen wurde, hat man sich die dortige Netzdynamik genauer angeschaut. Dort gab es eine Dauerschwingung der Netzfrequenz mit einer 30s Periode, mit Amplituden von 40-60 mHz. Das lag daran, dass dort für die P(f)-Primärregelung ungeeignete Kraftwerke genutzt wurde: Wasserkraftwerke mit langer Druckleitung haben Allpassverhalten. Rein formal wäre solch ein Wasserkraftwerk geeignet, weil es in 30s reagiert, es kommt aber auch auf die Dynamik in der Zwischenzeit an. Wenn der Turbinenregler mehr "Gas" gibt und das Ventil aufdreht, geht erst mal die Leistung zurück, da der Druck im Zufluss abnimmt. Erst wenn die gesamte Wassersäule beschleunigt, steigt die Leistung durch das weiter geöffnete Ventil an. In den ersten Sekunden ist das Verhalten solch eines Kraftwerks, von denen die Türkei viele hat, kontraproduktiv. Daher wurden die Regelaufgaben neu verteilt: Primärregelung durch Dampfkraftwerke und die Pendeldämpfungsgeräte wurden neu justiert. Aus dem gleichen Grund kann man auch die Momentanreserve einer Synchronmaschine nicht mit dem Effekt einer Asynchronmaschine vergleichen.


    Zitat von hfrik

    Dass man das mit Kapazitäten und Algorithmik auch in Wechselrichtern nachbilden kann ist klar, und zumindest hier im Forum ein alter Hut. Ich denke Du wirst hier im Forum beiträge von mir finden wie gross diese Kapazitäten sein müssen um die Must-Run-Kapazitäeten mit rotierenden Massen zu ersetzen. Aber das ist erst der allererste und einfachste Schritt.


    Wenn man eine Anlaufzeitkonstante von 10 Sekunden mit Synthetic Inertia = künstliche Schwungmasse abbilden will, so braucht man nur 1 kWh Energiespeicher pro MW installierter Leistung, also dem Äquivalent einer Autobatterie. Das lässt sich leicht durch Integration von omega= w = 47,5 Hz bis 52,5 Hz eines mechanischen Rotationsspeichers mit dieser Anlaufzeitkonstante zeigen, wenn man dies in ein Trägheitsmoment umrechnet E=1/2 J w², E(SynInertia)=E(w=52,5Hz) - E(w=47,5Hz).


    Gruß,
    Gunnar

  • Ad 1) Dass das britische Netz ein Problem mit der Fequenzstabilität hat ist bekannt - aber das wird durch redispatch auch nicht besser, richtig erkannt - durch stärkere Kopplung mit anderen Netzen wird das besser werden, da dann mehr Leistung verfügbar wird.
    Ad 2) Leitungswinkel scheint es mehrfach zu geben, ich meinte den Leitungswinkel mit 2Pif*Wurzel (L'C')*l - und habe mich gefragt was Du mit diesem erreichen willst. Aber wenigstens sind Wir uns einig dass das Wichtige in diesem Bereich die Blindleistungskompensation ist, oftmals wird diese vergessen.
    Ebenso ist der Nachsatz im Textbeispiel der RWTH Aachen tyüisch und weit verbreitet, aber falsch. Denn die Leitungswiderstände sind soweit imaginär, kompensierbar, und soweit der Widerstand real ist eine Dimensionierungsfrage der Leitung. Es ist nicht in Stein gemeisselt dass ein Leitungswiderstadn 0251Ohm je km ist.
    Es hält einen niemand dacvon ab, statt 4-er Bündel 8-er Bündel an die Masten zu hängen, die Skineffektbedingte Querschnittsausnutzung bleibt gleich, der ohmsche Widerstand halbiert sich, die Transportentfernung steigt entsprechend. Ebenso kann man Spannung und Systemanzahl erhöhen. Richtig wäre der Satz: wie man sieht wurde das Stromnetz bisher so dimensioniert, dass die Übertragungsverluste bei einer Entfernung von 500km schon sehr hoch sind..... Was ja auch richtig ist, und früher auch richtig dimensioniert war - es bestand in D nicht die Notwendigkeit so weit zu transportteren. In den Ländern , in denen weit transportiert werden muss ist die Spannunsebene 750-800kV.
    Bei HGÜ hat man nicht nur die Blindleistungsprobllematik weg, sondern auch die Problematik der realen Widerstände, denn der den Leiterquerschnit limitierende Skineffekt ist weg, und statisch ist es kein wirkliches Problem deutlich höhere Leiterquerschnitte an die Masten zu hängen. Relevant für die Dimensionierung hier ist aktuell der Eisbehang, nicht das Leitergewicht, der Eisbehang steigt aber deutlich weniger als der Leiterquerschnitt wennd er Leiter deutlich dicker wird, so dass das statische System von Aufhängung und Mast gar nicht so viel mehr beansprucht wird, wenn man im Leiterquerschnitt auf ein Vielfaches hochgeht. Was man bei Trassenneubauten einplanen sollte.


    Ad 3) Nö auf die Zeitkonstante habe ich hingewisen. Der eine reagiert über das Integral der Frequenzänderung, der andere auf die Frequenzänderung selbst. Beide können die Enegie zum Stützen einbringen, welche dem Frequenzsprung entspricht. Spring die Frequenz schlagartig reagien beide in ählichem Zeitfenster, ändert sich die Frequenz stetig geht es bei der Synchronmaschine schneller, dafür stützt die Asynchronmasschine länger. Beides geschieht in viel kürzeren Zeiträumen als die Primärregelung des zitierten Wasserkraftwerks, wenn es im Netz ein wirkliches Problem gibt.
    Bezüglich Wechselrichtern stimmt, die Kapazität in kWh muss nicht allzu gross sein, sie muss aber in ms bis s bereitstehen - weswegen im Vergleich zur rotierenden Masse die Autobatterie schlechter passt, das passende Äquivaltent zur rotierenden Masse ist beim Wechselrichter der Kondensator. Aktuell braucht ein WR da nur genügend Energiespeicher, um die nächste Halbwelle sauber hinzubekommen, für eine Momentanreserve braucht es da ein Vielfaches davon. Was aber durchaus machbar ist- es wird nur aktuell nicht gemacht.

    Ich würde mein Geld auf die Sonne und die Solartechnik setzen. Was für eine Energiequelle! Ich hoffe, wir müssen nicht erst die Erschöpfung von Erdöl und Kohle abwarten, bevor wir das angehen.
    Thomas Alva Edison
    Trockenplatzdach 2,6kW zum Spielen :)

  • Zitat von hfrik

    Ad 1) Dass das britische Netz ein Problem mit der Fequenzstabilität hat ist bekannt - aber das wird durch Redispatch auch nicht besser, richtig erkannt - durch stärkere Kopplung mit anderen Netzen wird das besser werden, da dann mehr Leistung verfügbar wird.


    Redispatch ist ein Stromproblem auf einer bestimmten Trasse. In der Synchronzone Central Europe hat man nur selten gravierende Frequenzproblem, aber dafür lokale Trassenüberlastungen, wenn der Markt alleine bestimmt, wer gerade produziert und wo es abgenommen wird. Die EPEX verwaltet eine virtuelle Kupferplatte, ein Ein-Knoten-Modell.


    Zitat von hfrik

    Leitungswinkel scheint es mehrfach zu geben, ich meinte den Leitungswinkel mit 2Pif*Wurzel (L'C')*l - und habe mich gefragt was Du mit diesem erreichen willst. Aber wenigstens sind Wir uns einig dass das Wichtige in diesem Bereich die Blindleistungskompensation ist, oftmals wird diese vergessen.


    Das die Blindleistungskompensation das Wichtigste ist, meine ich nicht. Vor der Spannungsstabilität kommt die Frequenzstabilität: bei einem Frequenzkollaps ist die ganze Synchronzone schwarz, Spannungsproblem sind lokal bzw. bei den Übertragungsnetzen regional. 2pi*f ist omega (w), und X_L = (jwL), X_C =1/(jwC); der Wellenwiderstand ist sqrt(X_L * X_C) bzw. bezogen auf die Leitungsbeläge L' und C', was ist dann sqrt(- X_L / X_C)=sqrt(w²L'C')?


    Zitat von hfrik

    Ebenso ist der Nachsatz im Textbeispiel der RWTH Aachen typisch und weit verbreitet, aber falsch.


    Welchen Satz meinst Du, den hier? "Daher sind Primärenergietransporte über Pipelines, bzw. bei Steinkohle sogar der Schiffstransport, immer effktiver und dem Stromtransport über Leitungen deutlich überlegen. Daher werden die Kraftwerke möglichst nahe der Lastzentren gebaut"


    Zitat von hfrik

    auf die Zeitkonstante habe ich hingewisen. Der eine reagiert über das Integral der Frequenzänderung, der andere auf die Frequenzänderung selbst.


    Und Du meinst, das sei dasselbe?


    Zitat von hfrik

    Spring die Frequenz schlagartig, reagien beide in ählichem Zeitfenster, ändert sich die Frequenz stetig geht es bei der Synchronmaschine schneller, dafür stützt die Asynchronmasschine länger. Beides geschieht in viel kürzeren Zeiträumen als die Primärregelung des zitierten Wasserkraftwerks, wenn es im Netz ein wirkliches Problem gibt.


    Es ist halt eben nicht nur Minutenreserve, Sekundär- und Primärregelung, sondern auch das transiente und subtransiente Verhalten - und da bestehen deutliche Unterschiede. Rechenbeispiel einer Sprungantwort: Netzfrequenz hüpft um 1% auf 49,5 Hz runter, delta w ist somit 2pi*0,5Hz = 3,14/s. Der Polradwinkel würde sich innerhalb einer Zehntelsekunde um 36° aufdrehen, wenn er nicht schon vorher eingebremst würde. Bei der Asynchronmaschine (angenommen, sie arbeitet im Leerlauf ohne Schlupf) wird das neue Gleichgewicht bei 3000 -1% = 2970 U/min liegen, aber dieser Unterschied bzgl. der kinetischen Energie wird langsamer als bei der Synchronmaschine abgegeben. Bei einem halben Herz Unterschied zwischen Netz und Maschinendrehzahl, braucht der Ausgleichsvorgang (PT1?) - länger, das hängt aber auch vom Trägheitsmoment und der Steilheit der Schlup/Moment-Kennlinie ab. Der Kern ist aber weniger die Zeitkonstante, sondern die Reglercharakteristik - es macht schon einen Unterschied, dass im SM-Fall noch ein Integrator mit dabei ist (PT2?).


    Jetzt kann man sich natürlich darüber unterhalten, welches Verhalten aus Netzsicht angenehmer ist, wenn man Momentanreserve in Wechselrichtern mit kleinem EES nachbilden möchte. Lieber das schnellere PT2 oder ein langsameres PT1, wo man aber auch nicht aus Versehen irgendwelche Schwingungen reinprogrammieren kann.


    Zitat von hfrik

    Bezüglich Wechselrichtern stimmt, die Kapazität in kWh muss nicht allzu gross sein, sie muss aber in ms bis s bereitstehen - weswegen im Vergleich zur rotierenden Masse die Autobatterie schlechter passt, das passende Äquivaltent zur rotierenden Masse ist beim Wechselrichter der Kondensator. Aktuell braucht ein WR da nur genügend Energiespeicher, um die nächste Halbwelle sauber hinzubekommen, für eine Momentanreserve braucht es da ein Vielfaches davon.


    Ich darf dich beruhigen, Batterien sind schnell genug und eignen sich auch für Zeitkonstanten deutlich unter einer Sekunde. Bei Hybridspeichern aus Kondensator und Batterie macht man das nicht aus Gründern der Schnelligkeit, sondern um bei einem Wechelstromanteil keine Rippel auf der Batterie aus Haltbarkeitsgründen zu erzeugen. Den Skineffekt gibt's auch bei DC+AC-Mischströmen und dann kann es je nach Battereilayout (nicht vergessen: Zellen sind gewickelte oder gefaltete "Elektrodentücher") zu Hot Spots kommen, was ein Elektrolyt einem schneller über nimmt, als ein Kondensator zum Putzen der Mikro-Zyklen.


    Gruß,
    Gunnar

  • Eine Möglichkeit die ihr hier ohne Ende diskutiert ist die Probleme im vorhandenen AC Netz zu lösen.
    Eine andere Möglichkeit ist es Microgrids zu bauen und mit einem overlaynetz ggf auch DC gekoppelt zu verbinden.


    - Verteilnetze mit hohem Anteil an regenerativer Energieerzeugung können als inselnetzfähige Microgrids stabil betrieben werden (d.h. z.B. Dörfer, Städte + Umlandbezirke, irgendwann dann mal auch Stadtviertel in Großstädten + Einspeisung vom externen Netz)
    - Microgrids funktionieren technisch und ökonomisch gut mit Batteriespeichern und weiteren Aktuatoren sowohl netzgekoppelt als auch im Inselbetrieb. Vollends 365*7 stabil sind sie z.B. mit einem Dieselbackup wenn zu wenig EE zur Verfügung steht
    - Eine Resynchronisierung des Inselnetzes mit dem übergeordneten Versorgungsnetz unter Berücksichtigung verteilter, umrichterbetriebener Erzeuger ist möglich
    - Das Inselnetz kann mit hoher Spannungs- und Frequenzkonstanz betrieben gleichwertig zur heutigen deutschen Netzqualität
    - Schwarzstart und Netzbildung unter Berücksichtigung verteilter aktiver Anlagen ist möglich. Netzaufbau "von unten" ist möglich
    - Das Mikgrogrid erbringt Systemdienstleistungen für das übergeordnete Netz und kann dort in die Netzbetriebsführung integriert werden.


    Sehr wahrscheinlich sind z.B. über DC verbunden Mikrogrids viel robuster als das jetzige AC Netz. Großflächige Stromausfälle sind nahzu ausgeschlossen. Probleme können viel einfacher lokal begrenzt werden. Und wirtschaftlich ist es vermutlich auch bald (wegen Kostenentwicklung Wechselrichter + Akkus)

  • Zitat von gunnar_kaestle


    Redispatch ist ein Stromproblem auf einer bestimmten Trasse. In der Synchronzone Central Europe hat man nur selten gravierende Frequenzproblem, aber dafür lokale Trassenüberlastungen, wenn der Markt alleine bestimmt, wer gerade produziert und wo es abgenommen wird. Die EPEX verwaltet eine virtuelle Kupferplatte, ein Ein-Knoten-Modell.


    ein bekannter Fakt. Sinnvoll für einen übersichtlichen Markt, schädlich für das Netzmanagement. Also wird man irgendwann den Markt algorithmisch für jede Quelle und senke jeweils auf die Sciht eines Vertragspartners verzerren müssen, so dass dieser handeln kann als gäbe es eine kupferplatte, aber im Hintergrund die Engpasskosten der netze mit draufrechnet. Hate ich schon einmal geschrieben.

    Zitat


    Das die Blindleistungskompensation das Wichtigste ist, meine ich nicht. Vor der Spannungsstabilität kommt die Frequenzstabilität: bei einem Frequenzkollaps ist die ganze Synchronzone schwarz, Spannungsproblem sind lokal bzw. bei den Übertragungsnetzen regional. 2pi*f ist omega (w), und X_L = (jwL), X_C =1/(jwC); der Wellenwiderstand ist sqrt(X_L * X_C) bzw. bezogen auf die Leitungsbeläge L' und C', was ist dann sqrt(- X_L / X_C)=sqrt(w²L'C')?


    Ich denke wir haben da über Leistungsübertragung und redispatch geredet. Der auch längerfristig und verlustarm durchzuführen ist. Freuenzhaltung und Spannungshaltung sind auch ein Problem, aber rein durch die Leistungsübertragung bekommt man keine Frequenzverschebung auf der Leitung, nur irrsinig viel Blindleistung, und die Spannung könnte man am nächsten Trafo nachjustieren. Ist aber beides nicht sinnvoll, besser sit es die Blindleistung zu kompensieren - Frequenz und Spannungshaltung sind unabhängig davon sowiso durchzuführen.

    Zitat von hfrik

    Ebenso ist der Nachsatz im Textbeispiel der RWTH Aachen typisch und weit verbreitet, aber falsch.


    Welchen Satz meinst Du, den hier? "Daher sind Primärenergietransporte über Pipelines, bzw. bei Steinkohle sogar der Schiffstransport, immer effktiver und dem Stromtransport über Leitungen deutlich überlegen. Daher werden die Kraftwerke möglichst nahe der Lastzentren gebaut"


    Ich meine : "Man erkennt, dass eine Übertragung elektrischer Energie über eine Entfernung von
    über 500 km mit 400 kV bereits sehr verlustreich ist, so dass noch größere Transportentfernungen nicht sinnvoll
    sind und zumindest den Übergang zur HGÜ-Technik zwingend erfordern, wobei zwar die Blindleistungsproble-
    matik entfällt, das Verlustproblem aber bleibt.".
    Im übrigen liegen Gasleitungen im Maximalbetrieb (> Nennbetrieb, aber das ist bei Strom wegen n-1 ja vergleichbar) mit 1% Verlust je 100km auch nicht so wesentlich besser. Es ist eine Dimensionierungfrage, wobei man bei HGÜ deutlcih einfacher viel Alu an den Mast hängen kann. Als Hausnummer: wenn man bei einem 6-Leiter System 82xDrehstrom oder 3x HGÜ) den Querschnitt von 2000 auf 20.000mm² steigert, kostet das Alu dafür im MAterialpreis gerade mal 500.000€/km mehr; die Trasse an sich ist deutlich teurer. Der stahl für die Masten wird etwa 100.000€ teurer.





    Zitat von hfrik

    auf die Zeitkonstante habe ich hingewisen. Der eine reagiert über das Integral der Frequenzänderung, der andere auf die Frequenzänderung selbst.


    Und Du meinst, das sei dasselbe?


    Nein, deswegen habe ich darauf hingewisen. Aber beide Mechanismen wirken mit der gleichen energiemenge in die gleiche Richtung.


    Zitat von hfrik

    Spring die Frequenz schlagartig, reagien beide in ählichem Zeitfenster, ändert sich die Frequenz stetig geht es bei der Synchronmaschine schneller, dafür stützt die Asynchronmasschine länger. Beides geschieht in viel kürzeren Zeiträumen als die Primärregelung des zitierten Wasserkraftwerks, wenn es im Netz ein wirkliches Problem gibt.


    Es ist halt eben nicht nur Minutenreserve, Sekundär- und Primärregelung, sondern auch das transiente und subtransiente Verhalten - und da bestehen deutliche Unterschiede. Rechenbeispiel einer Sprungantwort: Netzfrequenz hüpft um 1% auf 49,5 Hz runter, delta w ist somit 2pi*0,5Hz = 3,14/s. Der Polradwinkel würde sich innerhalb einer Zehntelsekunde um 36° aufdrehen, wenn er nicht schon vorher eingebremst würde. Bei der Asynchronmaschine (angenommen, sie arbeitet im Leerlauf ohne Schlupf) wird das neue Gleichgewicht bei 3000 -1% = 2970 U/min liegen, aber dieser Unterschied bzgl. der kinetischen Energie wird langsamer als bei der Synchronmaschine abgegeben. Bei einem halben Herz Unterschied zwischen Netz und Maschinendrehzahl, braucht der Ausgleichsvorgang (PT1?) - länger, das hängt aber auch vom Trägheitsmoment und der Steilheit der Schlup/Moment-Kennlinie ab. Der Kern ist aber weniger die Zeitkonstante, sondern die Reglercharakteristik - es macht schon einen Unterschied, dass im SM-Fall noch ein Integrator mit dabei ist (PT2?).


    Jetzt kann man sich natürlich darüber unterhalten, welches Verhalten aus Netzsicht angenehmer ist, wenn man Momentanreserve in Wechselrichtern mit kleinem EES nachbilden möchte. Lieber das schnellere PT2 oder ein langsameres PT1, wo man aber auch nicht aus Versehen irgendwelche Schwingungen reinprogrammieren kann.
    [/quote]
    Exakt. und beide geben ihre Energie schneller ab als ein Primärregelum mit Zeitkonstanten im Sekundenbereich.


    Zitat


    Ich darf dich beruhigen, Batterien sind schnell genug und eignen sich auch für Zeitkonstanten deutlich unter einer Sekunde. Bei Hybridspeichern aus Kondensator und Batterie macht man das nicht aus Gründern der Schnelligkeit, sondern um bei einem Wechelstromanteil keine Rippel auf der Batterie aus Haltbarkeitsgründen zu erzeugen. Den Skineffekt gibt's auch bei DC+AC-Mischströmen und dann kann es je nach Battereilayout (nicht vergessen: Zellen sind gewickelte oder gefaltete "Elektrodentücher") zu Hot Spots kommen, was ein Elektrolyt einem schneller über nimmt, als ein Kondensator zum Putzen der Mikro-Zyklen.


    Gruß,
    Gunnar


    Da braucht man nichts zu beruhigen - man kann sich auch Batterien mit mehr als 1 kWh leisten.
    Aber Thema war ja da die Netzstützung innerhalb von 10 Sekunden. und wenn man aus einer Batterie von 1kWh Kapazität in 10s 1 kWh herausnuckelt (360kW Leistung), nimmt die einem das in der Regel übel, und rückt auch kein ganzes kWh mehr heraus. Einen Kondensator beeindruckt das weniger. Angemessene Entladeströme macht die Batterie mit, und das dann auch deutlich länger als 10s.


    Bezüglich microgrids - ein interessanter Ansatz, so man ein dichtes DC Höchstspannungsnetz hätte.

    Ich würde mein Geld auf die Sonne und die Solartechnik setzen. Was für eine Energiequelle! Ich hoffe, wir müssen nicht erst die Erschöpfung von Erdöl und Kohle abwarten, bevor wir das angehen.
    Thomas Alva Edison
    Trockenplatzdach 2,6kW zum Spielen :)

  • Zitat von Henning_PV

    Eine Möglichkeit die ihr hier ohne Ende diskutiert ist die Probleme im vorhandenen AC Netz zu lösen.
    Eine andere Möglichkeit ist es Microgrids zu bauen und mit einem overlaynetz ggf auch DC gekoppelt zu verbinden.


    Das sehe ich nicht so. Das bisherige Netz ist ja vor 130 Jahren in die Richtung gewachsen, wie es sich heute zeigt, weil die technische Zuverlässigkeit verbessert werden konnte und die Kosten minimiert werden konnten. Das Übertragungsnetz von heute ist ja überhaupt kein Übertragungsnetz, es wurde nicht auf die Übertragung von GW-Leistungen über mehrere hunderte bis tausend km ausgelegt. Es ist ein Versicherungsnetz auf Gegenseitigkeit. Bis zum Unbundling hat jeder der größeren EVUs darauf geachtet, dass seine Erzeugungsanlagen da gebaut wurden, wo die Last ist, die durchschnittliche Transportentfernung von Quelle zu Senke ist bei etwa 100 km.


    Das kommt auch aus der Historie so: In der Vergangenheit haben Unternehmen Strom erzeugt und meist auch noch die Abwärme der Dampfmaschine genutzt, dazu kamen Quartierslösungen. Das ist dann gewachsen, bis dann eine Stadt ein Netz hatte mit mehreren Erzeugern und zig tausend Verbrauchern. Aus Redundanzgründen und zur Erhöhung der Versorgungssicherheit hat man dann eine Leitung zur Nachbarstadt gezogen. Bei einem Ausfall eines Kraftwerks konnte dann per Nachbarschaftshilfe die Lücke gefüllt werden. Das Netz ist als ein Versicherungsverein auf Gegenseitigkeit.


    Die einzige Leitung, die mir als Transportleitung ad hoc einfällt war die Nord-Süd-Leitung, die in den 20er Jahren das Braunkohlerevier von RWE mit der Alpenwasserkraft verbunden hat. Ansonsten galt das Gebot der Dezentralität: geringe Entfernung von Quelle zu Senke (nicht die absolute Größe der EZA ist maßgeblich für dezentrale Anlagen: wenn Schleswig-Holstein Windstrom exportiert, der bis ins Ruhrgebiet fließen soll, ist das nicht dezentral).


    Der Einsatz von DC-Technik gegenüber dem Drehstromsystem ist nicht so einfach, es sprechen vor allen Kostengesichtpunkte dagegen, den dreiphasigen Wechselstrom abzugeben: von Spannungsebene zu Spannungsebene kommt man auf DC Seite zwar auch mit einer Leistungselektronik, das ist aber sehr viel teurer als ein einfacher Trafo. Ein Ortsnetztrafo kostet 10-15 k€, was würde ein 630 kVA Umrichter kosten? Ausserdem hat das AC-System Vorteile bzgl. dem Fehlerfall: ein AC-Strom kann man leicht im Nulldurchgang löschen, den DC-Lichtbogen in einem Leistungsschalter bekommt man nicht so einfach aus. Bevor man aber von einer Punkt-Zu-Punkt HGÜ Verbindung in Richtung vermaschtes Gleichspannungsnetz geht, braucht man vernünftige und bezahlbare Leistungsschalter, damit nicht das ganze Netz zusammenbricht, wenn irgendwo ein Fehler auftritt. Man muss die schadhafte Stelle vom Rest des Netzes isolieren können.


    Zitat

    - Verteilnetze mit hohem Anteil an regenerativer Energieerzeugung können als inselnetzfähige Microgrids stabil betrieben werden (d.h. z.B. Dörfer, Städte + Umlandbezirke, irgendwann dann mal auch Stadtviertel in Großstädten + Einspeisung vom externen Netz)


    Umgekehrt wird ein Schuh draus, jedenfalls in Deutschland. Nicht das Netz ist das Backup für ein Microgrid, sondern hierzulande ist das Netz so zuverlässig, dass das Netz die Normalversorgung darstellt, und ein Microgrid ein Backup für Netzprobleme darstellt. (Auch ungewollte) Inselnetze gibt's, aber da muss man noch ein paar Hausaufgaben machen, damit sie von unseren VNBs ohne Furcht als Betriebsvariante akzeptiert werden.


    Zitat

    - Microgrids funktionieren technisch und ökonomisch gut mit Batteriespeichern und weiteren Aktuatoren sowohl netzgekoppelt als auch im Inselbetrieb.


    Sehe ich nicht so. Microgrids sind vor allem eine Methode, die Versorgungssicherheit zu erhöhen, die in DE gut ist und in den USA weniger gut und in Indien miserabel. Für ein Microgrid sind Zusatzausgaben notwendig, die man für eine Netzversorgung nicht braucht. Ich betrachte im übrigen nur die realen Anlagenkosten, und nicht die regulatorischen Einsparungen eines hohen Eigenverbrauchs, die sich jederzeit ändern können.


    Zitat

    Vollends 365*7 stabil sind sie z.B. mit einem Dieselbackup wenn zu wenig EE zur Verfügung steht


    Auch ein Diesel kann mucken, frag mal im schwedischen Kernkraftwerk Forsmark nach.


    Zitat

    - Das Inselnetz kann mit hoher Spannungs- und Frequenzkonstanz betrieben gleichwertig zur heutigen deutschen Netzqualität


    Nein, die Schwankungen sind in einer kleinen Grundgesamtheit viel größer: wenn in einer 100 kW Zelle ein 20 kW Last zuschaltet sind die Auswirkungen viel größer als wenn ich 20 MW in der Synchronzone CE zuschalte.


    Zitat

    - Schwarzstart und Netzbildung unter Berücksichtigung verteilter aktiver Anlagen ist möglich. Netzaufbau "von unten" ist möglich


    Ja, ist theoretisch möglich, wird aber noch nicht so gemacht. Da muss nicht nur ein Lernprozess anlaufen, sondern auch der ökonomische Druck da sein, es auch mal andersherum zu versuchen.


    Zitat

    - Das Mikgrogrid erbringt Systemdienstleistungen für das übergeordnete Netz und kann dort in die Netzbetriebsführung integriert werden.


    Du sprichst von virtuellen Kraftwerken technischer Art. Das Mikrogrid ist eine Sonderform, die in die Insel fallen kann. Systemdienstleistungen können von jedem Cluster steuerbarer Anlagen erbracht werden, d.h. es ist keine Eigenart von Microgrids.


    Zitat

    Sehr wahrscheinlich sind z.B. über DC verbunden Mikrogrids viel robuster als das jetzige AC Netz. Großflächige Stromausfälle sind nahzu ausgeschlossen. Probleme können viel einfacher lokal begrenzt werden.


    In AC Netzen können Fehler kaskadieren, umgekehrt werden kleinere Ausfälle automatisch ausgeregelt, weil die Netzphysik das vorgibt. Die Lastflüsse stellen sich automatisch so ein, dass die Senke aus den umgebenen Quellen versorgt wird. Damit braucht man kein steuerndes Hirn für den Kurzfristbereich, wo Menschen und selbst Automatiken zu langsam sind. Erinnerung an 2006: Der erste Trip einer Leitung während der Emslandstörung wurde innerhalb von wenigen Sekunden vom nächsten Trip gefolgt, die folgenden kamen immer schneller so dass der Reissverschluss bis in die Adria plötzlich auf war. Vom ersten "Moment mal, was ist das denn" bis zum "Alles schon erledigt" hat es nur ein paar Sekunden gedauert, also das reicht, die Kaffeetasse abzusetzen, hoch zu schauen auf den einen piependen Bildschirm, fragend rüber zu schauen auf die anderen Bildschirme und finito. Das war jetzt das Beispiel einer Großstörung, aber genauso schnell und noch schneller passieren die Ausgleichsvorgänge im AC Netz auch, wenn noch Reserven da sind, und dann ist am Ende alles gut.


    Gruß,
    Gunnar

  • Ich wette, dass in 10 Jahren ein elektronischer Wechselrichter billiger ist als ein Ortsnetztrafo.


    Mein erstes Schaltnetzteil habe ich ca 1980 im Apple 2 gesehen. Überall woanders wurden 50Hz Kupfertrafos eingesetzt. Heute kommt kein Mensch auch nur im Traum noch auf die Idee im Bereich 1 W- 1KW einen Kupfertrafo einzusetzen anstatt eines Schaltnetzteiles. Zu teuer, zu schlecht geregelt usw.
    Seit 30 Jahren konnte man schön beobachten wie jedes Jahr Kupfer durch Halbleiter verdrängt wurde.
    Lernkurve anschauen und die Diskussion ist nicht ob sondern wann die 50Hz Kupfertrafos komplett verschwinden.


    Heutige ungeregelte Ortsnetztrafos sind letztlich ungeeignet für Netze mit dezentraler Erzeugung weil sie nur für den Weg der Einspeisung vom übergeordneten Netz nach unten ausgelegt sind. Die Innovation des geregelten Ortsnetztrafos mit elektromechanischen Umschaltungen sind imho die letzten Zuckungen einer alten Technik. Die Leistungsfähigkeit ist unterirdisch im Vergleich dazu was eine elektronische Variante leistet.


    DC Sicherung / Abschaltung ist ein technisch und ökonomisch gelöstes Problem. Die "wir haben bei DC ein Lichtbogen Diskussion und wir wissen nicht wie wir das absichern sollen" ist nicht mehr auf dem Stand der Technik.


    Wenn Kupfertrafos im Leistungsbereich verschwinden, dann macht AC Übertragung auch keinen Sinn mehr.
    DC hat in der Übertragungsleitung nur Vorteile gegenüber AC hat und keinen einzigen Nachteil.
    Ein DC Netz hat bzgl seiner Eigenschaften rein garnichts mehr mit dem heutigen AC Netz zu tun.
    Ich persönlich erwarte, dass dieser Umbau in Deutschland 30 -40 Jahre dauert weil ja sehr viele gute und zuverlässige Technik installiert ist die man nicht ersetzen wird solange sie funktioniert.


    Mit anderen Worten: Jede Aussage zur Netzdynamik in Zeiten der Energiewende basierend auf Analysen des jetzigen AC Netzes halte ich für irrelevant.

  • war mir garnicht klar wieviel teurer RONT sind als die klassischen Ortsnetztrafos
    https://www.ffe.de/die-themen/…stabilisierungsmassnahmen


    Damit sind rein elektronische Wechselrichter im Bereich bis 200KVA bereits heute ungefähr preisgleich mit den 50Hz RONTS nachdem was ich weiß. Aber vielleicht liege ich auch falsch, denn Preis und Kosteninfos in solchen Bereichen sind ja niemals wirklich vorhanden wenn man nicht totaler insider ist.

  • Zitat von hfrik


    ein bekannter Fakt. Sinnvoll für einen übersichtlichen Markt, schädlich für das Netzmanagement. Also wird man irgendwann den Markt algorithmisch für jede Quelle und Senke jeweils auf die Sciht eines Vertragspartners verzerren müssen, so dass dieser handeln kann als gäbe es eine Kupferplatte, aber im Hintergrund die Engpasskosten der Netze mit draufrechnet.


    Es gibt ja sowas wie das Nodal-Pricing, was knotenspezifische Netzentgelte berechnet. Das ist aber recht kompliziert und vor allem weiss man ja nach eine Auktion an der Börse nicht, wer mit wem handelt, sondern es handelt ja jeder mit der Zentralen Gegenpartei. Allerdings wäre es durchaus machbar, nach Abschluss der Handelergebnisse auch eine transportkostenminimale Zuordnung der Verkäufer und Käufer zu finden, auf dessen Basis man Netzentgelte entfernungsscharf berechnen könnte.


    Eine einfache Variante wäre die Weiterentwicklung der Briefmarke, aber mit regionalen Porto-Zonen. Ausserdem müsst die Wahrheit ans Licht, wie sie schon im Gasnetz gelebt wird: das Netz verbindet Senken mit Quellen und beide haben etwas davon. Daher sollten nicht nur Verbraucher sondern auch Einspeiser Netzentgelte zahlen. Ich dachte immer, das wäre die Agenda von Herrn Hofmann gewesen, als er die BNetzA-Präsidentenstelle übernommen hat: Entry und Exit Entgelte auch im Stromnetz einführen.


    Dann kann man in einer Region (Porto-Zone) sagen: Wenn in diesem Gebiet Ein und Ausspeisung in etwa ausgeglichen sind, dann verteilt man die Netzentgelte 50:50 auf die Senken und Quellen. Sofern mehr verbraucht wird, und die Region Stromimporteur ist, dann tragen die Verbraucher den größeren Anteil. Sofern mehr ausgespeist wird und die Region ein Stromexporteur ist, dann tragen die Einspeister den größeren Anteil. Natürlich müssten die Erzeuger die Netzentgelte einpreisen und bei EEG-Anlagen müsste man die Vergütung ausserhalb des Marktprämienmodells anheben. Damit hätte man aber einen Zusatzanreiz geschaffen, das Anlagen in der Nähe von Stromsenken installiert werden und nicht nur die WEA hinterm Deich und die PV-Anlage auf einem Allgäuer Solarstadl. Umgekehrt wäre es für Verbraucher (Betrieb sucht zweiten Standort) ein Anreiz dorthin zu gehen, wo der Strom billig ist, weil die Netzentgelte für Verbraucher in Stromüberschussregionen gering ausfallen. Warum soll die nächste Alufabrik nicht irgenwo im windreichen Osten entstehen?


    Zitat von hfrik

    Ich denke wir haben da über Leistungsübertragung und redispatch geredet. Der auch längerfristig und verlustarm durchzuführen ist. Freuenzhaltung und Spannungshaltung sind auch ein Problem, aber rein durch die Leistungsübertragung bekommt man keine Frequenzverschebung auf der Leitung, nur irrsinig viel Blindleistung, und die Spannung könnte man am nächsten Trafo nachjustieren. Ist aber beides nicht sinnvoll, besser sit es die Blindleistung zu kompensieren - Frequenz und Spannungshaltung sind unabhängig davon sowiso durchzuführen.


    Nochmal, der Leistungstransfer entlang einer Übertragungsleitung ist P = sin(theta) (U_1*U_2/X), theta ist der Leitungswinkel U_1 und U_2 die Spannungen an den benachbarten Knoten und X die Reaktanz der Leitung (Reaktanz und Impedanz unterscheiden sich nur wenig im ÜN). Bei 0 MW habe ich 0 Winkel zwischen dem Phasor vorne und hinten. Wenn ich 1000 MW übertrage nehmen wir mal 25° an, bei 1200 MW vielleicht knapp 30°. Die Stromtragfähigkeit der Leitung ist oftmals gar nicht mal so dass Problem (ja, die Leitung wird dann wärmer und hängt durch), aber kurzfristig können da viele Amperes durchfließen. Die Schutztechnik ist aber trotzdem so eingestellt, nicht aus Angst, dass die Leitung wegschmilzt, sondern weil das dann die dynamische Stabilität gefährdet. Der eine Netzteil kann durchrutschen, ähnlich wie eine Synchronmaschine, und unsynchron werden mit dem Rest. Zur Erinnerung: bei sin(theta) kann man den Winkel nicht beliebig vergrößern, ab 90° ist Schluss.


    Zitat von hfrik

    Im übrigen liegen Gasleitungen im Maximalbetrieb (> Nennbetrieb, aber das ist bei Strom wegen n-1 ja vergleichbar) mit 1% Verlust je 100km auch nicht so wesentlich besser. Es ist eine Dimensionierungfrage, wobei man bei HGÜ deutlcih einfacher viel Alu an den Mast hängen kann. Als Hausnummer: wenn man bei einem 6-Leiter System 82xDrehstrom oder 3x HGÜ) den Querschnitt von 2000 auf 20.000mm² steigert, kostet das Alu dafür im MAterialpreis gerade mal 500.000€/km mehr; die Trasse an sich ist deutlich teurer. Der stahl für die Masten wird etwa 100.000€ teurer.


    HGÜ-Technik ist ja beileibe nichts Neues, warum hat man in der Zwischenzeit doch lieber Gaspipelines gebaut statt einer HGÜ und einem GuD-Kraftwerk direkt neben den Gasfeldern Westsibiriens?


    Zitat von hfrik

    Da braucht man nichts zu beruhigen - man kann sich auch Batterien mit mehr als 1 kWh leisten. Aber Thema war ja da die Netzstützung innerhalb von 10 Sekunden. und wenn man aus einer Batterie von 1kWh Kapazität in 10s 1 kWh herausnuckelt (360kW Leistung), nimmt die einem das in der Regel übel, und rückt auch kein ganzes kWh mehr heraus. Einen Kondensator beeindruckt das weniger. Angemessene Entladeströme macht die Batterie mit, und das dann auch deutlich länger als 10s.


    Die Anregelzeit ist etwas anderes als die Speicherzeitkonstante. Eine Batterie mit 1 kWh Energiekapazität würde ich nicht mit einem Umrichter von 360 kW kombinieren. Ich kann mir aber durchaus vorstellen, den 360 kW Umrichter mit einer 360 kWh Batterie zu kombinieren. Das entspräche bei voller Leistung einer 1C (Ent)Ladung, recht bequem. Und die volle Leistung würde auch innerhalb von ms zur verfügung stehen. Der Speicher kann also 1-h-rein-1-h-raus Zyklen fahren, er kann aber auch im ms und Sekundenbereich Mikrozyklen fahren. Dazu für die Mikrozyklen braucht man keinen Kondensator noch zusätzlich. Allein die Angst vor ungewollten Stromverteilungsschema bei hoheren Frequenzen und abnehmender Haltbarkeit lässt einen einen Kondensator als Parallelspeicher hinzubauen. Wenn die Batterie aber kein Problem mit der Haltbarkeit hat, dann ist die Performance völlig ausreichend, um auch die kurzen Zyklen abzufedern.


    Gruß,
    Gunnar