LSTM-Netzwerk verbessert Simulation von Elektroheizlasten
Die Energiewende ist in vollem Gange, und mit ihr verändern sich nicht nur die Quellen der Stromerzeugung, sondern auch die Art und Weise, wie Energie im Netz geregelt und verteilt wird. Während die Installation erneuerbarer Energien wie Wind- und Solarkraftwerke stetig zunimmt, rücken flexible Lasten auf der Verbraucherseite immer stärker in den Fokus. Insbesondere in den nördlichen Regionen Chinas, wo die Umstellung auf saubere Heizsysteme voranschreitet, gewinnen elektrische Heizlasten eine entscheidende Bedeutung. Diese Lasten, die in Haushalten als dezentrale Heizsysteme installiert sind, verhalten sich ähnlich wie Klimaanlagen: Sie sind schnell ansprechend, gut steuerbar und können bei Bedarf temporär heruntergeregelt werden, um das Stromnetz zu entlasten. Doch um diese Flexibilität effizient zu nutzen, ist eine präzise Modellierung ihres Verhaltens unerlässlich.
Ein Forscherteam unter der Leitung von Liu Yaxuan vom Key Laboratory of Modern Power System Simulation and Control & Renewable Energy Technology an der Northeast Electric Power University hat nun einen Durchbruch in der Simulation dezentraler Elektroheizlasten erzielt. In einer kürzlich veröffentlichten Studie stellen sie ein neuartiges Modell vor, das auf einem Long Short-Term Memory (LSTM) Netzwerk basiert und signifikant genauere Vorhersagen ermöglicht als herkömmliche Ansätze. Die Ergebnisse wurden im renommierten Fachjournal Power Demand Side Management veröffentlicht und könnten weitreichende Implikationen für die zukünftige Steuerung von Stromnetzen haben.
Die Herausforderung liegt darin, dass traditionelle Modelle zur Simulation thermisch gesteuerter Lasten, wie sie in Heizungen oder Klimaanlagen vorkommen, an ihre Grenzen stoßen. Bisher dominieren sogenannte Equivalent Thermal Parameter (ETP) Modelle, die auf physikalischen Gesetzen der Wärmeübertragung basieren. Diese Modelle versuchen, das Temperaturverhalten eines Raumes durch Differentialgleichungen abzubilden, die Faktoren wie Wärmeleitfähigkeit der Wände, Luftvolumen, Außen- und Innentemperatur sowie den Betriebszustand der Heizung berücksichtigen. Doch die Genauigkeit dieser Modelle hängt stark von der korrekten Identifikation der thermischen Parameter ab – ein Prozess, der oft komplex, fehleranfällig und stark von der jeweiligen Gebäudestruktur abhängig ist.
Besonders bei langfristigen Simulationen häufen sich die Fehler, da kleine Ungenauigkeiten im Modell sich über die Zeit verstärken. Dies ist problematisch, wenn es darum geht, große Gruppen von Heizlasten für Demand-Response-Programme zu steuern. Eine ungenaue Vorhersage, wann eine Heizung ein- oder ausschaltet, kann dazu führen, dass zu viele Geräte gleichzeitig aktiviert werden, was wiederum zu Lastspitzen im Netz führt – genau das Gegenteil des gewünschten Effekts.
Hier setzt die neue Forschung an. Liu Yaxuan und sein Team erkannten, dass das Verhalten von Elektroheizlasten nicht nur von den aktuellen Umgebungsbedingungen abhängt, sondern auch von der thermischen Historie des Gebäudes. Die Wände, Möbel und die Raumluft speichern Wärme, und diese „thermische Trägheit“ beeinflusst, wie schnell sich die Temperatur ändert, wenn die Heizung an- oder ausgeschaltet wird. Dieses Gedächtnis des Systems macht es zu einer zeitabhängigen, sequenziellen Aufgabe – genau das, wofür LSTM-Netzwerke konzipiert wurden.
LSTM-Netzwerke sind eine spezielle Form rekurrenter neuronaler Netze (RNN), die besonders gut darin sind, Muster in zeitlichen Datenfolgen zu erkennen. Im Gegensatz zu klassischen neuronalen Netzen, die jeden Datenpunkt isoliert betrachten, behalten LSTM-Netzwerke Informationen über vorherige Zustände bei. Sie nutzen sogenannte „Gatter“ – Eingangs-, Ausgangs- und Vergessensgatter –, um zu entscheiden, welche Informationen aus der Vergangenheit beibehalten, aktualisiert oder verworfen werden sollen. Diese Architektur ermöglicht es dem Netzwerk, langfristige Abhängigkeiten zu lernen, ohne dass die Informationen im Laufe der Zeit verloren gehen, ein Problem, das bei einfachen RNNs als „Gradientenverschwinden“ bekannt ist.
Die Forscher nutzten diese Fähigkeit, um ein Modell zu trainieren, das die Innentemperatur eines Raumes basierend auf historischen Daten vorhersagt. Als Eingangsvariablen dienten die vorherige Innentemperatur, die aktuelle Außentemperatur und der Betriebszustand der Heizung (an/aus). Das Netzwerk wurde darauf trainiert, die nächste Innentemperatur zu prognostizieren. Nach dem Training konnte das Modell dann auf neue, unbekannte Datensätze angewendet werden, um realistische Simulationen über längere Zeiträume durchzuführen.
Ein entscheidender Aspekt der Methodik war die Art und Weise, wie die Simulation durchgeführt wurde. Während des Trainings wurden reale Messwerte verwendet, um das Modell zu kalibrieren. Bei der tatsächlichen Simulation jedoch wurde der vom Modell vorhergesagte Temperaturwert als Eingang für den nächsten Zeitschritt verwendet – ein sogenannter „closed-loop“-Ansatz. Dies ist entscheidend, um die langfristige Stabilität und Genauigkeit des Modells zu testen, da in der realen Anwendung keine kontinuierlichen Messungen zur Korrektur zur Verfügung stehen.
Um die Leistung des LSTM-Modells objektiv zu bewerten, entwickelten die Forscher ein zweidimensionales Fehlerbewertungssystem. Die erste Dimension ist der sogenannte „vertikale Fehler“, der die numerische Abweichung zwischen der simulierten und der tatsächlich gemessenen Temperatur beschreibt. Dieser wird üblicherweise mit dem Mean Absolute Error (MAE) quantifiziert, einem Maß dafür, wie groß die durchschnittliche Abweichung in Grad Celsius ist.
Die zweite Dimension, der „horizontale Fehler“, ist neuartig und besonders relevant für die Netzintegration. Er beschreibt die zeitliche Verschiebung zwischen dem simulierten und dem tatsächlichen Schaltverhalten der Heizung. Selbst wenn die durchschnittliche Temperatur korrekt vorhergesagt wird, kann ein Modell die Heizung zu früh oder zu spät ein- oder ausschalten, was die Synchronisation mit anderen Lasten stört. Um diesen Fehler zu messen, verglichen die Forscher die Zeiträume, in denen die Heizung laut Simulation und laut Messung aktiv war, und berechneten den Anteil der übereinstimmenden Zeitabschnitte.
Die Ergebnisse der Studie sind beeindruckend. Die Forscher testeten das Modell in drei verschiedenen Szenarien: bei konstanten Außentemperaturen von -10 °C und -15 °C sowie in einem dynamischen Szenario, bei dem die Außentemperatur zwischen -5 °C und -20 °C wechselte. In allen Fällen schnitt das LSTM-Modell deutlich besser ab als das traditionelle zweistufige ETP-Modell.
Was den vertikalen Fehler betrifft, erreichte das LSTM-Modell durchgängig einen MAE-Wert unter 0,5 °C. Das ist eine außergewöhnliche Genauigkeit, die für praktische Anwendungen im Bereich der Gebäudeautomation und Netzdienstleistungen mehr als ausreichend ist. Im Vergleich dazu waren die Fehler des ETP-Modells deutlich höher und zeigten größere Schwankungen.
Noch aussagekräftiger ist die Leistung im horizontalen Fehler. In allen drei Szenarien lag die Übereinstimmung der Schaltzustände zwischen Simulation und Realität bei über 88 Prozent. Im besten Fall erreichte das LSTM-Modell eine Übereinstimmung von 97,6 Prozent – ein Wert, der nahezu perfekt ist. Das bedeutet, dass das Modell nicht nur die Temperatur genau vorhersagt, sondern auch das komplexe Schaltverhalten der Thermostate mit hoher Treffsicherheit abbildet. Diese zeitliche Präzision ist entscheidend, wenn Tausende von Heizungen koordiniert werden sollen, um als virtuelles Kraftwerk zu agieren.
Ein weiterer Vorteil des LSTM-Ansatzes ist die Reduktion des Kalibrierungsaufwands. Während das ETP-Modell detaillierte Kenntnisse über die thermischen Eigenschaften des Gebäudes erfordert – Widerstände, Wärmekapazitäten, Isolationswerte –, lernt das neuronale Netzwerk diese Parameter implizit aus den Daten. Es muss nicht wissen, wie dick die Wände sind; es lernt einfach, wie sich das Gebäude unter bestimmten Bedingungen verhält. Dies macht das Modell viel flexibler und leichter skalierbar. Es kann auf verschiedene Gebäudetypen angewendet werden, ohne jedes Mal neu kalibriert werden zu müssen.
Diese datengestützte Methode passt perfekt in die moderne Ära der Smart Grids, in der Sensoren, intelligente Zähler und vernetzte Geräte riesige Datenmengen generieren. Die Fähigkeit, aus diesen Daten automatisch präzise Modelle abzuleiten, reduziert den Bedarf an Expertenwissen und beschleunigt die Implementierung von Demand-Response-Lösungen. Für Netzbetreiber bedeutet dies, dass sie die Flexibilität von Millionen von Haushalten genauer einschätzen und effizienter nutzen können.
Die praktischen Implikationen sind weitreichend. Mit einem genaueren Modell können Netzbetreiber zuverlässiger prognostizieren, wie viel Leistung sie von Heizlasten kurzfristig abrufen können, um Lastspitzen zu glätten oder Erzeugungsschwankungen auszugleichen. Für Energieversorger eröffnet sich die Möglichkeit, neue Tarifmodelle anzubieten, bei denen Verbraucher für die Bereitstellung von Flexibilität belohnt werden. Und für die Verbraucher selbst könnte dies bedeuten, dass ihre Heizung intelligent gesteuert wird, ohne dass ihr Komfort beeinträchtigt wird – eine Win-Win-Situation.
Die Studie wurde auf einer hochmodernen experimentellen Plattform durchgeführt, die aus einem klimatisierten Testraum, elektrischen Heizfolien, präzisen Temperatursensoren und Datenaufzeichnungsgeräten bestand. Diese kontrollierte Umgebung ermöglichte es den Forschern, externe Störgrößen wie Lüftung oder menschliche Aktivität auszuschließen und so die Leistung des Modells unter reproduzierbaren Bedingungen zu testen. Die Verwendung realer Messdaten statt synthetischer oder simulierter Daten erhöht die Glaubwürdigkeit und praktische Relevanz der Ergebnisse erheblich.
Die Autoren weisen jedoch darauf hin, dass weitere Forschung notwendig ist. Die Leistung des Modells hängt von der Qualität und Vielfalt der Trainingsdaten ab. Wenn sich die Nutzungsgewohnheiten der Bewohner ändern, neue Möbel hinzukommen oder die Isolierung des Gebäudes sich verschlechtert, könnte die Vorhersagegenauigkeit nachlassen. Zukünftige Arbeiten könnten sich daher auf adaptive Modelle konzentrieren, die sich kontinuierlich an neue Bedingungen anpassen, oder auf hybride Ansätze, die die physikalischen Grundlagen der Wärmeübertragung mit den Lernfähigkeiten neuronaler Netze kombinieren.
Trotz dieser offenen Fragen markiert die Arbeit von Liu Yaxuan, Wang Siyan, Jiang Jing und Zhang Liwei einen wichtigen Schritt vorwärts. Sie demonstriert eindrucksvoll, wie moderne KI-Methoden genutzt werden können, um langjährige Herausforderungen in der Energiesystemtechnik zu lösen. Die präzise Modellierung dezentraler Lasten ist kein akademisches Detail, sondern die Grundlage für ein stabiles, effizientes und nachhaltiges Stromnetz der Zukunft. Mit der fortschreitenden Digitalisierung und der zunehmenden Vernetzung von Geräten wird die Rolle solcher intelligenten Modelle nur noch wichtiger werden.
Liu Yaxuan, Wang Siyan, Jiang Jing, Zhang Liwei, Power Demand Side Management, DOI: 10.3969/j.issn.1009-1831.2024.03.010