Von der vorausschauenden Wartung von Kaltwasserpumpen bis zur Optimierung des Betriebs komplexer raumlufttechnischer Anlagen – die Einsatzmöglichkeiten von maschinellem Lernen (ML) in der Klima- und Gebäudetechnik sind vielfältig und vielversprechend. Zwei zentrale ML-Anwendungsbereiche in diesem Kontext sind die Fehlererkennung und -diagnose sowie die Betriebsoptimierung. Die Fehlererkennung und -diagnose (FED; engl. fault detection and diagnostics, FDD) oder Anomaliedetektion (anomaly detection) bezeichnet Verfahren, die aus den Betriebsdaten technischer Systeme Hinweise auf mögliche Fehler ableiten (Erkennung, Detektion) sowie gegebenenfalls deren Ursachen identifizieren oder lokalisieren können (Diagnose). Die Betriebsoptimierung zielt hingegen darauf ab, die Behaglichkeit für Raumnutzer zu verbessern, den Energiebedarf zu reduzieren und/oder die Lebensdauer von Anlagen und Komponenten zu verlängern, beispielsweise durch Vermeidung von stark taktendem Betrieb. Ein vorausschauender Betrieb erfordert Prognosen, die sich mittels ML-Verfahren erstellen lassen – etwa für die Raumbelegung, die Entwicklung der Außentemperatur sowie die Effizienz von Kälteerzeugern.
Seit einigen Jahren ermöglichen Fortschritte in der Informationstechnologie, sinkende Hardwarekosten und eine verbesserte Datenverfügbarkeit die Sammlung und Speicherung großer Mengen qualitativ hochwertiger Daten. Dies erlaubt die Entwicklung genauer und robuster ML-basierter Ansätze zur Klimatechnik-Optimierung. ML-basierte Ansätze erfordern einerseits kein tiefgründiges Wissen über die Systemphysik, vermeiden komplexe mathematische Berechnungen und reduzieren so den computertechnischen Aufwand in der Anwendung. Andererseits sind sie stark von der Qualität der verfügbaren Daten abhängig.Sowohl im Bereich der Fehlererkennung, -diagnose und -prognose als auch zur Betriebsoptimierung von HLK-Systemen wurden vor allem in den vergangenen zehn Jahren zahlreiche wissenschaftliche Untersuchungen zum Einsatz ML-basierter Methoden durchgeführt. Dabei findet eine Vielzahl unterschiedlicher Verfahren Anwendung, die jeweils mit spezifischen Vor- und Nachteilen verbunden sind.
Maschinelles Lernen (ML, engl. machine learning) ist ein Teilgebiet der künstlichen Intelligenz KI (artificial intelligence, AI). Es zeichnet sich dadurch aus, dass ein Algorithmus aus Daten lernt, dabei Muster in den Daten erkennt und ein mathematisches Modell aufbaut [[
In Abb. 1 ist dargestellt, wie sich Maschinenlernverfahren nach der Art des Lernens gliedern lassen. Überwachtes Lernen (supervised learning) heißt, dass die korrekte Lösung beim Training bekannt ist, die Daten sind gelabelt. Wenn beispielsweise ein Bilderkennungsalgorithmus trainiert wird, sind die einzelnen Bilder mit Labels versehen, das heißt mit einer Information zum Bildinhalt. Beim unüberwachten Lernen (un-supervised learning) wird hingegen mit ungelabelten Daten gearbeitet. Der ML-Algorithmus soll Gemeinsamkeiten und Unterschiede in den Daten erkennen, das erwartete Ergebnis ist nicht vorgegeben. Das teilüberwachte Lernen (semi-supervised learning) ist eine Kombination aus überwachtem und unüberwachtem Lernen, dabei ist nur ein Teil der Daten gelabelt. Beim bestärkenden Lernen (reinforcement learning, RL) interagiert ein Software-Agent mit seiner Umwelt (environment) und soll aus möglichen Aktio-nen (actions) für die nächsten Schritte die auswählen, die kurz- und langfristig die größte Belohnung (reward) versprechen. Deep Learning lässt sich mit allen Lernmethoden anwenden.Wenn ein vortrainiertes Modell für einen abweichenden Anwendungszweck eingesetzt und mit entsprechenden Daten weiter- statt vollkommen neu trainiert wird, spricht man von Transferlernen (transfer learning).Wenn das Ziel des überwachten Lernens in der Prognose kontinuierlicher Werte besteht (z. B. erwartete Entwicklung der Raumlufttemperatur), kommt ein Regressionsverfahren zum Einsatz. Bei der Klassifizierung (classification) werden die Daten hingegen einer diskreten Anzahl von Klassen zugeordnet (z. B. fehlerfreier Betrieb und fehlerbehafteter Betrieb). Die Clusteranalyse (clustering) ist ein Verfahren des unüberwachten Lernens, bei dem die Daten nach ihrer Ähnlichkeit in eine (vorgegebene oder nicht vorgegebene) Anzahl von Gruppen (Clustern) unterteilt werden. Verfahren der Dimensionsreduktion (dimensionality reduction) dienen dazu, die wichtigsten Einflussgrößen (features) zu bestimmen.
Die wichtigste und umfangreichste Klasse von ML-Verfahren sind künstliche neuronale Netze (KNN, artificial neural networks ANN). Sie bilden mit vernetzten künstlichen Neuronen stark abstrahiert die Funktion von Gehirnen nach und bestehen je nach Anwendungsbereich aus wenigen bis sehr vielen, in der Regel hintereinanderliegenden Schichten (layer). Diese werden bei einfachen KNN von der Eingabeschicht bis zur Ausgabeschicht hintereinander durchlaufen, bei rekurrenten Netzen (reccurent neural network RNN) gibt es hingegen Rückkopplungen. Diese ermöglichen ein „Gedächtnis" und machen RNN unter anderem besonders geeignet für Zeitreihendaten. Spezielle Techniken für rekurrente Netze sind LSTM (long short-term memory, langes Kurzzeitgedächtnis) sowie GRU (gated recurrent unit). Transformer-Architekturen können als Weiterentwicklung rekurrenter Netze angesehen werden und zeichnen sich dadurch aus, dass sie die Einzelteile einer Eingangsgröße zueinander in Beziehung setzen. Dies bringt beispielsweise Vorteile bei der Sprachverarbeitung (aus Einzelwörtern bestehende Sätze), etwa für ML-basierte Übersetzungen. Convolutional neural networks (CNN), auf Deutsch etwa „faltende neuronale Netze", enthalten mathematische Faltungsoperationen und werden häufig zur Verarbeitung von Bilddateien eingesetzt.
Im Vergleich zu KNN einfache Klassifikationsmodelle sind Entscheidungsbäume (decision trees). Random-Forest--Modelle bilden einen „Wald" aus Entscheidungsbäumen. Eine weitere wichtige Modellgruppe zur Klassifikation sind Support Vector Machines (SVM, dt. etwa Stützvektormethode). Sie suchen im n-dimensionalen Raum Hyperebenen, die die Daten optimal voneinander trennen. Der Ansatz lässt sich mit Anpassungen auch zur Regression einsetzen und wird in diesem Fall als Support Vector Regression (SVR) bezeichnet. Beim Ensemble Learning werden verschiedene ML-Algorithmen in Kombination eingesetzt, um das Ergebnis gegenüber einem einzelnen Algorithmus zu verbessern. Beispielsweise aggregiert Bagging die Vorhersagen mehrerer Regressions- oder Klassifikationsmodelle mit gleicher Gewichtung, während beim Boosting mehrere einzeln relativ schwache, aber einfache Algorithmen aufeinander aufbauen. Beim Stacking werden die Ausgaben einzelner Modelle einem übergeordneten ML-Modell (Meta-Lerner) zugeführt, um das finale Ergebnis zu generieren.Um einen ML-Algorithmus für den produktiven Einsatz anzuwenden, sind neben der Datenbereitstellung und -vorbehandlung typischerweise die Schritte Training/Anlernen, Validierung und Test notwendig. Beim Training verarbeitet der Algorithmus Trainingsdaten (gelabelt oder ungelabelt je nach Verfahren), anhand derer er die Parameter (z. B. Gewichte der Verbindungen zwischen Neuronen im KNN) seines mathematischen Modells anpasst (fitting). Bei zu geringem Datenumfang oder ungünstigen Vorgaben für den Algorithmus kann Overfitting auftreten – das bedeutet, dass der Algorithmus die Trainingsdaten „auswendig lernt", aber später mit unbekannten Daten schlechte Ergebnisse liefert. Auf das Training folgt die Validierung. Dabei kommen möglichst Daten zum Einsatz, die nicht Teil des Trainingsdatensatzes waren. Bei der Validierung zeigt sich, wie gut der trainierte Algorithmus mit neuen Daten zurechtkommt. Außerdem werden im Rahmen der Validierung die Hyperparameter optimiert (getunt), das heißt, die den Lernprozess steuernden Parameter (z. B. Topologie und Größe eines neuronalen Netzes). Im abschließenden Test erfolgt mit vorher nicht verwendeten Daten die Kontrolle des finalen Modells.Rein datenbasierte Maschinenlernmodelle sind in der Regel Blackbox-Modelle. Das heißt, sie nehmen Eingaben entgegen und generieren daraus Ausgabewerte. Deren Zustandekommen ist von außen nicht nachvollziehbar. Im Gegensatz dazu kann bei Whitebox-Modellen, z. B. physikalischen Modellen aus mathematischen Gleichungen, der Weg von den Eingangs- zu den Ausgangswerten schrittweise nachvollzogen werden. Greybox-Modelle kombinieren Theorie/Wissen und Daten.Die Grundlage für jede ML-Anwendung ist die Verfügbarkeit guter Daten in ausreichendem Umfang. Hinsichtlich der Datenbereitstellung verbessern sich die Bedingungen in der Klima- und Gebäudetechnik gegenwärtig deutlich: Sensoren lassen sich beispielsweise durch IoT (Internet of Things, Internet der Dinge) einfach und herstellerübergreifend vernetzen, Übertragungsbandbreiten, Speicherkapazitäten und Rechenleistung sind auf einem hohen Niveau angekommen und kostengünstig. Immer häufiger werden alle im Gebäude auflaufenden Daten zusammengeführt, sei es lokal oder in einer Cloud. Cloudlösungen erlauben dabei einerseits eine komfortable und zuverlässige Datenspeicherung, sind andererseits jedoch mit Vorbehalten und Risiken hinsichtlich des Datenschutzes verbunden.Daten stehen demzufolge in immer größerem Umfang zur Verfügung. Für einen breiten Praxiseinsatz von ML-Anwendungen sind Verfahren erforderlich, die mit vertretbarem Aufwand diese Daten nutzen können. In den vergangenen Jahren wurde eine große Zahl an wissenschaftlichen Studien veröffentlicht, die sich mit der FED [2–4] oder der Betriebsoptimierung klimatechnischer Systeme [5–7] auseinandersetzen. Dabei ist eine unüberschaubare Vielfalt von Verfahren und Ansätzen zu verzeichnen, immer wieder kommen neue Kombinationen hinzu. Prinzipiell sind Support Vector Machine (SVM), Hauptkomponentenanalyse (PCA) und künstliche neuronale Netze (KNN; mit ihren unzähligen Subtypen) im Bereich der datenbasierten FED am verbreitetsten, für die Betriebsoptimierung werden insbesondere KNN, tiefe neuronale Netze (DNN) und bestärkendes Lernen (RL) als vielversprechend angesehen. Die Auswahl des für eine konkrete Anwendung geeignetsten Verfahrens ist jedoch schwierig: Die einzelnen wissenschaftlichen Untersuchungen sind nur eingeschränkt miteinander vergleichbar, weil ihnen unter anderem verschiedene Gebäude und klimatechnische Systeme zugrunde liegen. Angaben zu erreichten Energieeinsparungen sind wenig aussagekräftig und über verschiedene Studien hinweg kaum vergleichbar, da sie sich auf unterschiedliche Systeme beziehen und unter anderem davon abhängen, wie effizient das Referenzsystem ohne ML arbeitet. Zudem basieren die wissenschaftlichen Erkenntnisse meist auf Labor- oder Simulationsdaten, nur zum Teil erfolgten (zumindest kurzzeitige) Tests in realen Gebäuden und Anlagen.Die wissenschaftlichen Untersuchungen zeigen jedoch prinzipiell, dass Verfahren des maschinellen Lernens sowohl die Fehlererkennung/-detektion als auch die Betriebsoptimierung klimatechnischer Systeme und ihrer Komponenten gegenüber konventionellen wissens- und modellbasierten Ansätzen verbessern können. ML-Modelle erreichen zwar nicht immer die Genauigkeit physikalischer Modelle, lassen sich dafür aber im Idealfall deutlich schneller entwickeln. Eine Herausforderung sind fehlende gelabelte Daten für überwachtes Lernen, da das Labeling oft menschliche Experten und damit viel Zeit und Ressourceneinsatz erfordert. Im Bereich der FED liegen zudem häufig zu wenige Daten für fehlerhafte Betriebszustände vor.
Gegenwärtig sind verschiedene Trends zu verzeichnen, die für die Verbreitung von ML-Ansätzen in der Klimatechnik vielversprechend erscheinen:
Hybridansätze, z. B. die Kombination wissensbasierter und datenbasierter Verfahren, bringen die Vorteile verschiedener Konzepte zusammen. Die Verbindung von Expertenwissen und ML-Algorithmen kann gegenüber einem reinen ML-Ansatz genauere Ergebnisse liefern und das Vertrauen erhöhen, der Implementierungsaufwand ist jedoch höher.Konzepte der erklärbaren KI (explain-able AI) fördern die Nachvollziehbarkeit der Blackbox-Modelle im ML-Bereich, sie reduzieren damit Vorbehalte und erleichtern sowohl die Bewertung der Ergebnisqualität als auch die Identifikation von Fehlern in ML-Entscheidungen.Deep-Learning-Verfahren finden relevante Einflussfaktoren (Features) weitgehend selbst und können sehr komplexe Zusammenhänge besser abbilden als einfachere Modelle, benötigen aber andererseits besonders große Datenmengen.Bestärkendes Lernen erfordert nur wenige Daten und ist insbesondere für die Betriebsoptimierung interessant. Ein Problem liegt jedoch darin, dass in genutzten Gebäuden der RL-Agent nur begrenzt durch Versuch und Irrtum lernen darf. Abhilfe verspricht das Vortraining anhand von Simulationen, das allerdings wiederum ein Modell und Daten erfordert. Im Bestand können gegebenenfalls historische Messdaten zum Vortraining genutzt werden.Ensemble Learning kombiniert verschiedene ML-Algorithmen. Da jedes Verfahren seine Vor- und Nachteile aufweist, verspricht die optimale Kombination die Bündelung der Stärken und das Erreichen besserer Ergebnisse im Vergleich zu Einzelverfahren. Im Gegenzug steigt der Entwicklungsaufwand, da mehrere Modelle zu trainieren sind.Transfer Learning bietet das Potenzial, die Anwendung maschinellen Lernens in der Gebäudetechnik mit ihrer Vielfalt an Systemkonfigurationen, Produkten und Betriebsweisen zu erleichtern: Ideal wäre ein allgemeines vortrainiertes Modell, beispielsweise zur FED an RLT-Anlagen, das mit relativ geringem Aufwand an eine konkrete Anlage anpassbar ist. Bisher gibt es jedoch kaum wissenschaftliche Veröffentlichungen und keine verfügbaren Produkte in diese Richtung.Hinsichtlich der Bereitstellung und Verwaltung von Daten erleichtert IoT (Internet of Things) die kostengünstige Netzwerkeinbindung von Sensoren und Aktoren sowie das hersteller-übergreifende Zusammenführen. Damit wird die Verfügbarkeit von Daten für ML-Anwendungen erhöht.Die Schlagworte Distributed Intelligence (verteilte Intelligenz) und Edge Computing beschreiben die Ansätze, Einzelkomponenten mit intelligenten Funktionen auszustatten und Datenanalysen, Optimierungen etc. nah an der Komponente oder der einzelnen Anlage vorzunehmen. Die Kombination von dezentral und zentral eingesetzten ML-Verfahren kann einerseits produkt- und herstellerspezifische Besonderheiten berücksichtigen und andererseits das komplexe Zusammenspiel der Komponenten mit ihren Wechselwirkungen erfassen.
Derzeit laufen in Deutschland mehrere von der öffentlichen Hand geförderte Projekte, die sich mit dem Einsatz von ML-Methoden in der Gebäudeklimatechnik auseinandersetzen. Beispielsweise umfasst das Forschungsprojekt LuftKonVerTeR [[
Am Markt sind bereits verschiedene Komponenten und Softwarelösungen für die Gebäudetechnik verfügbar, die Methoden des maschinellen Lernens nutzen. Nachfolgend werden ausgewählte Beispiele vorgestellt.
Verschiedene Hersteller bieten Software an, in der Gebäudedaten zusammenlaufen und hinsichtlich Problemen und/oder Optimierungspotenzial analysiert werden. Insbesondere die Betriebs-optimierung, aber auch die FED finden vor allem auf der Ebene des Gesamtsystems statt. SkyFoundry SkySpark [[
Das Thema maschinelles Lernen ist generell und auch speziell im Anwendungsbereich der Klima- und Gebäudetechnik derzeit einer dynamischen Entwicklung unterworfen. Deshalb ist davon auszugehen, dass auch zukünftig einerseits neue Impulse aus der Wissenschaft kommen und andererseits immer mehr praktische Anwendungen die Marktreife erreichen werden, sei es auf Systemebene oder in Form „intelligenter" Komponenten.n
Der vorliegende Artikel basiert auf einer Recherchestudie, die am ILK Dresden durchgeführt wurde. Das Vorhaben wurde durch die Forschungsvereinigung für Luft- und Trocknungstechnik e. V. gefördert.
Autor
Klimatechnik. maschinelles Lernen. Fehlererkennung. -Betriebsoptimierung
Fehlererkennung und Betriebsoptimierung sind zwei der wichtigsten Anwendungsfelder für Maschinelles Lernen in der Klimatechnik. Aktuelle Trends aus der Wissenschaft, laufende Forschungsprojekte und bereits verfügbare Praxisanwendungen verdeutlichen die dynamische Entwicklung, in der sich die Technologie derzeit befindet.
Machine Learning in HVAC applications – State of Science and Technology
HVAC. machine learning. fault detection. operation optimization
Fault detection and operation optimization are two of the most important application areas of machine learning for HVAC systems. Current trends in science, ongoing research projects, and existing practical applications highlight the dynamic evolution of the technology in this field.
Graph: Dr.-Ing. Thomas Oppelt, Institut für Luft- und Kältetechnik gemeinnützige Gesellschaft mbH, Dresden
Graph: Einteilung der Maschinenlernverfahren mit Beispielen typischer Algorithmen
Die Grundlage für jede ML-Anwendung ist die Verfügbarkeit guterDaten in ausreichendem Umfang