Die Grundlage für Datenanalyse in Echtzeit
Die Integration von digitalen Zählern in das lokale Energiemanagement-System bringt große Datenmengen mit sich. Digitale Stromzähler übermitteln mindestens viertelstündlich Daten, was im Jahr ca. 35.000 Werten entspricht (365 Tage * 24 Std. * 4). Selbst dabei handelt es sich um eine kleine Datenmenge. Von uns verwendete Messeinrichtungen sind in der Lage, sekündlich unterschiedlichste Daten zu übertragen, was dem Vielfachen von den herkömmlichen Datenmengen der Smart Meter von Energieanbietern entspricht. Jetzt spricht man von Big Data!
Um das volle Potential der Optimierung der energiebezogenen Leistung sowohl im geschlossenen System eines Unternehmenes, womöglich auch an mehreren Standorten, ausschöpfen zu können, können neben gängigen Verbrauchsdaten und Prozessparametern auch weitere Umgebungs- und Systemvariablen wie Wetter- oder Marktdaten, Kostenstellen, Energiepreise, KPIs o.Ä. gemessen und mit den Energiedaten in Zusammenhang gebracht werden. Das Sammeln von Daten aus unterschiedlichen Quellen (Gateways, ERP-Systemen, PLT-Systemen etc.) in Echtzeit und einer einheitlichen Systemarchitektur und deren Aufbereitung bedürfen einer skalierbaren und performanten Datenbankstruktur, da klassische rationale Datenbanken dazu nicht in der Lage sind. Eine Möglichkeit bietet zum Beispiel die NoSQL-Technologie, welche sich vor allem durch ihre horizontale Skalierbarkeit auszeichnet, was schlicht bedeutet, dass die Leistung eines Systems durch das Hinzufügen von mehr Rechnerleistung gesteigert werden kann und dem somit hardwareseitig keine Grenzen gesetzt sind.
Beim Stream Processing werden Datenströme nicht wie üblich zuerst in eine Datenbank gespeichert, sondern sofort im Zwischenspeicher verarbeitet und direkt an das Alligator-Frontend weitergegeben. Das Datenmonitoring und die -analyse geschehen somit quasi in Echtzeit. Erst danach werden relevante Datenpakete in eine Datenbank eingespeichert, womit zusätzlich Speicherplatz eingespart wird. Der vermeintliche „Umweg“ über die Datenbank wird im Stream Processing übergangen.
Bei der herkömmlichen Daten-Infrastruktur SQL über PHP handelt es sich eigentlich um nichts anderes, als eine gesicherte Website. Dabei greift das Endgerät des Nutzers zum einen auf den Code der Site und zum anderen auf die SQL-Datenbank zu. Die Datenverarbeitung findet quasi lokal statt und verursacht demnach, vor allem bei größeren Systemen, komplexe Datentransfers, was die lokale Hardware zusätzlich belastet.
Anders bei Alligator: Wir setzen Stream Processing ein. Es werden Daten in Echtzeit verarbeitet und auf dem Nutzerrechner lokal nur visualisiert, egal ob eine oder fünftausend Messstellen. Vergleichbar mit dem Onlinebanking oder einer Suchmaschine.
Beim Stream Processing erfolgt die Datenverarbeitung im Rechenzentrum, also in unserem AC/DC (Alligator Cloud Data Centre). Auf dem Endgerät der Nutzer wird die Anwendung lediglich angezeigt - in Echtzeit. Das macht das Energiemanagement mit Alligator...