Über das Wetter zu reden fällt den meisten Menschen leicht. Ob im Fahrstuhl, am Gartenzaun oder Familientisch, das Wetter taugt immer für eine Unterhaltung. Nichts falsch machen kann man, wenn man über das Wetter von gestern spricht, aber auch eigene Prognosen werden gern gewagt. Und wenn sich die mal als falsch erweisen, ist das überhaupt nicht schlimm. Schließlich können nicht einmal die großen Wetterdienste mit Hunderten von Wissenschaftlern und Unmengen Rechnerkapazität exakte Vorhersagen treffen. Zumindest nicht immer.
Für die Netzintegration immer größerer Mengen Wind- und Solarstrom wird die Frage nach genauen Prognosen jedoch zur Gretchenfrage. Je größer die Mengen aus volatilen Energieträgern, desto wichtiger wird die Vorhersage ihrer voraussichtlichen Erträge. Irrtümer und Ungenauigkeiten können ernste Folgen haben. Nicht umsonst hat selbst der Weltenergierat in seinem jüngsten Bericht zu den Herausforderungen der Zukunft auch genauere Wetterprognosen als einen Baustein der stabilen Stromversorgung genannt.
Sag mir, wo die Wolken sind
Die Wissenschaftler forschen unermüdlich, doch das Wetter ist so komplex, dass keine Modellrechnung es exakt voraussagen kann. Wenn man also verstehen will, was machbar ist, lohnt sich ein Blick auf den derzeitigen Entwicklungsstand.
Für die Photovoltaik ist die Globalstrahlung an einem bestimmten Standort oder in einer Region der wesentliche Faktor, um Aussagen über Erträge der nächsten Stunde oder Tage zu treffen. Die Prognose der Einstrahlung dann auf die jeweilige Anlage oder das jeweilige Netzgebiet mit seinen verteilten Anlagen zu modellieren, ist zwar nicht trivial, aber mit Kenntnissen der Anlagenphysik und ausgeklügelten statistischen Verfahren mit ausreichend hoher Genauigkeit machbar.
Die Sonne scheint doch vermeintlich immer gleich – weshalb ist es dann so schwierig, für einen Zeitpunkt oder Zeitraum die Menge der Strahlung zu berechnen, die voraussichtlich an einem bestimmten Ort die Erde erreicht?
Kurzfristige Prognosen sind schwierig
Stellt man die Frage für einen konkreten Zeitpunkt in der nahen Zukunft, ist die Vorhersage ungemein schwieriger beziehungsweise unsicherer, als wenn man die Frage bezogen auf den Zeitraum der nächsten 20 Jahre stellt.
Bei Letzterem ist es sogar relativ einfach. Mittelwerte und Schwankungsbreiten, die über lange Zeiträume erhoben und analysiert wurden, helfen bei der Berechnung für lange Zeiträume der Zukunft. Dabei gehen die Forscher davon aus, dass sich das Klima und somit auch die Einstrahlungswerte am Erdboden nur langsam im Vergleich zum schnell wechselnden Wetter ändern. Auf dieser Basis können Mittelwerte über zehn und 20 Jahre unter Berücksichtigung der langfristigen Trends als Ausgangspunkt für die Abschätzung der zukünftigen Einstrahlung dienen.
Ein Mittelwert aus den letzten 20 Jahren wird natürlich nicht punktgenau in einem zukünftigen Jahr oder Monat erreicht. Vielmehr wird davon ausgegangen, dass über die Lebensdauer der Anlage betrachtet in etwa gleiche Globalstrahlungswerte wie im langjährigen Mittel erreicht werden. Insofern ist es auch durchaus möglich, dass für ein Jahr oder einen Monat, ja sogar für mehrere Jahre in Folge die realen Einstrahlungswerte nach oben oder unten vom langjährigen Mittel abweichen. Diese Varianzen können sechs bis sieben Prozent betragen.
Für Kurzfristprognosen, also Aussagen über die nahe Zukunft, zum Beispiel die nächsten Stunden oder Tage, sieht alles ganz anders aus –weil Wolken, ihre Bildung, Bewegung und Auflösung so schwer vorherzusagen sind. Sie streuen und absorbieren das Sonnenlicht und haben den entscheidenden Einfluss auf die auf der Erde auftreffende Globalstrahlung, die sich aus direkter und diffuser solarer Strahlung zusammensetzt.
Bei wolkenlosem Himmel üben Aerosole und Wasserdampf den größten Einfluss auf den solaren Strahlungsstrom aus. Sie verändern nicht nur das Verhältnis zwischen direkter und diffuser Sonnenstrahlung, sondern schwächen diese auch in den meisten Fällen. Auch Sandstürme haben in einigen Gegenden der Erde Einfluss auf die empfangene Strahlungsmenge. Selbst der Staub aus der Sahara, der bis nach Deutschland gelangt, vermindert die Einstrahlung, einerseits durch Absorption der Strahlung in der Atmosphäre, andererseits durch Verschmutzung der Module.
Wie alles begann
Die Geschichte der solaren Strahlungsmessung begann vor rund 130 Jahren. Das Interesse kam vor allem aus der Landwirtschaft. Thermometer und Barometer wurden allerdings schon 200 Jahre früher erfunden. Temperatur und Luftdruck waren schon lange gängige Größen, als die Strahlungsmessung ihre ersten Entwicklungsschritte unternahm.
Die Forscher hatten zunächst nur die Direktstrahlung im Blick. Das ist die schattenwerfende Strahlung und damit der Teil des Sonnenlichts, der trotz Absorption durch Wasserdampf und andere atmosphärische Gase die Erdoberfläche erreicht.
An einem wolkenfreien Tag mit geringer Trübung besteht die auf der Erde eintreffende solare Strahlung zur Mittagszeit zu etwa 90 Prozent aus Direktstrahlung, während unser Tageslicht bei wolkenverhangenem Himmel ausschließlich aus diffuser Strahlung besteht.
Die Summe aus direkter und diffuser Strahlung ergibt die Größe der Globalstrahlung, die in Watt pro Quadratmeter gemessen wird. Bei Sonnenhöhen von mehr als 50 Grad und wolkenlosem Himmel besteht die Globalstrahlung zu rund drei Vierteln aus direkter Sonnenstrahlung, bei tiefen Sonnenständen nur noch zu rund der Hälfte. Summen über Zeiträume, zum Beispiel Stunden oder Jahre, geben Meteorologen in Joule pro Quadratzentimeter an, wobei Ingenieure und Photovoltaikprofis lieber Wattstunden pro Quadratmeter benutzen.
Prinzip der ersten Geräte
Mit der Entwicklung der ersten Absolut-Pyrheliometer im letzten Jahrzehnt des 19. Jahrhunderts, die nahezu zeitgleich in Schweden und Amerika erfolgte, gab es erste Geräte zur exakten Messung der direkten Strahlung. Die Geräte hatten einen kleinen Öffnungswinkel, sodass im Wesentlichen nur die direkte Sonnenstrahlung erfasst wurde. Sie wurden der Sonne nachgeführt.
Dieses Prinzip wird auch heute noch angewandt, auch wenn natürlich inzwischen die Geräte weiterentwickelt wurden. Vergleiche zwischen dem schwedischen und den amerikanischen Instrumenten zeigten jedoch nicht akzeptable Differenzen. Auch aufwendige Untersuchungen führten zunächst nicht zum Erfolg.
Alle fünf Jahre in Davos
Unter dem Druck des für 1958 geplanten Internationalen Geophysikalischen Jahres (IGJ), in dem weltweit Strahlungsmessungen durchgeführt werden sollten, wurde 1956 die einheitliche internationale Pyrheliometerskala (ISP 1956) definiert.
In deren Folge brachten Forscher von den führenden Instituten der Welt rund 20 Geräte nach Davos und verglichen vor Ort in zeitgleichen Messungen ihre Messergebnisse. Als Referenz wurde das schwedische, von Knut Angström entwickelte Gerät ausgewählt. Seitdem findet dieser internationale Pyrheliometervergleich alle fünf Jahre in Davos statt. Aus den Abweichungen der einzelnen Geräte werden Faktoren ermittelt.
Die Meteorologen fahren danach mit ihrem Gerät und dem errechneten Faktor nach Hause in ihre Länder und können die in ihrem Messnetz befindlichen Messgeräte entsprechend kalibrieren.
Anfang der 1980er-Jahre wurde die IPS 1956 durch die World Radiometric Reference (WRR) ersetzt. Sie wird durch sechs verschiedene Absolutradiometer repräsentiert. Diese stellen das „Urmeter“ für die solaren Strahlungsmessungen dar und sichern die Verbindung zum SI-System. Durch die regelmäßigen Pyrheliometervergleiche wird die Vergleichbarkeit und Homogenität der weltweit gemessenen Strahlungsdaten gewährleistet.
Wie misst ein Pyranometer?
Die Globalstrahlung wird mit Pyranometern gemessen. Über einem Sensor, einer schwarzen Thermosäule, befindet sich eine Kalotte, eine halbkugelförmige, lichtdurchlässige Haube aus Glas. So wird im Gegensatz zum Pyrheliometer die gesamte aus dem oberen Halbraum auf einer Fläche eintreffende Strahlung gemessen.
In der Thermosäule werden zwei Thermoelemente, zum Beispiel Kupfer und Konstantan, miteinander verbunden. Die Kontaktspannung dieser verbundenen Metalle ändert sich temperaturabhängig. Wird eine Verbindungsstelle auf einer bestimmten Temperatur gehalten, zum Beispiel durch Abschattung, und die andere, zur besseren Wärmeaufnahme geschwärzte Kontaktstelle der Strahlung ausgesetzt, wird eine Spannung ausgegeben, aus deren Höhe die Einstrahlung ermittelt wird.
Zunächst nur wenige Stationen
Bis nach dem Zweiten Weltkrieg gab es weltweit nur rund ein gutes Dutzend Stationen, die regelmäßige Strahlungsmessungen durchführten und aufzeichneten. Die Bedeutung der Größe war den Meteorologen klar, aber für die täglichen praktischen Anwendungen reichten Temperatur, Niederschlag und Wind. Ein anderer Meilenstein in der Geschichte der Strahlungsmessung war die Einrichtung des Datensammelzentrums in St. Petersburg 1964. Dorthin wurden die Messdaten von allen Stationen geschickt. Auch die Anzahl der Stationen nahm zu. So entstand der erste globale Einstrahlungsatlas.
Mit dem Einzug elektronischer Aufzeichnungsgeräte und dem Bau der ersten Photovoltaikanlagen gewann die Strahlungsmessung an Dynamik und Bedeutung. Das Bodenmessnetz wurde ausgebaut. 1990 im Jahr der Deutschen Einheit gab es 42 Stationen in ganz Deutschland, die die Globalstrahlung gemessen haben. Derzeit sind es allerdings nur rund 30, wobei neuere Forschungsergebnisse nahelegen, dass 40 Stationen für Deutschland die optimale Datengrundlage bilden und deshalb auch einige Stationen ihren Messbetrieb wieder aufnehmen werden.
Bodenmessstationen messen die Einstrahlung an einem konkreten Punkt. Auch wenn genaue und homogene Zeitreihen vorhanden sind, bleibt ein kleiner Makel. Um die Fläche Deutschlands abzubilden, muss „hochgerechnet“ werden. Wären das Wetter und die Wolkenbildung überall in Deutschland gleich, gäbe es bei diesem Vorgang keinen Genauigkeitsverlust. Doch wie jeder weiß, haben Wolken die Eigenschaft, regional sehr verschieden intensiv, ganz oder gar nicht, dick oder dünn aufzutreten.
Wie gut, dass es seit Beginn der 80er-Jahre die kontinuierliche Satellitenbeobachtung gibt. Sie misst die Reflexion des Sonnenlichts an der Oberfläche, der dem Weltraum zugewandten Seite der Wolken, und errechnet daraus einen Einstrahlungswert am Boden.
Noch sind die Satellitendaten weniger genau als die Bodendaten, aber sie haben einen unschlagbaren Vorteil: Sie messen eine ganze Fläche.
Satelliten komplettieren Bild
In Kombination mit den Daten aus den Bodenmessstationen können Meteorologen deshalb heute schon sehr genaue Strahlungswerte für den ganzen Erdball angeben. Und für die letzten 20, 25 Jahre existieren ausreichend lange und homogene Zeitreihen, die auch die Darstellung eines langjährigen Mittelwertes erlauben.
Für die Verbesserung der Kurzfristprognosen ist die genauere Strahlungsmessung jedoch nur ein Hebel. Vielmehr müssen die numerischen Vorhersagemodelle weiter verbessert werden. Daran arbeiten unter anderem Forscher des DWD gemeinsam mit Netzbetreibern und dem Fraunhofer IWES.
DWD
Wettervorhersage für Energieanwendungen optimieren
Der Deutsche Wetterdienst arbeitet seit 2012 im Rahmen zweier Forschungsprojekte daran, seine numerischen Wettervorhersagemodelle gezielt für Energieanwendungen zu optimieren.
Im Projekt Orka , das in enger Zusammenarbeit mit dem meteorologischen Dienstleister Energy and Meteo Systems, Oldenburg, dem Übertragungsnetzbetreiber 50 Hertz Transmission sowie Avacon und Thüringer Energienetze als Verteilnetzbetreiber erfolgt, wird das Ensemblesystem Cosmo-DE-EPS als Grundlage verwendet, um die Einspeiseprognosen an die neuen Anforderungen für die Netzbetriebsführung anzupassen. Das Ensemblesystem wird durch eine direkte Rückkopplung mit den Entwicklern beim DWD innerhalb dieses Projektes auf die Wind- und Solarenergieanwendung optimiert, und Modifikationen der Ensemblegenerierung gehen iterativ in weitere Analysen ein.
Das Forschungsprojekt Eweline ist eine Forschungskooperation zwischen dem Fraunhofer-Institut für Windenergie und Energiesystemtechnik (Fraunhofer IWES), dem Deutschen Wetterdienst sowie den Übertragungsnetzbetreibern Amprion, Tennet und 50 Hertz. Ziele des Vorhabens sind die deutliche Verbesserung der Leistungsprognosen von Wind- und Photovoltaikeinspeisung sowie die Entwicklung und Umsetzung von zuverlässigen probabilistischen Vorhersagen zur sicheren und wirtschaftlichen Netzintegration heute und in den nächsten Jahrzehnten. In dem Projekt wird daran gearbeitet, das DWD-Vorhersagesystem hinsichtlich Wind- und Strahlungsvorhersagen generell zu verbessern. Dabei werden neue Beobachtungsdaten von Windkraftanlagen und Photovoltaikanlagen in das Datenassimilationssystem eingebunden und die physikalischen Parametrisierungen des Modells optimiert. Eine exakte Wetterprognose ist aber aufgrund der chaotischen Natur der Atmosphäre unmöglich – Abhilfe zur besseren Einschätzung der zukünftigen Entwicklung des Wetters bieten jedoch probabilistische Prognosen.
Meteorologisches Observatorium Lindenberg
Messgeräte aus den Anfängen der Strahlungsmessung
Einige historische Strahlungsmessinstrumente aus dem Fundus des Meteorologischen Observatoriums Lindenberg – Richard-Aßmann-Observatorium. Vorn verschiedene Pyranometer zur Messung der Globalstrahlung. Ganz links ein „Solarimeter“ der Firma Kipp & Zonen, in der Mitte der Prototyp des Sternpyranometers, dahinter das Eppley-„Lightbulb“-Pyranometer, wegen seiner Form auch Glühlampen-Pyranometer genannt. Diese Pyranometer wandeln die Sonnenstrahlung in elektrische Spannung um, die früher mittels eines Schreibers (hinten links) registriert wurde.
Vorn rechts der Bimetall-Pyranograph nach Robitzsch, bei dem die unterschiedliche Erwärmung des schwarzen und der weißen Metallstreifen durch die Sonnenstrahlung über ein empfindliches Gestänge in Form unterschiedlicher Ausschläge direkt auf die Trommel gezeichnet wird. Dahinter befinden sich das Silverdisc-Pyrheliometer aus den USA (rechts) und das Angström-Pyrheliometer aus Schweden (links), die zur Messung der direkten Sonnenstrahlung benutzt wurden und die Smithsonian- beziehungsweise Angström-Skala verkörperten.
Strahlungsmessung
Vergleich ermöglicht Aussagen zur Messgenauigkeit
In Lindenberg in Brandenburg betreibt der DWD das Richard-Aßmann-Observatorium. Dort arbeitet auch Klaus Behrens seit vielen Jahren. Der Experte in Sachen Strahlungsmessung am Boden überwacht auf dem Dach der Station viele verschiedene Messgeräte. Er ist auch ein profunder Kenner der Geschichte der Strahlungsmessung. Das Foto zeigt Behrens auf dem Dach der Strahlungsmesszentrale, wo unterschiedliche Geräte installiert sind, deren Messdaten kontinuierlich überwacht und verglichen werden. So werden auch Aussagen über die Messgenauigkeit einzelner Geräte ermöglicht.
HTW Berlin
Wetterdatenportal mit neuen Features und Sensoren
Woher weht der Wind und wie heftig? Welche Stärke hatte die Sonne beispielsweise am 31. Januar 2017 und wie lange schien sie? Das kann man online in Erfahrung bringen auf der Website wetter.htw-berlin.de. Das Wetterdatenportal ist nach einer Wartungspause mit neuen Features und Sensoren wieder online erreichbar. „Wir haben unser Bestes gegeben und das Angebot eines der am häufigsten geklickten Wettermessdatenportale Deutschlands um weitere nützliche Umweltdaten ergänzt“, sagt Prof. Dr. Volker Quaschning, Solarexperte an der Berliner Hochschule für Technik und Wirtschaft Berlin (HTW Berlin).
Sekundengenau werden nunmehr Windgeschwindigkeit und Windrichtung, Luftdruck, Lufttemperatur und Sonneneinstrahlung in vielen Facetten aufgezeichnet. Über hochwertige Wetterdaten zu verfügen, ist allerdings kein Infotainment, sondern Grundlage für jedwede Forschung und Entwicklung in Sachen Energiewende. Sonne und Wind sind ihre wichtigsten Energiequellen; je genauer deren Verfügbarkeit dokumentiert wird, desto aussagekräftiger geraten die Analysen des künftigen Energiesystems.
Das Portal wurde für große Datenmengen optimiert und um interaktive Darstellungen der Messwerte ergänzt. Die Solarstrahlungsmessung auf der geneigten Ebene mit verschiedenen Ausrichtungen oder eine dreidimensionale Windmessung sind jetzt abrufbar. Der Fokus liegt jedoch weiterhin auf der Vermessung der Sonnenenergie. Weil aktuelle Forschungsfragen rund um das Thema Nutzung der Solarenergie und Energiespeicherung mit den bisher archivierten Minutenmittelwerten nicht mehr zu beantworten sind, wurde die Kalibrierung der Sensoren mit einem Upgrade auf Sekundendaten verknüpft.
Meteotest
Globale Wetterdatenbank
Meteonorm ist eine globale Wetterdatenbank für die Simulation von Solaranlagen und Gebäuden. Sie basiert auf einer Kombination von Boden- und Satellitendaten. Sie bietet Zugriff auf präzise Daten der Einstrahlung, Temperatur und weiterer Klimaparameter für jeden Ort der Welt. Die Wetterdaten können in über 35 Dateiformaten ausgegeben werden, zum Beispiel als Excel-Datei für weitere Analysen oder für den direkten Import in Softwareprodukte für Photovoltaik, Solarthermie oder Gebäudesimulation. Mithilfe eines stochastischen Wettergenerators können weltweit typische Wetterjahre berechnet werden. Meteonorm ist in den Photovoltaik-Simulationstools wie PV-Syst, PV-Sol oder Polysun direkt eingebaut.
Eumetsat
Messung per Satellit
Seit 2002 ist die zweite Generation geostationärer Wettersatelliten im All. Während die erste Generation nur alle 30 Minuten ein Bild mit einer räumlichen Auflösung von drei mal fünf Kilometer gemacht hat, lichtet dieser Satellit die Reflexionen der Wolken alle 15 Minuten ab und dies mit einer Auflösung von bis zu einem Kilometer. Auch werden mehr spektrale Kanäle gemessen, zwölf sind es derzeit. Ab 2020 soll die dritte Satellitengeneration an den Start gehen. Sie soll eine Aufnahmefrequenz zwischen zehn und zweieinhalb Minuten haben, 500 Meter räumliche Auflösung und 16 spektrale Kanäle differenziert betrachten. Für die Photovoltaik ist vor allem Letzteres von Bedeutung, da der photovoltaische Effekt je nach spektralem Bereich variiert.