Mitteilungen der DMG

Heft 1/2002 (Auszüge)


Schwerpunktthema: Flugmeteorologie (Fortsetzung von Heft 3/2001)

Titelbild: 
In den letzten Jahren hat die Wirbelschleppenproblematik ein zunehmendes Interesse gefunden, nicht nur im Bereich der Luftfahrt, sondern auch in der Öffentlichkeit. Die Wirbelschleppenproblematik ist in Bezug auf Kapazitäts- und Sicherheitsprobleme für Flugsicherungen und Flughafenbetreiber wichtig, die bei zunehmender Verkehrsdichte und einer starken Mischung unterschiedlicher Flugzeugtypen die Flugzeugstaffelung verdichten müssen, ohne die Sicherheit zu reduzieren. Nach den ICAO-Richtlinien (Internationale Zivile Luftfahrtorganisation) sind Mindestabstände zwischen landenden Flugzeugen einzuhalten.

Eine größere Version (64kB) dieses Bildes können Sie betrachten, wenn Sie hier klicken.

Inhaltsverzeichnis (durch Anklicken eines Artikels kommen Sie direkt dorthin)
Die Wirbelschleppenproblematik und Flughafenkapazität
HALS/DTOP - Ein neues Landeanflugsystem für den Flughafen Frankfurt/Main
Dem Geheimnis der Aufwindarten auf der Spur
EMS - Erstes Jahrestreffen und weitere Entwicklung
EMS-Konferenzkomitee
Das EMS-Komitee für Medienfragen
EMS-Komitee für Fragen der fachlichen Eignung berufstätiger Meteorologen
Das EMS Komitee für Bildungsfragen
DACH-MT 2002: Verleihung des Julius-Hann-Preises der ÖGM an Heinz Fortak
Preisverleihung der Stiftung Umwelt und Schadenvorsorge während der DACH-MT 2001
Meteorologische Zeitschrift nun auch auf dem Citation-Index!
Neues vom Jahr der Geowissenschaften 2002
DMG-Statement: Lange Klimareihen - unerlässlich für die Klimaforschung
Chefsache - Umweltforschung in Europa
Variabilität der Sonne und Klimaschwankungen
3rd Study Conference on BALTEX
Im Wetterschach nicht den Turm verlieren!
Festival de la Météorologie vom 8.-11.3.2002 in Issy-les-Moulineaux
LEARNTEC 2002


SCHWERPUNKT FLUGMETEOROLOGIE

Die Wirbelschleppenproblematik und Flughafenkapazität

In den letzten Jahren hat die Wirbelschleppenproblematik ein zunehmendes Interesse gefunden, nicht nur im Bereich der Luftfahrt, sondern auch in der Öffentlichkeit. Insbesondere ist diese Fragestellung in Bezug auf Kapazitäts- und Sicherheitsprobleme für Flugsicherungen und Flughafenbetreiber wichtig, die bei zunehmender Verkehrsdichte und einer starken Mischung unterschiedlicher Flugzeugtypen die Flugzeugstaffelung verdichten müssen, ohne die Sicherheit zu reduzieren. Nach den ICAO-Richtlinien (Internationale Zivile Luftfahrtorganisation) sind Mindestabstände zwischen landenden Flugzeugen einzuhalten. 
     Von diesem Problem sind auch Hersteller neuer Großraumflugzeuge wie des Typs A3XX (Airbus) betroffen, die mit einer gegenüber der Boeing 747 stark vergrößerten Ladekapazität, mit ca. 1.6-facher Masse und bei einer etwa 1.3-fachen Spannweite eine um etwa 20 Prozent stärkere Wirbelschleppe erzeugen - zum Nachteil nachfolgender Flugzeuge. Ein Beitrag zur Wirbelschleppenreduzierung wird von den Winglets (Abknicken der Flugzeugflügel) erwartet (Hauf, 2002). 

Zur Wirbelschleppenentstehung
Bei einer rein zweidimensionalen Betrachtung ist oberhalb der Tragfläche Unterdruck und unterhalb Überdruck ohne Möglichkeit eines Ausgleichs zu verzeichnen. Bei einem realistischen dreidimensionalen Flügel müssen sich die Druckgegensätze zum Rand hin ausgleichen. Die Luft strömt deshalb im Bereich der Flügelspitzen auf der Oberseite der Tragfläche immer etwas zum Flugzeugrumpf und auf der Unterseite etwas zu den Flügelspitzen hin. Diese Querströmungen auf beiden Seiten der Tragfläche sorgen dafür, dass sich an der gesamten Hinterkante Wirbel ausbilden, die zusammen eine sogenannte Wirbelschleppe formen. Die Wirbelschleppe rollt sich in einiger Entfernung hinter der Tragfläche zu zwei starken Wirbeln auf, so dass die vereinfachte Beschreibung zweier an den Enden austretender Wirbelfäden berechtigt erscheint.
     Wirbelschleppen breiten sich korkenzieherförmig hinter den Flugzeugflügeln aus und können dort Minuten lang bestehen bleiben. Ein kleines Flugzeug, das in einen solchen Wirbel hineingerät, kann um seine Längsachse gedreht werden, wobei ein Auseinanderbrechen eher unwahrscheinlich ist (nach Hankers, Inst. für Flugzeugführung, Braunschweig).
     Die derzeit gültigen Sicherheitsabstände (Staffelungsabstände nach Vorgabe der ICAO) zwischen startenden bzw. landenden Flugzeugen sind empirisch gewonnen, ohne Berücksichtigung weiterer Flugzeugparameter, wie Anfluggeschwindigkeit und Spannweite oder meteorologischer Prozesse. Die tatsächliche Lebensdauer einer Schleppe, ihr Verweilen in der Anflugschneise oder die Beeinflussung einer parallelen Landebahn hängen entscheidend von den atmosphärischen Grenzschichtbedingungen (Wind, Scherung, Turbulenz, thermische Schichtung, Bodenbeschaffenheit)  ab. Es wird auf verschiedenen Ebenen untersucht, ob bei entsprechenden Wetterlagen die Abstände zwischen den Flugzeugen ohne Sicherheitseinbußen reduziert und damit die Kapazität eines Flughafens gesteigert werden könnten. 

Europäische Aktivitäten
Auf europäischer Ebene sind derzeit verschiedene Aktivitäten zu verzeichnen, um den Fortschritt im Bereich der Wirbelschleppenproblematik voranzutreiben. Eine europaweite Kooperation von CERFACS, Centre Européen de Recherche et Formation Avancées en Calcul Scientifique) ONERA, (Office National d'Étude et de la Recherche Aérospatiale), DFS (Deutsche Flugsicherung), DWD, DLR , und Airbus Ind. European wird u.a. im thematischen Netzwerk WAKENET  dokumentiert. Hierin sind, wie das Organigramm zeigt (NB: Klicken auf das Organigramm zeigt Ihnen eine vergrößerte Darstellung), verschiedene Arbeitsgebiete definiert worden und die beteiligten Organisationen mit ihren Teilgebieten angegeben.

Entsprechend der zuvor angegebenen Untergliederung wurden folgende Projekte eingerichtet:

  • C-Wake - Wake Vortex Control (Wirbelerzeugung)
  • I-Wake -Wake Vortex Instrumentation (Methoden der Früherkennung)
  • S-Wake - Wake Vortex Safety (Erforschung des Einflusses von Wirbelschleppen auf Flugzeuge)
Die neuen Europäischen Projekte S-WAKE und C-WAKE haben im Januar 2000 begonnen, I-Wake ist beantragt. 

Das C-Wake-Programm umfasst u.a. 

  • die Untersuchung der physikalischen Eigenschaften von Wirbelschleppen
  • die Ausarbeitung von Richtlinien für die Europäische Luftfahrtindustrie für die Wirbelschleppenkontrolle (wake vortex control) hinsichtlich Gestalt und Intensität 
  • die Entwicklung von Methoden zur Prognose von Wirbelschleppeneigenschaften mit hinreichender Genauigkeit
Forschungsschwerpunkte von S-WAKE sind u.a. 
  • Wirbelschleppenausbreitung- und abschwächung unter Berücksichtigung des Wetters (Wetterklassen)
  • physikalische Modellierung des Einflugs in Wirbelschleppen und Verbesserung der Simulationsmöglichkeiten, u.a. mit Flugversuchen, im Hinblick bspw. auf Realtime-Prognose bzw. auf eine Implementierung in Trainings- und Forschungs-Flugsimulatoren
Ein ausführlicher Grundsatzartikel (Th. Gerz, DLR, D. Darracq, CERFACS u.a.) zur Wirbelschleppenproblematik und weitere Informationen sind über die Homepage von WAKENET www.cerfacs/~wakenet bzw. unter www.pa.op.dlr.de/wirbelschleppe abrufbar.
     Weitere Aktivitäten im Hinblick auf die Wirbelschleppenproblematik sind u.a. auf den Flughafen Frankfurt konzentriert, da hier zu erwartende Kapazitätsengpässe drängen. 
     Die DFS hat zusammen mit der DLR (Inst. f. Phys. der Atmosph., Weßling) für den Flughafen Frankfurt u.a. ein statistisches Wirbelschleppenvorhersageverfahren für den bodennahen Bereich  (untere 80 m ü. Gr.) als Wirbelschleppenwarnsystem (WSWS)  weiterentwickelt. Grundlage sind Winddaten (Ultraschallanemometer) mehrerer Jahre. Der neue Algorithmus berechnet Vorhersagen der Windrichtung und -stärke. Mit dem Verlagerungsmodell werden in einem letzten Schritt die "Nichtgefährdungszeiten" ermittelt (J. Konopka, DFS). Um den gesamten Anflugbereich auch mit den größeren Höhen zu erfassen wird derzeit für den Flughafen Frankfurt ein Windprofiler angeschafft (pers. Mitt., Th. Hauf, Univ. Hannover). 
     Neben zuvor beschriebenen Forschungsaktivitäten und praktischen Entwicklungen wird derzeit für den Flughafen Frankfurt ein neues Landeanflugsystem HALS/DTOP (High Approach Landing System/Dual Threshold Operation) eingesetzt, welches in Projektträgerschaft der FRAPORT AG sowie der DFS  zur Praxisreife entwickelt wurde. Es wird im nachfolgenden Artikel beschrieben. 

(zusammengestellt nach versch. Quellen, s. Ende des HALS/DTOP-Artikels)

S. Theunert, Wittlich
dmg-sekretariat@t-online.de

Zum Inhaltsverzeichnis


HALS/DTOP - Ein neues Landeanflugsystem für den Flughafen Frankfurt/Main

Die sog. Wirbelschleppenstärke eines Flugzeuges ist proportional zu seinem Gewicht. Eine Wirbelschleppe kann ein nachfolgendes, insbesondere kleineres Flugzeug gefährden und erfordert daher Sicherheitsabstände. Die derzeit gültigen Abstände liegen bei einer Einteilung der Flugzeugtypen in drei Gewichtsklassen (Light, Medium, Heavy) zwischen 3 und 8 nautischen Meilen und begrenzen heute schon an vielen Flughäfen, wie auch für Frankfurt/Main, die Kapazität der Start- und Landebahnen und damit die des gesamten Flughafens. Angesichts der hohen Wachstumsraten des internationalen zivilen Luftverkehrs und des in Mitteleuropa sehr knappen Raumes für neue Flughäfen oder Flughafenerweiterungen ist mit einer Verschärfung des Kapazitätsproblems und einem erhöhten Sicherheitsrisiko zu rechnen. 
     Die Zunahme der Flugbewegungen in Europa erfordert eine optimale Nutzung der vorhandenen Einrichtungen auf Flughäfen wie Frankfurt am Main. Dieser Flughafen ist mit 3 Landebahnen von jeweils 4000 m Länge ausgestattet. Während eine Rollbahn nur für Starts in einer Richtung genutzt werden kann, stehen die zwei parallelen Bahnen für Starts und Landungen in beiden Richtungen zur Verfügung. Wegen des relativ geringen Abstandes dieser Bahnen von 518 m ist es nach der ICAO Annex 14 nicht gestattet, die Landebahnen unabhängig voneinander zu nutzen. Nach den ICAO-Richt-linien ist ein Mindestabstand von 5 nautischen Meilen zwischen einem Flugzeug der Gewichtsklasse Medium und einem vorausfliegenden Flugzeug der Klasse Heavy wegen der Wirbelschleppenproblematik einzuhalten. 
   Zur Verbesserung der Kapazitätsauslastung wurde für den Flughafen Frankfurt das HALS/DTOP- Anflugsystem (High Approach Landing System/Dual Threshold Operation) entwickelt und derzeit an den zwei parallelen Landebahnen erprobt. Wichtig ist hierbei auch die Einbindung der Piloten:
     Nach den ICAO-Richtlinien sind bei Landung auf diesen Rollbahnen Mindestabstände einzuhalten, die sich einerseits nach der Radarverfolgung (Radarstaffelung, derzeit mind. 2.5 nautische Meilen), andererseits nach den Wirbelschleppen (Wirbelschleppenstaffelung bis zu 5 nautischen Meilen) richten. Mit dem Betrieb des HALS/DTOP-Anflugsystems soll der notwendige Abstand bei der Wirbelschleppenstaffelung auf den notwendigen Mindestabstand zur Radarverfolgung reduziert werden.
     Voraussetzung für das HALS/DTOP-System ist, dass auf der südlichen Landebahn (Südbahn, 25L/07R) zusätzlich zu den vorhandenen Landeschwellen (Aufsetzpunkt bei Landung) eine weitere Schwelle mit der Bezeichnung 26 L in einem Abstand von 1500 m versetzt zur Landeschwelle 25 L eingerichtet wurde. Diese zweite Landeschwelle wurde mit einem besonderen Beleuchtungs-, Markierungs- und Instrumentierungssystem ausgerüstet und ist ausschließlich für Landeanflüge mit einem höchstzulässigen Startgewicht von 136 t (Wirbelschleppenkategorie Medium oder Light) vorgesehen. Die verfügbare Restlandebahnlänge beträgt noch 2500 m. Bei nasser Bahn wird die Landeschwelle 26 L nicht betrieben, ebenso darf nur jeweils eine Schwelle je Piste benutzt werden. Durch den Versatz der Landeschwelle ergibt sich bei den zugehörigen Gleitwegen (Einflugschneisen der Flugzeuge) eine Höhendifferenz von etwa 80 m und ein Abstand von 2.5 nautischen Meilen. Forschungsarbeiten der Universität Leipzig belegen, dass die Wirbelschleppen eine maximale Höhe von 70 m ü. Gr. erreichen. Auf dieser Grundlage folgt das leichtere Flugzeug 80 m oberhalb der Flugroute des schwereren Flugzeugs. 
     Während des HALS-Betriebes ist es unbedingt erforderlich, dass alle Luftfahrzeuge während des Anflugs den Landekurs und den Gleitweg genau einhalten, damit die Sicherheit gewährleistet ist. 
     Im Verlauf der betrieblichen Erprobung konnten Einschränkungen des Betriebes hinsichtlich des Wetters aufgehoben und das Betriebsverfahren angepasst werden. Die derzeit gültigen meteorologischen Bedingungen für den HALS-Flugbetrieb sind:
  • Bodensicht mind. 2400 m
  • Hauptwolkenuntergrenze mind. 600 ft ü. Gr. 
  • maximaler Rückenwind 3 kt.
Im Jahre 2000 beauftragte die DFS eine Sicherheitsstudie zur Analyse und Bewertung der mit HALS möglichen Staffelwerte. Hierzu wurde die Wirbelschleppenintensität in Abhängigkeit von der Höhe und der Distanz zum vorausfliegenden Flugzeug vermessen. Es konnte gezeigt werden, dass bei Flugzeugen der Gewichtsklasse Medium, die der Gewichtsklasse Heavy folgen, durch eine Abstandsverringerung auf 2.5 nautische Meilen (wie von HALS vorgesehen und entsprechend der gültigen Radarstaffelung) bei Nutzung der versetzten Landebahnen kein größeres Gefährdungspotenzial auftritt als bei den von der ICAO empfohlenen Grenzwerten.
     Die Stufe 1 der Erprobung von HALS/DTOP wurde im Sommer 2001 erfolgreich abgeschlossen. Ihr Ziel war der Nachweis der Realisierbarkeit des Verfahrens im täglichen Flugbetrieb, zunächst unter Beibehaltung der ICAO-Staffelwerte sowie Gewöhnung der Piloten sowie der Fluglotsen an das veränderte Verkehrsbild. Seitdem befindet sich das Verfahren in der Stufe 2 der Erprobung. Dabei sollen im wesentlichen die Anwendbarkeit des HALS-Verfahrens bei zulässigen Wetterbedingungen unter Anwendung der reduzierten Staffelwerte sowie die erwarteten positiven Auswirkungen auf die Anflugkapazität unter IMC-Bedingungen (Instrumentenwetterbedingungen) nachgewiesen werden. Es ist geplant, im Laufe des Jahres 2002 den HALS-Regelbetrieb aufzunehmen. Voraussetzung hierfür ist eine erfolgreiche Durchführung der Stufe 2 der Erprobung. 
     Die gleichzeitige Nutzung von zwei Landeschwellen auf der Südpiste wird für eine zukünftige Phase von HALS/DTOP untersucht. 

Quellen zur Wirbelschleppenproblematik (beide Artikel):

  • Erprobung des neuen Anflugsystems HALS durch die DFS und der dazu auf der Start- und Landebahn 25L/07R des Frankfurter Flughafens eingerichteten zweiten Landeschwelle 26 L (DTOP). Aeronautical Info. Circ. (AIC IFR) DFS, 7/99.
  • HALS/DTOP Stufe 2 am Flughafen Frankfurt, AIC IFR, 9, Mai 01.
  • CD-ROM Lufthansa Flight Training Center GmbH "Special Airport Familiarization Frankfurt HALS Stage II"
  • Konopka, J.: Prognosen auf solider Basis. www.dfs.de/TO/Forschung/body_page19154.html
  • Wodzinski, R., 1999: Wie erklärt man Fliegen in der Schule? Plus Lucis, Fachdidaktik.
  • Huhnold, M. und Kulikow, A., 2002: FRAPORT AG: pers. Mitt. 
  • Hauf., Th., 2002: Inst. f. Meteorologie, Univ. Hannover, pers. Mitt.
S. Theunert, Wittlich
dmg-sekretariat@t-online.de

Zum Inhaltsverzeichnis


Dem Geheimnis der Aufwindarten auf der Spur

Ein Rückblick auf eine 6-jährige flugmeteorologische Beratungstätigkeit für die Segelflugnationalmannschaft bei Europa- und Weltmeisterschaften sowie bei herausragenden internationalen Rekordflügen zeigt, wie durch eine Kopplung von synoptischer Erfahrung mit modernen numerischen Vorhersageverfahren eine Symbiose mit diesem Hochleistungssport entsteht, die für die Zukunft innovative Ansätze für die moderne Meteorologie erhoffen lässt.
     Es gibt kaum eine andere Sportart, die so eng verbunden und abhängig von der Meteorologie ist, wie der Segelflug - getreu dem Motto "...nur den Kräften der Natur vertrauen!"
     Der dem Vogel nachempfundene Gleitflug faszinierte Otto Lilienthal vor über 100 Jahren, als er 1893 in den Rhinower Bergen bis zu 400 m weite Flüge absolvierte, und erreichte mit dem Flug von Klaus Ohlmann in einem Hochleistungssegler in den argentinischen Anden mit 2.463 km (siehe DMG 03/2001) im Jahr 2000 eine neue Dimension. 
     Heute kann man mit Segelflugzeugen größere Höhen erreichen als die, in denen üblicherweise in der Passagierluftfahrt geflogen wird (der aktuelle Rekord liegt bei 14.938 m), und  es gibt sogar Projekte für den Einstieg in die unteren Bereiche der Stratosphäre. Die Fluggeschwindigkeit moderner Segler steht den Formel-1-Geschwindigkeiten nicht nach.
     Bei den Segelflug-Wettbewerben favorisierte man von Anfang an Aufgaben, bei denen eine vorher definierte Wegstrecke (meist 300-600 km) mit unterschiedlichen Wendepunkten in kürzester Zeit zu umrunden ist. Nach dem Start gibt es ein zeitliches Fenster, innerhalb dessen der Pilot über seinen Abflugzeitpunkt eigenverantwortlich entscheiden kann. Anschließend versucht er, möglichst schnell unter optimaler Ausnutzung der verschiedensten Aufwindarten (primär  thermischer Aufwind, aber auch Hang- und Wellenaufwind) diese Strecke zu absolvieren. Die Dokumentation der Flüge erfolgt seit 1995 mit Hilfe von GPS-Datenrekordern, die die räumlichen Koordinaten im Sekundentakt abspeichern.
     Neben der Frage nach dem optimalen Wetterfenster am Wettbewerbstag ist weiterhin die Kenntnis regionaler mesoskaliger  Erscheinungen von großem Interesse. So entwickelt sich ein Wettbewerbspilot nicht nur zu einem Spezialisten konvektiver Prozesse, auch mit regionalen Windsystemen (Bsp. Böhmischer Wind) bis hin zu geologischen Merkmalen muss er sich in seiner fliegerischen Praxis ständig auseinandersetzen. Die Kenntnis dieser Besonderheiten - zum Beispiel einer eventuell vorhandenen Inhomogenität der Bodenart (Lehmboden, Moorgebiete), die unter Umständen eine Verzögerung der Konvektion verursachen, aber auch das Wissen über den Bewuchs (Vegetationsabschnitt), verschafft ihm einen entsprechenden Vorteil.

Welche Anforderungen werden nun an die Meteorologie gestellt? 
Eine allgemeine Wetterinformation erfolgt am Wettbewerbstag durch einen vom Ausrichter engagierten Meteorologen. Je nach Qualifikation und "Kenntnis der Materie" und dem Zusammenspiel mit dem Sportleiter resultiert daraus eine anspruchsvolle Tagesaufgabe, die prinzipiell die maximal mögliche Streckendistanz beinhaltet.
     Diese Wahl führt die Piloten selten in ein meteorologisch ungünstiges Gebiet mit den kaum zu vermeidenden Außenlandungen. Eine realistische Einschätzung der Prognoseleistung des Meteorologen ist  täglich jedem Piloten am Abend, bei der gemütlichen Biertischrunde der "Rückkehrer" gegeben, unter Umständen aber auch  auf dem Aussenlandeacker weit entfernt vom Ausgangsflugplatz.
    Die Forderung des Pioniers der Flugmeteorologie Walter Georgii nach einer Fluglizenz als notwendige Voraussetzung für das Wirken als Flugmeteorologe, wird in dieser Runde dann nicht selten zitiert! 
     Daraus  ergibt sich ein gewisses Anforderungsprofil der benötigten Forecaster, da er es ist, der letztlich den Erfolg eines etwa 14-tägigen Wettbewerbs positiv, aber auch umgekehrt unglücklich mitgestalten kann. Hinzu kommen die aus Fehlvorhersagen resultierenden Kosten (unnötige bzw. falsche Startaufstellung bei immerhin über 100 Flugzeugen, Rückholtouren, Beschädigungen  des Flugzeugs bei Außenlandungen usw.), die leider schon zu Heimfahrten des vermeintlichen "Übeltäters" führten. Neueinsteiger, die sich vorwiegend auf moderne Modelloutputs stützen, sind bei diesen Wettbewerben ebenfalls hoffnungslos "verloren".
     Einem Teammeteorologen obliegt neben der qualitativen Einschätzung dieser Wettbewerbsvorhersage auch die Empfehlung zur taktischen Umsetzung für die einzelnen Piloten.
     Die Nominierung erfolgt hier jährlich durch die Piloten der Nationalmannschaft sowie durch die Teamleitung! Dies erfordert nicht nur eine jährliche qualitative Einschätzung  der Prognoseleistung des Teammeteorologen, der sich ebenfalls in der Rolle als Wettbewerbsmeteorologe im Vorfeld bewähren muss, es zwingt auch das Team bei den verschiedenen Qualifizierungsmeisterschaften und den damit unterschiedlichen Forecastern eine für sie optimale Lösung anzustreben. Die Punktabstände im Hochleistungssport sind nur noch gering. Ein motiviertes und gut funktionierendes Expertenteam als Teamleitung ist hier unabdingbar. 
     Als notwendige Bedingung gilt, dass der Wetterberater sich relativ schnell synoptisch in die regionalen Besonderheiten des Wettbewerbsgebietes einarbeiten kann. Weiterhin sollte er die tageszeitlichen Veränderungen und Prozesse (Transformation der Luftmasse, mesoskalige Erscheinungen) in dem neuen Vorhersagegebiet umgehend erfassen. Dieser Sachverhalt wurde zum Beispiel bei der Betrachtung der konvektiven Prozesse bei der Europameisterschaft 1996 in Finnland deutlich, wo bedingt durch den Sonnenstand (Mitternachtssonne)  Thermik mit entsprechenden Steigwerten bis spät am Abend (nach 21 Uhr) angetroffen wurde. Dagegen erfolgte in Südafrika bei der WM 2001 gegen 17 Uhr ein abruptes Ende dieser Aufwindart. Anabatische und katabatische Prozesse spielten bei der WM 1997 in den französischen Seealpen eine entscheidende Rolle. Das durch den Tagesgang sich dort einstellende ausgeprägte Brisensystem begeisterte mich nicht nur persönlich bei den Mitflügen. Die kompetente Umsetzung der dabei erlangten speziellen Kenntnisse verhalfen dann letztlich unseren Piloten zu einem taktischen Vorsprung.
     Folgendes Equipment ist meines Erachtens von Vorteil und wird seit 1996 genutzt:

  • Übertragung von synoptischem Beobachtungsmaterial (SYNOP-,METAR- und  TEMP-Meldungen, entweder via Nachrichtensatellit oder Mailboxsysteme bzw. Internet)
  • Aufbereitung mit entspr. Datenauswertesoftware  (z.B. METWATCH, Bruns und Richter, 1995)
  • Verwendung von regionalen Modellen wie des RBL des GeophysBDBw bzw. LM des DWD (im Ausland jedoch auch MM5,  ALLADIN, HIRLAM)
  • statistische Vorhersagesysteme (MOS, Knüpfer, 1996)
  • Nutzung  von PDUS-Satellitenbildern
  • Nutzung einer topographischen Geländedatenbank und entspr. Auswertetools (z.B. Einstrahlungsenergie) bei Flügen in orographisch gegliedertem Gelände
  • Visualisierung bestimmter Prozesse via VIS5D für Briefings bzw. Debriefings
Auf der Grundlage eines einfachen Konvektionsmodells (Neininger und Liechti, 1993) erfolgten in den letzten Jahren wesentliche Verbesserungen im Zusammenhang mit neu erstellten Konvektionskarten des DWD, die sich nun als hervorragendes Basismaterial im PCMET-System  anbieten.

Welche innovativen Ansätze lassen sich nun aus dem Segelflug-sport für die Meteorologie erhoffen?
Der konvektive Scale bereitet auch im Zeitalter hochaufgelöster lokaler Modelle weiterhin Probleme.
Die berechtigte Hoffnung auf eine realistischere Widerspiegelung der konvektiven Prozesse mit Hilfe von nichthydrostatischen Modellen wie dem LM des DWD, wird meines Erachtens durch die Reduzierung von Analysedaten, vor allem von repräsentativen Radiosondenaufstiegs- (Hannover, Dresden) bzw. Bodenbeobach-tungsstellen relativiert. 
     Inwieweit die bereits praktizierte Verwendung von kostengünstigeren Modellflugzeugen als Messplattformen (siehe auch Kali-Gandaki-Expedition der Uni München, WM2002- www.fai.org) eine Verbesserung bringen wird, ist schwer abzuschätzen.
     Bei der bereits erwähnten Flugdokumentation bei Segelflugzeugen mit Hilfe von GPS-Rekordern werden bei einigen Geräten auch Temperatur- und Windmessungen in Zeitabständen abgespeichert. Die Online-Verwendung dieser Daten ist technisch bereits möglich (analog verläuft aktuell ein Großversuch mit Lufthansa-Verkehrs-maschinen).
     Allgemein betrachtet ist jedoch das gesammelte  Datenmaterial (Vertikalgeschwindigkeit, Wind, Temperatur) eines Wettbewerbs von über 100 Flugzeugen in einem begrenzten Gebiet nur  zweckdienlich zur Prüfung bzw. Verifikation der verwendeten Parametrisierungsansätze. Des weiteren scheint die Nutzung der o.g. Messdaten in der Umgebung von Lindenberg (Windprofiler bzw. Radiosondenaufstiegsstelle) im Zusammenhang  mit Turbulenzstudien der Grenzschicht  zumindest in Kombination mit den Erfahrungen dort fliegender Meteorologen interessant. 
Meine mehrjährige Beratungspraxis verdeutlichte, dass eine Kombination aus einer routinierten klassischen synoptischen Feinanalyse und dem Wissen über Aufbau und Funktion numerischer Vorhersagemodelle (vor allem der numerischen Analyse bzw. der verwendeten Parametrisierungsverfahren) sich als optimal erweist.
     Verschiedene Beispiele der letzten Jahre, wie der herausragende Flug des Europameisters- und Vizeweltmeisters Uli Schwenk, der am 21.04.1997, vertrauend  auf die Vorhersage alleine, im Schnee bei geschlossener Bewölkung und straffem Wind sein Flugzeug aufrüstete, im Flugzeugschlepp über die Bewölkung startete und nach über 1000 km wieder glücklich auf  seinem Heimatflugplatz landete (s. a. home.t-online.de/home/Rene.Heise/ks01.htm). Aktuelle Streckenflüge vom Taunus bis zu den Seealpen in Südfrankreich sowie die herausragenden Erfolge der deutschen Nationalmannschaft (Gewinner des Nationencup, mehrere Welt- und Europameister) demonstrieren wie mit Hilfe neuester Erkenntnisse in der Meteorologie auch im Segelflugsport neue Dimensionen erreicht werden.

Literatur

  • Bruns, Th. und Richter B. (1995): TLOGP -Programm zur graphischen Darstellung und interaktiven  Auswertung von Radiosondenaufstiegen mit thermodynamischen Diagrammen. 
  • Heise, R. (1997):  Future aspects of meteorological support for competition flights.  Technical Soaring Vol. XXIIII, No 1,13-16, presented at XXV Ostiv Congress, St. Auban, France.
  • Knüpffer, K. (1996): Methodical and Predictability Aspects of MOS-Systems, Preprint Volume: 13th Conference on Probability and Statistics in Atmospheric Sciences, February 1923, San Francisco, California.
  • Liechti, O. Neininger, B. (1993): Alptherm - a PC based model for atmospheric convection over complex topography, Technical Soaring Vol. XVIII, No.3. 
  • OSTIV-Gruppe (1999): Handbuch der Flugwettervorhersagen, 91 S., DWD, unveröffentlicht.
René Heise
Rene.Heise@t-online.de

Zum Inhaltsverzeichnis


EUROPÄISCHE ZUSAMMENARBEIT

Die Europäische Meteorologische Gesellschaft - Erstes Jahrestreffen und weitere Entwicklung

Es ist schon verwirrend, nicht wahr? Da schließen sich die Meteorologischen Gesellschaften aus ganz Europa 1999 zur EMS zusammen - nachdem nur 10 Jahre zuvor oftmals nicht einmal allen die Existenz der anderen bekannt gewesen war - und dann nimmt die Sache einen so rasanten Verlauf. Beinahe vollständig sind die Gesellschaften aus den Ländern der WMO-Region VI zusammengeschlossen, Serbien und die ehemalige jugoslawische Republik Mazedonien kommen gerade hinzu, und es gibt darüber hinaus 15 Assoziierte Mitglieder, die aus den Reihen von europäischer Organisationen, Wetterdiensten, Geräteherstellern und Dienstleistern kommen. Besuchen Sie doch gelegentlich die Webseiten der EMS http://www.emetsoc.org und dort insbesondere die Europakarte und die"Firmenschilder".
     Verwirrend mag es auch aussehen, welche Treffen die EMS initiiert. In aller Regel trifft sich die Vollversammlung, das ist der höchste Souverän (die EMS General Assembly) einmal pro Jahr und der Rat (EMS-Council) zweimal pro Jahr - das zweite Mal möglichst in zeitlicher und örtlicher Nähe zur General Assembly. Seit 2001 hat die EMS darüber hinaus eine Konferenzenreihe ins Leben gerufen, die EMS Annual Meetings. Damit es sich leichter merkt, gab es also im September 2001 das 1st Annual Meeting of the EMS - in Budapest in Zusammenarbeit mit der ECAM2001; an zwei Tagen wurde ein hochkarätig besetztes Symposium zur Zukunft der Meteorologie in Europa und ein Round Table veranstaltet. Zudem fanden - das ist doch kosteneffizient gedacht, oder? - ein Ratstreffen und eine Vollversammlung statt. Das 2nd Annual Meeting wird dann in Brüssel sein, benachbart zur European Conference on Applied Climatology (ECAC).
     Die EMS hat sich nicht zur Aufgabe gesetzt, Räder komplett neu zu erfinden oder in Konkurrenz zu bestehenden Strukturen zu treten; vielmehr wird sie sich Feldern annehmen, die entweder brach liegen, oder durch Synergie viel effizienter beackert werden können. Nachdem die EMS zu leben begonnen hat, soll sie bitteschön auch agieren. Eingedenk dieser Tatsache wurde durch den Rat der EMS ein Aktivitätskonzept erarbeitet und vorbereitet; in Budapest gründeten sich die vier Komitees für Fragen der fachliche Eignung (Accreditation), Bildungsfragen (Education), Medienfragen (Media) und Konferenzen (Meetings). In diesem Heft der DMG-Mitteilungen stellen sich diese vier Komitees vor. Weitere sind in Planung: Preise (Awards) und Veröffentlichungen (Publications).

Arne Spekat
EMS-Sekretär
ems_sec@met.fu-berlin.de

Zum Inhaltsverzeichnis


EMS-Konferenzkomitee

Einleitung
Eines der vier neu gegründeten Komitees der EMS wird auf dem Sektor Konferenzorganisation tätig sein. Der Wunsch nach einer koordinierenden, gemeinsam organisierenden und gegebenenfalls bündelnden Einrichtung besteht  bereits seit geraumer Zeit. Auf europäischer Ebene existiert eine Reihe von im mehrjährigen Zyklus abgehaltener Fachkonferenzen. "Zwischen den Jahren" gibt es dann einige Konferenzen auf europäischem Niveau oder zumindest mit stark entwickelter europäischer Komponente, z.B. auf den Feldern Angewandte Meteorologie, Angewandte Klimatologie, Radar, Gebirgsmeteorologie, Tornados (doch, wirklich, auch wenn Sie davon vielleicht noch nicht viel hörten: Im August 2002 gibt es in Prag die zweite EUROTORNADO-Konferenz). Diese Veranstaltungen haben aber eher einen ephemeren Charakter, so dass die EMS hier auf Wunsch koordinierend und Infrastruktur gebend tätig werden kann. Ein wesentliche Komponente sollte hierbei die Vermeidung von Themenüberschneidungen sein - bitte glauben Sie nicht, dass solche Aspekte immer beherzigt werden und potenzielle Veranstalter immer gut im Bilde sind, welche "Konkurrenzveranstaltungen" stattfinden.
     Auch bei regionalen Konferenzen, die von einer einzelnen Gesellschaft u.U. nicht zu organisieren sind, kann die EMS durch ihr Konferenzkomitee unterstützen. Dieses zentrales Anliegen hat die EMS in ihrer Satzung festgehalten. Der Rat der EMS hat bei seiner Sitzung in Budapest 2001 beschlossen, auf der Basis des folgenden Grundlagenkatalogs ein EMS Konferenzkomitee einzurichten.

Grundlagenkatalog
Auf der Grundlage existierender Tagungs- und Konferenzzyklen wird das Konferenzkomitee Veranstaltungen ausmachen, die für die EMS von besonderem Interesse sind und dem Rat der EMS ein  diesbezügliches Engagement vorschlagen.
     In Bezug auf  "neue" Tagungen, die beispielsweise aus den Aktivitäten der EMS oder anderen Aktivitäten aus der Community erwachsen wird das Konferenzkomitee

  • zukünftige Konferenzen festlegen (Themen, Orte, Daten) und dem Rat vorschlagen
  • dem Rat ein wissenschaftliches Komitee für jede dieser Konferenzen vorschlagen
  • ein passendes Organisations-Netzwerk empfehlen.
Diese Tagungen können Einzeltreffen oder Teil des Jahrestreffens der EMS (EMS Annual Meeting) sowie europäische oder internationale Konferenzen sein. Diese  können in oder außerhalb Europas durch die EMS oder andere Gesellschaften, wie z.B. die EGS oder die AMS, mitorganisiert werden -entweder direkt oder durch das EMS-Sekretariat. Das Ziel ist, überschneidende oder konkurrierende Veranstaltungstermine zu vermeiden.
     Das Komitee wird nicht direkt in die Arbeit der Tagungsorganisation einbezogen sein, aber dafür Sorge tragen, dass die entsprechenden Wissenschaftskomitees eng mit den Veranstaltern zusammenarbeiten. Es wird auch Aspekte wie die Realisiertbarbeit und die Finanzen erücksichtigen.
     Das Komitee dient als Informationsquelle für die EMS-Community, insbesondere werden Konferenzseiten innerhalb der EMS-Webseiten erstellt und aktuell gehalten.

Geschäftsordnung

  • Die Komiteemitglieder, auch der Vorsitzende und sein Stellvertreter, werden vom Rat der EMS für zwei Jahre ernannt. Sie können ihre Funktion für eine oder mehrere weitere Perioden ausüben. Im Komitee muss mindestens ein Ratsmitglied sitzen. Das Komitee kann dem Rat neue Mitglieder vorschlagen.
  • Die Arbeit des Komitees erfolgt im Wesentlichen auf dem Fernkommunikationswege.
  • Das Komitee ist dem Rat der EMS berichtspflichtig.
Zusammensetzung des EMS-Konferenzkomitees
In folgender Zusammensetzung wird das Komitee seine Arbeit aufnehmen:
  • Dominique Marbouty (ECMWF, Vorsitzender)
  • Durch die RMS bestimmtes Mitglied (Stellvertreter)
  • Luigi Mariani (Italien)
  • Claude Pastre (EUMETNET)
  • Erik Liljas (SMHI)
  • René Morin (EMS, SMF)
  • Arne Spekat (EMS, Komiteesekretariat)
Grundlagenkatalog, Geschäftsordnung und Anfangszusammensetzung nach einem Text von Dominique Marbouty, René Morin und Arne Spekat (Übersetzung: Arne Spekat)

Arne Spekat
EMS-Sekretär
ems_sec@met.fu-berlin.de

Zum Inhaltsverzeichnis


Das EMS-Komitee für Medienfragen

Welche Wissenschaft ist schon in der privilegierten Lage, täglich im Kontakt mit der Öffentlichkeit zu sein? Und dabei noch unter ihrer gespannter Aufmerksamkeit. Auch wenn an der Schnittstelle Medien und Wissenschaft ein immens breites Spektrum an Vermittlungstechniken zum Einsatz kommt, so gilt es doch, ein sorgfältig bemessenes Quantum an Ernsthaftigkeit und Wissenschaftlichkeit zu bewahren. Der bunten Medienlandschaft daraufhin lernend und lehrend und koordinierend zu begegnen ist Anliegen eines Komitees der EMS. Es wurde im September 2001 in Budapest aus der Taufe gehoben. Aus ihrem Grundlagenkatalog sei hier zitiert.

Das EMS-Komitee für Medienfragen soll

  • untersuchen, auf welche Weise die Wetterpräsentatoren einen Einfluss auf die Öffentlichkeit haben,
  • den Dialog zwischen Journalisten und Meteorologen stimulieren,
  • als Forum für den Erfahrungsaustausch zwischen Medienmeteorologen in verschiedenen Ländern dienen,
  • mit den Wetterpräsentatoren und Mitgliedern der American Meteorological Society (AMS), der International Association of Broadcast Meteorologists (IABM) zusammenarbeiten,
  • Ausbildungsaktivitäten für Journalisten (Kurse, Workshops) koordinieren und gegebenenfalls mitveranstalten,
  • Grundlagenpakete für Pressekonferenzen und generelle Informationen für Journalisten erarbeiten (Kurzmitteilungen bei besonderen oder ungewöhnlichen Wetterereignissen und Klimaphänomenen),
  • Kurse und Workshops zu Präsentationstechniken für Meteorologen veranstalten und Hilfen bei der Formulierung von Wettermeldungen für die Öffentlichkeit geben,
  • eine Bibliographie und ein Videoarchiv für Meteorologen, die mit den Medien arbeiten aufbauen,
  • das Fernziel einer Harmonisierung der Zertifizierungsrichtlinien für Medien-Meteorologen in Europa verfolgen.
Das Komitee wird aus nationalen Vertretern bestehen. So sollten nationale Besonderheiten berücksichtigt werden können. Die Mitglieder, der Vorsitzende und sein Stellvertreter, werden vom Rat der EMS für zwei Jahre ernannt und sind wiederwählbar. Das Komitee ist dem Rat berichtspflichtig. Zumindest ein Ratsmitglied der EMS sollte dem Komitee angehören. Die derzeitige Vorsitzende des Komitees für Medienfragen ist Tanja Cegnar aus Slowenien.
Tanja Cegnar: Terms of Reference  (Einleitung und Übersetzung: Arne Spekat)

Arne Spekat
EMS-Sekretär
ems_sec@met.fu-berlin.de

Zum Inhaltsverzeichnis


EMS-Komitee für Fragen der fachlichen Eignung berufstätiger Meteorologen

Qualitätskontrolle und verbindliche Richtlinien zur Anerkennung als beratender Meteorologe oder als Vorhersagemeteorologe sind seit jeher ein wichtiges Feld, auf dem eine meteorologische Gesellschaft Expertise und Leumund einbringen kann. Es gibt in den verschiedenen Ländern recht unterschiedliche Modelle, wobei das Spektrum vom "staatlich anerkannten" Status, vergleichbar dem Zertifikat einer Handelskammer bis zur Anerkennung nach dem Beweis des Augenscheins - etwa nach dem Prinzip "wenn die Akademie der Wissenschaften jemanden aufnimmt, dann muss er/sie ja wohl etwas taugen" geht. Die Harmonisierung bestehender Anerkennungsverfahren ist somit ein nicht von Dornen freies Unterfangen - genau das Richtige für die EMS, denn sie hat sich zur Aufgabe gesetzt, Themen wie dieses nationen-übergreifend anzupacken.
      In Budapest wurde 2001 ein entsprechendes EMS-Komitee ins Leben gerufen, aus dessen Grundsatzkatalog hier zitiert wird. 

Das Komitee soll
a) innerhalb von 18 Monaten nach seiner Einberufung einen Vergleich der Anerkennungsverfahren für berufstätige Meteo-rologen in europäischen und anderen Ländern vornehmen und den Mitgliedsgesellschaften der EMS gut realisierbare Vorgehensweisen für die Anerkennung empfehlen und Verfahren für die Einführung vorschlagen. Damit soll es Meteorologen aus einer Mitgliedsgesellschaft oder von einem assoziierten Mitglied mit Stammsitz in Europa erleichtert werden, in jedem Land Europas einen Arbeitsplatz zu finden;
b) binnen 18 Monaten nach seiner Einberufung einen Vergleich verpflichtender Anerkennungsrichtlinien für berufstätige Meteorologen in europäischen und anderen Ländern durchführen, 
c) einen Überblick dazu erarbeiten, welche Selbstkontrollmechanismen in anderen Berufen existieren (der Bezugsrahmen sind die Länder der Mitgliedsgesellschaften, aber auch andere Regionen);
d) binnen drei Jahren nach seiner Einberufung Empfehlungen zu weiteren Anerkennungs- und Kodex-Praktiken vorlegen. 

Das Komitee soll aus Repräsentanten jeder interessierten Gesellschaft bestehen, wobei mindestens ein Ratsmitglied der EMS Mitglied sein soll. Zunächst soll der Vorsitz des Komitees für eine zweijährige Amtszeit vom Rat der EMS einberufen werden. Verlängerungen für weitere zweijährige Perioden sind auf Ratsbeschluss hin möglich. Das Komitee wird seine Aktivität in der Regel auf dem Korrespondenzwege (hauptsächlich per e-mail) durchführen. Der Vorsitzende, David Axford (Royal Meteorological Society) ist dem Rat der EMS gegenüber berichtspflichtig. Für die DMG wird Prof. Lutz Hasse dem Komitee angehören.

David Axford, Arne Spekat. Auszüge aus den Terms of Reference for an EMS Committee on Accreditation and Professional Practices (Übersetzung Arne Spekat)

Arne Spekat
EMS-Sekretär
ems_sec@met.fu-berlin.de

Zum Inhaltsverzeichnis


Das EMS Komitee für Bildungsfragen

Seit Beginn der Zusammenarbeit von meteorologischen Gesellschaften in Europa in Oxford 1993 ist die Bildung ein zentrales Thema. Die Gründe sind offensichtlich:
(a) die meteorologische Bildung befasst sich mit einer Wissenschaft, die zutiefst multidisziplinär bezüglich ihrer Voraussetzungen und ihrer Anwendungen ist,
(b) sie bedient und unterstützt viele sozio-ökonomische Bereiche und bezieht Beteiligte mit verschiedenem intellektuellen Hintergrund ein,
(c) sie betrifft das tägliche Leben der Mehrheit aller, indem sie Mitteilungen verständlich macht, die bisweilen schwierig zu interpretieren sind, und,
(d) sie trägt zu unserem Bewusstsein der uns umgebenden Atmosphäre bei.

Die meteorologischen Gesellschaften Europas versuchen mit der Einrichtung eines EMS Komitees  für  Bildungsfragen eine gemeinsame Vorgehensweise zu entwickeln, welches in vielen Einzelländern schwierig ist. Das Komitee sollte nicht selbst Aktionen ausführen, sondern Information zusammentragen, gemeinsam befinden, welche EMS-Aktionen durchführbar sind, und dann Plankonzepte beim Rat der EMS zur Beratung und zu Beschlüssen vorlegen. Das Komitee sollte auch nicht zu groß sein. Komiteemitglieder können persönlich an EMS-Aktionen beteiligt sein.
     Auf Beschluß des EMS-Rates (5. Sitzung, Budapest, September 2001) wurde ein Komitee für Bildungsfragen mit dem nachfolgend in Auszügen wiedergegebenen Grundlagenkatalog  eingerichtet:

  • Die Aufgaben des Komitees sind:
(a) Definition von Zielen und Handlungsoptionen in Bezug auf Bildungsfragen der Meteorologie in Europa, unter Einschluß von angewandten Fragestellungen oder sachverwandten Gebieten;
(b) Auswahl möglicher Beteiligter und Einrichtungen, die verant-wortlich für die Durchführung der Aufgaben des Komitees sein sollen;
(c) Einbinden von Einrichtungen, Einzelpersonen und Programmen, bei denen meteorologische Bildung, ein Dialog über Meteorologie oder ihre Anwendungen vorkommt oder vorkommen könnte;
(d) Entwicklung eines Strategieplans während des ersten Jahres des Komitees mit Zeitmarken und wichtigen Zielen, aus dem ersichtlich wird, wie (a) bis (c) erreicht werden können;
(e) Erstellen eines Ständigen Plans, der in zweijährigem Abstand zu evaluieren ist und in dem der Fortschritt herausgearbeitet wird.
  • Das Komitee sollte auf eine ausgewogene Verteilung der Bildungsaktivitäten zwischen folgenden Bereichen hinarbeiten:
- Grundschule;
- Mittel- und Oberschule;
- Universitäten und gleichartige akademische Bildungseinrichtungen;
- Berufliche Weiterbildung in staatlichen Wetterdiensten und privaten Wetterfirmen;
- Bildung der Öffentlichkeit.
  • Das Komitee sollte in Europa Kontakte mit den Organisatoren verschiedener nationaler Bildungsprojekte für Meteorologie und verwandte Fachgebiete aufbauen. Weiterhin sollte sich das Komitee über existierende Bildungsaktivitäten der EU sowie außerhalb Europas bzw. über die verschiedenen internationalen Projekte wie Globe oder Project Atmosphere informieren.
  • Die Mitglieder der EMS werden vom Rat der EMS dazu aufgefordert, Komitee-Mitglieder ihrer Gesellschaften zu benennen, die sowohl auf dem Gebiet der meteorologischen Bildung erfahren sind als auch über hinreichend Zeit zur Arbeit im Komitee verfügen. Aus den Nominierten wird der Komitee-Vorsitzende eine Gruppe aussuchen, die die Arbeitsgebiete in vernünftigem Maße abdecken. Der Rat der EMS benennt für das Komitee einen Vorsitzenden.
  • Der Komitee-Vorsitzende ist dem Rats der EMS berichtspflichtig.
  • Im Abstand von zwei Jahren wird der Rat der EMS die Mitgliedschaft im Komitee begutachten und gegebenenfalls modifizieren.
  • Zur Zeit (März 2002) besteht das Komitee aus
- Agueda Benito Capa (Spanien)
- Kees Floor (Niederlande)
- Marina Gric (Kroatien)
- Tomas Halenka (Tschechische Republik)
- Lucka Kajfez-Bogataj (Slowenien)
- Pal Kirkeby Hansen (Norwegen)
- Vincent Pircher (Frankreich)
- Nikos Prezerakos (Griechenland)
- Ross Reynolds (Großbritannien)
- Arne Spekat (Sekretär, EMS)
- Carola Sundius (Finnland)
- Jon Wieringa (Vorsitzender, Niederlande)
- Christian Zick (Deutschland)
- Sabino Palmieri (Kontakt zu den italienischen Gesellschaften)

Jon Wieringa, Komitee-Vorsitzender (Übersetzung: Arne Spekat)

Arne Spekat
EMS-Sekretär
ems_sec@met.fu-berlin.de

Zum Inhaltsverzeichnis


DACH-MT 2002: Verleihung des Julius-Hann-Preises der ÖGM an Heinz Fortak
 
 

Die Laudatio zu diesem Preis hielt H. Pichler, Innsbruck. Nach der Begrüßung der Zuhörer fuhr er fort:

Die Österreichische Gesellschaft für Meteorologie hat beschlossen, Herrn Univ. Prof. Dr. Heinz Fortak von der FU Berlin, in Würdigung seiner hervorragenden Leistungen auf dem Gebiet der Meteorologie im allgemeinen und seiner Verbundenheit mit der österreichischen Meteorologie im speziellen, die "Goldene Julius von Hann-Medaille" zu verleihen. Lieber Heinz, ich darf Dir zu dieser hohen Auszeichnung recht herzlich gratulieren!
     Die "Goldene Julius von Hann-Medaille" wurde von der ÖGM im Jahre 1898 anlässlich der Übersiedlung von Julius von Hann nach Graz gestiftet. Er hatte nämlich wegen Verwaltungsüberlastung die Direktion der Zentralanstalt in Wien zurückgelegt. Die goldene Medaille wurde ihm selbst feierlich verliehen, mit dem Recht, silberne seinerseits zu verleihen. Hann hat von diesem Recht auch bald Gebrauch gemacht und seinen Nachfolger J.M. Pernter damit ausgezeichnet. Nun aber zur Gegenwart.
     Prof. Dr. Heinz Fortak wurde am 11. August 1926 in Berlin geboren. Dort besuchte er auch die Grundschule und das Gymnasium. Nachdem er vom zweiten Weltkrieg und aus sowjetischer Gefangenschaft glücklich heimgekehrt war, studierte er in Berlin an der mathematisch-naturwissenschaftlichen Fakultät zunächst Mathematik und Physik, wechselte aber später zum Fach Geophysik - im weitesten Sinn des Wortes, Meteorologie und Ozeanographie einschließend. Die Lehrer, die ihn am meisten beeindruckten und auch nachhaltig beeinflussten, waren der Mathematiker E. Schmidt und sein Doktorvater, der theoretische Geophysiker H. Ertel. Ertel erkannte bereits frühzeitig die außerordentliche Begabung von Heinz Fortak, und er setzte ihn gleich nach Abschluss seines Diploms voll in den Vorlesungsbetrieb seines Instituts ein. 1955 promovierte Heinz Fortak zum Dr. rer. nat. mit einer Arbeit über "Das allgemeine Anfangs- und Randwertproblem für die Berechnung von Suspensionsverteilungen in turbulenten Strömungen", eine weit vorausblickende Thematik, die ihn während seiner wissenschaftlichen Laufbahn immer wieder begegnen sollte. 
     Mit der österreichischen Meteorologenschule kam Heinz Fortak bereits frühzeitig in Berührung, war doch Hans Ertel Schüler der Österreicher A. Defant und H. v. Ficker, die zu Ertels Lehrjahren in Berlin lehrten und die er überaus schätzte. Ebenso schätzte Hans Ertel den allzu früh verstorbenen F.M. Exner sehr. Die Assistentenzeit von Heinz Fortak bei Hans Ertel war sehr kreativ und prägte seinen wissenschaftlichen Stil entscheidend, der sich durch Klarheit, Eleganz und Übersichtlichkeit auszeichnet. 1957 wechselte Heinz Fortak zur FU Berlin und habilitierte sich mit der Arbeit "Zur Verwendung generalisierter zeitabhängiger Koordinaten in den Grundgleichungen der theoretischen Meteorologie", eine grundlegende und richtungsweisende Arbeit zu diesem Problemkreis. 1960 ging Heinz Fortak nach Miami, USA, wo er sich mit der Theorie der Zugbahnen von Hurricanes und der Theorie von Sturmfluten befasste. Der USA-Aufenthalt sollte nur ein Jahr dauern. Auf Grund einer Initiative von Prof. R. Scherhag wurde 1961 an der FUBerlin ein Ordinariat für "Theoretische Meteorologie" geschaffen, das mit Heinz Fortak besetzt wurde. Es war dies das erste seiner Art in der BRD, verbunden mit der Errichtung eines selbständigen Instituts, das infolge diverser Reformen bedauerlicher Weise heute nicht mehr existiert.
     Es begann nun mit Heinz Fortak eine sehr erfolgreiche Aufbauarbeit für das Fachgebiet "Theoretische Meteorologie" an der FU Berlin, sowohl in der Lehre als auch in der Forschung. In der Lehre beschritt Heinz Fortak neue Wege. Sein (fast) ganzer Vorlesungszyklus "Theoretische Meteorologie" und darüber hinaus Spezialvorlesungen konnten dank einer institutseigenen Druckerei kostenlos an die Studenten/innen abgegeben werden. Die sogenannten "grauen Hefte" des Instituts für theoretische Meteorologie an der FU Berlin waren sehr beliebt und weit verbreitet. Sie zeichneten sich durch das hohe Niveau des Gebotenen aus. Die Forschung ruhte auf zwei Säulen: (1) der Grundlagenforschung auf dem Gebiet der Hydrodynamik und theoretischen Meteorologie und (2) der meteorologischen Umweltforschung (Ausbreitung von Schadstoffen in der atmosphärischen Grundschicht). Durch seine erfolgreiche Aufbauarbeit in Berlin konnte sich Heinz Fortak innerhalb kurzer Zeit ein hohes Ansehen in der Fachwelt erwerben, so dass Rufe an andere Universitäten bzw. Hochschulen eine logische Folge waren: Innsbruck (1969); Hannover (1971), Köln (1973), Zürich (1973), München (1974). Weiters gingen zahlreiche Anfragen bei Heinz Fortak ein. Diese Liste spricht für sich und weist Heinz Fortak als begehrten Universitätslehrer und Wissenschafter aus. Er blieb aber der FU Berlin treu. Auch verantwortungsvolle Funktionen in leitender Position blieben nicht aus. Über viele Jahre war Heinz Fortak Obmann des VDI-Hauptausschusses "Ausbreitung und Niederschlag von Staub und Gasen" bzw. Obmann von Unterausschüssen davon. Ferner war er Sprecher des SPAAZ (Simulationsprojekt Allgemeine Atmosphärische Zirkulation). Die Berliner Gruppe spielte dabei die Rolle eines "Kristallisationspunktes" dieses für die damalige Zeit für die BRD  richtungsweisenden und beispielgebenden Projektes. Darüber hinaus war Heinz Fortak - in Beurlaubung von der FU Berlin - von 1973 bis 1976 am Institut für Physik der Atmosphäre der DLR in Oberpfaffenhofen leitend in der Position eines Direktors tätig, wobei er erfolgreich die kleinklimatologischen Auswirkungen der Kühltürme von Großkraftwerken untersuchte. Hier zeigt sich die Doppelbegabung von Heinz Fortak: Er ist nicht nur ein hervorragender Theoretiker, sondern er hat auch eine außerordentliche Begabung auf dem Gebiet der experimentellen Meteorologie. Seine Messflüge durch Kühlturmfahnen - er besitzt selbst einen Pilotenschein - trugen viel zur Klärung strittiger Fragen bei.
     Er konnte auf diese Weise, also experimentell, dann aber auch theoretisch zeigen, dass bei der Abführung von entschwefelten Rauchgasen der Kraftwerke die Kühlturmlösung aus Umweltgründen der Schornsteinlösung vorzuziehen ist. Heinz Fortak war auch ein überaus gefragter Gutachter auf dem Gebiet der Schadstoffausbreitung in der Atmosphäre. Eine Gastprofessur an der New York University und gleichzeitig eine "Research Associate" Professur am NASA Institute for Space Studies (1964 für vier Monate), eine Gastprofessur im Frühlingssemester 1967 an der TU Istanbul, sowie eine dauernde Honorarprofessur an der TU Hannover - mit Lehre von 1970 bis1974 - runden das Bild über die umfangreiche und erfolgreiche Lehr- und Forschungstätigkeit von Heinz Fortak ab. Darüber hinaus war Heinz Fortak über 10 Jahre Vorsitzender des ZV Berlin der DMG und in dieser Eigenschaft um ein erfolgreiches wissenschaftliches Leben der Berliner meteorologischen "Community" bemüht.
     Es fällt schwer, in der kurzen mir zur Verfügung stehenden Zeit das wissenschaftliche Werk von Heinz Fortak zu würdigen. Ich will es versuchen. Es ist äußerst vielfältig und umfangreich - über 150 Publikationen - und umfasst ein weitgespanntes Spektrum, von Arbeiten zu den grundlegenden Problemen der Hydrodynamik und der theoretischen Meteorologie bis zu Arbeiten zur Theorie und Praxis der turbulenten Grenzschicht bzw. der Theorie der turbulenten Dispersion in der Atmosphäre, der Praxis der Ausbreitungsrechnung sowie zum meteorologischen Umweltschutz. Zur Ausbreitungsrechnung muss gesagt werden, dass hier Heinz Fortak echte Pionierarbeit geleistet hat. Er hat im sogenannten "Bremer Modell" den Weg aufgezeigt, wie man von einer Einzelquelle mit einer (oft nicht sehr repräsentativen) Vorbelastung des Geländes zu einem Multiquellen-Modell für Städte und Regionen auf Grundlage eines zeitabhängigen Emissionskatasters gelangt. Ein heute gängiges Ver-fahren, zu Beginn der 60er Jahre ein Novum. Auf dem Gebiet der Grundlagenforschung beschäftigte sich Heinz Fortak, wie bereits erwähnt, mit der atmosphärischen Turbulenz der Grundschicht, mit der Wirbeldynamik, der Allgemeinen Zirkulation und der Energetik der Atmosphäre (einschließlich entropischer Betrachtungen). Weiters müssen noch seine Arbeit über die Verallgemeinerung des Darboux'schen Vektors und eine seiner jüngsten Arbeiten über "Local Balance Equations for Atmospheric Exergies and Anergies" erwähnt werden. Frühzeitig befasste sich Heinz Fortak aber auch mit den Problem dem Grenzen der Vorhersagbarkeit deterministischer Modelle, heute eines der wichtigsten Themen synoptisch-meteorologischer Forschung. Dies führte ihn zur Beschäftigung mit der Theorie stochastisch-dynamischer Vorhersagen und in der Folge mit nichtlinearer Dynamik und Strukturbildung sowie mit dem "Gedächtnis" in der Atmosphäre. Fortak's Forschungen gehen aber weit über das Gebiet der Meteorologie hinaus. Im Zuge des Einbaus der Strahlung in eine meteorologische Thermo-Hydrodynamik erweiterte er diese zu einer allgemeinen relativistischen Theorie der "Fluide".
     Die Arbeiten von Heinz Fortak zeichnen sich durch Klarheit, innere Logik und Eleganz in der mathematischen Formulierung aus. Hier steht er ganz in der Tradition seines Lehrers Hans Ertel, die er mit großem Geschick sehr erfolgreich weiterentwickelte. Fortak's Arbeiten sind richtungsweisend. Die Verallgemeinerung von Prinzipien haben bei ihm einen hohen Stellenwert. Er ist geradezu ein Meister von Verallgemeinerungen. Heinz Fortak versteht es aber auch, komplizierte Sachverhalte ohne Mathematik in klarer Sprache einem weiten interessierten Publikumskreis nahe zu bringen. Davon zeugen seine zahlreichen Vorträge bzw. sein Buch "Meteorologie" in der Reihe "Wissen der Gegenwart", herausgegeben von Wernher von Braun (1. Auflage 1971, Carl Habel Verlagsbuchhandlung Berlin - Darmstadt; 2. erweiterte Auflage 1982, Dietrich Reimer Verlag Berlin). Im Aufbau unkonventionell, wird in Fortak's "Meteorologie" der Leser in das weite Feld der Meteorologie eingeführt. Es ist ein Vergnügen dieses Buch zu lesen: sachkundig und informativ. Angesichts des großen Fortschrittes in der Meteorologie in den letzten 20 Jahren wäre eine 3. überarbeitete Auflage dieses lesenswerten Buches sehr wünschenswert.
     In Anbetracht der hervorragenden wissenschaftlichen Leistungen von Heinz Fortak blieben natürlich Ehrungen nicht aus: 
1980: Internationaler Rheinlandpreis für Umweltschutz. 
1983: ordl. Mitglied der Deutschen Akademie der Naturforscher "Leopoldina" zu Halle/Saale. 
1987: Ehrenmedaille des Vereins Deutscher Ingenieure. 
1988: "Symons Memorial Lecturer" des Jahres 1988 der Royal Meteorological Society,London, in Würdigung der seltenen Kombination theoretischer und experimenteller meteorologischer Arbeit.
1988: korresp. Mitglied im Ausland der Österreichischen Akademie der Wissenschaften, Wien. 
1992:"C.F.Gauß - Professur"des Jahres 1992; verliehen von der Universität und Akademie zu Göttingen als höchste Auszeichnung dieser beiden Institutionen. 
1992: "Alfred Wegener - Medaille" der Deutschen Meteorologischen Gesellschaft. 
2001: Verdienstkreuz der Bundesrepublik Deutschland für Verdienste um den meteorologischen Umweltschutz. 

Es freut mich sehr, dass sich die Österreichische Gesellschaft für Meteorologie in Würdigung der hervorragenden Leistungen auf dem Gebiet der Meteorologie, die Heinz Fortak erbracht hat, diesen Ehrungen anschließt und anlässlich der Feier zum 150-jährigen Bestehen der Zentralanstalt für Meteorologie und Geodynamik und des Instituts für Meteorologie und Geophysik an der Universität in Wien Herrn Univ. Prof. Dr. Heinz Fortak die "Goldene Julius von Hann-Medaille" als höchste Auszeichnung, die die ÖGM zu vergeben hat, verleiht. Herzlichen Glückwunsch! 

Helmut Pichler
Innsbruck

Zum Inhaltsverzeichnis


Preisverleihung der Stiftung Umwelt und Schadenvorsorge während der DACH-MT 2001




Die SV Gebäudeversicherung, Stuttgart, hat in ihrem Jubiläumsjahr 1998 die "Stiftung Umwelt und Schadenvorsorge" gegründet. Mit dieser Stiftung will die SV Gebäudeversicherung einen Beitrag zur Minimierung von Katastrophenschäden leisten. Die Stiftung, die mit der Akademie für Technikfolgenabschätzung in Baden-Württemberg satzungsmäßig in Kuratoriumsvorsitz und Geschäftsführung verbunden ist, soll die Rolle einer Ideenschmiede für grundsätzlich neue Ansätze in der Schadenvorsorge übernehmen, Initialzündungen für langfristig wirkende Maßnahmen geben sowie eine Art Plattform für neue Ansätze in der Schadenvorsorge sein. Thematische Schwerpunkte der Förderung sollen unter den Vorgaben einer Analyse der Schadenursachen und der Schadenprävention/begrenzung insbesondere die folgende Bereiche sein: Meteorologie, Seismologie, Bauingenieurwesen (Erde, Wasser, Luft, Bemessung),  Bodenmorphologie,  Klimabedingte Umweltschäden. Als Instrumente zur Umsetzung des Stiftungszwecks sind vorgesehen:

  • Vergabe eines Preises,
  • Prämierung von wissenschaftlichen Arbeiten,
  • Förderung von Forschungsprojekten,
  • Förderung von Tagungen,
  • Förderung der Entwicklung von Vorsorgemaßnahmen.


Wissenschaftliches Arbeits- und Förderprogramm 2001/2002
Die thematische Ausrichtung für das wissenschaftliche Arbeits- und Förderprogramm für die Jahre 2001/2002 ist das Thema "Luft" unter Bezug auf das Starkwindereignis "Lothar" und in Ergänzung dazu das Thema "Wasser" mit dem Regionalbezug auf Baden-Württemberg.

Prämierung von wissenschaftlichen Arbeiten

  • Ausschreibung des Preises 2002 "Sturmschäden: Vorsorge, Vermeidung, Nachsorge" mit einem Preisgeld von insgesamt 60.000 DM, das auf drei Preisträger verteilt wird,
  • Prämierung des besten Beitrags eines Studenten/Nachwuchswissenschaftlers im Rahmen von Fachveranstaltungen, die einen gewissen Bezug zur Stiftungsarbeit und zum Stiftungszweck haben. Der beste Beitrag wird mit 500 DM prämiert.
Das Vermögen der Stiftung beträgt 4.000.000 DM (2.045.168 Euro). Die jährlichen Erträge aus dem Stiftungskapital stehen für die genannten Förderzwecke zur Verfügung. 

Kontaktadresse: Stiftung Umwelt und Schadenvorsorge der SV Gebäudeversicherung, Stuttgart, Sigrid Berner Geschäftsführerin, Industriestraße 5, 70565 Stuttgart, Telefon: 0711/ 9 06 32

Der Nachwuchsförderpreis wurde Frau Katja Weber während der DACH-MT 2001 verliehen. Die Preisverleihung nahm Prof. Fiedler vor.

Zum Inhaltsverzeichnis


Meteorologische Zeitschrift nun auch auf dem Citation-Index!

Als die Meteorologische Zeitschrift und die von der DMG, der ÖGM (Wien) und der SGM (Zürich) gemeinsam erworbene Zeitschrift "Beiträge zur Physik der Atmosphäre" im Jahre 2000 unter dem Namen Meteorologische Zeitschrift "ans Netz" gingen, waren die Ziele hochgesteckt. Sie wurden in ihrer Ambition vielleicht sogar von einigen Kollegen belächelt. Eines der ganz zentralen Ziele war - neben der Steigerung der Seitenzahl - das Erreichen der so genannten Citation Indices. Gerade dies ist besonders schwierig, denn die Konkurrenz ist groß und die Kriterien streng. Es sei an dieser Stelle unterstrichen, dass das Werk gelungen ist und seit vergangenem Jahr die Meteorologische Zeitschrift in verschiedenen Citation-Indices geführt. Es sei stellvertretend eine Internet-Adresse genannt:www.prestigefactor.com. Damit zeigt sich, dass der erfolgreiche Weg der Meteorologischen Zeitschrift im internationalen Umfeld zügiger als erwartet beschritten wird und zunehmend zur Kenntnis genommen wird; die Meteorologische Zeitschrift nimmt nunmehr einen Platz ein, der sich zukünftig bei weiterhin qualitätsvollen Artikeln stetig verbessern dürfte.

G. Tetzlaff, DMG-Zeitschriftenbeauftragter, Leipzig
A. Spekat, Schriftleiter der Meteorologischen Zeitschrift, Berlin

Zum Inhaltsverzeichnis


Neues vom Jahr der Geowissenschaften 2002

Das Bundesministerium für Bildung und Forschung und die Initiative Wissenschaft im Dialog haben nach dem Jahr der Physik 2000 und dem Jahr der Lebenswissenschaften 2001 für 2002 das Jahr der Geowissenschaften ausgerufen. Die Vermittlung wissenschaftlicher Inhalte an die Allgemeinheit ist zentrales Anliegen dieser Reihe. Sie ist in einer Art konzentrischer Ringstruktur konzipiert; das heißt, es gibt vier Zentralveranstaltungen, eine Reihe von Großveranstaltungen und eine noch längere Reihe  regionaler Veranstaltungen. Dazu kommen länger andauernde Aktivitäten wie dasGeoschiff und das Geotheater.
     Den Startschuss gab die Zentralveranstaltung zum Übersichtsthema "System Erde" in Berlin im Januar 2002. Die nächste Zentralveranstaltung ist vom 17.-21. April in Leipzig zum Thema Luft. Dieses Thema ist natürlich nicht Luft für uns, und schon daher ist die Leipziger Zentralveranstaltung für die DMG besonders wichtig. Im Namen oder/und mit Mitwirkung der DMG werden zudem in Berlin am 6. Mai eine Festveranstaltung "100 Jahre Stratosphärenforschung", vom 27.-29. Juni in Potsdam "Wann kommt die nächste Eiszeit?" und vom 9.-13. September eine Lehrer-Herbstschule "System Erde" stattfinden. Der Fachausschuss "Geschichte" der DMG wird am 26. und 27. September eine Veranstaltung zum Thema "Internationale meteorologische Kooperationen und Projekte" durchführen.
Das muntere Leben und Treiben des Jahrs der Geowissenschaften 2002 kann auch auf den Webseiten www.planeterde.de verfolgt und genutzt werden. Es ist für jeden etwas dabei.

Arne Spekat
DMG-Sekretär
dmg@met.fu-berlin.de

Zum Inhaltsverzeichnis


Lange Klimareihen - unerlässlich für die Klimaforschung

Stellungnahme der Deutschen Meteorologischen Gesellschaft zum Erhalt langjähriger Klimamessreihen 

Zusammenfassung
Die möglichst genaue Abschätzung zukünftiger Klimaänderungen basiert im Wesentlichen auf der Kenntnis der beim vergangenen und gegenwärtigen Klima ablaufenden Prozesse. Dafür ist eine ausreichende Datenbasis notwendig, die nur durch den Erhalt und die Fortführung langer Beobachtungsreihen gegeben ist. Es gehört daher zu den vordringlichen Aufgaben aller verantwortlicher Institutionen, das Fortbestehen sämtlicher Stationen mit entsprechenden Beobachtungsreihen sicherzustellen.

Text der Stellungnahme
Nach dem gegenwärtigen Stand des Wissens (IPCC, 2001, s. Kasten) müssen wir davon ausgehen, dass die globale Klimaänderung der letzten Jahrzehnte zu einem großen Teil vom Menschen verursacht worden ist (siehe hierzu auch das Klimastatement der Deutschen Meteorologischen Gesellschaft, der Österreichischen Gesellschaft für Meteorologie und der Schweizerischen Gesellschaft für Meteorologie unter www.met.fu-berlin.de/dmg/dmg_home/ks_2001_DACH_l.html). Es ist zu erwarten, dass bei weiterhin ansteigendem Ausstoß von Treibhausgasen die Temperatur der bodennahen Atmosphäre im globalen Mittel innerhalb der nächsten hundert Jahre auf Werte ansteigt, die natürlicherweise in den letzten etwa 12.000 Jahren, also etwa seit Beginn der jungsteinzeitlichen Ackerbaukultur, nicht erreicht wurden.
 

Das IPCC wurde 1988 von der World Meteorological Organization (WMO) und dem United Nations Environment Programme (UNEP) eingerichtet, um über den aktuellen Forschungs-stand auf dem Gebiet der Klimaforschung und der Klimafolgenforschung zu berichten und die Conference of the Parties (COP) der United Nations Framework Convention on Climate Change (UNFCCC) in wissenschaftlichen, technischen und sozio-ökonomischen Fragen zu beraten.

Diese Aussage ist mit einer Reihe von Unsicherheiten verbunden, die nicht nur den tatsächlichen Grad der menschlichen Einflussnahme auf das Klima, sondern insbesondere auch die regionale Ausprägung der globalen Klimaänderungen betreffen. Diese Unsicherheiten beruhen zu einem nicht unerheblichen Teil auf der mangelnden Kenntnis und dem noch unzureichenden Verständnis der natürlichen Variabilität des Klimas. Als gesichert gilt, dass das Klima Schwankungen im Bereich von Jahrzehnten, Jahrhunderten und vielen Jahrtausenden aufweist, die einerseits von außen wie z.B. durch die Änderung des Energieflusses von der Sonne angeregt, aber auch durch interne Wechselwirkungsprozesse zwischen Atmosphäre, Ozean und Biosphäre erzeugt worden sind.
     Klimabeobachtungen spielen in diesem Zusammenhang eine zentrale Rolle. Sie dienen einerseits der Analyse des vergangenen und gegenwärtigen Klimas, andererseits werden anhand dieser Beobachtungen die Klimamodelle geprüft, mit denen zukünftige Klimaänderungen abgeschätzt werden. Außerdem wird über die modelltheoretische Interpretation der Klimabeobachtungen versucht, die Dynamik der bisherigen Klimaänderungen zu verstehen.
     In Deutschland können wir auf eine lange, zum Teil schon Jahrhunderte alte Tradition meteorologischer Messungen und Beobachtungen zurückblicken. Wissenschaftliche Aussagen über die Variabilität des Klimas in Deutschland sind bis in das 18. Jahrhundert zurück möglich geworden. Leider wurden viele Reihen bereits abgebrochen, Stationen verlegt oder durch Automaten ersetzt und damit in ihrem Beobachtungsprogramm stark reduziert. Die Zahl der für die Klimaforschung entscheidenden langzeitlich an ein und derselben Stelle und unter definierten Messbedingungen arbeitenden Klimastationen mit hinreichend umfangreichem Programm und geschultem Personal ist außerordentlich gering und deckt den Bedarf an notwendigen Informationen nur unzureichend ab. Das vorliegende Datengut verdanken wir vielen im Hintergrund tätigen Technikern und Wissenschaftlern. Sie schufen und schaffen ein Kulturgut, dessen Bedeutung und vielfältige Nutzung heute unter dem Aspekt der Aufdeckung der vom Menschen verursachten Klimaänderungen klar zutage treten. Ein so komplexes Phänomen wie die Klimavariabilität lässt sich nur auf der Grundlage möglichst vieler Größen, die gemessen oder durch Augenbeobachtungen bestimmt werden, überwachen. Lücken durch nicht oder nur unvollkommen durchgeführte Messungen und Beobachtungen sind nicht zu schließen.
     Wir rufen daher alle Träger von Klimastationen, alle Förderer der Klimaforschung und auch die Öffentlichkeit auf, sich im Rahmen ihrer Möglichkeiten entschieden dafür einzusetzen, dass in Deutschland die langen Klimareihen ohne Einschränkungen des Programms und der personellen Besetzung der Stationen erhalten bleiben. Die aufzuwendenden finanziellen Mittel sind im Vergleich zu den Kosten der heutigen und erst recht möglicher künftiger so genannter Klimaschutzmaßnahmen äußerst gering, der Nutzen dagegen unermesslich hoch und im echten Sinn nachhaltig. Auf keinen Fall dürfen die für die Klimaforschung wertvollen Klimastationen im Rahmen von Sparmaßnahmen zur Disposition gestellt werden.

Martin Claußen, Potsdam
Peter Hupfer, Berlin

Zum Inhaltsverzeichnis

Chefsache - Umweltforschung in Europa

Dr. Christian Patermann ist Direktor des Directorate General I (Research) der Forschungsabteilung Europa, verantwortlich für Umwelt- und Energiefragen. Als Chef der Umweltforschung in Europa sitzt er in den Büroräumen  der 7. Etage des Gebäudes De Meeuwsplein 8 in Brüssel. Er hat einen Schlüsselposten für Wissenschaftler inne: "Wir fördern bis zu 20-25% der Klimaforschung in Europa." Er bevorzugt eine enge Integration der Disziplinen und sähe gern, dass mehr Ergebnisse zur Anwendung kämen.

Sein Jahresetat für die Projektförderung beläuft sich auf viele Millionen Euro. Seine über 110 Mitarbeiter bewältigen den hereinfließenden Strom vom Projektanträgen, den sie an Gutachter verteilen. Patermann bekommt jeden Vorschlag zu Gesicht, der diese Phase positiv durchlaufen hat. "Wir haben es mit einem breiten Spektrum an Interessen zu tun; das ist nicht so einfach." Er versteht die Beendigung eines nationalen Forschungsprogramms als  Chance für ein neues Programm. "Forschung ist notwendig. Sie wird es immer sein. Jedes internationale Abkommen, das unterzeichnet wird, benötigt weitere Forschung. Kyoto, die Konvention über Biodiversität. Sie enthalten die Vorbedingung, dass jeder Teilnehmerstaat die notwendige Forschung in seinen eigenen Programmen vornehmen sollte."
     Wissen wir nicht derart wenig, so dass gegenwärtig nur die Beschäftigung mit Anpassungs- und Abmilderungsstrategien möglich ist?
     "Wir können im Hinblick auf die derzeitigen Treibhausgas-Emissionen, von denen 40-60% durch den Menschen erfolgen, nicht allzu viel unternehmen. Zukünftige Emissionen sind natürlich eine ganz andere Sache. Aber es kann nützlicher sein, die Rolle der natürlichen Variabilität zu kennen. Welche Rolle spielen die Ozeane, die Senken und Quellen? Es gibt so viele Fragen, und neue kommen häufig dazu. Fragen, die nur durch die Wissenschaft beantwortet werden können und die Adaption und Abmilderung beinhalten. Das würde zum Vorteil zukünftiger Generationen sein, der Effekt der Nachhaltigkeit."
     Patermann glaubt, dass Forschung "in integrierter Weise stattfinden muss. Unser Direktorat hat eine große Vorliebe für Integration. Wir fördern bis zu 20-25% der europäischen Forschung zu Klimaänderungen. Daher besitzen wir den Einfluss, zu verlangen, dass die Forschung auf integrierte Weise stattzufinden hat. Und wir tun dies auch! Wir wollen zudem in jedem Fall die Einflüsse der wirtschaftlichen Vorgänge integriert wissen." Die eingereichten Anträge sind fundierte, dicke Berichte, "was vielleicht bürokratisch aussehen mag, aber es ist notwendig. Wir versuchen, die Prozesse zu vereinfachen, aber das wird nicht zu leicht, insbesondere, wenn mehr und mehr Länder Zugang zur EU bekommen. So vergrößert sich die Gefahr des Missbrauchs so wie der Fehler. Und je mehr Länder es gibt, desto wichtiger ist, dass das System wasserdicht ist."
     Die Schatztruhe der EU ist gewaltig, aber einzelne Wissenschaftler investieren einen großen Teil ihrer Zeit, indem sie sich nach Förderungsquellen umschauen.
     "Sicher. Wir verrichten nicht die Arbeit, die von einzelnen Mitgliedsstaaten verrichtet werden kann. Und die Themen sind ebenfalls unterschiedlich. Sie können auf lokaler Ebene die Wasserqualität in Brüssel betrachten, oder die Auswirkungen des Klimawandels auf den Niederschlag insgesamt. Dies sind verschiedene Größenordnungen. Hier entstehen Berührungen mit dem Integrationsthema. Diese Aspekte müssen ihren Weg in einen Förderantrag finden."
     Die Diskussion außerhalb von Wissenschaftlerkreisen geht darum, ob eine Menge Forschung, oftmals in den Naturwissenschaften, nicht zu akademisch sei.
     Patermann nickt zustimmend. "Das Problem ist, dass die Industrie oft nicht in die Forschung einbezogen wird. Meistenteils ist die Forschung unabhängig - es ist wichtig und sinnvoll, aber es hat auch seine Nachteile. Was wir bei der EU versuchen, ist, die Beteiligten zusammenzubringen. Das sind die Industrie, die politischen Ent-scheidungsträger, die Straßenbauer, Energieunternehmen, Wasserverwalter, Versicherungen. Die Beteiligten stellen Fragen. Wissenschaftler sollten sich dann in ihrer Arbeit mehr mit diesen Fragen auseinandersetzen. Die Beteiligten müssen das Forschungsthema, d.h. die zu untersuchenden Parameter  gemeinsam festlegen. Jemand aus der Tourismusbranche könnte zu wissen begehren, was der Klimawandel für seine Wintersport-Angebote bedeutet, wenn die Schneegrenze sich innerhalb weniger Jahre von 1500 auf 2000m verschiebt." Nein, diese Vorgehensweise steht nicht im Widerspruch zur "reinen" wissenschaftlichen Forschung. Sie hat zwei Richtungen: "Durch Neugier angetriebene innovative Wissenschaft und Wissenschaft, die ihr Mandat und ihre Förderung von der Gesellschaft bezieht. Klimawandel ist Teil des globalen Wandels, und es ist eine Wissenschaft, die mit starkem gesellschaftlichen Mandat versehen ist."
     A propos Gesellschaft. Die Gesellschaft interessiert sich nicht für die Klimaproblematik. Wie können also Landesregierungen Politik betreiben, die sich  irgendwelcher Unterstützung erfreuen?
     Patermann: "Das ist ein Riesenproblem. Unsere Gesellschaft wird mit Information zugeschüttet. Die Menge nimmt zu, genauso wie die Wege, auf denen wir Information erhalten: Fax, Internet, Teletext. Sie werden erkennen, dass das Individuum dabei verloren geht. Meiner Ansicht nach ist es notwendig, dass die Forscher etwas unternehmen, um diese Lücke zu überbrücken. Sie müssen mit Informationsangeboten herüberrücken, die wahrheitsgemäß, wissenschaftlich und sehr verständlich sind. Darum wollen wir ein Bindeglied zwischen Wissenschaft und Gesellschaft."
     Er springt in die Vergangenheit zurück und zitiert den Altkanzler Helmut Schmidt: "Schmidt redete von der Bringschuld und der Holschuld. Die Wissenschaftler haben eine Verpflichtung, etwas anzubieten, und die Öffentlichkeit hat die Verpflichtung, dies auch abzuholen." Er fügt schnell hinzu: "Der Unterschied ist, dass es damals in den 70ern, als Schmidt dies formulierte, kein Internet gab und somit die Informationsüberlastung nicht so groß war."
     Es ist ein ernstzunehmendes Problem; eines, das nicht viel diskutiert wird: Aber es wurde recht wenig erreicht. Die Resultate der Mitgliedsstaatenkonferenzen haben möglicherweise einige theoretische Bedeutung, aber sie bewirken nicht viel für das Klima.
     "Dem kann ich nicht widersprechen". Er fügt rasch hinzu: "Der Kyoto-Prozess ist zu wenig, um das Problem zu lösen, aber bedeutet viel im Sinne von Reichweite. Wir sitzen am Verhandlungstisch, sprechen über Zusammenarbeit. Glauben Sie mir, wir sind immer noch am Anfang. Und man sollte die Rolle der EU nicht unterschätzen, aller Kritik zum Trotz. Ohne die EU hätte es keine Bonner Übereinkunft und keine Marrakesch-Vereinbarungen gegeben."
     Er lehnt sich zurück, die Hände hinter dem Kopf, um philosophisch fortzufahren: "Die Klimafrage ist Teil des globalen Wandels. Es gibt keine schlichte Antwort für das Problem. Sie anzugehen bedeutet einen Paradigmenwechsel. Das wird lange dauern, sehr lange. Man benötigt auch eine andere Art Wissenschaftler, Politiker, Entscheidungsträger. Und wir stecken in einer schwierigen Zeit, diesen Wandel zu vollziehen. Einerseits müssen die Politiker und Entscheidungsträger ein Maß an Weitsicht haben: Beschäftigung, Gesundheit, Bewahrung der Natur, Mobilität. Die beste - nein, die einzige Antwort liegt in der Nachhaltigkeit. Und es ist gut, zu wissen, dass Europa der erste und bislang einzige Kontinent ist, der sich auf eine nachhaltige Wirtschaft einlässt. Es liegt an uns, auf eine gute Antwort hinzuarbeiten, um uns durch die Übergangsperiode zu bringen."

Aus: Change, Newsletter des Niederländischen Klimaforschungsprogramms, Ausgabe 60, Februar 2002. Übersetzung: Arne Spekat

Zum Inhaltsverzeichnis


 

Variabilität der Sonne und Klimaschwankungen

Zusammenfassung
Um den Effekt der Sonnenvariabilität auf das Klima zu berechnen, werden dieselben Klimamodelle eingesetzt, die angewendet werden, um den anthropogenen Einfluss auf das Klima zu berechnen. Alle Simulationen zeigen, dass die bodennahe Lufttemperatur und die vertikale Temperaturverteilung in der Atmosphäre auf die Variabilität der Sonneneinstrahlung reagieren. Allerdings können nur etwa 20 bis 30 % der während der letzten 150 Jahre beobachteten globalen Erwärmung auf die in diesem Zeitraum angestiegene Sonneneinstrahlung zurückgeführt werden, so dass man, auch unter Berücksichtigung der unterschiedlichen Erwärmungsmuster von Sonneneinstrahlung und anthropogenem Treibhauseffekt, davon ausgeht, dass die verbleibenden 70-80% anthropogenen Ursprungs sind.
     Auf kürzeren Zeitskalen gewinnt zunehmend auch die Erforschung der Wechselwirkung Solarvariabilität - Ozonchemie - stratosphärische Zirkulation - troposphärische Zirkulation an Bedeutung. 
     Die Hypothese einer Auswirkung des durch die Sonnenaktivität modulierten interstellaren Teilchenflusses auf das Klima soll in kernphysikalischen Laborexperimenten überprüft werden. Hier muss bei Bestätigung eine physikalisch stimmige Theorie entwickelt werden, die man dann  in Klimamodelle einbringen kann.
     Dank der zunehmenden Leistungsfähigkeit der Grossrechner kann man jetzt auch das historische Klima und Paläoklimate berechnen. Diese Simulationen dienen dazu, die historischen und Proxydaten räumlich und zeitlich miteinander abzustimmen und erlauben es, die Entwicklung des Klimas global für jeden Punkt der Erde zu berechnen. Das macht diese Forschung nicht nur für die Meteorologen und Ozeanographen, sondern auch für Geologen und Historiker interessant. 

Einleitung
Etwa alle 5 Jahre wird vom IPCC (Intergovernmental Panel on Climate Change), einer von der Weltorganisation für Meteorologie (WMO) und dem Umweltprogramm der vereinten Nationen UNEP) getragenen Organisation, in einem dicken Buch der Stand des Wissens über das Klima zusammengefasst und veröffentlicht. Zu dem jetzt erschienenen 3. Buch haben Hunderte von Wissenschaftlern aus dem In- und Ausland beigetragen, auch von verschiedenen Max-Planck-Instituten. Wie eine wissenschaftliche Veröffentlichung durchläuft dieser Bericht eine Begutachtungsprozedur. Er ist im Buchhandel erhältlich und kann auch über das Internet gelesen werden (www.ipcc.ch). Die Quintessenz dieses Werkes ist, dass der Mensch seit der Industrialisierung das Klima beeinflusst hat und es in Zukunft noch stärker beeinflussen wird. 
     Fast rituell erschien zeitgleich mit den letzten beiden IPCC-Berichten jeweils ein Buch, mit international eher unbekannten Autoren und ohne wissenschaftliche Begutachtung, das diese IPCC Erkenntnis anzweifelt, da die Sonnenaktivität nicht hinreichend berücksichtigt sei. Hier ist der Tenor, dass die beobachtete Erwärmung auf Variationen der Sonneneinstrahlung zurückzuführen sei und dass es auch früher schon Warm- und Kaltzeiten gegeben hätte, die das, was der Mensch verursachen könne, in den Schatten stellten.
     Dieser oberflächlich etwas harmlos anmutende wissenschaftliche Disput hat handfeste politische Konsequenzen: Wenn das IPCC recht hat, dann muss man über geeignete Maßnahmen den Einfluss des Menschen auf das Klima reduzieren, um es zu stabilisieren. Wenn die Vertreter der Solarhypothese recht haben, dann braucht die Menschheit nichts zu machen. Vor diesem Hintergrund ist auch die  "kleine Anfrage" an die Bundesregierung im Frühsommer dieses Jahres zu sehen (http://dip.bundestag.de/btd/14/065/1406529.pdf).
     Nun ist es nicht so, dass, wie von den Vertretern der Solarhypothese vermutet, bei den anderen Klimaforschern der Effekt der Sonne aus Unwissenheit vernachlässigt oder absichtlich ignoriert wurde. Vielmehr gibt es verschiedene Forschergruppen, die sich seit langem damit beschäftigen und deren Erkenntnisse auch in den IPCC-Bericht mit eingeflossen sind. Hier wird sogar explizit auf die Kritikpunkte der Vertreter der Solarhypothese eingegangen. 
     Im Folgenden soll nun erläutert werden, wie und auf welchen Zeitskalen die Veränderungen der Sonnenintensität das Klima beeinflussen und wie der Stand der Forschung ist.

Das Klimasystem
Dem Lehrbuch entnehmen wir: Das geographische Klima ist die für einen Ort, eine Landschaft oder einen größeren Raum typische Zusammenfassung der erdnahen und die Erdoberfläche beeinflussenden atmosphärischen Zustände und Witterungsvorgänge während eines längeren Zeitraumes in charakteristischer Verteilung der häufigsten, mittleren und extremen Werte. Die Atmosphäre ist kein isoliertes System, sondern steht mit der Hydrosphäre (Ozean und Wasserkeislauf), der Kryosphäre (Eis und Schnee), der Biosphäre (Pflanzen und Tiere), der Pedosphäre (Boden) und der Lithosphäre (Gestein) in Wechselwirkung. Diese "Sphären'' sind die Subsysteme des Klimasystems. 
      Die Dynamik des Klimasystems ist durch die unterschiedlichen Zeitskalen bestimmt, in denen die Klimasubsysteme schwanken. So sind zum Beispiel in der Atmosphäre diese Schwankungen gemeinhin als Wetter bekannt: Wolken und Luftdruckgebiete verändern sich in wenigen Stunden bis Tagen. Die Tiefenströmungssysteme der Ozeane oder die Zustände großer Eismassen dagegen wandeln sich in Zeitskalen von Jahrhunderten bis Jahrtausenden. Die Schwankungen innerhalb der "Sphären" sowie die gegenseitige Beeinflussung der Klimasubsysteme wird als "Klimarauschen" bezeichnet. Im Klimasystem können kleine interne Störungen durch nichtlineare Wechselwirkungen potentiell große Wirkungen erzeugen. 
     Gleichzeitig gibt es auch externe Anregungsfaktoren: Hier sind Veränderungen in der Sonneneinstrahlung zu nennen. Sie treten dadurch auf, dass sich die Bahn der Erde um die Sonne sowie die Lage der Erdachse mit der Zeit ändern. Hinzu kommt, dass die Sonneneinstrahlung zeitlich nicht konstant ist, sondern Schwankungen unterliegt. Auch der Vulkanismus wird zu den externen Antrieben gerechnet. Diese externen Antriebe werden in der aktuellen Klimadebatte den anthropogenen Faktoren wie dem zusätzlichen Treibhauseffekt und der Schadstoffbelastung der Atmosphäre gegenübergestellt, wobei oft vergessen wird, die jeweiligen Zeitskalen mit anzugeben, was zu einiger Verwirrung in den Schlussfolgerungen führt.

Solare Variabilität
Die Bahnparameter und die Lage der Erdachse lassen sich nach den Gesetzen der Physik berechnen und bieten keine Überraschungen. Anders sieht es mit der Veränderlichkeit der Sonnenintensität aus. Schon seit dem Mit-telalter ist bekannt, dass in einem 11-Jahres-Rhythmus Sonnenflecken auftreten. Diese sind seit dem 17. Jahrhundert regelmäßig an vielen Sternwarten aufgezeichnet worden. Es wurde allerdings erst mit den ersten Satellitenmessungen deutlich, dass die Sonnenflecken direkt mit der Intensität der Sonneneinstrahlung korreliert sind, und zwar bedeutet eine Zunahme der Flecken eine Zunahme der Intensität.
     Direkte Messungen der Sonnenstrahlung werden seit etwa 20 Jahren mit verschiedenen Satelliten durchgeführt. Hierdurch vermeidet man Fehler, die durch die Absorption in der Atmosphäre entstehen. Schon vorher hatte man in den Aufzeichnungen der Sonnenflecken erkannt, dass es nicht nur den 11-Jahreszyklus (Schwalbe-Zyklus) gibt, sondern auch eine etwa 80-jährige Periodizität (Gleissberg-Zyklus), die man ebenfalls bei sonnenähnlichen Sternen beobachtet hat. Der 11-Jahreszyklus besitzt eine Schwankungsbreite von ca. 0.1% der Solarkonstante, der Gleissberg-Zyklus etwa 0,24 - 0,30%. Es gibt noch eine Reihe weiterer Zyklen, die man in Proxy-Daten für die Solarintensität, so in 14C und 10Be-Schwankungen in Baumringen und Eisbohrkernen sowie bei sonnenähnlichen Sternen findet.

Abb. 1: Beispiel für Rekonstruktionen der solaren Variabilität, die auf Messungen von 10B, 14C-Residuen und 14C -Änderungen (basierend auf 10B-Messungen) beruhen. Sie werden ab Mitte des 17. Jahrhunderts durch die Rekonstruktionen aus Beobachtungen der Sonnenflecken und in den letzten 20 Jahren durch direkte Satellitenmessungen ergänzt. Man sieht deutlich, dass die Rekonstruktionen um so weiter auseinanderlaufen, je weiter man in der Zeit zurückgeht, und es sogar Unterschiede in den Vorzeichen gibt. Auch bei den Rekonstruktionen aus der Sonnenfleckenanzahl gibt es deutliche Unterschiede zwischen den einzelnen Forschergruppen (nicht gezeigt). NB: Sie können eine vergrößerte Darstellung der Abbildung sehen, wenn Sie auf das Bild klicken.
 

     Verschiedene Forschergruppen bemühen sich, aus den Sonnenflecken und verschiedenen anderen Parametern (Länge des Sonnenfleckenzykluss, Anzahl der Sonnenflecken, Durchmesserveränderungen der Sonne, Vergleich mit sonnenähnlichen Sternen) sowie mittels solar-dynamischer Modelle die historische und zukünftige Sonnenintensitätsschwankung zu bestimmen. Abb. 1 zeigt das Ergebnis einer Rekonstruktion der Solarintensitätsschwankung von verschiedenen Forschergruppen für die letzten 1000 Jahre. Leider ergeben sich, je weiter man in der Zeit zurück geht, deutliche Unterschiede, sogar unterschiedliche Vorzeichen.
     Mit diesen Solardaten kann man die Klimamodelle antreiben und die Ergebnisse mit Beobachtungen vergleichen, um sich ein Bild zu machen, wie gut die Simulationen sind. Der Übersichtlichkeit halber werden die Ergebnisse für verschiedene Zeiträume diskutiert.

Derzeitiges Klima (1980-2000)
Dieses ist der Zeitraum, für den Satellitenmessungen vorliegen und man damit gesicherte direkte Informationen über die Solarvariabilität besitzt. Es gibt für diese Jahrzehnte Beobachtungsstudien, die einen Effekt der Solarvariabilität auf die Zirkulation der hohen Atmosphäre beschreiben. So zeigen Auswertungen der NCEP Re-Analyse-Daten, dass in allen Monaten des Jahres in den geopotentiellen Höhen der unteren Stratosphäre (16-30 km) südlich von ungefähr 500 N ein konsistentes Muster auftritt, das sich mit dem 11-Jahres-Sonnenfleckenzyklus hebt und senkt. Dieses Korrelationsmuster bewegt sich mit den Jahreszeiten meridional. Die Stratosphäre reagiert auf die Solarstrahlungsschwankungen in Abhängigkeit von der Phasenlage der QBO (quasi-biannual oscillation, einer Windumkehrung in der Stratosphäre mit einer fast 2-jährigen Periode) unterschiedlich stark. In der östlichen Phase der QBO ist der Effekt größer als in der westlichen Phase.
     Am Boden gibt es keine gesicherten Nachweise einer Temperaturvariation mit dem 11-Jahreszyklus, jedoch gibt es Anzeichen, dass die Troposphäre durch die geänderte Stratosphäre beeinflusst wird. Auch im Ozean finden sich Hinweise auf den 11-Jahres-Zyklus.
     Um diese Effekte realistisch zu simulieren, muss man die Klimamodelle mit einer hochauflösenden Darstellung der Stratosphäre versehen. Derartige Modelle, die seit neuestem auch die QBO simulieren, sind in den letzten Jahren entwickelt worden. Sie stellen extreme Anforderungen an die Großrechner, so dass bisher nur Einzelfälle durchgerechnet werden konnten.
     Eine positive Rückkopplung und damit eine Verstärkung des solaren Signals wird derzeit in der Fachliteratur diskutiert und erste Modellergebnisse dazu sind vorgestellt worden: In Zeiten mit überdurchschnittlicher Sonneneinstrahlung verschiebt sich das Spektrum des Sonnenlichtes in den UV-Bereich. Dieses führt zu einem klaren Erwärmungssignal in der Stratosphäre durch die verstärkte Absorption der UV-Strahlung durch das stratosphärische Ozon. Gleichzeitig wird zu Zeiten erhöhter UV-Strahlung auch mehr Ozon erzeugt. Dieses führt zu einer signifikanten Veränderung der Vertikalstrukur der Atmosphäre und beeinflusst damit nicht nur die stratosphärische, sondern auch die troposphärische Zirkulation. Dieses kann auch für eine längerfristige Wetterprognose von Bedeutung sein.
     Um diesen Effekt vollständig zu erfassen, muss man ein interaktives Chemiemodell an die Klimamodelle und eine spektral hochauflösende Strahlungsparametrisierung ankoppeln. Dieses wird derzeit gerade in einigen Forschungslabors durchgeführt und vom BMBF im Forschungsprogramm AFO 2000 unterstützt. 
      Ein Effekt, der heftig diskutiert wird, ist der Einfluss von interstellaren Teilchenströmen, die von der Sonnenaktivität moduliert werden. Es gibt Veröffentlichungen, die zeigen, dass diese Teilchenströme mit der Bewölkung korreliert sind und damit das Klima in großem Maße (ca. 1.5 W/m2) beeinflussen. Andere Publikationen stellen diese Hypothese in Frage, denn der dahinter vermutete physikalische Mechanismus kann nicht nachgewiesen werden. Auch die Korrelation zwischen Bewölkung und Sonnenzyklus für die letzten 5 Jahre ist gering. Der Teilcheneffekt ist zur Zeit nicht in den Modellen enthalten, da es bisher keine gesicherte wissenschaftliche Grundlage gibt. Es gibt Planungen, bei CERN im Strahlenlabor diese Hypothese zu überprüfen (Projekt CLOUD - http://xxx.lanl.gov/abs/physics/0104048).

Das Klima der letzten 150 Jahre
Bei den Modellierern wuchs das Interesse an der Rolle der Sonneneinstrahlung wegen der Fragestellung der anthropogenen Beeinflussung des Klimas. Hier möchte man überprüfen, ob die beobachtete Klimaänderung durch die (natürlichen) Solarschwankungen oder durch den menschlichen Einfluss hervorgerufen worden ist. Diese Veränderungen spielen sich auf Zeitskalen ab, die länger als der 11-Jahres-Zyklus sind. Die Amplitude des 11-Jahreszykluss (nur etwa 1/3 des 80-jährigen Gleissberg-Zyklus) und sein UV-Anteil (davon 7%) sind gering gegenüber den Unsicherheiten, die entstehen, wenn man die Solarvariabilität aus Proxydaten wie z. B. den Sonnenflecken herleitet (Abb. 1). Aus diesem und aus ökonomischen Gründen werden die im vorhergehenden Abschnitt genannten Effekte nicht explizit gerechnet. 

Die Sonnenstrahlungsvariationen des 80-jährigen Gleissberg-Zykluss führen zu einer Variabilität der an der Erdoberfläche absorbierten Sonneneinstrahlung von 0,5-0,75 W/m2. Diese Zahl muss man im Vergleich zu der Abschätzung des Strahlungsantriebs durch das Anwachsen der anthropogenen Treibhausgase von der vorindustriellen Zeit (1850) bis heute von ungefähr 2,4 W/m2 (Abb. 2) sehen. 


Abb 2: Die Strahlungsantriebe des Klimasystems für das Jahr 2000, relativ zum Jahr 1750. 
Änderungen in den Strahlungsantrieben rühren von Änderungen in der Zusammensetzung der Atmosphäre, von Veränderungen in der Landnutzung und von der Veränderung der Sonneneinstrahlung her. Menschliche Aktivitäten beeinflussen jeden Faktor mit Ausnahme der Sonnenaktivität. Die Balken geben den Beitrag jedes dieser Faktoren zum Antrieb an, einige erzeugen eine Erwärmung, einige eine Abkühlung. Änderungen des Antriebes durch Vulkanismus sind nur episodisch, d. h. sie erzeugen eine nur wenige Jahre dauernde Abkühlung. Sie werden deshalb hier nicht gezeigt.
Die vertikale Linie an jedem Balken gibt eine Abschätzung der Unsicherheit wieder. Der wissenschaftliche Kenntnisstand ist für die verschiedenen Antriebsfaktoren unterschiedlich hoch. NB: Sie können eine vergrößerte Darstellung der Abbildung sehen, wenn Sie auf das Bild klicken.
 

     Berechnungen mit Klima-Modellen zeigen, dass solche Änderungen im Strahlungsantrieb Oberflächentemperaturänderungen in der Größenordnung von einigen Zehntel Grad erzeugen können. Es wird allerdings aus diesen Rechnungen auch deutlich, dass die solar induzierten Änderungen nicht hinreichen, die beobachteten Erwärmungen zu reproduzieren, sondern nur etwa 20-30% erklären. Den besten Erfolg hat man, wenn man sowohl Sonnenvariabilität, Vulkanismus und den anthropogenen Einfluss mit berücksichtigt (Abb. 3).


Abb. 3: Man kann Klimamodelle nutzen, um getrennt die Temperaturänderungen zu berechnen, die durch natürliche oder anthropogene Ursachen hervorgerufen werden. In Abbildung a) werden nur die natürlichen Antriebe, d. h. solare Variabilität und Vulkanismus, berücksichtigt, in Abbildung b) nur die anthropogenen Anteile (Treibhausgase und Sulfat-Aerosole). In Abbildung c) werden sowohl natürliche als auch anthropogene Faktoren eingebracht. Das graue Band gibt die Modellhochrechnungen einschliesslich einer Abschätzung ihrer Unsicherheiten wieder, die dunkelgraue Kurve den beobachteten Klimaverlauf. Man bekommt die beste Simulation der Beobachtungskurve, wenn man sowohl anthropogene als auch natürliche Antriebsfaktoren nutzt. NB: Sie können eine vergrößerte Darstellung der Abbildung sehen, wenn Sie auf das Bild klicken.
 

     Eine weitere Möglichkeit festzustellen, inwieweit die beobachtete Klimaänderung anthropogenen oder solaren Ursprunges ist, bietet die "Fingerabdruck"-Methode. Sie bedient sich des Umstandes, dass der Treibhauseffekt ein etwas anderes Erwärmungsmuster in der Horizontalen und der Vertikalen erzeugt als eine vermehrte Sonneneinstrahlung. Auch hier zeigt es sich deutlich, dass in den letzten Jahrzehnten das anthropogene Muster überwog. So kommt das IPCC zu der Schlussfolgerung: "The balance of evidence suggests a discernible human influence on global climate" und "In the light of new evidence and taking into account the remaining uncertainties, most of the observed warming over the last 50 years is likely to have been due to the increase in greenhouse gas concentrations".

Das Klima der letzten 1000 Jahre
Mittlerweile sind die Rechenanlagen so schnell geworden, dass man die Modelle, mit denen man vor 5 Jahren die 100-jährigen Klimahochrechnungen durchgeführt hat, auch für die Simulation des Klimageschehens der letzten 1000 Jahre einsetzen kann. Man geht davon aus, dass zu Beginn der Einfluss des Menschen, global gesehen, gering war. Man hat in diesem Zeitraum zwar keine direkten Temperaturmessungen, aber eine Vielfalt von Aufzeichnungen (Ernteerträge, Deichreparaturkosten, Segelzeiten von Schiffen), sowie Proxy-Daten (z. B. Baumringe, Seesedimentbohrkerne), mit denen man das historische Klima rekonstruieren kann. Von besonderem Interesse ist hier "Die kleine Eiszeit". In einer dieses Jahr erschienenen Arbeit wird eine Berechnung des Klimas der letzten 1000 Jahre mit einem 1-dimensionalen Klima-Modell vorgestellt, wobei die Sonnenaktivität und der Vulkanismus, beide aus Proxy-Daten hergeleitet, als Antrieb vorgeschrieben werden. Mit diesem Modell ist man in der Lage, die globale Temperaturentwicklung zu simulieren (Abb. 4).


Abb 4: Die Änderung der global gemittelten bodennahen Lufttemperatur in Bezug auf das Jahr 1990. Vom Jahr 1000 bis zum Jahr 1860 wurde nur die Nordhemisphäre gemittelt, da für die Südhemisphäre keine Daten vorliegen. In diesem Zeitraum handelt es sich um aus Baumringen, Korallen, Eisbohrkernen und historischen Überlieferungen hergeleitete Daten. Die rote Linie zeigt das 50-Jahresmittel, das graue Band das 95%-Vertrauensintervall der Jahresdaten. Von 1860 bis 2000 sieht man die mit Instrumenten gemessenen Werte, die rote Linie zeigt das 10-Jahresmittel. Vom Jahr 1990 bis zum Jahr 2100 wird die Temperaturhochrechnung für die sechs Standard-SRES-Szenarien sowie das IS92a-Szenarium des vorletzten IPCC-Berichtes gezeigt, die mit einem Modell mittlerer Klimasensitivität berechnet wurden. Das graue Band mit der Bezeichnung "several models all SRES envelope" zeigt die Ergebnisbandbreite, wenn man alle 35 SRES-Szenarien in Betracht zieht und alle unterschiedlichen Modelle. Ebenfall eingezeichnet: Das Ergebnis zweier Simulationen mit einem Energiebilanzmodell (blaue und beige Kurve), die verschiedene Abschätzungen für den Solar- und Vulkanantrieb als Eingangsparameter nutzen. Man erkennt deutlich die durch Vulkanismus ausgelösten kurzzeitigen negativen Temperaturabweichungen. NB: Sie können eine vergrößerte Darstellung der Abbildung sehen, wenn Sie auf das Bild klicken.
 

      Diese Antriebsdaten werden in dem Projekt KIHZ (Klimaänderungen in historischen Zeiten) der Helmholtzgesellschaft unter Federführung der GKSS und mit Beteiligung des MPI's für Meteorologie genutzt, um ein volles 3-dimensionales Klima-Modell anzutreiben. Hier ist man u. a. in der Lage, die europäische Temperaturverteilung während des Endes des Maunder-Minimums realistisch zu simulieren. Eine wesentliche Ursache dieser kleinen Eiszeit scheint in dem Wechselspiel zwischen Solarvariabilität, Vulkanismus und Atmosphäre-Ozean-Meereis-Kopplung zu liegen.
     Derartige 3d-Simulationen geben eine Möglichkeit, vereinzelte Proxy-Daten zusammenzufassen und globale Klimazusammenhänge in zeitlicher Abfolge darzustellen. Sie sind damit nicht nur für die Klimaforscher und Geologen, sondern auch für die Geschichtswissenschaftler von Interesse.

Paläo-Klimaveränderungen
Geht man noch weiter in die Erdgeschichte zurück, so muss man auch die Änderung der Erdbahnparameter sowie die Kontinentaldrift berücksichtigen. Hier ist die Frage, welche Rückkopplungsmechanismen zusammenspielen müssen, um aus den Strahlungsänderungen große Klimaveränderungen wie zum Beispiel Eiszeiten zu erzeugen. Bisher hat man mit den vollen komplexen Modellen nur Episoden (z. B. 1000 Jahre Eem, d. h. die letzte Warmzeit vor 130 000 Jahren) rechnen  können, während man mit weniger komplexen Modellen wegen fehlender Prozesse den Klimaablauf nicht vollständig nachbilden kann. Auch hier hat man das Problem von punktuellen Proxy-Messdaten, die man gerne mit einem dreidimensionalen Modell zusammenfassen möchte. Der Rechenaufwand ist erheblich, ist jedoch durchaus vergleichbar mit Aufwendungen für geologische Mess-kampagnen. Es sollte deshalb überlegt werden, ob man durch Modellrechnungen die geologische Datenerfassung nicht optimieren kann.

Zukünftige Klimaänderungen
Häufig wird im Zuge der Diskussion über den Klimawandel derzeitiges und zukünftiges Klima verwechselt. Für die zukünftige Klimaentwicklung hat man sogenannte Szenarien entwickelt, in denen die Industrialisierung, das Bevölkerungswachstum sowie der Energieverbrauch und Energiemix der nächsten 100 Jahre hochgerechnet wird. Diese Abschätzungen lassen sich in Änderungen von Treibhausgaskonzentrationen umrechnen, mit denen die Klima-Modelle "gefüttert" werden. Für die derzeit gültigen und von einer UN-Tochterorganisation herausgegebenen Szenarien (SRES) ergeben sich je nach Szenarium Temperaturprojektionen von 1.4 bis 5.8°C über dem derzeitigen Niveau (Abb. 4). Dieses ist als Maximum fast eine Größenordnung mehr als das, was selbst die Ver-treter der Solarhypothese für die solaren Effekte für die letzten 100 Jahre postulieren (ca. 0.6°C) und auch mehr als das, was man für die Warmzeit im Mittelalter rekonstruiert hat. Man kann also die Unsicherheiten in der Berücksichtigung der Sonnenintensität nicht als Argument dafür nehmen, dass man keine Maßnahmen zur Stabilisierung der Treibhausgase ergreift.

Schlussbemerkung
Man hat schon vor Jahren im Zuge der Analyse der anthropogenen Klimabeeinflussung festgestellt, dass man mehr über die Sonnenvariabilität und seine Auswirkungen auf das Klima wissen muss. Es wurden deshalb Forschungsinitiativen entwickelt, um den Schwankungen der Solarintensität auf die Spur zu kommen, z. B. durch weitere Satelliten-Messungen, durch eine Verbesserung der Sonnenmodelle und Klimamodelle und durch vermehrte Sammlung von Proxydaten.
     Gleichzeitig wird man durch das Anwachsen der Rechenleistung dank des BMBF-finanzierten Ausbaues des Deutschen Klimarechenzentrums in der Lage sein, die Stratosphäre besser aufzulösen, die Chemie interaktiv zu rechnen und längere Simulationen durchzuführen. Verschiedene BMBF-Projekte (AFO 2000, DEKLIM), EU-Projekte sowie das HGF-Projekt KIHZ bringen die Modellierer und die Geologen zusammen, um interdisziplinär die Klimaproblematik zu bearbeiten. Es laufen auch Projekte, um Hypothesen des Zusammenspiels des interstellaren Teilchenflusses mit dem Klima zu überprüfen. 
     Es wird noch einige Jahre dauern, bis für alle Fragen abgesicherte Antworten vorliegen werden. Es gibt in diesem Forschungsprozess, wie in der Wissenschaft üblich und notwendig, immer wieder ein Hinterfragen von Einzelergebnissen und die Formulierung von Arbeitshypothesen. Die naive (oder beabsichtigte?) Missinterpretation der Hinterfragungen als allgemeines "In Frage stellen" und die Verwechslung von "Hypothese" mit "Ergebnis" hat in letzter Zeit leider zu einiger Verwirrung in diesem Themenbereich geführt.

Ulrich Cubasch, Hamburg

Zum Inhaltsverzeichnis


 

3rd Study Conference on BALTEX
 

Vom 2. bis 5. Juli fand in Mariehamn bei bestem Wetter die dritte, dem internationalen BALTEX-Projekt gewidmete Konferenz statt. Genau während einer stabilen Hochdrucklage versammelten sich ca. 100 Wissenschaftler aus mehr als 10 Ländern auf den zwischen Schweden und Finnland gelegenen Åland-Inseln. Nach Konferenzen auf Gotland, Schweden (1995) und Rügen, Deutschland (1998) fand nun wieder auf einer Ostseeinsel, diesmal von einem finnischen Organisationskomitee erfolgreich organisiert, ein Zusammentreffen von Wissenschaftlern statt, die sich mit dem Energie- und Wasserkreislauf der Ostsee beschäftigen.
     BALTEX, eines der Teilprojekte der kontinentalen Skala von GEWEX (Global Energy and Water EXchange), ist ein internationales Programm im World Climate Research Programm mit dem Ziel, die Prozesse, die den Energie- und Wasserhaushalt bestimmen, besser zu verstehen und somit zukünftige Vorhersagen zu ermöglichen. Dies beinhaltet auch die Vorhersage von Extremereignissen wie z.B die Oderüberflutungen. Diese Thematik führt zwangsläufig dazu, dass verschiedene Disziplinen (Hydrologie, Meteorologie, Ozeanografie etc.) sich zusammenfügen müssen, um das Gesamtziel zu erreichen. Dabei beinhaltet das BALTEX- Programm verschie-denste Elemente von experimentellen und numerischen Prozessstudien, numerischer Modellierung, Reanalysen von Datenreihen, Datenassimilation, Klimastudien bis zur Anwendung von Fernerkundungsalgorithmen. 
     BALTEX unterscheidet sich von anderen GEWEX-Programmen dadurch, dass es sich nicht um ein einzelnes Flusseinzugsgebiet handelt (obwohl es einige Stimmen gibt, die die Ostsee als "just a big river" beschreiben) und durch die grosse Zahl der beteiligten Anrainerstaaten. Dass die Öffnung des Ostens in den letzten Jahren erfolgreich stattfand, wurde an der erfreulich hohen Anzahl von Teilnehmern aus den baltischen Republiken, Polen und Russland deutlich. Dabei tauchte auch interessantes Datenmaterial auf, wie zum Beispiel die sehr lange Zeitserie des Eisgangs des Hafens von Riga, an der sehr schön der Rückgang der Vereisungsdauer während des letzten Jahrhunderts gezeigt werden konnte.
     Der zentralen Fragestellung, der Beschreibung des Energie- und Wasserhaushaltes, wurde im wesentlichen auf zweierlei Art zu Leibe gerückt. Zum einen wurden langjährige Beobachtungen von Handelsschiffen (COADS-Daten) analysiert, aus denen sich zeigte, dass die Ostsee im Norden und Süden Wasser aus der Atmosphäre gewinnt, während im zentralen Bereich die Verdunstung gegenüber dem Niederschlag überwiegt. Der andere Weg besteht in der Analyse langjähriger Läufe gekoppelter, regionaler Klimamodelle, wie sie derzeit in Schweden (Rossby-Center) und Deutschland (MPI Hamburg) entwickelt werden. Erste Ergebnisse des gekoppelten Atmosphäre-Eis-Ozeanmodells des Rossby-Centers zeigten, dass die Wärmebilanz der Ostsee nahezu geschlossen ist. Den größten Unsicherheitsfaktor bilden die Strahlungsflüsse. Im Vergleich mit anderen Studien scheint die Genauigkeit der Energieflüsse bei etwa 15 Wm-2 zu liegen. Somit konnte auch die Wette zwischen Prof. Raschke und Hans-Jörg Isemer, ob die Strahlungsbilanz der Ostsee im Mittel positiv oder negativ ist, nicht endgültig entschieden werden.
     Es wurde klar, dass die regionalen Klimamodelle noch einige Schwächen haben. Ein Beispiel dafür sind die Wolken- und Niederschlagsprozesse, deren Inkonsistenz mit Beobachtungen in mehreren Vorträgen gezeigt wurde. Aufgrund des wolkenfreien Himmels konnte zwar der ausgeprägte Tagesgang der Bewölkung, der zu einem mittleren Bedeckungsgrad von 25% am Nachmittag über der Ostsee führt, nicht während der Konferenz beobachtet werden, wurde jedoch in mehreren Vorträgen eindeutig belegt. Problematischer ist jedoch die Beschreibung der nachmittäglichen Konvektion und insbesondere des Einsetzens von Niederschlag über Land, wo es zu deutlichen Diskrepanzen zwischen Modellen und Beobachtungen kommt. An dieser Stelle sollte das BALTEX-Radar (BALTRAD http://www.baltrad.se) Datencenter erwähnt werden, wo die operationellen finnischen, schwedischen, deutschen, russischen etc. Radarmessungen zu flächendeckenden, allgemein verfügbaren Niederschlagsfeldern kombiniert werden.
     Einer Verbesserung der Wolkenparametrisierungen in numerischen Modellen widmet sich das aktuelle EU-Projekt CLIWANET, in dem ein Prototyp eines europäischen Wolkenbeobachtungsnetzes während zweier intensiver Beobachtungsphasen des BALTEX-Feldexperiments BRIDGE einge-führt wurden. Durch eine Kombination von bodengebundenen und Satellitenverfahren werden hier globale Felder des Wolkenwassergehalts für das BALTEX-Modellgebiet abgeleitet. Weiterhin wurden Ergebnisse anderer Messkampagnen wie der BALTEX Air-Sea-Ice Study (BASIS) und PEP, die sich mit Wind- und Turbulenzmessungen beschäftigten, vorgestellt.
     Eine besondere Schwierigkeit gekoppelter Modelle besteht im Austausch zwischen Boden/Vegetation und Atmosphäre, worüber leider, wahrscheinlich aufgrund der Schwierigkeit der Thematik, kaum Ergebnisse vorgestellt wurden. Dabei ergeben sich zusätzliche Schwierigkeiten dadurch, dass die Einzugsgebiete der die Ostsee speisenden Flüsse sehr unterschiedliche Klimate besitzen. Ein Vergleich von ca. 20 hydrologischen Modellen für das Torne/Kalix-Einzugsgebiet in Nordschweden, in dem Schneeprozesse eine grosse Bedeutung einnehmen, verdeutlichte die Schwierigkeiten. Aber nicht nur BALTEX stellt sich der Herausforderung arktischer Bedingungen. Auch in Nordkanada hat man mit solchen Problemen zu kämpfen. Ein GEWEX-Projekt, das das Einzugsgebiet des Mackenzie untersucht, wurde in einem Übersichtsvortrag präsentiert, der mit dem Geschenk einer Baseball-Kappe an Ehrhard Raschke, den in Ruhestand tretenden Motor von BALTEX, gipfelte.
     Nicht unerwähnt bleiben sollte, dass die Konferenz sogar durch einen mehrere Stunden währenden Stromausfall nicht maßgeblich beeinträchtigt werden konnte. Dieses durch ein  Problem mit dem Hauptstromkabel aus Schweden auftretende Phänomen konnte niemanden aus der Ruhe bringen und bot Gelegenheit, die Schönheiten dieser Inselgruppe mit Rad, Surfbrett oder Auto zu erkunden. 
     Nach der Konferenz, die etwa eine Dekade BALTEX markierte, stellt sich die Frage nach der Zukunft. Mit dem 6. Rahmenprogramm der EU, das in Mariehamn vom früheren BALTEX-Sekretär Hans-Jörg Isemer vorgestellt wurde, bietet sich die Chance, Fördermittel für koordinierte Großprojekte einzuwerben. Dies wäre ein enormer Fortschritt gegenüber der jetzigen vor allem durch national geförderte Einzelprojekte geprägten Forschung. Ob es gelingt, die verschiedenen Disziplinen, Nationalitäten, Forschungseinrichtungen etc. in solch einem strukturierten Verbund sinnvoll zu vereinigen und der EU schmackhaft zu machen, werden wir spätestens in 3 Jahren auf der nächsten BALTEX-Konferenz wissen.
     Es scheint, dass die Filmmusik aus Titanic, die unmotiviert bei der ersten Rede des Konferenzdinners erklang, kein schlechtes Omen für die Zukunft von BALTEX darstellt. Zumindest das BMBF hat im Rahmen des DEKLIM-Programms ein positives Zeichen gesetzt, indem es 5 größere Projekte bzw. Projektverbünde, die sich mit BALTEX relevanten Fragestellungen beschäftigen, in den nächsten 5 Jahren fördert.

Susanne Crewell
Universität Bonn

Zum Inhaltsverzeichnis


 

Im Wetterschach nicht den Turm verlieren!
 

Da sitzen wir nun, die Studenten des Instituts für Meteorologie der FU Berlin, und verstehen die Welt nicht mehr. Seit 1908 wird in Dahlem das Wetter beobachtet. Nun soll die Station automatisiert werden, obwohl in unmittelbarer Nachbarschaft zum Klimagarten Dutzende von wetterbegeisterten Studenten bereit wären, die Wetterbeobachtung fort zu führen. Die Entscheidung bedeutet das Ende einer über 50-jährigen Reihe von 24-stündiger Wetterbeobachtung. Vor allem aber stößt sie die Studierenden, die bisher motiviert die Klimareihe betreut haben, vor den Kopf. Worauf kommt es in der heutigen Meteorologie an? Die möglichst weitreichende Automatisierung von Beobachtung, Analyse und Vorhersage? Vielleicht auch noch des Verständnisses?
     Wir wissen, was es bedeutet, wenn eine Beobachtungsstation wie der Dahlemer Wetterturm zum Institut gehört. Studenten aus ganz Deutschland kommen nach Berlin, um die einzigartige Atmosphäre zu erleben, die damit verbunden ist. Für sie steht das aktuelle Wetter und dessen Beobachtung im Mittelpunkt - als Motivation, zur Schärfung des meteorologischen Denkens, zur Erprobung des bisher Gelernten. Der Blick zum Himmel wird zur Wissenschaft und zum Studieninhalt. 
     Deshalb sind es wir Studenten, die auf einer Fortsetzung des Beobachtungsbetriebs bestehen. Zwei Wochen lang haben hier 30 Personen unentgeltlich im Schichtdienst gearbeitet! Durch Spenden ist es nun möglich, auf niedriger Lohnbasis den Betrieb aufrecht zu erhalten. Erste Finanzierungsmöglichkeiten zeichnen sich inzwischen ab, so dass wir guten Mutes sind. Helfen Sie uns! Ein neuer wissenschaftlicher Frühling wird kommen, und dann werden wir uns über jede Beobachtungsreihe freuen, die überlebt hat. Vielen Dank für Ihre Unterstützung.
     SPENDENKONTO: Hauptkasse Freie Universität Berlin, Berliner Bank, BLZ 100 200 00, Konto- Nr.: 3901 9993 03 Als Verwendungszweck angeben: "Unterkonto 24032730 Stichwort: Schichtdienst". Spendenquittungen werden ausgestellt.

Christoph Gatzen
für die Studierenden des Instituts für Meteorologie der Freien Universität Berlin

Zum Inhaltsverzeichnis


 

Festival de la Météorologie vom 8.-11.3.2002 in Issy-les-Moulineaux
 

Issy-les-Moulineaux wäre vermutlich ein banlieue de Paris wie viele andere (statt einer Fußnote: Ehrlicherweise sei hinzugefügt, dass eines der wenigen Spielkartenmuseen dieser Welt ebenfalls in Issy zu finden ist - ein weiteres ist beispielsweise in Altenburg), gäbe es dort nicht das angestammte Epizentrum der Medienmeteorologie-Verehrung. Heutzutage bedeuten "angestammt" ein rundes Dutzend Male - bis auf zwei Ausnahmen in Montreal und Quebec fand es immer in Issy statt. Es begann als klar und streng frankophones Treffen und wurde im Laufe der Jahre immer polyglotter. Die Beiträge waren ja schon immer in aller Herren Ländersprachen; das Festival selbst jedoch erschloss sich erst nach und nach den Französisch-unmächtigen Teilnehmern. Nichtsdestoweniger wurde mein Schulfranzösisch das eine oder andere Mal auf harte Proben gestellt. Im Zentrum des Wirbelsturms sitzt François Fandeux, selbst ehemaliger Fernsehwetterfrosch in Frankreich, der einen unnachahmlichen Sinn für Inszenierung besitzt.
     Wie große Restaurantköche können Fernsehmeteorologen in Frankreich gefeierte Stars werden. Grenouilles de la télé. Sogar - kaum zu glauben, nicht wahr? - mit Allüren. Das passiert auch anderenorts, doch ist es dans la patrie exemplarisch. Peinlich, peinlich, war Ihr Berichterstatter bis vor kurzem relativ kurzsichtig, was die Show-Biz-Seite unseres Berufs angeht. Paris und Umgebung und das Festival im Vorfrühling zu besuchen waren dann der Ausschlaggeber, die Neugier groß.
     Fernsehwetterpräsentatorinnen und -präsentatoren, on camera meteorologists, wie sie sich gelegentlich selbst nennen, haben ja die nachgerade einmalige Chance, eine wache Zuschauerschaft mehrmals täglich zu erreichen; im Prinzip und mit aller obwaltenden Umsicht können sie die Öffentlichkeit in Wissenschaftsdingen unterrichten. Was es heutzutage dafür braucht, ist sicher eine "schlichte" Mixtur aus den Ingredienzien: Nüchterner Wissenschaftler, Schauspieler, Spaßmacher und Journalist. Dazu das Herz des Löwen, um vor die Kamera zu treten und in der Luft zu gestikulieren. Probieren Sie's doch einmal (statt einer weiteren Fußnote: Nicht dass ich mit meinen stolzen 8 Minuten Gesamtfernseherfahrung auch nur ein Wörtchen an dieser Stelle mitreden könnte...). Die Mischung und der Standard und die Standards sind von Land zu Land sehr stark unterschiedlich, das Spektrum breit: Sie finden den vollentwickelten und gelegentlich deplatziert wirkenden Akademiker, und Sie finden den clownesk durch's Bild hoppelnden Spaßvogel. Die Sache ist, sozusagen, nach oben und unten offen.
     Glauben Sie jedoch nicht, Sie könnten in Issy mit der Metro anreisen und dann in das Festival hineinspazieren. Auch die Suche nach einem Anmeldeformular können Sie sich ersparen. Don't call us, we call you. Kennen Sie noch die Szene aus "Leoparden küsst man nicht", der guten alten Hollywood-Komödie von 1938? Catherine Hepburn saß im Gefängnis, und als Cary Grant sie fragte, wie sie denn da hineingekommen sei, antwortete sie: "Beziehungen." Es war natürlich kein Gefängnis, aber fragen Sie mich besser nicht, wie ich hineinkam...
     Also, worum geht es beim Festival? In nicht unbeträchtlicher Linie um Glamour. Die Stars feiern die Stars. Einige Abläufe und Rituale lassen die Hollywood-Anlehnung ahnen. Nicht, dass ich dort dazugehöre - hier werden großenteils Vorurteile verbreitet. Im Mittelpunkt des Festivals steht die Auswahl belohnenswürdiger Clips. Es gibt eine Reihe von Kategorien, die, so will es der Zufall, einer gleichen Zahl von wundervoll anzuschauenden Preisen, "Les Météors" genannt (siehe Abbildung), entsprechen. Ein Dutzend Preise und etwa 50 Bewerber. Keine schlechte Aussicht, einen zu gewinnen. Die Juroren waren überwiegend gleichzeitig die Bewerber - nicht vergessen, es bedurfte einer Einladung... Ganz bestimmt wurde der Selbstdisziplin der Juroren einiges abverlangt, denn die Beschau-Sitzungen waren sadistischerweise auf den Samstag- und Sonntagmorgen gelegt. Die Verleihungszeremonie selbst bekam, ganz logisch, das Filetstück der Tagung. Sie fand à la manière d'Oscar statt: Mietsmoking, Abendgarderobe, besonders große Stars, die den Preis verleihen, "and the winner is"-Zitate. Ganz aufrichtig soll hier nicht der Spielverderber gegeben werden - es ist wirklich ein interessanter Anblick - ich füge nur an: Wenn es jemals zum Wetter-Oskar kommt (Quel horreur! Noch ein Amerikanismus! Aber ich melde hiermit alle Copyrights an, so dieser Name irgendwann einmal angenommen wird), dann sollte die Zeremonie wahrhaft überlebensgroß sein, Sie verstehen? Und sie sollte nicht des nachmittags stattfinden und schon um acht vorbei sein, weil die Halle für etwas Wichtigeres gebraucht wird. Sie sollte lange und hoch leben, auch in der Erinnerung.
     Was geschah sonst? Es wurde sich der Wissenschaft angenommen. Die SOS Climat Kampagne, die sich an die breite Öffentlichkeit und das Bewusstsein der Wetterpräsentatoren wendet, wurde gestartet. Mit recht großer Sichtbarkeit, beispielsweise mit großen Flächen auf Fahrzeugen, Werbetafeln, ja selbst in der Metro, die nach Issy fährt. Es gab mehrere Workshops und einen so genannten Round Table mit eingeladenen Prominenten, z.B. von der WMO. Letzterer wurde souverän und umsichtig wie immer vom Präsidenten der EMS, René Morin gestaltet und befasste sich ebenfalls mit dem Thema Global Change und dessen Vermittlung an die Öffentlichkeit. Dies fand sich selbst in einigen der Kategorien für die Météors-Preise wieder. Eine spannende, so genannte Brainstorming Session wurde leider in der Phase des vollen Fluges durch die Ankunft eines Politikers mit sehr engem Zeitplan, der eine wichtige Verlautbarung verlas,abgebrochen.
     Ihrem kritischen Berichterstatter fiel zudem ein Kommunikationsproblem zwischen Politikern, "praktizierenden" Wissenschaftlern und den Präsentatoren auf. Bemerkenswerterweise sind nicht nur viele WMO-Dokumente im Übersetzungssumpf steckengeblieben, es ging einem gut Teil der Kommunikation auf dem Festival nicht viel anders - die oftmals nützliche und sehr professionelle Simultandolmetscher-Kolonne kann nichts dafür. Politiker und Wissenschaftler und alle dazwischen liegenden Schattierungen müssten an ihrer, wie die Franzosen so schön sagen, vulgarisation arbeiten. Das Standardohr der Standardfernsehwetterperson ist nicht für umsonst zu haben. Und die Übersetzung für die breite Öffentlichkeit ist mindestens eine weitere Stufe von dieser Informationsvermittlung entfernt. Das beginnt beim gesprochenen Perpetuum Mobile mit eintöniger Stimme zum Thema technische Details der IPCC-Struktur oder Details im Nach-Kyoto-Prozess, setzt sich fort in nicht sorgsam gewählten Beispielen und ist beim Mangel an passendem Bildmaterial noch lange nicht zu Ende. Was immer an logistischen Gründen für all dies angeführt werden kann: die Hemmnisse sind unbedingt zu überwinden, sonst sägt das Festival, finde ich, am Ast, auf dem es sitzt. Es wäre doch kein Ding der Unmöglichkeit, wenn sich die Präsentatoren und die "Informanten" auf halbem Wege träfen und eine Art inverse Pressemappe entstünde,  in der die Erwartungen an die Politiker und Wissenschaftler hineingeschrieben sind.
     Dem Festival sollte eine Ausstellung angegliedert sein, die aber leider aus Mangel an geeignetem Platz recht klein ausfiel. Aber sie war doch zu groß, als dass sie das Wort "gestrichen" verdient. Es gibt sicher reichlich visuelle Werkzeuge zu zeigen, und auch der Kontakt zwischen den Eingeladenen und den Firmen ist von Bedeutung. Die Konferenzen der AMS sind und bleiben zentrale Ereignisse auf diesem Feld.
     Zusammenfassend ziehe ich meinen virtuellen Hut vor den Veranstaltern. Sie sind einen guten Schritt in Richtung auf das nüchterne und komplexe Territorium Global Change gegangen, das dazu angezeigt ist, auch das wohlgeübteste Lächeln vom Gesicht der Teilnehmer zu wischen. Die Zweisprachigkeit sollte weiter verbessert werden; derzeit quält sich das Festival noch etwas, den frankophonen Gesamteindruck abzulegen. Eine Mehrebenen-Beziehung mit anderen auf dem Feld der Medienmeteorologie Tätigen wäre in hohem Maß wünschenswert - es ist doch ein gemeinsames Ziel, was wir verfolgen, n'est-ce pas?

Arne Spekat
DMG-Sekretär

Zum Inhaltsverzeichnis


 

LEARNTEC 2002
 

Technologie als Selbstzweck? Technologie und ihre Fortentwicklung ist in zunehmendem Maße nicht nur Lehr- und Lernstoff (ich lerne etwas über Technologie) sondern kann auch als Werkzeug (ich lerne etwas mit Hilfe von Technologie) eingesetzt werden, um Wissen zu vermitteln. Es dreht sich jedoch nicht notwendigerweise nur um technologisches Wissen; vielmehr geht es im Grunde um alle Bereiche, in denen Wissen zu vermitteln ist. Zwischen den Wissensanbietern und den Werkzeuganbietern besteht ein hoher Bedarf, den Informationsfluss rege zu halten - die Lösung heißt: Messen und Kongresse veranstalten/besuchen. 
     So fand bereits zum 10. Mal die Messe LEARNTEC statt; für das Jahr 2002 hatten sich die Organisatoren vom 5.-8. Februar in Karlsruhe einfinden. Die LEARNTEC ist vom Charakter her eine Industriemesse und der Kongress gleicht ebenfalls eher Tagungen aus dem Wirtschaftsbereich. Mehr als 700 Euro für eine Registrierung sind jenseits der Obergrenze, die eine "normale" wissenschaftliche Tagung für den Teilnehmer kosten sollte - der Besucher wird aber von geladenen Referenten beschallt, die z.T. beachtliche Honorare für ihre Auftritte bekommen und es gibt oftmals einen Simultan-Übersetzerservice. Das kostet. So leistete sich der DMG-Sekretär einen Tagesbesuch bei der Messe für weniger als 5% des Tagungspreises; das ist auffällig, nicht wahr?
 

Warum eigentlich lernen? Morgen ist doch sowieso alles anders.
 

     Als sollte unterstrichen werden, welche Dimension das Marktsegment Lernen/Technologie hat, fand die Messe über mehrere große Hallen verteilt statt, wobei am Schnittpunkt Wirtschaft und Weiterbildung ein sehr reiches Spektrum vorzufinden war. Es umfasste Angebote von eLearning-Kursen, die im Namen von Universitäten, Volkshochschulen, Handelskammern, Verwaltungen und großen Firmen durchgeführt werden und die der Weiterbildung und auch der Zertifizierung dienen. Ein weiterer Schwerpunkt lag bei Firmen, die Werkzeuge zur Erstellung oder Effizienzsteigerung von interaktiven Unterrichtseinheiten produzieren oder vermarkten. Interessanterweise kam auch die ehrwürdige Buchdruckerkunst zur Geltung, und das keineswegs nur mit Büchern über Datenverarbeitung, die von den namhaften Verlagen vorgestellt wurden. "Grossisten", wie die Europäische Kommission oder das Bundesministerium für Bildung und Forschung waren selbstverständlich auch vertreten. Eher dem Umfeld zuzurechnen sind Organisationen wie die Bundeszentrale für politische Bildung oder die Aktion Barrierefreies Internet. In einer kleinen, aber feinen Spezialgruppe stellten sich Initiativen und Produkte vor, die in den Universitäten, in der Regel von Studenten entwickelt wurden.
     Vielfach fühlte man sich wie ein Besucher bei einer Ausstellung für Unterhaltungselektronik oder der Büchermesse oder einer Autoausstellung. Markt und Marktschreier ziehen einander halt an. Lernen macht Spaß! Entdecke die Kostenrechnung! Als Zivilisationskritik sei hier vermerkt, dass in der Regel verkannt wird, welche Rolle Spaß spielen sollte: Er sollte den Lernprozess leichter verdaulich machen, aber nicht das ultimative Ziel des Lernens sein.
     Ein Text wie dieser kann natürlich nicht ohne das Wort PISA auskommen. Etliche Defizite wurden durch diese Studie offen gelegt, und insbesondere die Grundschule verdient mehr Aufmerksamkeit - leider fand sich auf der Messe so gut wie kein Aussteller, der sich diesen neuen Bedürfnissen widmete. Von der European Meteorological Society wurde 2001 ein Komitee gegründet, dessen Arbeit sich mit hoher Priorität der naturwissenschaftlichen Grundschulausbildung annimmt. Meteorologie und Umweltbetrachtung ist als unmittelbarer Zugang zu Erkenntnissen über die Natur der Natur - sozusagen - gut geeignet und dieses Konzept wird von der EMS verfolgt. Die DMG engagiert sich in diesem Komitee durch die Einbindung von Herrn Wehry, Herrn Zick (Zentrum für Digitale Medien, FU Berlin) und mir. Da der (Fort-)Bildung generell ein größeres Gewicht eingeräumt werden muss rege, ich an dieser Stelle an, die Struktur der DMG um einen Arbeitskreis Bildung, der später in einen DMG-Fachausschuss münden sollte, anzureichern.
     Bildung braucht weite zeitliche, räumliche und ideelle Horizonte. Ein wesentlicher Beitrag sollte von Organisationen mit langem Atem, wie es zum Beispiel unsere Gesellschaft und auch die EMS sind, erbracht werden.

Arne Spekat
DMG-Sekretär

Zum Inhaltsverzeichnis

Stand: 15. April 2002, Webimplementierung: A. Spekat