Sehen, was man sonst nicht sieht
Eine besondere Form der Zusammenarbeit wurde in Heidelberg mit der Forschergruppe "Bildfolgenanalyse zum Studium dynamischer Prozesse" geschaffen. Wissenschaftler unterschiedlichster Bereiche arbeiten an einem gemeinsamen Ziel: der Anwendung der Bildverarbeitung in der Grundlagenforschung. Bernd Jähne vom Interdisziplinären Zentrum für Wissenschaftliches Rechnen schildert, daß es bei der Bildverarbeitung um sehr viel mehr geht, als "Bilder aufzunehmen". Er beschreibt, wie die digitale Bildverarbeitung die Arbeitsgruppen zusammenführte, welche neuen Möglichkeiten sich eröffneten, und welche Erfahrungen die Wissenschaftler in der interdisziplinären Gruppe sammeln konnten, die in der deutschen Forschungslandschaft bislang einzigartig ist.
Ozeanographen, Atmosphärenphysiker, Botaniker, Physiologen, Genforscher und Mathematiker arbeiten seit November 1995 gemeinsam in einer von der Deutschen Forschungsgemeinschaft (DFG) geförderten Forschergruppe. Auf den ersten Blick mag die Zusammensetzung verwundern. In der Tat ist eine Forschergruppe, die so viele unterschiedliche Disziplinen verbindet, ungewöhnlich; es gibt kaum eine Gruppe in der DFG, die ähnlich interdisziplinär zusammengesetzt ist. Diese besondere Form der Zusammenarbeit konnte sich aufgrund einer speziellen Infrastruktur entwickeln, die an der Universität Heidelberg durch das Interdisziplinäre Zentrum für Wissenschaftliches Rechnen (IWR) geschaffen wurde. Im IWR wurde im Sommer 1994 die Forschungsgruppe Bildverarbeitung neu eingerichtet. Mit der Einrichtung dieser Gruppe war ein Nukleus geschaffen, aus dem sich die interdisziplinäre DFG-Forschergruppe entwickeln konnte. Das Ziel dieser Gruppe ist es, die Bildverarbeitung für die Grundlagenforschung einzusetzen. In diesem Bereich gab es in der Forschungslandschaft der Bundesrepublik eine Lücke. Die Zentren der Bildverarbeitung waren bislang eher an Technischen Hochschulen oder technisch orientierten Universitäten zu finden. Anwendungsgebiete der Bildverarbeitung sind daher hauptsächlich im industriellen Bereich zu finden – von der automatischen Qualitätskontrolle bei der Produktion bis hin zu sehenden Robotern und sich autonom fortbewegenden Fahrzeugen. Ein Zentrum, das die Bildverarbeitung interdisziplinär in der Grundlagenforschung anwendet, gab es überraschenderweise bisher nicht. Die Universität Heidelberg mit dem IWR und dem breiten Spektrum hochkarätiger Grundlagenforschung ist zweifellos ein idealer Standort für die Forschungsarbeiten in diese Richtung. Alle an der Forschergruppe beteiligten Wissenschaftler haben ein gemeinsames Thema: Sie untersuchen komplexe dynamische Prozesse, für die es bisher nur ungenügende experimentelle Techniken gibt. Ob bei der globalen Bilanzierung von Spurengasen in der Atmosphäre, bei winderzeugten Wellen auf der Ozeanoberfläche (siehe Ruperto Carola 3/94, "Bildverarbeitung für die Meeresforschung", Seite 10 bis 15) oder bei Wachstumsprozessen von Pflanzen – in all diesen Fällen genügt es nicht, Messungen an einem oder mehreren Punkten vorzunehmen.
Komplexe Bewegungen erkennen
Es ist vielmehr erforderlich, daß die Messungen flächenhaft mit hoher räumlicher und zeitlicher Auflösung erfolgen. Nur so ist es möglich, einen Einblick in die zugrundeliegenden Prozesse zu erhalten. Bilder aufzunehmen – das mag auf den ersten Blick trivial erscheinen. Es ist aberrsehr aufwendig, die Aufnahmen so zu bewerkstelligen, daß die interessierenden Parameter quantitativ in der aufgefangenen Strahlung erfaßt und nicht durch Störgrößen überlagert werden. Schließlich soll etwas eigentlich "Unsichtbares" sichtbar gemacht werden. Wir sind nicht direkt an der von der Kamera registrierten Strahlung interessiert; wir interessieren uns für die physikalischen, chemischen oder biologischen Parameter, welche die Intensität und Art der Strahlung beeinflussen und über die diese Eigenschaften gemessen werden sollen. Die Entwicklung solcher Aufnahmeverfahren überfordert in der Regel eine einzelne Arbeitsgruppe. Das Wissen vieler verschiedener Fachgebiete muß zusammenkommen. Neben dem Wissen über das Anwendungsgebiet selbst sind fundierte Kenntnisse über die vielfältigen Wechselwirkungen zwischen Strahlung und Materie, technische Optik, elektronische Kamerasysteme und digitale Bildaufnahme unerläßlich. Zwei Beispiele sollen die typische Vorgehensweise und die Schwierigkeiten, die überwunden werden müssen, verdeutlichen. Im botanischen Teilprojekt der Forschergruppe wird untersucht, wie sich das Wachstum von Pflanzen räumlich und zeitlich verteilt. Hinter dieser Aufgabe stehen grundsätzliche biologische Fragen zum Pflanzenwachstum. Welche molekularen Mechanismen kontrollieren es? Wie ist das Wachstum räumlich über einzelne Pflanzenblätter verteilt und welchen Tagesgang weist es auf? Um diese Fragen zu beantworten, ist eine automatische Methode nötig, mit der das Wachstum flächenaufgelöst gemessen werden kann. Eine solche Methode gibt es bisher nicht. Es war klar, daß diese Messungen nur mit Hilfe der Bildverarbeitung, genauer der Bildfolgenanalyse, möglich werden.
Dazu eine Anekdote am Rande: Der Kontakt zwischen dem Botanischen Institut und der Bildverarbeitungsgruppe kam nicht direkt, sondern über einen Umweg zustande. Als die Mitarbeiter des Botanischen Instituts erkannt hatten, daß Bildverarbeitungsmethoden für ihre Forschungsarbeiten notwendig sind, besuchten sie zunächst Fachmessen, um sich über Systeme, die für ihre Aufgabenstellung geeignet sind, zu informieren. Es stellte sich heraus, daß solche Systeme nicht zu erwerben waren; die Mitarbeiter der Botanik konnten jedoch den entscheidenden Tip eines Firmenvertreters mit nach Hause nehmen: In Heidelberg gebe es eine Bildverarbeitungsgruppe, die sich mit der Bildfolgenanalyse beschäftige. Das ist ein schönes Beispiel dafür, wie wichtig vielfältige Kontakte sind und wie vorteilhaft es sein kann, Informationen weit zu streuen.
Das erste Problem, das es im botanischen Teilprojekt zu lösen galt, war die Beleuchtung der Pflanzenblätter. Da der Tag-Nacht-Gang des Wachstums zu den wichtigsten Fragestellungen gehört, mußte zunächst eine Methode gefunden werden, die es erlaubt, auch im Dunkeln Aufnahmen von den Blättern zu machen. Es war bekannt, daß selbst kurze Lichtblitze den Tag-Nacht-Rhythmus der Pflanzen stören. Wie aber nimmt man Bilder bei Dunkelheit auf? Die Lösung bestand darin, die Pflanzen im "nahen Infrarot" zu beleuchten. In diesem Bereich des elektromagnetischen Spektrums – er schließt sich mit längeren Wellenlängen direkt an den sichtbaren Bereich an – absorbieren Pflanzenblätter kaum Strahlung. Insbesondere kann mit dieser Beleuchtungsart keine Photosynthese ausgelöst werden. Die Pflanzen "merken" also nichts von dieser Strahlung, wohl aber elektronische Kameras mit einem Silizium-CCD-Chip (wie sie auch in handelsüblichen Camcordern vorhanden sind). Sie sind in diesem Bereich noch empfindlich. Die Lichtquelle bestand aus einer Reihe von Infrarot-Leuchtdioden (LED). Solche LEDs werden in Fernbedienungen zur Signalübertragung benutzt.
Das zweite Beispiel kommt aus der Atmosphärenphysik. Es gibt zwar schon vielfältige Überwachungsmessungen von Luftschadstoffen wie Schwefeldioxid, Stickoxiden und Ozon; es macht aber immer noch große Probleme, abzuschätzen, welche Mengen dieser Gase weltweit emittiert werden und wie sie sich global verteilen. Solche Abschätzungen sind wesentlich, um globale Einflüsse auf das Klima zu bestimmen und optimale Maßnahmen zu finden, um Schadstoffemissionen zu verringern. Für die Stickoxide ist beispielsweise recht gut bekannt, wie hoch die industriellen Emissionen sind. Wesentlich unsicherer sind die Emissionen durch Waldbrände, Brandrodung und Gewitter. Auch hier liegt das Problem darin, daß punktuelle Messungen vom Boden aus nicht die notwendige Datendichte liefern. In den vergangenen Jahren wurden deshalb intensive Anstrengungen unternommen, atmosphärische Spurengase global von Satelliten aus zu messen – und damit spielt die digitale Bildverarbeitung wieder eine Schlüsselrolle.
An dieser Entwicklung war das Heidelberger Institut für Umweltphysik entscheidend beteiligt. Professor Ulrich Platt von der Fakultät für Physik und Astronomie, einer der Direktoren des Instituts, ist der Miterfinder einer spektroskopischen Methode, der "Differentiellen Optischen Absorptionsspektroskopie" (DOAS), mit der sich Spurengase präzise messen lassen. Ein nach diesem Prinzip arbeitendes Instrument wurde in den zweiten europäischen Satelliten zur Erdfernerkundung (European Remote Sensing Satellite, ERS-2) integriert. Die Hauptaufgabe des Instruments ist die Messung der Ozonverteilung. Es heißt deshalb "GOME", eine Abkürzung für "Global Ozone Monitoring Experiment".
Das Instrument nimmt Bilder der Erdoberfläche auf. Das Besondere daran ist, daß nicht ein, sondern sehr viele Bilder mit einer feinen Auflösung der Wellenlängen aufgenommen werden. In diesen hochaufgelösten Spektren lassen sich die Spurengase messen, da sie bei verschiedenen Wellenlängen das Licht unterschiedlich abschwächen. Mit der Aufnahme der Bilddaten alleine ist es jedoch nicht getan. Jetzt beginnt erst die eigentliche Arbeit: Es gilt, aus den aufgenommenen Bilddaten die interessierenden Parameter zu bestimmen. Dazu ist es wichtig, sich zu veranschaulichen, wie groß die Datenmengen sind, die verarbeitet werden müssen. Eine einzige Sequenz von einem Versuch zum Blattwachstum umfaßt Tausende von Bildern und kann gerade auf einer großen Festplatte mit einer Kapazität von mehreren Gigabyte gespeichert werden. Ähnlich ist es mit den Satellitenbildern vom GOME-Instrument des ERS2-Satelliten. Diese Bilder haben für Satellitenbilder zwar eine nur relativ geringe räumliche Auflösung; die Datenfülle kommt jedoch daher, daß an jedem Bildpunkt ein Spektrum mit 4000 Einzelwerten aufgenommen wird. Diese beiden Beispiele zeigen deutlich, daß sich mit der Anwendung der Bildverarbeitung ein neues Gebiet des wissenschaftlichen Rechnens entwickelt. Es geht darum, die riesigen Datenmengen in den Bilddaten möglichst schnell, korrekt und genau auszuwerten.
Mathematische Methoden benötigt man interessanterweise nicht nur zur theoretischen Simulation und Modellierung auf dem Computer; man braucht sie auch, um experimentelle Daten zu gewinnen. Damit haben alle Anwendungsgebiete der Forschergruppe wieder ein gemeinsame Aufgabe: die Entwicklung schneller Rechenverfahren zur Auswertung von Bilddaten. Die Beispiele haben außerdem demonstriert, daß es nicht darum geht, einzelne Bilder auszuwerten – es handelt sich um wesentlich komplexere Daten. Da in der Forschergruppe dynamische Prozesse wie Wachstums-, Austausch- und Transportvorgänge untersucht werden, haben wir es mit dreidimensionalen Daten, sogenannten Bildfolgen, zu tun. Bei Bildfolgen ist die Zeit die dritte Koordinate. Außerdem werden in allen Anwendungsbereichen der Forschergruppe nicht nur Grauwertbilder, sondern Bilder in unterschiedlichen Wellenlängenbereichen gleichzeitig aufgenommen. Die Wellenlänge kann man als vierte Koordinate auffassen. Und schließlich ist unsere Welt nicht zwei-, sondern dreidimensional. Mit geeigneten Aufnahmesystemen kann man auch dreidimensionale Bilder aufnehmen. Solche Volumenbilder sind beispielsweise aus der Computertomographie bekannt. Die dreidimensionalen Bildaufnahmemethoden unserer Forschergruppe basieren allerdings auf einem anderem Prinzip, dem der konfokalen Mikroskopie. Mit diesem Verfahren werden in einem Teilprojekt hochaufgelöste dreidimensionale Bilder von Zellkernen aufgenommen und ausgewertet. Wenn alle Erweiterungen zusammenkommen, liegen mit Bildfolgen von spektral aufgelösten Volumenbildern fünfdimensionale Daten vor. Mit heutigen Rechnersystemen lassen sich derart große Datenmengen noch nicht aufnehmen und verarbeiten. In der wissenschaftlichen Bildverarbeitung wird der Bedarf nach schnellerer Auswertung von größeren Bilddatenmengen wohl noch langfristig bestehen bleiben.
Das zentrale Bildanalyseproblem der Forschergruppe ist die Auswertung von Bildfolgen. Denn in allen Projekten werden dynamische Prozesse untersucht. Diese Prozesse bewirken verschiedene zeitliche Änderungen in den Bildern; Wachstum und Transport führen zu Verschiebungen von Bild zu Bild, aus denen sich die Wachstumsrate beziehungsweise Transportgeschwindigkeit bestimmen läßt. Gleichzeitig verändern aber die Prozesse die sich bewegenden "Objekte". So tauchen in Satellitenbildfolgen der Spurengase neuentstandene Waldbrände auf; die Spurengase in den Abgasfahnen unterliegen chemischen Reaktionen und ändern daher ihre Konzentration; in Blättern ändert sich durch das Wachstum der innere Aufbau und damit die Streuung des Lichts.
Das Problem ist, die Änderungen durch Bewegung von anderen dynamischen Änderungen zu trennen. Das ist nicht möglich, wenn man nur zwei Bilder miteinander vergleicht. Man muß eine längere Bildfolge auswerten. In solchen Bildfolgen mit zwei Orts- und einer Zeitkoordinate erscheint Bewegung als orientierte Struktur. Die Neigung der Linien steht in direktem Zusammenhang mit der Geschwindigkeit. Je höher sie ist, desto stärker sind die Strukturen relativ zur Zeitachse geneigt. Änderungen an den Objekten lassen sich an der Änderung der orientierten Strukturen erkennen. Damit haben wir eine universelle Methode gefunden, dynamische Prozesse in Bildfolgen zu untersuchen. Die entwickelten Methoden liefern nicht nur die gewünschten Parameter, sondern auch deren Fehler und Zuverlässigkeit, wie dies für wissenschaftliche Anwendungen unerläßlich ist.
Zum zweiten kommt es bei der Fülle der zu verarbeitenden Bilddaten auch darauf an, die notwendigen Verarbeitungsschritte möglichst schnell durchzuführen, das heißt, effektive numerische Methoden einzusetzen. Auch in diesem Bereich konnten entscheidende Fortschritte erzielt werden. Das Interessante dabei ist, daß die gefundenen schnelleren Methoden nicht etwa ungenauer rechnen. Die sorgfältige Analyse hat gleichzeitig zu genaueren Resultaten geführt.
Großes Interesse der Industrie
Was haben wir aus der interdisziplinären Zusammenarbeit gelernt? Sie hat sich sehr bewährt. Für das zentrale Bildverarbeitungsprojekt in der Forschergruppe war es eine Herausforderung, Auswertemethoden nicht nur für eine, sondern für eine Reihe von Anwendungen zu entwickeln. Damit mußten zwangsläufig universell einsetzbare und besser mathematisch fundierte Methoden gefunden werden. Wir haben natürlich auch gelernt, daß sich eine interdisziplinäre Zusammenarbeit nicht von alleine entwickelt, sondern der ständigen Bereitschaft bedarf, die Denkweise eines fremden Fachgebiets kennenzulernen und zu verstehen. In der Forschergruppe haben wir nicht nur eine intensive und fruchtbare Kooperation der zentralen Bildverarbeitungsgruppe mit den den Anwendern erfahren. Das hatten wir erhofft und erwartet. Nicht vorhergesehen haben wir, wie intensiv sich der Austausch zwischen den Anwendern entwickelte, da Fachgebiete zusammentrafen, zwischen denen normalerweise kein Austausch stattfindet. Die Kontakte haben dazu geführt, daß Methoden von einer Anwendung auf die andere übertragen und auf diese Weise unerwartete substantielle Fortschritte erreicht werden konnten. Nur ein Beispiel: Die DOAS-Methode zur Messung atmosphärischer Spurengase wird nun auch eingesetzt werden, um den Austausch von Gasen zwischen der Atmosphäre und dem Meer in Laboruntersuchungen zu erforschen und flächenaufgelöst direkt den Wassergehalt und die Konzentration verschiedender Substanzen in Pflanzenblättern zu messen.
In der Forschergruppe wurden – und werden auch künftig – neue Methoden der Bildaufnahme und -analyse entwickelt. Damit erschließen sich auch neue Möglichkeiten für die industrielle Anwendung. Das Interesse in der Industrie ist jetzt schon groß. Erste Kooperationen wurden bereits aufgenommen.
Autor:
Prof. Dr. Bernd Jähne
Forschungsgruppe Bildverarbeitung,
Interdisziplinäres Zentrum für Wissenschaftliches Rechnen (IWR),
Universität Heidelberg,
Im Neuenheimer Feld 368, 69120 Heidelberg,
Telefon (06221) 54 88 27,
e-mail: bernd.jaehne@iwr.uni-heidelberg.de ( http://klimt.iwr.uni-heidelberg.de )