Judith Rauch schreibt: ComputerZeitung 19. Oktober 2000

Ohr am Puls der Daten

Mit hoher Präzision analysiert der Mensch akustische Signale – eine Fähigkeit, die sich die Fachrichtung der Sonifikation zunutze macht: Große Datenbestände werden zum Klingen gebracht, um schnell Unregelmäßigkeiten zu identifizieren. Die Methode gewinnt Freunde, gleich, ob es um die Interpretation der Hirnströme, der Börsendaten oder des Verkehrs geht.

Im Alltagsleben spielen Töne, Klänge und Geräusche eine wichtige Rolle: Sie helfen bei der Orientierung, bei der Verständigung mit Mitmenschen, wecken aus dem Schlaf oder machen gute Laune. Warum nicht auch in Wissenschaft, Medizin und Wirtschaftsleben auf das geübte Ohr des Menschen setzen, fragen sich die Sonifikationsexperten am Lehrstuhl für Neuroinformatik der Universität Bielefeld. Und betreiben Data Mining mit akustischen Mitteln – beispielsweise anhand von Börsendaten.

Wie klingt wohl das Auf und Ab der Kurse, die Hektik der Transaktionen, die Psyche des Markts, die jeder Anleger so gerne spüren möchte, um die richtige Kaufentscheidung zu treffen? Das sind Fragen, die der Neuroinformatiker Timo Thomas zum Thema seiner Diplomarbeit gemacht hat. Am Lehrstuhl von Professor Helge Ritter in Bielefeld setzt er Börsendaten in Töne um: Da klingt ein Kurssturz wie ein Erdrutsch, und im leisen Gemurmel der kleinen Transaktionen macht sich ein großer Deal durch einen lauten Ton bemerkbar.

Akustische Daten sind für Forscher noch Neuland 

Der Geldmarkt ist nur eine, wenn auch vielleicht die heißeste Anwendung des akustischen Data Mining, das die Bielefelder Wissenschaftlergruppe erforscht und entwickelt. Sie leisten Pionierarbeit. "Sonifikation ist ein junges Feld. Erst seit acht Jahren gibt es eine internationale Konferenz dazu“, erklärt der Doktorand Thomas Hermann, Diplomphysiker und zusammen mit Jörg Walter und Ritter Vordenker der Gruppe. Auf der Icad, was für International Community for Auditory Display steht, treffen sich jedes Jahr zwischen 100 und 150 Experten (www. icad.org).

Verglichen mit den Techniken der Visualisierung, die sich in den vergangenen Jahrzehnten stürmisch entwickelt haben, steckt die Vertonung von Daten ganz in den Anfängen. Dabei, so Hermann, gebe es keinen Grund, das menschliche Ohr gegenüber dem Auge zu unterschätzen: "Unser Gehör erbringt permanent ungeheure Mustererkennungsleistungen, die im Umgang mit dem Computer weitgehend ungenutzt bleiben. Beim Hören einzelner Klänge können wir eine große Zahl von Attributen differenzieren, wie beispielsweise Tonhöhe, Lautstärke, Dauer, Hüllkurve, Klangfarbe, Rauhigkeit oder Vibrato.“ Man merkt, dass hier ein geübter Musiker spricht: Hermann spielt seit seiner Kindheit Keyboard und hat – wie er bescheiden anmerkt – "die Gabe des absoluten Gehörs“.

Er ist der Meinung, dass man in der Wissenschaft, der Medizin, aber auch anderswo in unserer vergleichsweise "stillen Computerwelt“ die Fähigkeit des Menschen, aus Tönen Informationen herauszuhören, viel stärker nützen sollte. Statt uns mit akustischen Gimmicks auf bunten Web-Seiten zu nerven, sollten die Programmierer lieber darüber nachdenken, "wie man wirklich nützliche Informationen auf angenehme Weise hörbar macht“.

Schließlich nehme die Datenmenge ständig zu, der visuelle Kanal sei oft überfordert. Im Cockpit von Flugzeugen, in der Steuerungszentrale von Atomkraftwerken und im Operationssaal beispielsweise hat man bereits Konsequenzen gezogen und lässt bei kritischen Veränderungen von Messwerten einen akustischen Alarm ertönen. Aber das ist nur eine recht primitive Art von Sonifikation.

Etwas anspruchsvoller ist schon die Audifikation, bei der Messwerte oder Daten einer Zeitserie in Schalldruck umgesetzt werden. Neurophysiologen benutzen die Methode beispielsweise, um die Aktivität eines einzelnen Nervs hörbar zu machen.

Beim Parameter-Mapping geht man einen anderen Weg: Jeder Komponente hoch dimensionaler Daten wird eine akustische Qualität zugeordnet. So wird etwa die Geschwindigkeit eines Autos in Tonhöhe, sein Gewicht in Lautstärke umgesetzt. Hermann und seine Kollegen haben auf diese Weise "zehn Tage Verkehr auf einem Straßenabschnitt“ vertont: Im hellen Sirren hört man periodisch tiefe, dunkle Geräusche – die Staus. Die zehn Tage wurden dabei zu einem Hörstück von einer halben Minute komprimiert.

Mathematisch komplizierter, aber vom Höreindruck her interessanter sind die neuen Verfahren modellbasierter Sonifikation, die sich Hermann zusammen mit seinem Kollegen Peter Meinicke und seinem Chef Ritter ausdenkt. "Hierbei werden aus den Daten Klangkörper generiert, deren akustisches Verhalten durch das Modell festgelegt wird“, erklärt der Physiker. "Oft stellt man sich die Daten als Punkte in einem mehrdimensionalen Vektorraum vor, etwa so wie Sterne im Weltraum.“ Auf dieses ungeheure Datenuniversum kann man einen gedachten physikalischen Prozess einwirken lassen, den man dann hörbar macht (zu den verschiedenen Modellen siehe Kasten unten).

Dass die Idee der Sonifikation schon zur Anwendungsreife gekommen ist, zeigt die Kooperation von Hermann und Tim Nattkemper, einem weiteren Doktoranden aus der Neuroinformatikgruppe. Zusammen mit Medizinern von der Universität Magdeburg haben sie Methoden entwickelt, die Fluoreszenz von Lymphozyten, also menschliche Immunzellen, hörbar zu machen. Mit der so genannten multiparametrischen Fluoreszenzmikroskopie wird nämlich die Funktion von Eiweißkörpern (Proteinen) in den Zellen studiert. Bisher war das Augenarbeit: Eine Unzahl von Mikroskopaufnahmen musste verglichen werden, und zwar Zelle für Zelle. Jetzt kann man unterschiedliche Fluoreszenzmuster schnell und einfach am Verlauf und Klang einer Art Glockenspielmelodie unterscheiden.

Eine weitere medizinische Sonifikationsaufgabe, die in Bielefeld ansteht, ist die Auswertung von Langzeit-Elektrokardiogrammen (EKGs) von Herzpatienten. Hier kommt es darauf an, die in vielen Stunden aufgezeichneten Daten auf höchstens eine Minute zu komprimieren, damit der Arzt sie rasch beurteilen kann.

Nicht nur die Interpretation von EKGs lässt sich bewerkstelligen, sondern auch die von Hirnstromaufzeichnungen, den so genannten Elektroenzephalogrammen (EEGs). Mit der Sonifikation von EEG-Ableitungen zu psycholinguistischen Experimenten beschäftigt sich Peter Meinicke.

Das menschliche Gehör analysiert Hirnströme
 

"
Die Analyse dieser Daten ist nicht einfach“, gibt Meinicke zu bedenken, denn EEG-Daten seien stark verrauscht, die Signale schwach. Eine simple Audifikation eines EEGs klingt wie Windesrauschen – ziemlich nichtssagend. Mit der modellbasierten Sonifikation versuchen die Bielefelder Forscher nun, bedeutungsvolle Strukturen in den Daten aufzufinden.

Keine Frage: Die Sonifikation steht noch am Anfang ihrer Entwicklung. Doch das Interesse der Anwender steigt. So könnte man geografische Daten, die immer stärker kommerziell genutzt werden, mit ähnlichen Methoden akustisch interpretieren, wie die Mikroskopaufnahmen der Magdeburger Proteinforscher. "Sonifikation kann eine große Hilfe beim schnellen Screening von Daten aller Art sein“, konstatiert Professor Ritter. "Doch ein noch größeres Potenzial liegt wahrscheinlich in der Interaktion mit Daten, vor allem wenn man Sonifikation in Verbindung mit Visualisierung benutzt.“

Er und seine Arbeitsgruppe sind sich jedoch im Klaren darüber, dass der Umgang mit akustischen Display-Methoden gelernt und trainiert werden muss, bevor diese in ähnlich selbstverständlicher Weise von Anwendern genutzt werden, wie Grafiken, virtuelle Realität oder bewegte Bilder. Börsendatenspezialist Thomas will sich jedenfalls demnächst mit Finanzexperten treffen, um die Praxisrelevanz seiner Aktien-Töne zu testen – damit in Zukunft nicht nur alte Hasen an der Börse das Gras wachsen hören.

JUDITH RAUCH

Home | Kontakt | Datenschutzerklärung | Impressum

Fenster schließen