|
Ohr
am Puls der Daten
Mit hoher Präzision analysiert der Mensch akustische Signale – eine
Fähigkeit, die sich die Fachrichtung der Sonifikation zunutze macht:
Große Datenbestände werden zum Klingen gebracht, um schnell
Unregelmäßigkeiten zu identifizieren. Die Methode gewinnt Freunde,
gleich, ob es um die Interpretation der Hirnströme, der Börsendaten oder
des Verkehrs geht.
Im
Alltagsleben spielen Töne, Klänge und Geräusche eine wichtige Rolle:
Sie helfen bei der Orientierung, bei der Verständigung mit Mitmenschen,
wecken aus dem Schlaf oder machen gute Laune. Warum nicht auch in
Wissenschaft, Medizin und Wirtschaftsleben auf das geübte Ohr des
Menschen setzen, fragen sich die Sonifikationsexperten am Lehrstuhl für
Neuroinformatik der Universität Bielefeld. Und betreiben Data Mining mit
akustischen Mitteln – beispielsweise anhand von Börsendaten.
Wie klingt
wohl das Auf und Ab der Kurse, die Hektik der Transaktionen, die Psyche
des Markts, die jeder Anleger so gerne spüren möchte, um die richtige
Kaufentscheidung zu treffen? Das sind Fragen, die der Neuroinformatiker
Timo Thomas zum Thema seiner Diplomarbeit gemacht hat. Am Lehrstuhl von
Professor Helge Ritter in Bielefeld setzt er Börsendaten in Töne um: Da
klingt ein Kurssturz wie ein Erdrutsch, und im leisen Gemurmel der kleinen
Transaktionen macht sich ein großer Deal durch einen lauten Ton
bemerkbar.
Akustische Daten sind für
Forscher noch Neuland
Der
Geldmarkt ist nur eine, wenn auch vielleicht die heißeste Anwendung des
akustischen Data Mining, das die Bielefelder Wissenschaftlergruppe
erforscht und entwickelt. Sie leisten Pionierarbeit. "Sonifikation ist
ein junges Feld. Erst seit acht Jahren gibt es eine internationale
Konferenz dazu“, erklärt der Doktorand Thomas Hermann, Diplomphysiker
und zusammen mit Jörg Walter und Ritter Vordenker der Gruppe. Auf der
Icad, was für International Community for Auditory Display steht, treffen
sich jedes Jahr zwischen 100 und 150 Experten (www.
icad.org).
Verglichen
mit den Techniken der Visualisierung, die sich in den vergangenen
Jahrzehnten stürmisch entwickelt haben, steckt die Vertonung von Daten
ganz in den Anfängen. Dabei, so Hermann, gebe es keinen Grund, das
menschliche Ohr gegenüber dem Auge zu unterschätzen: "Unser Gehör
erbringt permanent ungeheure Mustererkennungsleistungen, die im Umgang mit
dem Computer weitgehend ungenutzt bleiben. Beim Hören einzelner Klänge können
wir eine große Zahl von Attributen differenzieren, wie beispielsweise
Tonhöhe, Lautstärke, Dauer, Hüllkurve, Klangfarbe, Rauhigkeit oder
Vibrato.“ Man merkt, dass hier ein geübter Musiker spricht: Hermann
spielt seit seiner Kindheit Keyboard und hat – wie er bescheiden anmerkt
– "die Gabe des absoluten Gehörs“.
Er ist der
Meinung, dass man in der Wissenschaft, der Medizin, aber auch anderswo in
unserer vergleichsweise "stillen Computerwelt“ die Fähigkeit des
Menschen, aus Tönen Informationen herauszuhören, viel stärker nützen
sollte. Statt uns mit akustischen Gimmicks auf bunten Web-Seiten zu
nerven, sollten die Programmierer lieber darüber nachdenken, "wie man
wirklich nützliche Informationen auf angenehme Weise hörbar macht“.
Schließlich
nehme die Datenmenge ständig zu, der visuelle Kanal sei oft überfordert.
Im Cockpit von Flugzeugen, in der Steuerungszentrale von Atomkraftwerken
und im Operationssaal beispielsweise hat man bereits Konsequenzen gezogen
und lässt bei kritischen Veränderungen von Messwerten einen akustischen
Alarm ertönen. Aber das ist nur eine recht primitive Art von Sonifikation.
Etwas
anspruchsvoller ist schon die Audifikation, bei der Messwerte oder Daten
einer Zeitserie in Schalldruck umgesetzt werden. Neurophysiologen benutzen
die Methode beispielsweise, um die Aktivität eines einzelnen Nervs hörbar
zu machen.
Beim
Parameter-Mapping geht man einen anderen Weg: Jeder Komponente hoch
dimensionaler Daten wird eine akustische Qualität zugeordnet. So wird
etwa die Geschwindigkeit eines Autos in Tonhöhe, sein Gewicht in Lautstärke
umgesetzt. Hermann und seine Kollegen haben auf diese Weise "zehn Tage
Verkehr auf einem Straßenabschnitt“ vertont: Im hellen Sirren hört man
periodisch tiefe, dunkle Geräusche – die Staus. Die zehn Tage wurden
dabei zu einem Hörstück von einer halben Minute komprimiert.
Mathematisch
komplizierter, aber vom Höreindruck her interessanter sind die neuen
Verfahren modellbasierter Sonifikation, die sich Hermann zusammen mit
seinem Kollegen Peter Meinicke und seinem Chef Ritter ausdenkt. "Hierbei
werden aus den Daten Klangkörper generiert, deren akustisches Verhalten
durch das Modell festgelegt wird“, erklärt der Physiker. "Oft stellt
man sich die Daten als Punkte in einem mehrdimensionalen Vektorraum vor,
etwa so wie Sterne im Weltraum.“ Auf dieses ungeheure Datenuniversum
kann man einen gedachten physikalischen Prozess einwirken lassen, den man
dann hörbar macht (zu den verschiedenen Modellen siehe Kasten unten).
Dass die
Idee der Sonifikation schon zur Anwendungsreife gekommen ist, zeigt die
Kooperation von Hermann und Tim Nattkemper, einem weiteren Doktoranden aus
der Neuroinformatikgruppe. Zusammen mit Medizinern von der Universität
Magdeburg haben sie Methoden entwickelt, die Fluoreszenz von Lymphozyten,
also menschliche Immunzellen, hörbar zu machen. Mit der so genannten
multiparametrischen Fluoreszenzmikroskopie wird nämlich die Funktion von
Eiweißkörpern (Proteinen) in den Zellen studiert. Bisher war das
Augenarbeit: Eine Unzahl von Mikroskopaufnahmen musste verglichen werden,
und zwar Zelle für Zelle. Jetzt kann man unterschiedliche
Fluoreszenzmuster schnell und einfach am Verlauf und Klang einer Art
Glockenspielmelodie unterscheiden.
Eine
weitere medizinische Sonifikationsaufgabe, die in Bielefeld ansteht, ist
die Auswertung von Langzeit-Elektrokardiogrammen (EKGs) von Herzpatienten.
Hier kommt es darauf an, die in vielen Stunden aufgezeichneten Daten auf höchstens
eine Minute zu komprimieren, damit der Arzt sie rasch beurteilen kann.
Nicht nur
die Interpretation von EKGs lässt sich bewerkstelligen, sondern auch die
von Hirnstromaufzeichnungen, den so genannten Elektroenzephalogrammen (EEGs).
Mit der Sonifikation von EEG-Ableitungen zu psycholinguistischen
Experimenten beschäftigt sich Peter Meinicke.
Das menschliche Gehör
analysiert Hirnströme
"Die
Analyse dieser Daten ist nicht einfach“, gibt Meinicke zu bedenken, denn
EEG-Daten seien stark verrauscht, die Signale schwach. Eine simple
Audifikation eines EEGs klingt wie Windesrauschen – ziemlich
nichtssagend. Mit der modellbasierten Sonifikation versuchen die
Bielefelder Forscher nun, bedeutungsvolle Strukturen in den Daten
aufzufinden.
Keine Frage: Die
Sonifikation steht noch am Anfang ihrer Entwicklung. Doch das Interesse
der Anwender steigt. So könnte man geografische Daten, die immer
stärker kommerziell genutzt werden, mit ähnlichen Methoden
akustisch interpretieren, wie die Mikroskopaufnahmen der Magdeburger
Proteinforscher. "Sonifikation kann eine große Hilfe beim
schnellen Screening von Daten aller Art sein“, konstatiert
Professor Ritter. "Doch ein noch größeres Potenzial liegt
wahrscheinlich in der Interaktion mit Daten, vor allem wenn man
Sonifikation in Verbindung mit Visualisierung benutzt.“
Er und
seine Arbeitsgruppe sind sich jedoch im Klaren darüber, dass der Umgang
mit akustischen Display-Methoden gelernt und trainiert werden muss, bevor
diese in ähnlich selbstverständlicher Weise von Anwendern genutzt
werden, wie Grafiken, virtuelle Realität oder bewegte Bilder. Börsendatenspezialist
Thomas will sich jedenfalls demnächst mit Finanzexperten treffen, um die
Praxisrelevanz seiner Aktien-Töne zu testen – damit in Zukunft nicht
nur alte Hasen an der Börse das Gras wachsen hören.
JUDITH RAUCH
Home | Kontakt | Datenschutzerklärung | Impressum
Fenster schließen
|
|