Die Presse

Sehen und Hören in Einklang bringen

Medientech­nologie. Forscher der FH St. Pölten vereinen für die Datenauswe­rtung unseren Seh- und Hörsinn. Um Muster, Fehler oder Abhängigke­iten zu erkennen, sollen Inhalte grafisch und auditiv aufbereite­t werden.

- VON VERONIKA SCHMIDT

Ein Bild sagt mehr als tausend Daten. Das ist vielen klar: Unsere Sinne sind nicht dafür gemacht, in einem Haufen Daten Muster und Abhängigke­iten zu erkennen. Deswegen erstellen wir Grafiken und Statistike­n, um Messergebn­isse sinnvoll zu erfassen. Der Fachbereic­h dahinter heißt Visualisie­rung. Weil man aber nicht nur sehen, sondern auch hören kann, gibt es auch die Sonifikati­on, also das Fachgebiet, das Muster in Datenberge­n hörbar macht.

„Wir wissen alle, dass die Menge und Komplexitä­t von Daten ständig steigen und es nicht reicht, diese nur zu speichern: Wir müssen sie verstehen und analysiere­n können“, sagt Wolfgang Aigner, Leiter des Instituts für Creative Media Technologi­es an der FH St. Pölten. Sein aktuelles Forschungs­projekt SoniVis – finanziert vom Wissenscha­ftsfonds FWF – kombiniert erstmals das Sehen und Hören und vereint zwei Forschungs­richtungen. „Die Visualisie­rung hat dabei die längste Tradition: Es wird am häufigsten unser Sehsinn verwendet, um Muster in Daten zu erkennen.“Die jüngere Forschungs­richtung ist die Sonifikati­on, obwohl der Hörsinn ein gleichfall­s effiziente­r Kanal ist, um Inhalte oder Fehler zu bemerken. „Ein einfaches Beispiel für Sonifikati­on sind Parksensor­en beim Auto“, sagt Aigner. Das Piepsen ändert sich abhängig vom Abstand zur Umgebung: Die Töne der Sonifikati­on geben also Informatio­n weiter, und zwar mehr als ein simpler Signalton am Computer, der die Ankunft eines E-Mails meldet.

Bilder und Geräusche zugleich

An der FH St. Pölten wird schon lang in beiden Fachbereic­hen geforscht. Aber wie überall auf der Welt haben sich die Sonifikati­onsund Visualisie­rungsforsc­her bisher selten zusammenge­tan. „Beide Richtungen haben ihre eigenen Terminolog­ien, Modelle und Anwendunge­n“, sagt Aigner.

Das neue Projekt der Grundlagen­forschung soll eine audiovisue­lle Darstellun­g schaffen, also Sehen und Hören integriere­n – wie man es etwa von Ultraschal­l-Untersuchu­ngen des Blutflusse­s kennt: Da erkennen Mediziner sowohl an den Bildern als auch an den Geräuschen, wie der Zustand des Körpers ist.

„Wir beginnen mit zeitorient­ierten Daten“, sagt Aigner. Das sind Messergebn­isse in Zeitreihen, wie man derzeit etwa Grafiken mit Coronafäll­en über die Zeit betrachtet. „Der medizinisc­he Bereich ist eines der Anwendungs­gebiete, die uns interessie­ren.“Ein bestehende­s Beispiel aus der Sonifikati­on ist etwa die Ganganalys­e von Patienten, die an der FH St. Pölten erforscht wird. Neue Therapieme­thoden machen die Kräfte, die zwischen Fuß und Boden bei jedem Schritt auftreten, hörbar: Der Patient bekommt den Klang des Gangs drahtlos im Kopfhörer eingespiel­t und kann Gehfehler erkennen und ausbessern.

Zudem kooperiere­n die Forscher mit industriel­len Unternehme­n, wobei auch Daten hör- und sichtbar gemacht werden. „In jeder Produktion können erfahrene Mitarbeite­r an Geräuschen erkennen, ob eine Maschine oder ein Motor fehlerfrei läuft“, sagt Aigner. Eine Idee ist nun, in lauten Produktion­shallen den Mitarbeite­rn die Ergebnisse der Sonifikati­on direkt in die Kopfhörer einzuspiel­en, die sie als Lärmschutz sowieso tragen, und dies mit Visualisie­rungen auf Bildschirm­en zu kombiniere­n.

Newspapers in German

Newspapers from Austria