Heutzutage ist die virtuelle Realität nicht mehr nur ein Gedankenkonstrukt, welches Wissenschaftler*innen im Labor umsetzen können, sondern findet zunehmend mehr Anwendung im Alltag, besonders etabliert ist es bereits in der Videospiel-Branche. Um eine echtwirkende Darbietung zu erreichen, spielt nicht nur die Visualisierung, sondern auch die Auralisierung eine wichtige Rolle. Um diese akustische Umgebung simulieren zu können, ist es nötig, die head related transfer functions (HRTFs) eines Menschen zu kennen, um sie für die Anwendung über Kopfhörer dreidimensional nachbilden zu können. Die HRTFs beschreiben die Schallübertragung ausgehend von der Quelle, reflektiert und gebeugt an Torso, Schultern und Kopf, sowie der Ohrmuschel, bis hin zum Trommelfell. Die Messungen der HRTFs an verschiedenen Personen gestalten sich meist sehr aufwendig und beanspruchen viel Zeit, wobei menschliche (Kopf-) Bewegungen willkürlich auftreten. Das Ziel innerhalb dieses Semesterprojektes war es, das Messsystem zu verbessern, indem ein visuelles Feedback intuitiv die Bewegungen der Versuchspersonen während der Messungen reduziert. Ergänzend wurde auch ermittelt, wie groß der Einfluss der (Kopf-) Bewegungen auf die HRTFs ist.
Zur Messung der Kopfbewegungen der Versuchspersonen wurde ein Head-Tracker auf dem Kopf der jeweiligen Versuchspersonen platziert. So konnten die Bewegungen auf den Transversalachsen (x, y, z- Achse), sowie um die Rotationsachsen (Azimuth, Elevation, Rollen) erfasst werden.
Das in Python programmierte visuelle Feedback zeigt eine grafische Oberfläche in Form einer Zielscheibe mit Fadenkreuz. Das Programm greift auf die Daten des Head-Trackers zu und gibt auf der Zielscheibe die Bewegungen der Versuchsperson in Echtzeit zurück. Bewegt die Person ihren Kopf auf transversaler Ebene, so lenkt das Fadenkreuz entsprechend aus. Die Rotationen werden durch einen Kreis abgebildet, der auch bei einer Vorbeugung größer bzw. bei einem Zurücklehnen kleiner wird und eine grüne Farbe annimmt, wenn die Ursprungsposition erreicht ist.
Mit allen Versuchspersonen wurden zwei Messdurchgänge, je einmal ohne und einmal mit dem visuellen Feedback durchgeführt. Währenddessen wurden jeweils die HRTFs gemessen.
Dazu saßen die Personen in einem kreisrund ausgeschäumten Versuchsaufbau auf einem Stuhl exakt in der Mitte eines drehbaren Lautsprecherbogens. Während den Messungen wurde durch die Lautsprecher eine Reihe überlagerter Sinussignale abgegeben. Nach jeder einzelnen Messung drehte sich der Lautsprecherbogen in 5°-Schritten bis eine 180° Umdrehung erreicht wurde.
Zur Quantifizierung der Auswirkungen der Bewegungen auf die HRTFs wurde ermittelt, was die maximalen Auslenkungen aller Versuchspersonen pro Messdurchlauf in allen sechs gemessenen Freiheitsgraden waren. Diese Bewegungen wurden durch den KEMAR nachgestellt, um so die HRTFs messen zu können. Bei dem KEMAR handelt es sich um eine Puppe, mit naturgetreu nachgebildetem Kopf. In den Gehörgängen der Puppe befinden sich Messmikrofone, um so reproduzierbare Messungen vor dem Trommelfell einer Person durchzuführen.
Die Studie zeigte, dass die Bewegungen der Versuchspersonen durch Nutzung des visuellen Feedbacks durchschnittlich auf den jeweiligen Rotationsachsen 10- bis 20-mal geringer sind. Auf den Transversalachsen sind die Kopfauslenkungen mit Nutzung des visuellen Feedbacks 5- bis 10-mal geringer als ohne Feedback. Auch die Probandenrückmeldungen lauteten, dass eine Messung mit visuellem Feedback zwar anstrengender, aber weniger ermüdend und abwechslungsreicher seien. Während sich das Feedback auch positiv auf die Messergebnisse der HRTFs auswirkt, sollte in Folgestudien auch die subjektive Veränderung durch Hörversuche überprüft werden. Grundsätzlich lässt sich aus den Forschungsergebnissen ableiten, dass eine standardmäßige Integration des Feedbacks bei der Messung von HRTFs sinnvoll ist.