„Sound kann einfach nur untermalen, eine Szenerie verstärken. Oder eine ganze Geschichte erzählen. In Dunkirk etwa das Heulen der Sirenen in Verbindung mit dem Schlagen der Wellen, der menschliche und der natürliche Feind. Unterbrochen vom Ticken einer Uhr, die sagt – diese Jungs, diese 300.000 Soldaten am Strand haben nicht mehr viel Zeit. Es muss nicht immer das Orchester sein, das kocht. Es kann eine kleine, eine einzelne Note sein, die einen Charakter beschreibt – diese eine Note, die den Joker bespielt etwa, weil er keine Macht will, was das Orchester ausdrückt. Sondern Chaos, das diese gequälte Note aus dem Cello verkörpert. Diese eine Note spielt auf und du weißt, er ist es“.
So erzählte es uns erst vor wenigen Wochen Hans Zimmer, einer der größten Komponisten unserer Zeit. Ein Mann, der vor allem vielseitig ist, der vom König der Löwen über Black Hawk Down bis The Dark Knight und Inception die größten Hollywood-Filme der letzten Jahrzehnte musikalisch untermalte. Und auch in Spielen müssen wir nicht lange suchen, um eines zu erkennen: Sound ist diese magische Komponente, die die Atmosphäre dominiert. Etwa in BioShock, wo Garry Schyman Schönheit und Grauen von Rapture nahtlos verbindet, mit einzelnen Streichern und experimentellen Einsatz von Percussions. Zimmer selbst hat auch schon viele Games komponiert, sein größtes war sicherlich Call of Duty: Modern Warfare. Interview: Wir haben gerade erst Hans Zimmer getroffen „Wenn du an Werken mit großen Budgets arbeitest, ist es immer verlockend, das Orchester groß aufspielen zu lassen, diese Epik zu schaffen. Aber das ist oft ein Fehler. Wenn die Black Hawks auf die Stadt zufliegen, hat das etwas Majestätisches. Aber ich dachte immer auch: Was denken die Soldaten in diesem Moment? Halten sie sich für Helden? Oder haben sie viel eher Angst, weil überall auf jedem Haus ein Gegner mit einem Raketenwerfer stehen könnte, der ihr Leben beendet? Gutes Sounddesign braucht diese emotionalen Ebenen, die aufeinander preschen wie Wellen, die an einem Fels zerbarsten.“ Genau an diesen Ebenen arbeiten tausende Sound-Ingenieure weltweit in den größten Spielestudios der Welt und EPOS hat Wissenschaftler und Hirnforscher beauftragt, die ihnen helfen sollen zu erkennen, was Klang in unserem Gehirn auslöst.

„Unser Gehirn interpretiert den Klang in „Fokus“ und „Orientierung“, erklärt EPOS-President Jeppe Dalber-Larsen. Fokus sind dabei die eigentlichen Worte, die zu uns gesprochen werden – Dialoge und Monologe. Auch hierzu zählt die Unterscheidung zwischen Gesprochenem und Umgebungsgeräuschen, etwa einem Schuss, einer Explosion. Orientierung bezieht sich auf den räumlichen Anteil des Klangs oder darauf, woher er kommt. Herauszufinden, wie wir hören, kann helfen, bessere Wege zu finden, um Klänge zu übertragen. Die Sound-Spezialisten, die sich aus Sennheiser gegründet haben, arbeiten jetzt mit verschiedenen Universitäten und Branchen aus dem medizinischen Bereich, etwa Hörgeräteherstellern zusammen, um besser zu verstehen, wie eigentlich unser Gehirn Klang interpretiert und wie sich dieser ändert, wenn wir etwa im Liegen zocken auf der Couch an der Konsole statt mit durchgestrecktem Rücken im Gaming-Chair am PC.
„ Wir hören nicht mit den Ohren. Wir hören mit dem Gehirn“

Eine faszinierende Veranstaltung, bei der Jesper Koch, Vizepräsident für Forschung bei EPOS, viele Forschungsergebnisse präsentierte, die den meisten von uns vielleicht gar nicht bewusst sind. „Die Audioforschung zeigt, dass High-Fidelity-Sound sowohl ein gutes Paar Ohren als auch ein akustisch kompetentes Gehirn erfordert. Schall wird in elektrische Signale umgewandelt, die an den auditorischen Kortex gesendet werden. Jeder Ton hat eine bestimmte Spannung, und die Muster dieser Spannungen bilden den neuronalen Code, den das Gehirn zur Orientierung und Fokussierung interpretiert. Daher ist es das Gehirn, das zwischen Spielgeräuschen und Kommunikation unterscheidet, was bedeutet: „Wir hören nicht mit den Ohren, wir hören mit dem Gehirn.“ Eine der größten Herausforderungen für Game-Designer besteht darin, dass, anders als Filme, viele Spiele an Reizüberflutung leiden. Einen Film konsumieren wir passiv, wir lassen uns leiten. Ein Spiel erleben wir aktiv, wir können uns zu Geräuschquellen hinbegeben oder davon entfernen.

„Spiele sind multi-dimensionale Werke, die viel schwieriger im Konsum sind, als Filme. Ich kann meinen Spieler leicht überfordern, wenn ich Informationen über das HUD vermitteln will, über die Grafik, über Effekte“, erklärt BAFTA-Preisträgerin Adele Cutting, die u.a. an Alan Wake und Quantum Break für Remedy gearbeitet hat. „Gutes Audio-Design reduziert die Masse an Informationen auf dem Bildschirm und transformiert sie in Klang. Remedys Spiele arbeiten generell mit einem sehr reduzierten HUD und wenigen Einblendungen, weil wir über Sound viel transportieren können.“ Zum Beispiel wäre es nicht ungewöhnlich, in Spielen Naturgeräusche, gemischt mit Schüssen, Schwertkämpfen, Dialogen und Schritten auf einmal zu hören. Je klarer die Geräusche sind, desto einfacher sei es für das Gehirn, sich auf wichtige Geräusche wie Schritte zu konzentrieren. „Sound ist immer ein spannender Balance-Akt. Als wir an Assassin’s Creed gearbeitet haben, mussten wir sehr segmentiert denken, weil es ein langes Abenteuer, ein richtiges Epos, ist. Du kannst also das Orchester auch nicht immer voll aufspielen lassen, diese Hollywood-Epik ständig auskosten, sondern musst die Höhepunkte gezielt setzen.“
In Assassin’s Creed Odyssey ist zum Beispiel auffällig, dass Ubisoft sehr warme, freundliche Töne nutzt, wenn die Kamera über das Meer fährt, so als wolle es den Spieler zum Verschnaufen und Entspannen nach einem langen Kampf einladen. „Im Abmischen war es wichtig, diese Balance zu schaffen zwischen dem Lesen des Spiels und der Akustik, die gerade auch für das Gameplay Hinweise gibt. Es ist besonders in einem Rollenspiel wichtig, dass die dramaturgische Ebene, die die Atmosphäre schafft, nicht die Geräusche überlagert, die dem Spieler akustisches Feedback im Kampf liefern. Also etwa das Klirren eines Schwertes, welches einen gepanzerten Bereich des Körpers trifft, damit der Spieler weiß – aha, ich muss meine Position und Taktik ändern.“ Deshalb sei es auch so wichtig, dass Sound-Designer eng mit den Herstellern von Sound-Zubehör wie Headsets oder in-Ears arbeiten, weil der Sound in optimaler Qualität am Ohr des Rezipienten ankommen soll. Laut EPOS-President gibt es eine lange Liste von Gründen, warum der Sound nicht klar genug rüberkommt, damit die Gehirnprozesse effizient arbeiten können. Dazu gehören eine schlechte räumliche Wiedergabe und ein schlechter Frequenzgang, Verzerrungen, störende Geräusche und ein schlecht sitzender Kopfhörer. Deswegen investiert man stark in Forschung und arbeitet mit Hörgeräteakustikern zusammen, die genau wissen, wie die Passform eines in-Ears respektive Earbuds wie dem GWT 270 sein sollte, damit Komfort, Klarheit des Sounds und Klangerlebnis eine optimale Einheit bilden. PC vs. Konsole und die nächste Sound-Generation mit 3D-Audio

Sonys Tempest 3D-Audiotechnologie auf der PlayStation 5 war ein großes Thema auf dem Panel, weil in diese neue Technologie sehr viel Forschung und Entwicklungsarbeit gesteckt wurde. Die Spieler müssen klar und deutlich hören sowie kommunizieren, das ist die Basis. Tempest 3D Audio sorgt aber jetzt dafür, dass der Klang dreidimensional wird, sprich wir die Entfernung zu einer Klangquelle hören können. Wir hören, ob ein Regentropfen direkt vor uns auf den Asphalt prallt oder erst drei Meter weiter. Ob der Motor eines Autos links oder rechts von uns angeworfen wird. Call of Duty: Black Ops Cold War und Battlefield 6 nutzen diese Technologie, um zu simulieren, wie Helikopter über unseren Kopf hinwegsausen und dabei die Rotoren den Wind nach unten und zur Seite wegdrücken.
Bei der Entwicklung von Tempest wurden Mikrofone in die Ohren von Personen gesteckt und diese mit Klängen aus einem Array von 22 Lautsprechern beschallt, während die Person gedreht wurde, um ein klares Gefühl dafür zu bekommen, wie sich der Klang in Relation zur Bewegung von Kopf und Körper verändert. Auch das ein spannender Punkt: Wir nehmen Sound anders wahr, wenn wir gerade im Gaming-Chair sitzen oder wenn wir auf der Couch angelehnt in relaxter Haltung sitzen. Will heißen: Das Audio-Empfinden ist zwischen Konsole und PC durchaus unterschiedlicher, weil die meisten Leute auf der Couch gemütlicher und weniger durchgestreckt sitzen als auf ihrem Gaming-Chair, wo wir den Rücken gerade durchdrücken. Laut Andreas Jessen, Head of Global Product Management bei EPOS hängt die sogenannte HRTF (Head-related Transfer Function) zudem von Kopf-, Schulter- und Ohrformen ab. Das Unternehmen nutzte seine Partnerschaft mit Demant, einem der größten Hörgerätehersteller der Welt, und zapfte dessen riesige Datenbank mit Ohrscans an, um seine Headsets und In-Ears zu entwickeln.

Dabei wurde festgestellt, dass die Ohrmuschel aus drei Zonen besteht: flexible Bereiche, die empfindlich auf Druck reagieren, neutrale Bereiche, die empfindlich auf spitzen Druck reagieren und nicht-flexible Bereiche, die keinen Druck aushalten. Indem man den Kontakt mit den nicht flexiblen Bereichen oder der Ohrmuschel ganz vermeidet, erhält man ein Headset, das Audioverluste minimiert und auch bei stundenlangen Gaming-Sessions bequem bleibt. Denn genau das ist die große Kunst beim Design: Das EPOS GSP 601 etwa ist genau 395 Gramm schwer, weil ein Headset nicht zu leicht sein darf, sonst verrutscht es, wenn wir den Kopf rumreißen oder uns hektisch beim Spielen bewegen, was ja gerade im Multiplayer oft der Fall ist. Es darf aber auch nicht zu schwer sein, sonst drückt es und fühlt sich unangenehm an bei längeren Zock-Sessions. Wie das GSP 601 für eSports und Reisen optimiert wurde

„Es macht einen riesigen Unterschied, ob ich an einem Singleplayer-Titel arbeite oder einem mit Multiplayer-Fokus wie League of Legends, was auch im eSports enorm groß ist“, erklärt Matteo Stronati, Audio Director von Riot Games. „Die Audio-Ebene muss sehr klar sein und darf nicht von Effekten überspielt werden, weil es so eine große Rolle in der Informationsübermittlung spielt. Der Sound-Hinweis entscheidet darüber, ob der Profi im Bruchteil einer Sekunde die richtige Entscheidung trifft oder nicht. Diese Entscheidung wiederum kann potenziell Einfluss auf das Finale eines Turniers haben, bei dem Millionen Dollar auf dem Spiel stehen. Es gibt viele Kaskaden-Effekte. Daher haben wir in unserem Audio-Design-Prozess verschiedene Checks und Tests, die speziell dafür da sind, eine gleich bleibende Qualität der Soundeffekte sicherzustellen – besonders, wenn es um ein und dieselbe Aktion geht, die sich jedoch bei verschiedenen Charakter-Skins anders anhört. Wir wollen sicherstellen, dass keine zusätzlichen Hochfrequenz- oder Niedrigfrequenz-Informationen weitergegeben werden, egal welchen Skin der Spieler kauft. Wir wollen dem Spieler durch Audio keinen leichter oder schwieriger zu erkennenden Hinweis geben.“

Das EPOS GSP 601 etwa wurde genau für diesen kompetitiven Spielertypen entwickelt, der mit seinem Headset reisen möchte – egal ob für den Business-Trip, die LAN-Party oder als eSports-Athlet. Deshalb nutzt man Metallscharniere, die das Headset besonders robust machen, weil wir alle ja dazu neigen, unser Headset einfach in den Rucksack zu stecken, ohne es groß zu polstern. Einige verlieren dabei ihre Form, kriegen Kratzer oder gerade das Mikrofon nimmt Schaden, was der sensibelste Part bei einem Headset ist. Deshalb hat man sich auch hier für einen Arm mit robuster Ummantelung entschieden, statt einem flexiblen, drahtigen Arm wie andere Hersteller – der lässt sich zwar leichter zur Seite wegdrehen, ist aber auch empfindlicher. Um den Wechsel zwischen Mikro und ungestörtem Audio-Genuss zu erleichtern, schaltet die Software automatisch stumm, wenn wir den Mikrofonarm hochklappen, was manche Spieler gerne im 1 on 1 machen, wenn sie sich voll und ganz auf das Spiel konzentrieren und nicht die Kommunikation mit den Mitspielern suchen.