Ende der 90er fing “Weird Al” Yankovic mit seiner Parodie auf Puff Daddys “It’s all about the Benjamins” den damaligen Zeitgeist der gegenseitigen Überbietung in Sachen Rechnerleistung perfekt humoristisch ein. In “It’s all about the Pentiums” heißt es unter anderem
My new computer’s got the clocks, it rocks
But it was obsolete before I opened the box.
You say you’ve had your desktop for over a week?
Throw that junk away, man, it’s an antique.
Die Sängerfigur des Songs prahlt damit, dass er 100 Gigabyte Ram und einen 40 Zoll Monitor hat und disst sein Gegenüber mit den Worten “In a 32-bit world, you’re a 2-bit user”. Heute, 15 Jahre später, sind beide Daten gar nicht mehr völlig unmöglich (wenn auch für Heimsysteme eher unpraktisch und teuer), aber bei Desktop PCs und Laptops hat sich die Konversation ohnehin verlagert. Heute ist eben nicht mehr “all about the Pentiums”, mein fast vier Jahre altes MacBook ist für meine Zwecke heute fast noch so effizient wie beim Kauf. Die Zeit der Zahlenschlachten in der Heimcomputerwelt ist vorbei, ebenso wie die Megapixel-Schlachten in der Digitalkamerawelt.
Doch das heißt nicht, dass das Rennen um die Effizienz vorbei ist. Es ist nur umgezogen. Wahrscheinlich könnte man Yankovics Song heute über Smartphones singen – oder über Orte, an denen man es gar nicht vermuten würde, etwa Kompressionsraten.
HEVC, nonchalant
Als ich im vergangenen Herbst auf dem Beyond-Festival in Karlsruhe war, um mich über die neuesten Entwicklungen in Sachen 3D zu informieren (Ergebnis unter anderem nachzulesen in der aktuellen Ausgabe von “epd film”), erwähnte einer der Redner dort, Ralf Schäfer vom Fraunhofer Henrich Hertz Institut, relativ nonchalant, dass ja nun auch ein neues Video-Format namens HEVC entwickelt worden sei, der einiges in Bewegung setzen dürfte.
Erst in späteren Recherche-Gesprächen wurde mir klar, wie wichtig HEVC werden könnte. “High Efficiency Video Coding”, wie das Kompressionsformat ausgeschrieben heißt, verbessert den bisherigen H.264/MPEG4 AVC-Standard, der für Bildkompression bei Bewegtbild eingesetzt wird, um das Doppelte. Es halbiert also die Datenmenge, die man braucht, um etwa ein Fernsehbild zu übertragen – bei gleichbleibender Qualität. Mit anderen Worten: SD-Auflösung wird quasi ein Pups in den Leitungen, die Übertragung von HD wird so einfach wie heute SD und UHD/4K-Übertragung wird auf dem gleichen Level möglich, wie HD heute.
Mein Fernseher, ein Gobelin?
“Wer will überhaupt 4K?” mag sich der geneigte Leser jetzt fragen und in der Tat habe ich mich auch schon gefragt, wie viele Wanddurchbrüche ich machen müsste, um ein Display von der Größe eines Gobelins sinnvoll als Fernseher nutzen zu können. Aber diese Art von Effizienzgewinn bedeutet noch ganz andere Sachen als ein pures Mehr an Auflösung: Etwas so Datenlastiges wie Autostereoskopie (aka 3D ohne Brille) könnte endlich ein Thema werden und HFR (aka Hobbit-Vision) könnte sinnvoll diskutiert werden (es nervt euch vielleicht in Mittelerde, aber wie wäre es bei Sportübertragungen?). Es sind eben nicht die immer kletternden Zahlenwerte, die die entscheidende Power bringen – viel öfter sind es die cleverer werdenden Algorithmen, die plötzlich eine Verdopplung der Effizienz bringen, indem sie irgendwelche mathematischen Lücken ausnutzen. Als Laie kann man darüber nur ungläubig den Kopf schütteln.
Case in Point: “Joint Importance Sampling”, der Fachausdruck für eine neue Rendertechnik, die – zumindest behaupten das “io9” und “fxguide” – “eine neue Ära der Animation einläuten könnte”. Sie verfolgt grob gesagt Lichtpfade effizienter und rechnet nur jene Teile der Pfade in Bildpunkte um, die die Kamera wirklich sehen kann. So werden Renderzeiten enorm verkürzt und ganz neue Möglichkeiten eröffnet.
Revolution statt Evolution
Disney-Entwickler Wojciech Jarosz, dessen Team auch hinter “Joint Importance Sampling” steht, hat in einer Rede, die er auf einem Render-Symposium in Spanien im Juni 2013 gehalten hat, dafür plädiert, beim Rendern von der Evolution zur Revolution zu wechseln, neu zu denken und nicht nur das Bisherige weiterzuentwickeln. Die Entwicklung des “Joint Importance Sampling”, die nur der Kamm einer größeren Welle zu sein scheint, zeigt also ebenfalls, dass man auch dort noch besser Algorithmen finden kann, wo man alle Möglichkeiten ausgereizt glaubte.
Gefährlich wird das ungläubige Staunen über solche Entwicklungen jedoch, wenn man versucht, das Prinzip aus der Welt der Chips und mathematischen Formeln auf andere Bereiche zu übertragen. Der Über-Effiziente Mensch endet im Burnout und im blinden Glauben an die ständige Verbesserung wird Moore’s Law plötzlich zu Moore’s Curse, wie der Umweltforscher Vaclav Smil etwa mit Blick auf die Energiewende festgestellt hat. Oder sind wir auch hier nur einem evolutionären Gedankengang verfallen? Vielleicht wartet hinter der nächsten Kurve doch noch die Neuentwicklung, die wieder einmal alles auf den Kopf stellt. Manchmal bin ich mir nicht sicher, ob ich darauf hoffe oder nicht.
Das Schlimme daran ist ja eigentlich, daß die ganze Technik, z.B. im Bereich Film, kaum einen Einfluß darauf hat, ob man da jetzt einen guten Streifen vorgesetzt bekommt oder nicht. Natürlich gibt es gewisse Grundvoraussetzungen. Die sind für mich aber, sorry Industrie, auch mit DVD auf einem Röhrengerät schon erfüllt. Wenn es nicht darum ginge, auch gegenwartstauglich zu bleiben, wäre schon normales HD gar nicht mehr mein Thema, abgesehen davon, daß eine Blu-ray die Möglichkeit bietet, im Filmmaterial vorhandene Details und Defekte ohne kompessionsbedingte Verzerrungen abzubilden. Komischerweise erscheinen auch die meisten Filme, die mich derzeit interessieren, weiter nur auf DVD. Was soll man da machen? Das ist so, als hätte man softwareseitig im PC-Wettrüsten bis heute eine Kompatibilität zu Pentium 1 Rechnern mit Windows 95 beibehalten.