Diesen Text trage ich schon seit Monaten mit mir herum, aber irgendwie habe ich es nie hinbekommen, mich einfach mal hinzusetzen und ihn zu schreiben. Da das Thema aber gerade diese Woche wieder einmal sehr deutlich an die Oberfläche geblubbert ist, muss es jetzt sein. Es geht darum, wie ich mich zu Generativer KI verhalte. Wie immer geschrieben in dem Verständnis, dass auch ein subjektives Urteil einen Wert im allgemeinen Diskurs haben kann.
Ich stehe in dieser ganzen Angelegenheit in einem gewissen Zwiespalt. Auf der einen Seite hat mich generative KI sofort begeistert. Sie zum ersten Mal zu nutzen enthielt genau das Versprechen von Futurität, das sich geil anfühlte. Ich habe 2023 sogar spekuliert, dass sie uns aus dem Gefühl der Hyperstasis losrütteln könnte (bisher nicht passiert). Nach einem guten halben Jahr Nutzung fühlte es sich sogar im Mai 2023 noch immer so an, als erlaube Generative KI die Zusammenarbeit mit einem “Fremden Anderen”, das einen auf Pfade führt, die man alleine nie gefunden hätte.
Damals und heute
Das alles war natürlich noch recht früh im Lebens- bzw. Produktzyklus der Technologie. Vor drei Jahren wurde man weder an jeder Ecke mit KI-Funktionen zugeschissen, noch hatte sich das Silicon Valley geschlossen hinter einem faschistischen Despoten versammelt. Ich muss aber zugeben: Meine grundsätzliche Faszination für KI ist ungebrochen und ich halte sie nach wie vor für die größte technologische Revolution seit dem Internet. Etwas also, aus dem man sich nicht raushalten kann, weil es irgendwann selbstverständlich ein Teil vieler Aspekte unseres Alltags sein wird.
Auf der anderen Seite bewege ich mich in einer (Online-)Gemeinschaft von (tendenziell linken) Denker:innen und Kreativen, in deren Statements und Handlungen der KI-Backlash in vollem Gange ist. Ich schätze diese Personen und mag sie zum Teil auch persönlich. Daher fühle ich mich innerlich getrieben, ihre Ablehnung zumindest ernst zu nehmen und meine Haltung zu reflektieren. Dieser Text ist ein Versuch, das zu tun.
Scheinargumente
Zum Anfang möchte ich sagen, dass ich viele Argumente, die gerne gegen die Nutzung von generativer KI vorgebracht werden, für Scheinargumente halte. Sie werden ins Feld geführt, um ein grundsätzliches persönliches Unbehagen rechtfertigend zu unterfüttern. Mit anderen Worten: Ich glaube, dass die meisten Menschen, die sich gegen KI – insbesondere im Bezug auf Kunst und Kreativität – aussprechen, dies auch tun würden, wenn die dafür benötigten Datencenter ausschließlich mit erneuerbaren Energien betrieben und alle KI-Firmen von paritätisch besetzten, ideologisch einwandfreien Vorständen geführt würden. (Unter anderem, weil sie ähnliche Voraussetzungen bei älteren, etablierten Technologien akzeptieren.)
Der Diebstahl (vielleicht) von geistigem Eigentum, das zum Trainieren der Modelle verwendet wird, ist meiner Ansicht nach vor allem ein juristisches Problem, das hoffentlich auch auf diesem Weg gelöst werden wird. Ich vermute, dass es sich vorausgehenden Debatten von Kopiermedien anschließen wird. Ich habe eine legendär schlechte Quote beim Vorhersagen kultureller Zukünfte, aber in diesem Fall bin ich mir sehr sicher, dass wir zumindest in Deutschland irgendwann eine Art Verwertungsgesellschaft bekommen werden, die Urheber:innen einmalig oder fortdauernd für die Verwendung ihrer Werke in KI-Modellen entlohnen wird. Allerdings bin ich mir genauso sicher, dass das Geld, das dabei ausgeschüttet wird, nicht dem entsprechen wird, von dem Urheber:innen glauben, dass sie es verdienen.
Tiefe Angst
Denn die persönliche Angst vor Job- und/oder Bedeutungsverlust in der sich zuziehenden Schlinge des Hyperkapitalismus geht tiefer als jede Kompensation. Es ist eine riesige Kränkung, dass die neueste Automatisierungswelle diesmal zum Teil auch die Menschen betrifft, die sich gerade durch die künstlerische Qualität ihrer Arbeit immer für un-automatisierbar gehalten und dafür oft ohnehin schon ein prekäres Leben in Kauf genommen haben. Hier halte ich KI lediglich für ein Symptom und nicht für eine Ursache der Probleme. Entsprechend kann ein Verzicht auf KI-Nutzung von Einzelnen den Zwang für Kreative, sich umzustellen, höchstens hinauszögern.
Ich glaube, dass ich das sagen darf, weil ich als Autor auch von dieser Automatisierung betroffen bin, wenn auch noch nicht so unmittelbar wie Illustrator:innen oder Synchronsprecher:innen. Ich habe deswegen schon lange vor KI aufgegeben, meine Kreativität zum Mittelpunkt meiner Lohnarbeit zu machen (mehr dazu wahrscheinlich im nächsten Post). Aber ich bleibe genauso davon überzeugt, dass menschliche Kreativität und Kunst immer einen gesellschaftlichen Wert haben werden. Es werden immer weniger Menschen von bestimmten kreativen Dienstleistungen leben können. Aber das wird normal werden und das Selbstverständnis der Betroffenen nicht mehr so stark infrage stellen, wie es schon diverse Male zuvor passiert ist – etwa bei Porträtmaler:innen nach Erfindung der Fotografie. Es mag naiv klingen, aber ich glaube daran. Kunst und Kreativität sind und bleiben gleichzeitig das Wichtigste und das Unwichtigste auf der Welt – und diesen scheinbaren Widerspruch gilt es auszuhalten.
Wir hatten uns doch gerade erst ans Internet gewöhnt
Ein weiterer Grund für eine Anti-KI-Haltung ist meiner Ansicht nach eine prinzipielle Nervosität darüber, dass die gewohnte Ordnung der Dinge erneut zerstört wird, nachdem man sich gerade erst an die letzte Disruption durch Digitalisierung gewöhnt hat. Hier brechen sich dann alle typisch kulturpessimistischen Ängste Bahn, die Kathrin Passig einst in ihren “Standardsituationen der Technologiekritik” beschrieben hat. Wir brauchen es nicht, es ging doch vorher auch; wir werden alle krank und dümmer; wenn wir es nutzen, beschleunigen wir nur den Untergang der Zivilisation.
Die Ironie liegt für mich darin, dass genau diese Argumente teilweise von Menschen vorgetragen werden, die von der letzten technologischen Revolution noch enorm profitiert haben. Wahrscheinlich, weil sie damals noch (jung und) flexibel genug waren, um sich an die neuen Gegebenheiten anzupassen.
Gras berühren
Die populärste Variante der in dieser Kulturkampf-Arena vorgebrachten Argumente ist, einfach gesagt, “Der Weg ist das Ziel, Dummie”. Sie findet sich beispielsweise in einem sehr populären Vortrag von Brandon Sanderson, als auch in einem Essay von Rebecca Solnit aus der vergangenen Woche und richtet sich gegen das Versprechen von generativer KI, Kreativität und Kunst auf Knopfdruck zu erzeugen. Ihr habt es nicht kapiert, sagen die Gegner. Ausprobieren, scheitern, lernen, wachsen, Erfahrungen sammeln, Gefühle fühlen und verarbeiten, Gras berühren – das alles sind essenzielle Teile des kreativen Prozesses und des Menschseins, die sich nicht wegrationalisieren lassen.
Damit haben sie natürlich recht. Aber sie diskutieren meiner Meinung nach auch mit dem falschen imaginären Gegenüber. Nur weil einige Tech-Bosse und die dümmsten ihrer Fans die Botschaft verbreiten, dass KI menschliche Kreativität und Verbindung größtenteils ersetzen wird, heißt das noch lange nicht, dass die Mehrheit aller Menschen das auch so empfindet. Wer davon ausgeht, dass Menschen immer und überall den einfachsten, kürzesten und im Zweifelsfall unmenschlichsten Weg nehmen werden, sagt damit mehr über sich selbst aus, als über die Gesellschaft. Allen kurzfristigen Trends wie Self-Checkout-Kiosks zum Trotz. (Noch eine naive Meinung, vielleicht. Hier kommt mir leider immer mein positives Menschenbild in die Quere.)
Eine lange Aufzählung von “Selbstverständlichs”
Ich möchte damit auf gar keinen Fall sagen, dass es nichts an generativer KI zu kritisieren gibt. Selbstverständlich haben die Trainingsdaten und die LLMs, die sie nutzen, systematische Biases, die es zu beachten gilt. Selbstverständlich sollte man Informationen, die ein LLM ausspuckt, nicht blind vertrauen. Selbstverständlich sollten wir darauf hinarbeiten, den Energieverbrauch von Datenzentren zu reduzieren oder nachhaltig zu machen. Selbstverständlich sollten wir auf eine offene Architektur von LLMs drängen, sie möglichst frei verfügbar machen und die dahinter stehenden Firmen so stark regulieren wie wir können. Und selbstverständlich gibt es wie immer kein richtiges Leben im falschen und das Medium ist die Botschaft und wir sollten immer wachsam sein, dass wir uns von unserer Technologie nicht diktieren lassen, wie wir unser Zusammenleben gestalten wollen.
Aber das sind gesellschaftliche Aushandlungsprozesse, die meine Faszination für die Technologie nicht eindämmen oder mich davon abhalten, sie überhaupt nutzen zu wollen. Sie bestimmen höchstens, wie ich sie nutzen will. Ich habe mir daher schon vor einiger Zeit einen persönlichen KI-Knigge zurechtgelegt, den ich im Folgenden kurz schildern will. Die Tendenz, auf Umgangsregeln und Reflexion statt auf Verbote zu setzen, sehe ich immer wieder, etwa im Buch von Gregor Schmalzried oder erst diese Woche beim Social Media Watchblog. Wie immer bin ich froh, dass ich nicht allein bin.
Wie, also, nutze ich KI?
Als Suchmaschinenersatz. Ich betrachte LLMs im Wesentlichen als ein großes Repositorium von Wissen, aufgelöst in wahrscheinliche Zeichenketten, zugänglich durch ein Interface, das natürliche Sprache benutzt. Und damit sind sie in ihrer Basisfunktion eine Suchmaschine mit besserer Usability und ich benutze sie bevorzugt, wenn ich Dinge herausfinden will, bei denen ich nicht genau wüsste, was ich googeln müsste, oder weiß, dass ich mehrere aufeinander aufbauende Suchen bräuchte, um meine Antwort zu finden. Grundsätzlich gilt für mich: Je mehr Variablen meine Anfrage an das Wissen der Welt hat, desto wahrscheinlicher nutze ich ein LLM. Wenn das Ergebnis wichtig ist – aus welchem Grund auch immer – lasse ich mir Quellen dazu ausgeben und überprüfe es anhand dieser Quellen (überhaupt der beste Zusatz zu jedem Prompt).
Als Resonanzraum. Das ist vermutlich die Art Nutzung, bei der Kulturpessimist:innen sofort die Augenbrauen hochziehen würden. Wäre es nicht besser, über seine Ideen und Gedanken mit echten Menschen zu sprechen? Ja, aber nicht immer habe ich echte Menschen zur Hand, und nicht immer kenne ich Menschen, die sich mit dem Thema auskennen, zu dem ich eine Rückmeldung brauche. Könnte ich Primärquellen lesen? Ja. Aber manchmal gibt es Themen, die mir (noch) nicht wichtig genug sind, um viel Zeit darin zu versenken. Und sollte ich feststellen, dass sie mir wichtiger sind, als ich dachte, kann ich die Primärquellen immer noch lesen. Genau wie ich einige Bands durch ihre Greatest-Hits-Alben kennengelernt und erst später ihre komplette Diskografie gehört habe. LLMs haben den Vorteil, dass man ihnen sehr lange Gedankenflüsse entgegenwerfen und am Ende einfach fragen kann: Was haben andere dazu gedacht? Und dass man mehrfach nachfassen und nachsteuern kann, bis man sich dem Gedanken genähert hat, den man sucht.
Als Coach. Einer der größten Erfolge, die ich mit LLMs bisher feiern konnte, ist, dass ich den Spaß am Kochen gefunden habe. Der Schlüssel lag auch hier darin, dass ich dem LLM eine Gleichung mit vielen Variablen übergeben und mich dann mit einigen Iterationen durch das generierte Angebot wurschteln konnte. Kein Kochbuch der Welt hätte so individuell auf meine Bedürfnisse eingehen und meine Schwächen so gezielt ausgleichen können. Eine andere Erfolgsgeschichte war die Erarbeitung eines Live-Rollenspiel-Charakters in einem Setting, mit dem ich nicht vertraut war. Auch hier konnte ich meine Bedürfnisse hineingeben, auf das gesammelte Wissen zum Setting gezielt zugreifen und in einem längeren Dialog am Ende das herausschälen, was ich zum Spielen brauchte. Sicher könnte man argumentieren, dass ich beide Prozesse auch mit echten Menschen hätte durchlaufen können, aber ich hatte einfach nicht den Eindruck, dass ich in diesem Fall mir oder anderen etwas genommen habe.
Als Bildgeber. Dies ist sicher die kontroverseste Nutzung. Aber von dem eben erwähnten Rollenspiel-Charakter, zum Beispiel, habe ich mir auch Bilder generieren lassen, um mich vor dem Spiel besser in die Figur einfühlen zu können. Ich habe auch schon Fantasie-Ideen meines Kindes bebildern lassen, über die sich das Kind sehr gefreut hat (ähnlich wie früher Geschichten). Meine Maßgabe hier ist: Hätte ich ohne KI jemanden damit beauftragt oder es selbst gemacht? Wenn die Antwort eindeutig Nein lautet, bin ich der Meinung, dass ich auch eine KI nutzen kann. KI-Bilder waren immer schon und werden vermutlich auch noch sehr lange ohnehin nur satisficing sein.
Ich habe dennoch aufgehört, KI-generierte Bilder zum Beispiel für die Bebilderung von Blogartikeln oder Social-Media-Posts zu nutzen. Der Grund ist hier aber weniger, dass ich ethisch dagegen bin, als dass ich inzwischen finde, dass es falsche Signale sendet – vor allem, dass es unprofessionell und unreflektiert wirkt, vor allem solange die Rechtslage noch nicht geklärt ist, meiner Ansicht nach übrigens auch bei Werbe- und Designagenturen. Die Zeit, in der die Nutzung von KI an sich einen splashy Neuigkeits-Experiment-Wert hatte, ist vorbei. Also nutze ich weiter Bilder aus kostenlosen Stockphoto-Datenbanken wie Unsplash und zahle dafür auch nichts.
Als Datensortierer. Hier sind LLMs wieder vor allem ein einfaches Interface für etwas, das geübte Menschen zuvor schon ohne LLMs konnten. Aber einen großen Haufen Daten in ein LLM zu werfen und dann in Alltagssprache die Anweisung geben zu können, aus diesen Daten etwas zu machen und zu interpretieren, ist einfach cool.
Als Abkürzung. Gelegentlich finde ich Prozesse, die sich mit KI tatsächlich beschleunigen und vereinfachen lassen. Das Transkribieren von Audio ist sicher das für mich präsenteste Beispiel. Aber bisher habe ich mich noch nicht in einen Effizienz-Strudel ziehen lassen, der ja neuesten Erkenntnissen zufolge auch nicht unbedingt hält, was er verspricht. Wie Dave Karpf es gerade erst mit Blick auf “Vibe Coding” ausgedrückt hat: “I don’t need a digital assistant to prep my course lectures or keep track of my expenses. Maybe that makes me an outlier, but I kind of doubt it? My daily routines are extremely boring-middle-aged-dad-coded.” Ich glaube, dass dies der wichtigste Bereich ist, in den man sich nicht in eine Scheindebatte mit den KI-wird-uns-komplett-überflüssig-machen-deswegen-müssen-wir-selbst-lernen-alles-mit-KI-zu-machen-Leuten verwickeln lassen sollte.
All about satisficing
Ich erlebe es leider immer wieder: KI-generierter Output, egal ob Text, Bild oder Video, ist trotz aller Begeisterung für die Technologie eigentlich nie nutzbar, wenn man professionelle Standards ansetzt. Dieser Output kann daher nur dann ein Endergebnis sein, wenn der eigene Anspruch nicht so hoch ist (siehe oben: satisficing). Wenn der Anspruch professionell wirken soll, kann KI-Output (zum jetzigen Zeitpunkt) eigentlich nur ein Zwischenschritt oder ein Werkzeug sein. Und deswegen gilt es für jede Art von Arbeit, die man sich abnehmen lässt, herauszufinden, ob die KI wirklich Arbeit spart, sie nur verändert oder sogar mehr Arbeit verursacht.
Ich muss immer wieder an ein Gespräch mit einer Freundin denken, die als KI-Trainerin für Menschen in NGOs arbeitet. Als ich ihr erzählte, dass ich eigentlich nie Texte von LLMs schreiben oder redigieren lasse, weil ich bisher immer festgestellt habe, dass ich den Text ohne KI besser und schneller hätte schreiben und redigieren können, wies sie mich darauf hin, dass Schreiben und Redigieren aber auch die Sachen seien, die ich am besten kann. Die Leute, mit denen sie arbeitet, müssen aufgrund der Personaldecke kleiner NGOs häufig ein halbes Dutzend Sachen ein bisschen können, statt ein bis zwei Sachen gut. Und sie sind dankbar, dass ihnen KI dabei hilft, die Lücke zwischen schlechten und passablen Ergebnissen zu schließen.
Lieber gut als KI, aber lieber KI als schlecht
Diese Aussage ist für mich ein großer Schlüssel dafür, wie wir über KI-Einsatz denken können. KI kann uns in Bereichen, in denen wir schlecht sind, okay machen, was oft genug im Alltag reicht. Ich lese auch ungerne KI-generierte Texte, aber ich lese sie (zum Beispiel auf Websites) immer noch lieber als richtig schlechte von Menschen geschriebene Texte. Und ich erlebe immer wieder, wie sehr Menschen von diesem kleinen bisschen Hilfe profitieren.
Sei es, die Angst vorm leeren Blatt zu überwinden, indem die KI wenigstens mal irgendwo anfängt. Sei es die nicht-muttersprachliche Kollegin, die sich traut, mutigere Arbeits-E-Mails zu schreiben, weil ihr KI-Sprachchecker sicherstellt, dass sie nicht nur keine Rechtschreibfehler macht sondern auch keine falschen Idiome benutzt hat. Sei es der Kollege mit Lese-Rechtschreib-Schwäche, der jetzt seine Gedanken in Sprachnachrichten quatscht und sie anschließend von einem LLM in einen ersten Text verwandeln lässt, statt gelähmt vor der Tastatur zu sitzen. Oder sei es ich, der sich traut, zu kochen, weil er niemanden damit nerven muss, wie schlecht er würzen kann. Man kann das als Wunsch nach “Reibungslosigkeit” und Ergebnisse ohne menschliche Komplikationen begreifen – oder als Werkzeug, das uns über kleine Hürden hinweghilft.
Wenn kein passender Mensch zu Hand ist
In Bereichen, in denen wir schon gut bis sehr gut sind, kann die KI uns hingegen bisher nicht das Wasser reichen. Daher ist unsere Expertise immer noch gefragt. Aber sie kann uns als Sparringspartner zur Verfügung stehen, um unsere Expert:innengedanken zu sortieren, zu spiegeln, zu vertiefen, wenn wir gerade keinen passenden Menschen zur Hand haben. Ich halte es für gut möglich, dass das auch so bleibt – allen Versprechungen der Tech-Bosse zum Trotz.
Ich finde das okay. Ich finde es okay, sich von Technologie helfen zu lassen, wobei diese Hilfe für jeden anders aussieht, basierend auf persönlichen Stärken und Schwächen. Ich hoffe, dass die Phase des “Slop” irgendwann vorbeigeht oder zu der Art von Hintergrundrauschen wird, zu der auch andere Automatisierungen (etwa Spam-Mails) geworden sind. Und ich hoffe, dass für Kreative faire Kompensationen (die sich nicht fair anfühlen werden) und neue Perspektiven in der Zukunft liegen. Aber bis dahin werde ich trotzdem nicht aufhören, die Möglichkeiten (und Grenzen) von KI zu erforschen und auszuprobieren.
Foto von Musab Al Rawahi auf Unsplash
