Daniel Perrin, ganze Marketingabteilungen fluten ihre Social-Media-Kanäle nur noch mit Texten von ChatGPT. Viele Medienhäuser träumen von vollautomatisch generierten Artikeln. Was löst das in Ihnen aus als Linguist, der seit Jahrzehnten Sprache und speziell auch journalistische Sprache seziert und ihre Wirkung bei den Adressaten studiert?
Daniel Perrin: Ich freue mich darüber, weil es hier viel zu lernen gibt. Man rennt in die Richtung der Maschine, man staunt darüber, was sie kann, und wie oft in der Geschichte der Technik-Innovation kann man auch hier übergeneralisieren, was das Neue kann. Bei KI ist das letztlich immer ein Imitieren der Muster, mit denen sich die Maschine füttert.
„Oberflächlich sind die KI-Texte perfekt. Hinter der glatten Sprachoberfläche ist aber keine Handlungsabsicht und schon gar keine Verantwortungsübernahme für das Kommunikationsangebot“Daniel PerrinLinguistik-Professor
KI wird immer besser. Die Texte sind immer glatter poliert und können je nach Prompt auch einfacher, intellektueller, reichhaltiger oder auch humorvoll gemacht werden. Was ist denn das Problem?
Sie haben es angesprochen, poliert ist eben die Oberfläche. KI imitiert die Oberfläche menschlichen Sprachgebrauchs, und das sehr gekonnt. KI trainiert mit fast unendlich vielen Daten von Textoberflächen und errechnet daraus das durchschnittlich wahrscheinlichste nächste Wort. Und so entstehen diese Texte. Oberflächlich sind sie perfekt. Hinter der glatten Sprachoberfläche ist aber keine Handlungsabsicht und schon gar keine Verantwortungsübernahme für das Kommunikationsangebot.
Aber merkt man das beim Lesen?
Ja, das merkt man den Texten an. Sie haben eben eine polierte Oberfläche – aber keinen Kern. Ihnen fehlt der tiefere Zusammenhalt. Wenn KI-Texte lang sind, rutschen sie mit der Zeit ab. Das merkt man schon nach zwei, drei Sätzen, erst recht nach mehreren Seiten. Und sowieso, wenn man ein ganzes Buch schreiben lässt. Aber auch ein kleiner Medienbeitrag braucht eine Handlungsabsicht, einen Aussagewunsch, eine Gestaltungsidee. Wer die Maschine texten lässt, muss all das gekonnt in den Prompt übersetzen – und hinterher Absatz um Absatz überprüfen, was die KI aus dem Prompt gemacht hat.
Was geht denn verloren, wenn die Maschine aufgrund von Wahrscheinlichkeitsrechnungen Texte erstellt? Was ist da nicht drin?
Die Absicht. Wir wollen etwas, wenn wir Sprache produzieren. Zwar wird auch menschliche Sprachproduktion oft mit Markovschen Wahrscheinlichkeitsketten modelliert, und auch wir reproduzieren Muster und wählen jeweils das, was am besten passt. Ein Musterbeispiel sind Begrüßungen. Wenn ich Sie treffe, sagen Sie zum Beispiel so etwas wie "Guten Tag, wie gehts". Eine wahrscheinliche Antwort ist dann "Gut, danke, und Ihnen"? Aber wir können diesen Austausch mit Absicht durchbrechen, um einen Text zu schreiben, der ein bisschen anders ist als das Erwartete. Sinnvoll, auf den Punkt, aber ganz leicht überraschend. Wer gern liest, sucht oft dieses leicht Überraschende, den persönlichen Stil der Autorin, des Autors.
Das heißt, es gibt eine Art Botschaft in menschlichen Texten, eine Art Subtext, den die Maschine so nicht nachbauen kann?
Die Computerlinguistik hat jahrzehntelang versucht, über generative Grammatik und Semantik die Regeln hinter dem Sprachgebrauch zu verstehen und daraus Sprache zu generieren, Texte herzustellen. Das Ergebnis hat bis heute nicht überzeugt. Jetzt ist man einen anderen Weg gegangen: Man sammelt eine Riesenmenge Daten, analysiert die Muster, identifiziert die häufigsten und imitiert diese Muster. Aber das ist eben das Oberflächenmuster. All die Millionen von gesammelten Texten sind ja nur noch Wortfolgen, aus dem Kommunikationszusammenhang gelöst. Natürlich ist da dann ein Prompt, der hilft, die richtige Oberfläche auszuwählen. Aber die Maschine will nichts, die Maschine hat keine Handlungsabsicht und die Maschine übernimmt keine Verantwortung für das, was dasteht. In der Tiefe fehlt also das Entscheidende, das Konzeptionelle: Das, was wir, im besten Fall, als kompetente AutorInnen in unserem Kopf an Arbeit leisten, bevor wir den Mund aufmachen oder in die Tasten greifen.
Aber diese Intention des "Autors" kann ja im Prompt für die KI artikuliert werden. Reicht das nicht?
Wenn man mit stilometrischen Methoden forensischer Linguistik menschengemachte Texte untersucht, kann man aufgrund der Textstruktur Schlüsse ziehen auf die mögliche Autorschaft. Zum Beispiel: Wie alt ist die Person, welches Geschlecht hat sie, welchen Bildungsgrad, welchen sozialen Status, in welchem Gemütszustand hat sie diesen Text verfasst, welche Handlungsabsicht liegt dahinter? Die soziale Identität einer Autorin, eines Autors spiegelt sich in der Wortwahl, im Satzbau, im Sprachrhythmus – in allen sprachlichen Mitteln. Wenn man jetzt mit der gleichen Methodologie forensischer Linguistik einen KI-Text analysiert, kommt da raus, dass keine Identität hinter diesem Text feststellbar ist. Es ist, wie wenn man ein Stück gewachsenen Holzes, das durch seine Fasern zu einem kohärenten Ganzen zusammengehalten wird, vergleicht mit einem Stück Pressspan, zusammengeleimt aus Häckseln und mit Druck in eine Form gepresst, die aussieht wie ein Holzbrett. Einmal gestrichen, ist das Produkt an der Oberfläche ähnlich glatt wie ein Holzbrett, aber es ist viel weniger tragfähig. Und ich vermute, dass es nicht nur die Maschine irritiert, wenn hinter der glattpolierten Oberfläche eines Textes die Identität, die Stimme fehlt. Wir hören diese Stimme nicht aus dem Text heraus: Das macht diese Texte so langweilig. Es ist ähnlich wie Beethovens Unvollendete: Man hat sie im Stil von Beethoven zuende komponiert und jeder Takt klingt nach Beethoven, aber das Ganze berührt nicht.
Bücher werden ja auch übersetzt seit Jahrhunderten, da geht ja auch Kontext verloren, der im Original enthalten ist, oder?
Für literarische Werke gibt es literarische Übersetzer, Übersetzerinnen. Sie wissen, dass sie mit der Übersetzung des Werks immer auch eine neue Stimme einbringen müssen, um in der neuen Kultur etwas ähnliches sagen zu können wie die Autorin des Werks in der Ausgangskultur. Aber es ist eine andere Kultur, eine andere Sprache und ein anderes Werk. Im besten Fall ist es wieder in sich stimmig, überzeugend, aus einem Guss – im Grunde genommen ein neues Werk. Deshalb sind die Namen dieser Übersetzerinnen immer mit aufgeführt, schon in der Titelei.
Wenn jetzt zum Beispiel jemand mithilfe eines GPT seinen eher mittelmäßigen Schreibstil verbessert, geht da auch etwas verloren? Und wenn ja, wiegt das den Gewinn auf, den diese Person erzielt, durch die Verbesserung des Schreibstils?
Sagen wir, eine Person weiß, was sie will, kann sich aber nicht elegant ausdrücken. Dann kann sie die KI prompten und am Ende überprüfen, ob das, was rauskommt aus der Maschine, ihrer Kommunikationsabsicht entspricht. Wer klar denken, aber kaum schreiben kann, kann nur gewinnen mit KI – falls sie oder er das Ergebnis einschätzen und wenn nötig verbessern kann. Das setzt aber Sprachkompetenz voraus: rezeptive beim Einschätzen, produktive beim Verbessern. Stil ist allerdings auch ein Persönlichkeitsmerkmal und das fehlt dann natürlich. Einen Liebesbrief mit der KI zu schreiben, würde ich deshalb nicht empfehlen, auch wenn man kein guter Schreiber ist, denn da geht es ja um die Person.
Aber ist es tatsächlich nur eine ästhetische Frage? Eine, die sich nur bei elitären Texten stellt? Sollten demnach nur Schriftsteller davon Abstand nehmen, mit KI zu schreiben? Oder ist die Grenze bei Reportagen erreicht? Wie ist es bei Kurznachrichten und wie ist es bei reinen Gebrauchstexten?
Ich denke, es ist wie beim Essen: Es kommt auf die Ansprüche an. Wenn man sich wirklich mit Hamburgern von McDingsda zufrieden gibt, wo nur die Kalorien und der Kitzel auf der Zunge stimmen müssen, damit man kurzfristig hinterher keinen Hunger mehr hat, dann ist das ok. Aber es gibt bei allem, auch für Kurznachrichten, auch ein Publikum, das eine nachhaltigere Küche erwartet. Es gibt ein Publikum für Informationstexte, die so geschrieben sind, dass man sie gern liest, rasch versteht und lang behält. Und diese Texte sind so sehr auf die Situation zugeschnitten, dass sie Originale sind, nicht Imitate, die ungefähr passen.
Es gibt Untersuchungen, die zeigen, dass AI-generierter Content in der internen Kommunikation die Firmenkultur beschädigen kann, weil der Content zwar toll aussieht, aber oft missverständlich oder nicht zu Ende gedacht ist, und weil es die Empfänger solcher AI-Slop-Botschaften als Zeichen der Geringschätzung empfinden. Das dürfte beim Publikum eines Mediums oder von Marketingkampagnen eigentlich ähnlich sein, oder nicht?
Leadership zeigt sich in der eigenen Stimme, die weiss, was sie will und die Verantwortung übernimmt für das, was sie sagt. Diese Stimme muss erkennbar sein im Kommunikationsangebot. Das alles fehlt der Maschine. Ich lese zum Beispiel 20 Minuten gern, weil ich dort immer wieder gekonnt geschriebene, kurze Texte lese, die etwas auf den Punkt bringen.
Kritiker könnten Ihnen vorwerfen, was Sie sagen, sei der verletzte Stolz des elitären Sprachwissenschaftlers, Ihre Kritik ein trotziges Rückzugsgefecht. Was entgegnen Sie?
Ich habe zuerst Informatik studiert, dann Sprachwissenschaft. Ich bin begeistert von den Möglichkeiten des Copiloten, egal in welcher KI Umgebung. Ich nutze KI sehr oft, wenn es eilt, als Zulieferer für mich, und ich lote gern und seit langer Zeit schon die Grenzen aller möglichen KI-Anwendungen. Ich denke, wir sind mit der Maschine deutlich stärker als vorher. Es gibt einfach systemische Grenzen. Und die liegen eben bei dieser Handlungsabsicht und dieser Verantwortung. Sagen wirs so: Wenn ich mit 84 km/h, grad unter der Grenze der Geschwindigkeitsbusse, über die Passstraße fahre und die KI lenken lasse, muss ich jederzeit eingreifen können, sollte sie halluzinieren und über die doppelte Sicherheitslinie auf die Gegenfahrbahn "einspuren". Das Beispiel ist echt und sagt alles.
Was also raten Sie Journalisten und Marketingabteilungen zum Einsatz von KI-Texten?
Bleib fit im Sprachgebrauch, im Recherchieren, im Fact Checking und im Style Checking. Je besser die Maschine wird, desto besser musst du selbst sein, um die Leistung der Maschine einschätzen zu können, die für dich arbeitet. Für Medienhäuser: Man kann zwischendrin auch durchschnittliche Texte publizieren, aber als Medium zeichnet einen die Kür aus, das, was mich eben anders macht als all die anderen, die mit der gleichen KI arbeiten. Und diese Balance zwischen Bequemlichkeit und Geschwindigkeit auf der einen Seite und Klarheit und Unverwechselbarkeit auf der anderen sollte man ganz genau im Auge behalten. Auch die ganz gute Kurzmeldung, die Perle, der virtuose Leitartikel – das sind Markenzeichen. Fällt das weg, sind am Ende alle Medien genau gleich. Dann braucht es nur noch eines.