Geschliffene Texte, die von Künstlicher Intelligenz geliefert werden, sind oft schwer von menschlichen Arbeiten zu unterscheiden. Das Problem liegt dabei beim gutgläubigen Menschen.

Vertraue der KI!

Geschliffene Texte, die von Künstlicher Intelligenz geliefert werden, sind oft schwer von menschlichen Arbeiten zu unterscheiden. Das Problem liegt dabei beim gutgläubigen Menschen. 

I.

1963 entwickelten Computerwissenschafter am MIT, Amerikas renommiertester Technologie-Schmiede, zum ersten Mal einen Computer, der von mehreren Menschen gleichzeitig bedient werden konnte. Für die effiziente Nutzung der Ungetüme war diese time-sharinggenannte Methode ein großer Fortschritt. Statt Lochkarten zur Eingabe von Programmen zu verwenden, “konnte man sich mittels einer mit dem Computer verbundenen Schreibmaschine direkt an den Computer wenden und ein ‘Gespräch’ mit ihm führen”, beschrieb der Mathematiker und Informatiker Joseph Weizenbaum später. “Dazu mussten nun Programme entworfen werden, die auf die übermittelten Fragen und Botschaften auch Antworten gaben.” 

Ein kleines Programm namens Eliza, das Weizenbaum dafür schrieb, ging als erster Chatbot in die Geschichte der Künstlichen Intelligenz ein (KI, auch AI, Artificial Intelligence). Eliza konnte einen User, der sich in den Computer einloggte, in ein Gespräch verwickeln. Dazu erkannte es Schlüsselwörter im Dialog des Benutzers, die es nach Art der von Carl Rogers entwickelten Gesprächstherapie zurückspielte. “Ich bin deprimiert”, würde ein Benutzer sagen, und mit der Antwort “Es tut mir leid zu hören, dass du deprimiert bist” würde Eliza antworten und so eine weitere Eingabe stimulieren. “Psychiater haben eine Technik, um Patienten zum Sprechen zu bringen, indem sie meist etwas wiederholen, was gesagt wurde”, erklärte Weizenbaum, wie er auf die Stimme des “Psychiaters” für sein Programm kam. 

Die Faszination für die nach dem Musical “My Fair Lady” benannte Eliza bereitete ihrem Schöpfer großen Kummer. “Ich war konsterniert, wie rasch und wie tief dabei Menschen mit dem Computer emotional verbunden waren und die Maschine vermenschlichten”, schrieb Weizenbaum. “Einmal begann meine Sekretärin damit eine Unterhaltung. Dabei hatte sie monatelang gesehen, wie ich an dem Programm gearbeitet hatte, und sie wusste, dass Eliza nur ein Computerprogramm war. Aber nach einem ‘Wortwechsel’ mit Eliza bat sie mich, das Zimmer zu verlassen.”

“Du kannst mir sagen, was dir auf dem Herzen liegt.”

60 Jahre später heißt Eliza ChatGPT (Generative Pretrained Transformation) und hat ihre Begabung für Konversationen erheblich weiterentwickelt, wie der folgende Dialog zeigt: 

“Ich fühle mich heute deprimiert.”

“Es tut mir leid, das zu hören. Wenn du dich überfordert fühlst, kann es hilfreich sein, mit jemandem, dem du vertraust, darüber zu sprechen, wie du dich fühlst. Vielleicht willst du dich an einen Psychologen oder eine Krisen-Hotline wenden, wenn du zusätzliche Unterstützung benötigst. Denk daran, es ist in Ordnung, nicht in Ordnung zu sein, und es ist wichtig, dich um deine geistige Gesundheit zu kümmern.”

“Kann ich es dir einfach erzählen?”

“Natürlich bin ich hier um zuzuhören. Du kannst mir sagen, was dir auf dem Herzen liegt, und ich werde mein Bestes tun, dir Unterstützung und hilfreiche Ressourcen zur Verfügung zu stellen.”

Elizas Urenkel paraphrasiert nicht nur die Fragen und zeigt Verständnis, sondern rät zu qualifizierter Hilfe. Vielleicht ein Rat, den viele von einem Computer eher annehmen als von einem Freund oder einem Familienmitglied.

ChatGPT gehört zur Familie der “Generativen Künstlichen Intelligenz”: Computersysteme, die in der Lage sind, sprachlich völlig korrekte Antworten zu geben. Oder in seinen eigenen Worten: ChatGPT kann aufgrund seiner Schulung natürliche Sprachgespräche mit Menschen führen und Antworten liefern.

Zwar haben sich zahllose Menschen seit der Veröffentlichung darum bemüht, ChatGPT zu blamieren und zu zeigen, dass KI auch Bullshit-Antworten gibt, Inhalt losgelöst vom Sachverhalt „halluziniert“ und Desinformation und Verschwörungstheorien aufgreift. Viel eindrucksvoller als die Fehler (aus denen KI lernt) sind jedoch die fehlerfreien Texte und Inhalte, die ChatGPT liefert.

Nach der Gefahr von Plagiaten durch Copy/Paste sind Lehrerinnen und Lehrer um eine neue Sorge reicher: Schüleraufsätze und Seminararbeiten, die von einem KI-System erstellt wurden. Auch in anderen Lebensbereichen wird man sich zunehmen die Frage stellen, ob ein Text von einem Menschen oder einer Künstlichen Intelligenz stammt.

II.

Wie können Texte von ChatGPT und zahlreichen weiteren AI-Chatbots von menschlicher Arbeit unterschieden werden?

Die Urheberschaft eines Textes zu erkennen, kann im heutigen digitalen Zeitalter, in dem Sprachmodelle immer ausgefeilter geworden sind, eine Herausforderung darstellen. Es gibt jedoch ein paar verräterische Anzeichen dafür, dass ein Text von KI generiert wurde. Erstens kann einem von KI generierten Text die nuancierte und kontextspezifische Sprache fehlen, die ein menschlicher Autor verwenden würde. Darüber hinaus können die Syntax und Struktur der Sätze übermäßig formelhaft oder repetitiv sein, was die zugrunde liegenden algorithmischen Prozesse bei der Arbeit offenbart.

Ein weiterer Hinweis ist das Vorhandensein sachlicher Fehler oder logischer Widersprüche, die in von Menschen verfassten Texten mit geringerer Wahrscheinlichkeit auftreten würden. Schließlich kann es KI-generierten Texten an einer klaren Autorenstimme oder einem Sinn für individuellen Stil mangeln, was oft unpersönlich und generisch im Ton klingt.

Diese korrekte Auskunft gibt ChatGPT auf die Frage, wie man die Produkte seines enormen Computerfleißes erkennen kann. “Die Gefahr ist, dass man nicht erkennen kann, wenn Inhalte von KI-Texten falsch sind, außer man weiß bereits die Antwort”, twitterte Princeton-Professor Arvind Narayanan bei seiner Erforschung des Missbrauchs von KI-Textgeneratoren für Fake News. “Ich war so verunsichert, dass ich in meinen Referenzlösungen nachschaute um mich zu vergewissern, dass ich nicht verrückt bin.”

Tatsächlich gibt das Erkennen von KI-Texten Nüsse auf, die selbst KI-Systeme derzeit nur sehr unbefriedigend lösen können. Es gibt ein Wettrüsten zwischen Systemen, die KI-Texte erstellen, und solchen, die KI-Texte erkennen, beschreibt Muhammad Abdul-Mageed, Professor für Natural Language Processing und Machine Learning an der University of Columbia. Da sprachgenerierende Systeme sich ständig weiterentwickeln bleiben die Erkennungssysteme immer einen Schritt zurück.  

“Ihr Text ist mit großer Wahrscheinlichkeit von einem Menschen geschrieben.”

Edward Tian, ein IT-Student in Princeton, will darauf eine Antwort liefern, für die er zwei Kriterien heranzieht: Die “Perplexität” eines Texts, die seine Komplexität misst – hohe Perplexität ist menschlich; sowie die “Burstiness”, ein statistischer Index für die Variation zwischen langen und kurzen Sätzen. KI-Systeme neigen zu Konformität der Satzlänge, Menschen zur Abwechslung von langen und kurzen Sätzen. Fragt man jedoch seine App GPTZero nach der Urheberschaft der obigen KI-Antwort, lautet die Antwort: “Ihr Text ist mit großer Wahrscheinlichkeit von einem Menschen geschrieben, aber es gibt Sätze mit geringer Perplexität” – AI-verdächtig schien nur der erste Satz.

OpenAI, Entwickler von ChatGPT, weiß um die Schwierigkeit, die von ihm in die Welt gesetzten Worte als seine Kinder zu erkennen und hat darum ein Werkzeug dafür entwickelt. Jedoch sei der auf Erkennung trainierte “AI Classifier” “nicht vollständig verlässlich”. Nur 26 Prozent würden bei einer Überprüfung korrekt als AI-generiert erkannt werden, während neun Prozent der von Menschen geschriebenen Texte fälschlicherweise als AI-Texte bezeichnet werden.

Eine andere KI-gestützte Methode zur Erkennung von KI-Texten will das Problem ähnlich wie bei KI-Bildverarbeitung durch „Watermarking“ lösen. Darunter versteht man eine für Menschen unsichtbare Einstreuung einzelner Pixel in das jeweilige Bild, die vom Computer erkannt werden können. Ein solches System wurde von Forschern der University of Maryland für Texte entwickelt, indem bestimmte Wortmuster von der KI eingestreut werden. Diese Methode kann von Chatbot-Entwickler verwendet werden und auch OpenAI arbeitet an einem solchen System.

Darin liegt bereits der größte Nachteil von Watermarks: Nicht jeder Entwickler wird die Texte seiner KI damit versehen wollen. In kommerziellen Produkten, bei denen zum Beispiel die Korrespondenz ähnlich einer Rechtschreibprüfung durch KI unterstützt wird, oder Webseiten automatisch generiert werden, würden diese Texte bei Prüfung trotz korreter Inhalte als Schwindel empfunden werden – was kaum im Interesse des Anbieters einer solchen KI ist. 

III.

Das Problem bei der richtigen Erkennung von KI-Texten ist wohl der Mensch selbst. Als dialogisches Wesen sucht der Mensch ein Gegenüber, um sich selbst zu begreifen. Und Computer in ihrer vielfältigen Form, vom Smartphone bis zu Siri, Alexa und Google in “intelligenten Lautsprechern”, sind in unserem Alltag ein omnipräsentes Gegenüber. Wir vermenschlichen Tiere, wir vermenschlichen Sachen, wir sprechen mit ihnen und geben uns dabei selbst die Antworten. Menschen sprechen mit ihren Göttern, mit ihren verstorbenen Familienangehörigen und engen Freunden, mit weit entfernten Partnerinnen und Partnern. Und Menschen führen auch Selbstgespräche.

Anders als gesprochene Sprache, die kinderleicht bis zur Perfektion zu erlernen ist, braucht es jedoch mühsames Training, um schreiben (und lesen) zu lernen. Die meisten Menschen erlernen es nur für den alltäglichen Gebrauch und nicht, um Texte wie in diesem Magazin zu schreiben. Der Lohn der Anstrengung besteht darin, dass bei einem ansprechenden und korrekt geschriebenen Text auch dessen Inhalt akzeptiert wird. Darum werden KI-Texte, selbst wenn sie ein wenig förmlich geschrieben sind, als “richtige” Texte aufgenommen, da wir diesen Stil bisher nur von Menschen kannten.

Was bedeutet dies für Menschen, die beruflich Texte schreiben, von den Autoren von Gebrauchsanleitungen bis zu Journalistinnen und Drehbuchautoren? Die Zukunft muss nicht düster sein, wenn wir die menschliche Intelligenz, die in die Entwicklung der künstlichen geflossen ist, gut zu nutzen wissen. KI-Systeme können nur auf Information zurückgreifen, die bereits vorhanden ist. Sie können nicht Experten anrufen, um neue Information zu erhalten, oder aus Erdbebengebieten berichten – es sei denn, wir lassen sie darüber fantasieren. Davor sind auch Menschen nicht gefeit, wie der Relotius-Skandal des Spiegelszeigte.

“Ist das eine neue Form von Plagiarismus”?

Im Wissen um die Grenzen von KI kann diese jedoch ein Schreibbuddy sein, der mit seinem Rückgriff auf schier endloses Ausgangsmaterial Dinge an die Oberfläche bringt, auf die Schreibende noch nicht gestoßen sind. Material, das Recherche gezielter machen kann oder eine Schreibblockade überwinden hilft, das der Mensch prüfen muss und kreativ gestalten kann. Manche Routinearbeiten, wie Sport- und Börsenergebnisse von Zahlen in Worte zu verwandeln, werden bereits heute von KI erledigt. Andere Anwendungen werden etwa im Medienlabor der BBC erkundet: Mit KI-Hilfe werden von Menschen erarbeitete Berichte, Bilder, Videos und Grafiken in unterschiedlichste Medienformate verwandelt. 

Ist das eine neue Form von Plagiarismus? Braucht es Fußnoten? War es Plagiarismus, wenn wir in Büchern nach Inspiration für unsere eigene Arbeit suchten? Wir stehen stets auf den Schultern derer, die vor uns geschrieben haben. Journalismus hat bereits jetzt keine allzeit gültigen Antworten auf die Frage, wie mit Inspirations- und Informationsquellen umzugehen ist. Es wird in einer KI-Welt nicht leichter werden, wenn Urheberschaft vor uns in einem anonymen Meer des Wissens aufgeht, aus dem KI ihre Antworten schöpft. 

Anmerkung: Die „Gespräche“ mit ChatGPT wurden auf Englisch geführt und von einer weiteren KI ins Deutsche übersetzt und geringfügig bearbeitet.

Dieser Beitrag erschien ursprünglich im Magazin DATUM.

Veröffentlicht von