By

25.01.2022

Wird KI Copywriter ersetzen? Die Entwicklung und Zukunft des KI-Content-Writings

Bei der fortschreitenden Textgenerierung und dem maschinellen Lernen wird viel darüber diskutiert, ob Content-Autoren durch die Vielzahl an KI-Texterstellungstools, die eine Autocomplete-Funktion bieten, ersetzt werden.

GPT-3Rytr, Jarvis, Shortly, CopyAI, Frase usw. - die Liste der neuen Produkte mit Autocomplete auf dem Markt ist endlos. Alle diese Produkte verfügen über eine "Schreib für mich"-Schaltfläche. Sie klicken auf diese Schaltfläche und es erscheint ein Absatz Text.

Es fühlt sich fast wie Magie an.

Als Forscher für künstliche Intelligenz verfolge ich seit 5 Jahren die Durchbrüche in diesem Bereich - und es ist faszinierend, wie sich aus einer Funktion zur Vervollständigung von SMS-Texten eine Technologie entwickelt hat, die jetzt fast komplette Romane produzieren kann.

Doch bedeutet das, dass KI Inhaltsautoren ersetzen kann - ist menschliches Schreiben überholt? ‍Die Antwort ist kompliziert.

Um diese Frage zu beantworten, müssen wir zunächst hinter den Vorhang schauen, um zu sehen, wie die Autocomplete-Funktion für Content-Erstellung wirklich funktioniert. Mit diesen Informationen ausgestattet können wir die Kompromisse dieser KI-Technologie untersuchen und herausfinden, ob Content-Autoren mit all diesen KI-Schreibtools auf dem Markt etwas zu befürchten haben.

Wie hat sich Autocomplete für die Content-Erstellung entwickelt?

Angesichts des Hypes um neue künstliche Intelligenz-Durchbrüche wie GPT-3 ist es leicht zu vergessen, wie sich die Vorhersage-Text-Technologie (Autocomplete und Autokorrektur) im Laufe der Jahrzehnte entwickelt hat.

Ja, dies ist die Funktion auf Ihrem alten iPhone 5, die "iz" in "is" korrigiert und auch, wie Google Ihnen (manchmal witzige) Ergänzungen für Ihre Suche vorschlägt.

Verlassen Sie sich bei der Texterstellung auf N-Grams

Es mag Sie überraschen, aber die Autocomplete-Technologie kann bis bis ins Jahr 1948 zurückverfolgt werden. Seitdem hat sie Content-Autoren beim Rechtschreiben und beim Korrigieren ihrer Texte geholfen.

Schauen wir uns die bescheidenen Anfänge von Autocomplete an.

Viele frühe Autocomplete-Systeme basierten auf dem Konzept eines Sprachmodells. Dies war im Grunde genommen ein Modell, das das nächste Wort basierend auf einem Verlauf von Worten vorhersagen kann.

Das früheste Sprachmodell, zuerst erwähnt von Claude Shannon, hieß das N-Grams-Modell. Eine Anwendung von N-Grams war die Vorhersage, wie wahrscheinlich es ist, dass eine Gruppe von Wörtern im von Ihnen eingegebenen Text erscheint.

Wenn Sie beispielsweise "Kannst du bitte hierher kommen" eingeben (die historischen Wörter), wird das N-Grams-Modell vorhersagen, dass das nächste Wort "hier" sehr wahrscheinlich ist (zum Beispiel 80%ige Wahrscheinlichkeit). Ihr Telefon schlägt dann vor, Ihre Phrase mit dem Wort "hier" zu vervollständigen.

Wie weiß N-Grams, welche Wörter wahrscheinlich sind?

Sie können ein N-Grams-Modell erstellen, indem Sie einfach die Anzahl der Male zählen, die der Satz "Kannst du bitte hierher kommen" in einem Korpus von hochwertigem Text (auch als Trainingsdaten bezeichnet) auftritt. Wenn dieser Satz oft vorkommt, ist "hier" voraussichtlich eine richtige Vervollständigung - sonst ist es eine unwahrscheinliche Formulierung.

Diese Vorkommensanzahl wird auf alle möglichen Sätze im Korpus angewendet, und dies führt zu einer "Tabellen der Vorkommnisse".

In obigem Beispiel hat die erste Zeile die höchste Anzahl, weil sie in der menschlichen Sprache am häufigsten vorkommt. Die letzte Zeile ist in esoterischem Englisch geschrieben und kommt in der modernen Sprache nicht oft vor, daher hat sie eine geringere Anzahl.

Mit dieser Tabelle sucht das Programm bei der Eingabe nach dieser Tabelle, um den Satz zu finden, der die höchste Anzahl aufweist. Diese beste Übereinstimmung ist im Wesentlichen eine Vorhersage darüber, was das nächste Wort sein sollte. Diese Übereinstimmung ermöglicht es dem Programm auch, Ihnen eine Wahrscheinlichkeitsschätzung zu geben (zum Beispiel 80%ige Wahrscheinlichkeit einer richtigen Vervollständigung basierend auf dem Korpus).

Und da haben wir es - die Magie vieler Autocomplete-Tools basiert letztendlich auf der Zählung der Wörter!

In einer über vereinfachten Nussschale ist das die Grundlage dafür, wie Sie ein Modell erstellen, das das wahrscheinlichste nächste Wort voraussagen kann, wenn eine bestimmte Gruppe von historischen Wörtern gegeben ist. Das ist die Grundlage dafür, wie Autokorrektur- und Autocomplete-Systeme funktionieren.

Werden Content-Autoren also durch ein N-Grams-Modell ersetzt?

Definitiv nicht.

Es gibt ein grundlegendes Problem mit N-Grams - es repräsentiert Sprache auf lückenhafte Weise. Vereinfacht ausgedrückt bedeutet dies, dass, wenn Sie über viele Daten verfügen, Ihre Tabelle zu groß wird. Hier kommen neuronale Netzwerke wie GPT ins Spiel.

Über eine Tabelle hinaus mit GPT

Was wir heute verwenden, hat sich seit dem N-Grams-Modell weit entwickelt.

Die moderne künstliche Intelligenz für Autocomplete verlässt sich auf neuronale Netzwerke, die wesentlich leistungsfähiger sind als N-Grams-Modelle. Obwohl fortschrittlicher, basieren neuronale Netzwerke auf demselben grundlegenden Prinzip der statistischen Zählung.

Das allmächtige GPT-3 (Generatives Vortrainiertes Transformer v3) ist ein großes neuronales Netzwerk-Sprachmodell, das von OpenAI entwickelt wurde und heutzutage das Rückgrat aller kürzlich veröffentlichten Autocomplete-Schreibwerkzeuge auf dem Markt bildet. GPT-3 ist Teil eines Trends in der natürlichen Sprachverarbeitung (NLP), der sich hin zu großen vortrainierten neuronalen Netzwerken bewegt.

Mit GPT-3 speichern wir nicht mehr naiv eine Tabelle aller möglichen Sätze, sondern wir speichern eine komprimierte Zusammenfassung davon in den Gewichten seines neuronalen Netzwerks. Dies ermöglicht es uns, Modelle auf Milliarden von Sätzen und Phrasen zu trainieren, die in einer einzelnen Tabelle nicht realisierbar gewesen wären.

Wie schreibt GPT-3 also für Sie?

Genau wie bei den N-Grams wird GPT-3 beim Eingeben eines Wortes oder einer Phrase versuchen, basierend auf dem von ihm trainierten Textkorpus das wahrscheinlichste Wort zur Vervollständigung Ihres Satzes zu finden.

Aber damit ist es nicht getan. Sobald es das nächste Wort vorhersagt, wird es das in einer Schleife durchführen und weiterhin das nächste Wort vorhersagen, bis es einen Absatz geschrieben hat. So "generiert" es einen Absatz für Sie.

Aber Moment mal - wenn alles, was GPT-3 tut, darauf beruht, Wahrscheinlichkeiten aus zuvor geschriebenem Inhalt zu ermitteln, bedeutet dies, dass GPT-3 einfach wiederholt, was es gelesen hat, oder ist es tatsächlich kreativ?

Das ist eine knifflige philosophische Frage, die in den heutigen Diskussionen über KI-generierte Inhalte verbreitet ist.

Missverständnisse über KI-Content-Erstellung

Kann KI-Content-Erstellung kreativ sein?

Viele Kritiker haben festgestellt, dass GPT-3, wie alle KI-Modelle, nur Text generieren kann, den es zuvor gesehen hat. Sie behaupten, dass KI-Texte nicht kreativ sind und dass diese Tools nur zum Spamming wiederholten Inhalts geeignet sind.

Obwohl diese Ansicht früher gültig war, trifft sie heute nicht mehr vollständig zu.

Es ist leicht zu behaupten, dass ein N-Grams-Modell aus dem Jahr 1948 einfach bestehende Inhalte wiederholen würde, weil es buchstäblich alle Trainingsdaten in einer Tabelle speichert und Texte generiert, indem es durch Phrasen blättert, die es gesehen hat.

Aber weil GPT-3 ein hoch-effizienter Kompressor seines Trainings-Textes ist, wird es gezwungen, Regeln und Muster von geschriebenem Inhalt zu entwickeln - es erinnert sich nicht immer an den genauen Satz aus seinen gespeicherten Trainingsdaten.

Während einige Sätze wörtlich generiert werden könnten, sind viele Sätze neuartig. Eine schnelle Google-Suche nach generiertem Text zeigt, dass die meisten Generierungen originell sind.

Ob Sie nun glauben, dass GPT-3 (oder ein beliebiges KI-Modell und KI-Tools) originelle Texte produzieren kann, ist Gegenstand von Diskussionen und hängt davon ab, wie Sie Originalität definieren. Schließlich haben sich Menschen von früheren großen Werken inspirieren lassen und Ableger von Shakespeare geschaffen, sind also Menschen wirklich so originell?

Während moderne KI Texte produzieren kann, die denen ähnlich sind, die bereits existieren, kann sie auch Texte generieren, die Sie überraschen könnten.

Es liegt an menschlichen Textern und Inhaltserstellern, das Beste aus dieser Überraschung zu machen.

Eine bessere Nutzung von Autocomplete sollte die Schriftsteller daraufhin filtern und die besten KI-generierten Texte auswählen oder sie als Inspirationsquelle nutzen, um Schreibblockaden zu überwinden.

Kann KI-Content-Erstellung Emotionen enthalten?

Eines der Bedenken hinsichtlich der KI-Content-Erstellung ist, dass sie seelenlose, emotionslose Texte produzieren wird.

Das ist eine weitere pauschale Aussage, die an Feinheiten mangelt - und vielleicht von unserem Science-Fiction-Bild von KI als Blechdosenroboter ohne Gefühle herrührt.

Einfache KI-Modelle wie das N-Gramm würden wahrscheinlich keine emotionalen Texte produzieren, weil es an Repräsentationskraft fehlt - es hat eine praktische Grenze, wie viel es lernen kann.

Aber da GPT-3 aus einem großen Textkorpus mit mehr Kontext lernt, kann es oft den Gefühlsausdruck und die Stimmung im Schreiben nachahmen. Das bedeutet, dass, wenn Sie beispielsweise einen Satz wie "Heute fühle ich mich traurig" eingeben, das KI-Modell versuchen wird, die passendsten Wörter zu finden, um dieses Gefühl im generierten Text widerzuspiegeln.

(Der Absatz, den Sie gerade oben gelesen haben, wurde vollständig von Jenni AI autocompleted, ohne Bearbeitungen. Er hat gelernt, meinen Ton und meine Schreibweise aus früheren Absätzen anzupassen.)

Ein in ICLR 2020 veröffentlichte Studie zeigt, dass neuronale Textgeneratoren oft zu oft nachahmen und anfangen, sich zu wiederholen. Allerdings ist Nachahmung nicht dasselbe wie Emotion.

Als Schriftsteller müssen Sie weiterhin die Gesamtstimmung und Emotion Ihres Schreibens im Griff haben. Obwohl KI Texte produzieren kann, die menschliche Gefühle widerspiegeln, hat sie keine empirische Erfahrung, was es bedeutet, menschlich zu sein - sie ist keine inkarnierte Intelligenz.

Vergessen Sie nicht, wie N-Gramm-Modelle wird GPT-3 auf einem Korpus von Text trainiert (meistens aus dem Internet und von einem menschlichen Texter erstellt).

Es hat nichts anderes gesehen oder erlebt, was ein typischer Mensch erlebt - es wird nie wissen, wie ein Cheeseburger schmeckt, noch kann es sich vollständig einfühlen. Laut OpenAI kann es keine genauen Fragen zur physikalischen Welt beantworten, wie beispielsweise "Schmilzt Käse, wenn ich ihn in den Kühlschrank lege?".

Dies ist eine inhärente Einschränkung moderner Sprachmodelle, die in den nächsten Jahren kommen werden - zumindest bis KI einen physischen Körper erhält.

Für die Content-Erstellung ist es wichtig, diese Einschränkung zu verstehen.

Dies bedeutet, dass wir, um die Kraft der KI für die Content-Erstellung wirklich zu nutzen, dem KI-Modell Anleitung und Rückmeldung geben müssen, um es in die richtige Richtung zu lenken.

Warum die Zusammenarbeit von KI und Mensch die Zukunft der Content-Erstellung ist

Diese Nachteile könnten viele skeptisch gegenüber den Fortschritten in der KI-Content-Erstellung machen oder die Befürchtung wecken, dass unsere Zukunft voller Spam-Inhalten sein wird.

Ganz im Gegenteil sehe ich eine vielversprechendere Zukunft voraus.

1996, als das KI-System von IBM  in einem Schachspiel, dachte man, dass das Schachspiel gelöst sei und keine Schachspieler mehr übrig sein würden.

Was jedoch geschah, war eine Wiederbelebung von Menschen, die neue Schachstrategien lernten, indem sie die Züge der KI studierten. Ein ähnliches Phänomen ereignete sich, nachdem AlphaGo von DeepMind Lee Sedol besiegt hatte, den weltbesten Spieler bei Go im Jahr 2016.

Erfolg in der KI bedeutet, dass Menschen sich anpassen und verändern müssen - und diese Veränderung kann unangenehm sein, ist aber normalerweise zum Besseren. Während KI Menschen in bestimmten Aufgaben besiegen kann, sind Menschen bessere Generalisten, und wir können lernen, KI in unsere Gesamt

Head of Growth

Graduated with a Bachelor's in Global Business & Digital Arts, Minor in Entrepreneurship

Bereit, Ihre Forschungsarbeit zu revolutionieren?

Registrieren Sie sich noch heute für ein kostenloses Jenni AI-Konto. Entfesseln Sie Ihr Forschungspotenzial und machen Sie selbst die Erfahrung des Unterschieds. Ihre Reise zur akademischen Exzellenz beginnt hier.