Text-Automation mit schreibendem Roboter

Text-Automation #2: Von der Schreibmaschine zur schreibenden Maschine

  |   CX Technologies ,

Im ersten Teil dieser Blogserie ging es um die exponentielle Entwicklung im Bereich KI-basierter Sprachgeneratoren, um die Frage, warum uns Menschen schreibende Maschinen oft unheimlich sind – und die steile These, dass Textautomatisierung möglicherweise gar nicht so revolutionär ist, wie es manchmal scheint.

 

Nun wird es konkret. Was können die Textautomaten wirklich? Die Diskussion darüber wird aktuell sehr stark vom Hype um GPT-3 bestimmt. Doch tatsächlich gibt es längst Zwischenlösungen, die Text zwar nicht selbst generieren, aber dem Menschen in bestimmten Fällen eine Menge langweiliger Adaptionsarbeit abnehmen können.

Regelbasierte Textautomatisierung: Lückentext meets Data Power

Eine Methode, um Maschinen auch ohne KI zum Schreiben zu bringen, ist z. B. die „regelbasierte Textautomatisierung“. Und genau die wird schon seit einiger Zeit mit gewissem Erfolg eingesetzt. Im deutschsprachigen Raum sind hier etwa die Lösungen von AX Semantics federführend.

 

Das Prinzip dabei (ganz grob skizziert): Ein Autor erstellt einmalig eine Art Lückentext. Dieses Textgerüst wird mit strukturierten Datensätzen verknüpft. So ist es möglich, das Framework mit zahlreichen Variablen auszuspielen. In einem Online-Shop etwa kann man dann einen einmal formulierten Textmantel für viele verschiedene Smartphones mit den unterschiedlichsten Features einsetzen. Um dabei keine Monotonie aufkommen zu lassen, können die Texte neben den variablen Inhalten auch hinsichtlich Länge, Struktur und Wording variiert werden:

Regelbasierte Textautomatisierung

Quelle: Vision11 nach AX Semantics

Textautomatisierung: Use Cases und Beispiele

Klar dürfte sein: Diese Art der Text-Automation bringt dann Vorteile, wenn es sich um sehr standardisierte Textformen handelt, die mit vielen variierenden und dabei klar definierten Inhaltspartikeln ausgestattet sind. Und tatsächlich: Typische Anwendungsfälle sind hier etwa Produktbeschreibungen z. B. in Online-Shops, aber auch Wetternachrichten, Sport- oder Börsenmeldungen.

Beispiel news.de

Das Nachrichtenportal news.de nutzt solche Textautomaten u.a. für Bundesligavorberichte, TV-Ankündigungen, Polizeimeldungen (mit Live-Anbindung an das Polizeipresseportal), Horoskope oder Biowetter. Richtig punkten konnte die Technologie dabei im Rahmen der Corona-Berichterstattung. Große Datenmengen, permanente Änderungen, zahlreiche lokale Spezifika: Mit genau sowas können Maschinen wesentlich besser und effizienter umgehen als Menschen.

Beispiel CEM/CRM

Gar nicht uninteressante Einsatzmöglichkeiten ergeben sich auch im Bereich CEM/CRM. Use Case eines Anbieters: ein Händler für Druckermaterialien wie Toner, Tinte etc. Automatisierte Lifecycle-Mailings begleiten Kunden hier entlang ihres individuellen Bedarfs (z. B. wenn klar ist, dass der Toner demnächst ausgehen wird). Statt nun für jede Situation extra einen Text zu erstellen, lassen sich Textmäntel mit hochindividuellen Variablen ausstatten – z. B. Druckermodell, Patrone, Rabatthöhe, Rabattdauer usw. Auch die Textlängen werden je nach Endgerät oder Kanal automatisch angepasst.

Texter:innen und Textautomatisierung: Neue Skills gefragt

Doch ob Robo-Journalismus, Produktbeschreibungen oder Lifecycle-Kommunikation: Entscheidend ist in jedem Fall die Datenbasis. Ohne verlässliche und sauber strukturierte Daten kein automatisierter Text. Für Autor:innen, die in diesen Bereichen tätig sind, könnte sich das massiv aufs Jobprofil auswirken. Entweder sie arbeiten künftig eng mit Data Engineers zusammen – oder sie eignen sich die nötige Datenkompetenz selbst an.

 

Eine Frage treibt mich allerdings immer wieder um, wenn ich auf automatisiert produzierte Texte stoße: Müssen die so hölzern und square sein? So, dass man ihnen anmerkt, dass da was nicht stimmt? Genau diese Frage stellte ich Dirk Weisser vom Fachverband freier Werbetexter:innen – einem erfahrenen Kollegen, der sich bereits intensiv mit regelbasierter Text-Automation beschäftigt hat. Seine Antwort: Natürlich lassen sich Texte auch automatisiert lebendig, empathisch und gewinnend formulieren. Aber die automatisierten Texte können eben nur so gut sein, wie das Textkonzept, auf dem sie basieren. Beruhigende Message: Zumindest hier macht halt doch noch der Mensch den Unterschied.

Die KI als Autor: Science-Fiction hier und heute

Und genau hier kommt wieder GPT-3 von OpenAI ins Spiel. Denn die jüngste und wohl fortschrittlichste Generation von KI-basierten Deep-Learning-Sprachmodellen stellt exakt diesen Unterschied in Frage.

 

Wirklich SciFi-mäßig wird es dabei, wenn der legendäre „Turing-Test“ zum Einsatz kommt. Alan Turing hatte ihn einst erfunden, um nachzuweisen, ob Maschinen wie Menschen „denken“ könnten. Gut, das ist natürlich so eine Sache. Die Frage ist hier wohl eher: Erkennen Nutzer:innen, ob sie mit einem Menschen oder einer Maschine kommunizieren? GPT-3 hat den Test angeblich bestanden. Zu diesem Befund passt auf den ersten Blick auch das Experiment, mit dem der Student Liam Porr eine gewisse Berühmtheit erlangte: Zwei Wochen lang veröffentlichte er in seinem Blog Texte, die GPT-3 verfasst hatte – und niemand hat etwas bemerkt. Einer dieser Beiträge landete sogar auf Platz 1 von Hacker News.

 

Wobei man an dieser Stelle klarstellen muss: Auch ein „kontextbasiertes generatives KI-System“ wie GPT-3 schreibt nicht einfach von sich aus drauf los. Man muss ihm genau den einen Kontext geben (z. B. eine Frage stellen oder einen Einstieg formulieren) und dann berechnet die Maschine, wie der Text wahrscheinlich weitergehen könnte.

GPT-3: Irre! Und manchmal auch irre daneben

Was dabei herauskommt: Zum Teil absolut irre! Wer das selbst mal austesten möchte, sollte sich unbedingt auf beta.openai.com registrieren und dort im „Playground“ ein wenig rumprobieren.

 

Habe ich selbst natürlich auch getan und versucht, wie sich GPT-3 als Autor für unseren Vision11 Blog machen würde. Als Thema wählte ich etwas scheinbar recht Spezielles: die Integrationsprobleme bei Salesforce und SAP S/4HANA. Für GPT-3 natürlich kein Problem: „I’m familiar with the subject, so let’s get started!”

Auszug aus dem automatisierten Text von GPT-3

Human: What is the fundamental problem with integrating Salesforce and S/4HANA?

 

AI: There are numerous obstacles to integrating Salesforce and S/4HANA, especially when the latter is a mature ERP solution that has been around for years. Salesforce is a great product, however it is constantly evolving, so the integration becomes more complicated as new solutions and features are developed. I will give you an example: when I integrate Salesforce with Sales and Distribution, the customer profile has two lines: customer and contact. When I need to add contract and purchase order, I have three lines: customer, contact, and contract. When I need to add purchase order again, another line is added. It’s a tedious process to map all customer data in Salesforce to core areas of the S/4HANA system.

Das Ergebnis klingt tatsächlich, als wüsste jemand, wovon er spricht. Also habe ich den Text einem unserer Salesforce-Expert:innen vorgelegt. Natürlich erstmal großes Erstaunen über das sprachliche Level. Doch das, was die Maschine erzählt, trifft es leider überhaupt nicht.

 

An dieser Stelle zurück zu Liam Porr. Dessen Fazit nach seinem Blog-Experiment: GPT-3 könne zwar recht schön schreiben, sei aber nicht sehr logisch und rational. Sogar Sam Altman, einer der Mitbegründer von OpenAI, versetzt der Sache einen Dämpfer: „Es hat immer noch ernsthafte Schwächen und macht manchmal sehr dumme Fehler.“ Einer davon zeigte sich während meines kleinen Tests: Das System produziert Aussagen, die in sich durchaus plausibel wirken. Doch letztlich stimmen sie halt einfach nicht.

 

Und dann gibt es diese merkwürdigen Brüche im Dialog. Oft hat man z. B. den Eindruck, die Maschine beginne eine Unterhaltung gerade neu – obwohl man längst mitten im Gespräch ist. Auch wenn man daran nicht unbedingt erkennt, dass ein Automat am Werk ist: Irritierend ist diese kommunikative „Beziehungslosigkeit“ allemal.

KI-basierte Sprachmodelle in der Marketing-Praxis?

Aber was soll’s: Wie immer sind große Teile des Netzes längst in den typischen Euphorie-Sound verfallen: „Let the AI write high quality copy in seconds!“ Hmmm … Den oben zitierten Text jedenfalls hätte der Mensch in unserem Mensch-Maschine-Team trotz aller maschineller Sprachgewalt komplett neu schreiben dürfen.

 

Ralph Hohenwarter ist KI-Experte bei Vision11 – und hat sich auch schon selbst begeistert mit KI-basierten Sprachmodellen auseinandergesetzt. Doch gerade er ist (noch) nicht von der Praxistauglichkeit dieser Technologie überzeugt. Schließlich drehe sich bei Kundenkommunikation alles um das Vertrauen, das durch positive Kundenerlebnisse geschaffen wird. Und dieses Vertrauen fällt sofort in sich zusammen, sobald jemand wahrnimmt, dass ihm etwas vorgegaukelt wird – und er nicht mit einem Menschen, sondern mit einer Maschine spricht.

 

In der Praxis sind KI-basierte Sprachmodelle wie GPT-3 also mit größter Vorsicht zu genießen. Deutlich einsatztauglicher dagegen sind aktuell die regelbasierten Lösungen der Text-Automation – wenn auch in einem engen Anwendungskorridor.

Texterjob gerade noch gerettet. Zumindest fürs erste …

Gerade nochmal Glück gehabt! Fürs erste ist mein Job als Autor und Texter also gerettet. Betonung auf „noch“. Denn wie gesagt: Die Entwicklung im KI-Bereich verläuft exponentiell. Und über kurz oder lang wird es auch hier zu einer neuen Zusammenarbeit zwischen Menschen und Maschinen kommen. Zeit, sich schon mal Gedanken über die künftige Rolle des Menschen dabei zu machen.

 

Eine ganz andere Sorge könnte sich dagegen deutlich schneller bewahrheiten: Entstehen mit diesen Systemen möglicherweise gigantische Bullshit-Maschinen, die das Netz mit Unmengen an Mist überschwemmen? Hoffentlich gibt es dann auch Maschinen, die diesen Bullshit erkennen – so dass wir Menschen dann wieder in Ruhe und vernünftig miteinander kommunizieren können.

Wollen Sie sich über Textautomatisierung austauschen?

Gerne rufe ich Sie für ein weiterführendes Gespräch zurück:

Schwenkmaier Christian

Christian Schwenkmaier

M +49 151 10819027

Was können Textautomaten wirklich? Und wie praxistauglich sind sie? Die Diskussion darüber wird aktuell sehr stark vom Hype um GPT-3 bestimmt. Doch tatsächlich gibt es längst Zwischenlösungen, die Text zwar nicht selbst generieren, aber dem Menschen in bestimmten Fällen eine Menge langweiliger Adaptionsarbeit abnehmen können.