Die KI macht die kreative Arbeit, wir machen die stumpfsinnige

Kennen Sie das auch? Sie haben ChatGPT oder irgendeinen anderen LLM-basierten Chatbot beauftragt, Marketingtexte oder Produktbeschreibungen zu erstellen. Im Handumdrehen hat es – auf Basis von ein paar Stichworten – hundert Texte und Bilder generiert. Die sind auf den ersten Blick auch durchaus brauchbar. Aber wie kommen diese Inhalte jetzt in die Datenbank / auf die Webseite / in den Social-Media-Kanal?

Ganz oft: von Hand, und zwar unserer, mit Copy+Paste. Und damit haben wir die kuriose Situation, dass wir mechanisch, stumpfsinnig Texte von einem Fenster in ein anderes oder von einer Applikation in die andere übertragen, während die KI sich kreativ verwirklicht.

Muss das sein?

Das ist kein Einzelfall. Die Inhalte für ein RAG-Setup zusammentragen, die Zahlen der LLM-basierten Marktrecherche mit den eigenen BI-Daten vergleichbar machen –  zwischen der generativen Leistung der KI und dem brauchbaren Ergebnis ist eine Menge Fleißarbeit zu leisten, sind Medienbrüche zu überwinden etc. Und diese Arbeit bleibt an uns hängen.

Dass wir von dieser Arbeitsteilung weg wollen, liegt nahe, ist aber gar nicht so einfach:  zum einen ist das „Umtüten“ der Information nicht ausschließlich mechanisch und stumpfsinnig. Während wir den Text kopieren, überfliegen wir ihn dann doch nochmal und schauen ob er passt, sehen, dass sich hier ein Fehler eingeschlichen hat, da eine Anweisung an das LLM noch lückenhaft ist, und dort vielleicht das Ziel unklar formuliert ist. Kurz: Wir führen über diesen Weg Qualitätskontrolle und iterative Verbesserung ein.

Die große Aufgabe: Integration

Der andere Hinderungsgrund ist noch offensichtlicher: i.d.R. kann die LLM-basierte Applikation, mit der wir die Texte generieren, nicht auf die Systeme zugreifen, in denen wir die Texte benötigen (die Produktdatenbank, das Content-Management-System etc.). Damit sind wir bei der Frage, wie wir LLM-basierte Anwendungen dazu befähigen können, produktiv mit unserer IT-Landschaft zu interagieren, eine zentrale Frage, wenn es darum geht, echten Mehrwert aus generativer KI zu ziehen. Und ein spannendes Thema, was wieder weitere Fragen aufwirft.

Da ist zum einen die Frage der zuverlässigen technische Kommunikation: wir müssen das LLM dazu überreden, seinen Output syntaktisch korrekt in das von uns benötigte JSON-, csv- oder XML-Format zu bringen. Das entbehrt nicht der Ironie. Erstmals haben wir technische Systeme, mit denen wir in natürlicher Sprache kommunizieren können und jetzt bringen wir sie mit viel Mühe dazu, formale Kommandos an old-style IT-Systeme zu formulieren oder Daten in vorgegebene Schemata zu pressen. Aber solange nicht gesamte Infoproduktions- und Kommunikationsketten durchgehend von Agentensystemen übernommen werden, müssen wir uns damit wohl abfinden.

Eine Frage des Vertrauens

Die viel kritischere Frage aber ist: Wollen wir LLM-basierte Anwendungen schreibend auf unsere Systeme zugreifen lassen? Trauen wir ihnen so weit über den Weg? Was, wenn das LLM versehentlich mit seinen generierten Texten andere Informationen überschreibt? Oder die ganze Datenbank löscht? Was, wenn das LLM auch mit externen Nutzern oder externen Informationen interagiert und durch Prompt Injection dazu gebracht wird, unsere Daten zu löschen? Oder dazu gebracht wird, massenweise Phishing-Nachrichten zu verbreiten?

Was brauchen wir um die lästige Arbeit an die KI loszuwerden?

Wir brauchen Tools für die Integration. Tools, die die Welt der Enterprise-Daten und -Systeme kennen und ernst nehmen, aber gleichzeitig ihre Anbindung leicht machen.

Wir brauchen eine Qualität im Output er LLMs, die den Human-in-the-loop überflüssig macht.

Und schließlich brauchen wir ein Maß an Vertrauen in die Fähigkeiten der KI, das wir im Moment noch nicht haben.

Dabei erwartet niemand, dass die KI das von alleine hinbekommt. Dass wir klare Anweisungen geben müssen, ist akzeptiert – gerade im Bereich IT und Kommunikation mit IT-Systemen. Das Problem ist die Verlässlichkeit im Umgang mit diesen Anweisungen: Die Tendenz der Sprachmodelle sich auch an ganz klare Anweisungen gelegentlich einfach nicht zu halten ohne dass wir davon etwas mitbekommen, die Tatsache, dass wir dem LLM bei widersprüchlichen Anweisungen nicht verbindlich vorgeben können, welche davon wichtiger sind und auf jeden Fall beachtet werden müssen – das sind die Schwachpunkte der Technologie, die wir überwinden müssen, bevor wir den KI-Agenten den Schlüssel zu unserem Serverraum anvertrauen können.

Fazit

Aktuell fühlt sich die Arbeit mit generativer KI oft nicht richtig an – wir sind ständig damit beschäftigt, ihre Erzeugnisse zu kontrollieren und zu kanalisieren. Wir müssen es schaffen, Verbindlichkeit und Verlässlichkeit herzustellen. Denn wir sollten nicht den Babysitter für die unermüdliche und unkontrollierte Kreativität der LLMs spielen, sondern unsere eigene Kreativität mit ihrer Hilfe potenzieren.