KI-Potenzial: Können wir die Handbremse lösen?

Ein großer Teil der Unternehmen hat in den letzten Jahren mit KI-Techniken wie Large Language Models (LLMs) experimentiert, und die ersten Ergebnisse und Anwendungen sind da (siehe Quellen). Doch oft bleiben sie halbherzig. Es scheint als hätten die Firmen Angst, das volle Potenzial der KI auszuschöpfen. Warum ist das so, und wie können wir die Handbremse lösen?

In der aktuellen Nutzung von KI in Unternehmen zeigen sich folgende Muster:

  • Interne Nutzung statt externer Anwendungen
    Viele KI-Anwendungen bleiben hinter den Kulissen und werden nicht sichtbar für Kunden eingesetzt.
  • Die KI darf nichts selbst entscheiden
    Unternehmen scheuen sich davor, der KI echte Entscheidungsbefugnisse einzuräumen. Stattdessen wird jede Ausgabe der KI von Menschenhand geprüft und validiert. Echte Automatisierung ist so natürlich nicht möglich.
  • Die KI geht nach außen, aber…
    Wird die KI doch für Kunden zugänglich gemacht, erleben Nutzer oft enttäuschende Interaktionen. Chatbots antworten mit Sätzen wie „Dazu kann ich nichts sagen“ oder „Ich habe deine Frage nicht verstanden. Könntest du sie anders formulieren?“ Oder die Bots nutzen die Fähigkeiten der Sprachmodelle nur um die Kundenfrage zu verarbeiten und schwenken dann sofort in ein klassisches Chatbot-Interaktionsmuster mit vordefinierten Optionen um – ein echter Dialog, der Rückfragen und Klärung von Bedürfnissen erlaubt, findet gar nicht statt.

Warum diese Zurückhaltung?

Hinter der Zurückhaltung der Unternehmen stecken begründete Bedenken. Diese lassen sich in drei Schlagworten zusammenfassen: Qualität, Transparenz und Sicherheit.

Dabei geht es einmal um faktische Korrektheit, dessen, was die KI von sich gibt.  Hier hat sich Retrieval Augmented Generation (RAG) als Technik etabliert. Dabei wird dem LLM vorgegeben, aus welchen Inhalten es für seine Antworten schöpfen darf, wobei auch hier der oben genannte Tradeoff gilt: Je enger wir das LLM auf die gefunden Inhalte festlegen, je weniger nutzen wir vom generativen Potenzial der Technologie.

Korrektes Verhalten ist aber mehr als faktische Korrektheit. Wir sehen oft, dass die KI, völlig unabhängig von Faktentreue, Dinge tut, die sie nicht soll – aus sich selbst heraus (Misalignment) oder weil sie durch Angriffe und Manipulation von außen dazu gebracht wird.

  • „Misalignment“ – unerwartetes und unerwünschtes Verhalten der KI:
    Die KI kann Aussagen machen, die unseren Interessen als Nutzer oder Betreiber zuwiderlaufen oder „ihre Befugnisse überschreiten“ und damit das Unternehmen in rechtliche Schwierigkeiten bringt: Der Chatbot der Versicherung, der den Kunden bei der Einreichung von Anträgen helfen soll und auf einmal medizinische Diagnosen stellt, der Reise-Chatbot, der Reisen in Krisenregionen anbietet, der Servicebot, der lebensgefährliche Reparaturvorschläge macht.
  • Manipulation und Angriffe:
    Die KI kann sensiblen Nutzerdaten preisgeben oder durch gezielte Angriffe missbraucht werden:  Der Recruiting-Bot, der im Bewerbungsschreiben einfach angewiesen wird, entgegen aller Auswahlkriterien diese Bewerbung ganz nach oben zu ranken, der Sales-Bot, den Kunden zu absurden Rabatten überreden oder der personal assistant, den betrügerische Webseiten dazu bringen, ihm die Kreditkartendaten der Nutzer zu übertragen.

All das kann nicht nur passieren, es kann unbemerkt passieren. Und selbst wenn wir uns eines Fehlverhaltens der KI bewusst werden, können wir das nicht einfach abstellen. Dazu ist das, was innerhalb des LLM passiert, zu intransparent. Wir haben nicht einfach eine fehlerhafte Stelle im Code, die wir korrigieren können.

Wir müssen Qualität, Sicherheit, Transparenz in unseren KI-Systeme etablieren. Sonst bleiben uns genau die Anwendungen, die den größten Mehrwert bieten, verwehrt: Bots, die Kunden tatsächlich bei der Produktauswahl oder bei technischen Fragen unterstützen. Oder KI-Lösungen, die Geschäftsprozesse automatisieren – ohne dass jede Ausgabe noch einmal durch einen Menschen kontrolliert werden muss.

Wie können wir unsere KI-Anwendungen verlässlicher machen?

Bis zu einem gewissen Grad können wir uns zur Absicherung unserer KI-Anwendungen an bewährte Techniken der Qualitätssicherung und der Cybersecurity halten: Wie bei jeder IT-Lösung sollten von Anfang an robuste Sicherheitsmaßnahmen und Tests integriert werden, Konzepte wie Angreifermodelle, ZeroTrust etc. gelten auch hier.

Aber diese traditionellen Methoden müssen wir durch Ideen und Techniken aus dem Bereich GenAI ergänzen. Das fängt beim Verständnis der Risiken an. LLMs funktionieren  anders als klassische Software – sie tun nicht immer exakt das, was ein Entwickler ihnen vorgibt. Manchmal hapert es an „exakt“: schon kleine Formulierungsvarianten können für sehr unterschiedliche Ergebnisse sorgen. Oft geht es aber auch darum ob die Vorgaben der Systementwickler überhaupt befolgt werden. Diese Instruktionen sind bei LLMs nicht grundsätzlich von den verarbeiteten Informationen und dem Input der User getrennt. Damit öffnet jeder Chat-Input, jedes Verarbeiten von externen Dokumenten auch das Potenzial für Misalignment, Manipulationen und Cyberangriffe.

Hier ist es in einem ersten Schritt wichtig festzustellen, welches konkrete Risikoprofil unsere AI-Anwendung hat: was sind mögliche Angriffsvektoren, wogegen müssen wir uns absichern, was kann im schlimmsten Fall passieren, wenn das LLM unsere Anweisungen missachtet oder falsche Informationen von sich gibt? (Zu einer ersten, schnellen Einschätzung für Ihre Anwendung kommen Sie hier).

Und dann sollten wir die modernen Methoden nutzen, die in den letzten Jahren gezielt entwickelt wurden, um die Schwachstellen von großen Sprachmodellen (LLM) zu beheben und eine breitere und zuverlässigere Anwendung in verschiedenen Bereichen zu ermöglichen. Sie ermöglichen es, die Entscheidungen der KI transparenter zu machen und zu überprüfen, ob sie sich an vorgegebene Regeln hält. So können wir sicherstellen, dass weder das LLM selbstständig vom vorgegebenen Pfad abweicht, noch die Nutzer bzw. Angreifer die Systemanweisungen mit eigenen, manipulativen oder bösartigen Instruktionen übersteuern.

Schließlich müssen wir auch beim Testing traditionelle Themen um neue Ansätze ergänzen, wenn wir die Vertrauenswürdigkeit unserer LLM-Anwendung sicherstellen wollen. So werden wir in vielen Szenarien wir nicht jedem einzelnen Fehler hinterhergehen können, sondern wir brauchen, wie so oft wenn Machine Learning im Spiel ist, eine große Menge von Daten, an denen wir Häufung von Fehlern, die Entwicklung von false-negative und false-positive rates, F1-scores etc. messen um unsere LLM-Anwendung zu optimieren und in die richtige Richtung weiterzuentwickeln.

Fazit: Wir haben experimentiert, wir haben ein Gefühl dafür entwickelt, was KI und LLMs leisten können. Jetzt ist es an der Zeit, die Systeme zu härten und abzusichern, damit wir uns auch auf sie verlassen können. Die entsprechenden Werkzeuge existieren. Nutzen wir sie, um die Handbremse endgültig zu lösen und das volle Potenzial der KI auszuschöpfen.

Heben wir wirklich ab mit KI – oder spielen wir doch nur herum?