Kommt der LLM-Winter?

In der KI-Welt häufen sich Meldungen über Verzögerungen und Probleme. Die großen Namen der Branche – Amazon, Meta, OpenAI, Apple – verschieben ihre ambitionierten Projekte. Ist das der Anfang vom Ende des KI-Booms? Ein genauerer Blick lohnt sich.

Amazons ambitionierte Pläne für ein generatives KI-Upgrade von Alexa wurden wiederholt verschoben. Der Grund? Zuverlässigkeitsprobleme – selbst bei einfachen Anfragen liefert die neue Version oft falsche Antworten. Amazon hat klugerweise entschieden, Qualität vor Schnelligkeit zu setzen, was den ursprünglich für 2025 geplanten Launch nun in Frage stellt.

Meta AI’s Weg nach Europa gestaltete sich schwierig. Nach monatelangen Verzögerungen wegen Datenschutzbedenken erfolgte am 19. März endlich der Start des textbasierten Chats – allerdings mit deutlichen Einschränkungen. Die in den USA verfügbaren multimodalen Funktionen wie Bild- und Videogenerierung fehlen vollständig. Wann europäische Nutzer die gleiche Funktionalität erhalten werden, steht in den Sternen.

Ähnliche Muster sehen wir bei OpenAI, das seinen vielversprechenden „Operator“ Anfang des Jahren um einige Wochen verschieben musste, der Grund waren Sicherheitsbedenken.

Und sehr prominent Apple, wo die Integration von AI-Funktionen in Siri sogar bis 2026 verschoben wurde, was Apple in den USA tatsächlich eine Sammelklage wegen irreführender Werbung eingebracht hat, da diese Features schon seit September 2024 prominent in Spots beworben wurden.  Auch hier sind Qualitäts- und Sicherheitsprobleme der Grund; man  vermutet, dass mangelnde Robustheit gegenüber prompt injections eine wichtige Rolle spielt.

Die Gründe sind also immer wieder dieselben: Qualität und Sicherheit. Und die Standard-Antwort der letzten Jahre, die Skalierung der Modelle bringt offenbar keine entsprechenden Verbesserungen hinsichtlich Qualität und Sicherheit mehr.

Das Ende eines Hypes?

Bedeuten diese Probleme das Ende des KI-Hypes? Steht uns ein „LLM-Winter“ bevor, ähnlich den KI-Wintern vergangener Jahrzehnte?

Ich glaube nicht.  Die Fähigkeit moderner KI-Systeme, in natürlicher Sprache zu kommunizieren, bleibt revolutionär. Sie ist genau das Puzzlestück, das die Entwicklung wirklich intelligenter Anwendungen seit jeher vermisst hat.

Allerdings müssen wir diese Fähigkeit in die richtige Perspektive rücken: Anwendungen, die mehr können sollen als komplexe Sprache zu interpretieren und eloquent zu formulieren, brauchen eben auch andere Fähigkeiten, beispielsweise:

  • Fakten korrekt wiedergeben
  • Unternehmensspezifische Informationen von allgemeinem Wissen unterscheiden
  • Aktive Gesprächsführung, korrektes Gesprächsverhalten
  • Resistenz gegen Manipulationsversuche, z.B. durch Prompt Injections 

Für viele dieser Fähigkeiten finden wir in den LLMs Ansätze. Diese Ansätze ergeben sich quasi nebenbei-statistisch aus der enormen Größe der Modelle – sind aber nicht ihre Kernkompetenz.  

Der Weg zu wirklich produktiven KI-Anwendungen

Wir wollen anspruchsvolle Anwendungen entwickeln – KI, die für uns recherchiert, im Web navigiert, Formulare ausfüllt und Buchungen vornimmt. KI, die uns wirklich Arbeit abnimmt, Prozesse automatisiert und mit Kunden spricht. KI auf unserem Smartphone, die uns umfassend berät und unseren persönlichen Kontext versteht, aber auch sorgsam mit ihm umgeht. Solche Anwendungen sind notwendig, damit KI vom ewigen Experiment zum wirklich produktiven Wirtschaftsfaktor wird.

Doch die aktuellen Herausforderungen zeigen: Dafür brauchen wir mehr als nur ein starkes Sprachmodell. Wo wir genau nachrüsten müssen, hängt dabei sehr von unserer Anwendung und den damit verbundenen Erwartungen ab. Wollen wir beispielsweise einen Gesprächspartner, der auf die Situation eingehen und auch die Unternehmensinteressen im Blick behält oder erwarten wir eigentlich ein deterministisches Verhalten wie wir es von programmierter Software kennen – mit einem natürlichsprachlichen Interface?

Die gute Nachricht: Die Verzögerungen bei den großen Anbietern demonstrieren, dass selbst Unternehmen mit eigenen KI-Modellen mit ähnlichen Herausforderungen kämpfen. Sie sind bei der Entwicklung produktiver Anwendungen nicht grundsätzlich privilegiert gegenüber anderen Marktteilnehmern. Auch für sie ist das LLM letztlich eine Black Box. Qualität und Sicherheit entstehen nicht von allein, sondern erfordern sorgfältige Entwicklung und Absicherung.

Fazit: Eine Phase der Konsolidierung

Was wir derzeit erleben, ist kein LLM-Winter, sondern eine notwendige Phase der Konsolidierung und des Übergangs. Von überzogenen Erwartungen hin zu realistischeren Einschätzungen darüber, was diese Technologie heute schon kann und wo wir noch Entwicklungsarbeit leisten müssen.

Die kommunikative Revolution der LLMs ist da und wird bleiben. Was sich ändert, ist unser Verständnis davon, wie wir sie in zuverlässige, sichere und wirklich nützliche Anwendungen überführen können.