Viele Technologien als „agentisch“ deklariert. Aber was macht eine Technologie eigentlich agentisch, und ist es korrekt, schon einen einfachen Chatbot agentisch zu nennen? Um diese Fragen zu beantworten und über sein aktuelles Projekt zu sprechen, haben wir uns in unserer Talk Data To Me-Interviewserie mit unserem Data Scientist Neil Sinclair zusammengesetzt.
Du möchtest dieses Interview lieber anschauen als lesen? Dann geht’s hier entlang.
Antonia Mittmann: Neil, kannst du dich bitte vorstellen?
Neil Sinclair: Ich bin Neil, Senior Data Scientist im Berliner Data Studio. Ich bin jetzt seit drei Jahren hier. In den letzten zwei Jahren habe ich an vielen wirklich coolen GenAI-Projekten gearbeitet, darunter auch an dem, über das ich später sprechen werde.

Was ist ein agentisches KI-System?
Okay, Neil, zum Einstieg: Was macht eine KI zu einem Agenten, und
warum heißt ein System agentisch? Wie würdest du das erklären?
Ich denke, man sollte zwischen einem normalen Chatbot und agentischer KI unterscheiden. Ich würde argumentieren, dass ein Chatbot oder jedes Sprachmodell für sich genommen ein Agent ist. Und Agenten können mehr oder weniger komplex sein. Du kannst einem Agenten Tools geben, zum Beispiel Zugriff auf eine Datenbank oder vielleicht ein Tool, mit dem er Code schreiben und ausführen kann.
Aber ein agentisches System hat mehrere Agenten, die zusammenarbeiten. Was diese Systeme so großartig macht, ist, dass Agenten die Arbeit anderer überwachen und sich gegenseitig Feedback geben. Und du kannst diesen Agenten auch Tools geben, damit sie beginnen können, Workflows zu orchestrieren. In diesem Prozess, in dem sie miteinander kommunizieren, sehen wir, wie echte Intelligenz aus diesen Systemen entsteht.
Wie funktioniert ein agentisches KI-System?
Das klingt supercool, aber auch super komplex. Kannst du mir ein
konkretes Beispiel geben, wie diese Agenten zusammenarbeiten?
Klar. Ein gutes Beispiel wäre vielleicht eine App oder ein System zur Essensplanung. Stell dir vor, das Wochenende steht bevor, es ist Herbst, und du willst etwas, das dir hilft, drei Abendessen und zwei Frühstücke zu planen. Du sprichst mit einem Chatbot und sagst: „Hey, das Wochenende steht an, ich bin Vegetarier, und es ist Herbst. Kannst du mir helfen, drei Frühstücke und zwei Abendessen zu planen?“ Dieser Agent würde dann deine Informationen nehmen und an einen anderen Agenten weitergeben, der sie in Suchbegriffe zerlegt: „Herbst“, „herbstliche Lebensmittel“, „vegetarische Abendessen“, „Frühstück“, sowas. Dieser Agent würde es dann vielleicht an einen weiteren Agenten geben, der in der Datenbank suchen kann und diese Informationen zurückholt.
Wir könnten dann – zusammen mit deiner ursprünglichen Anfrage und diesen Informationen – alles an einen weiteren Agenten geben, der prüfen könnte: „Passen diese Informationen aus der Suche zu dem, was der Nutzer will?“ Wenn nicht, könnte er eine Nachricht zurück an den Such-Agenten schicken und ihn bitten, erneut zu suchen, bis bessere Informationen gefunden werden.
Vielleicht gibt dieser Agent die Informationen dann an dich zurück und sagt: „Wie sehen diese Gerichte aus?“ Du sagst: „Super.“ Dann wird das an einen anderen Agenten gegeben, der vielleicht eine API-Verbindung zu einem Lebensmittellieferservice hat. Er könnte deine Gerichte in Zutaten aufschlüsseln, sie über die API an den Lieferservice schicken und die Zutaten zurückerhalten.
Dann will das System vielleicht mit einem weiteren Agenten prüfen: „Haben wir alles für diese Gerichte bestellt? Oder gab es Zutaten, die wir nicht bekommen konnten?“ Dieser Prüf-Agent könnte dann sagen: „Okay, ich sehe, dass es diese Käsesorte nicht gibt.“ Dann könntest du eine andere Käsesorte bekommen, und diese Info geht zurück an den Agenten. Er kann die Bestellung auslösen und dir dann die finale Bestellung zur Freigabe schicken.
Also läuft all diese Intelligenz im Hintergrund ab, während die Agenten miteinander sprechen. Du musst im Grunde nur ein, zwei Dinge abhaken: „Ja, ich mag diese Gerichte“, „Ja, ich bin zufrieden mit der Bestellung“.
Wie Mitarbeiter, die miteinander kommunizieren, und es gibt keinen einzelnen Agenten, der alles kann, aber sie teilen die Arbeit irgendwie intelligent auf.
Jetzt, wo wir geklärt haben, wie es funktioniert, würde ich gerne etwas mehr über
dein aktuelles Projekt wissen. Es heißt NEVO, und es ist ein digitaler Verkaufsassistent,
der ebenfalls die agentische KI nutzt, die du gerade erklärt hast.
Die Idee hinter NEVO war, etwas Intelligentes, Personalisiertes und Skalierbares zu bauen. NEVO ist ein sprachgesteuerter Verkaufsagent, der Nutzer durch die Customer Journey führt und spezifische Inhalte für sie generiert; basierend auf dem, worüber sie sprechen und woran sie interessiert sind.
Was für KI-Agenten gibt es?
Das ist sehr interessant, denn ich würde sagen, wir sind in einer Zeit, in der Personalisierung
etwas ist, das jeder Kunde erwartet…besonders in Onlineshops.
Ich bin nicht so sehr im Coding drin, aber kannst du ein bisschen erklären, wie NEVO funktioniert?
Welche agentischen Assistenten haben wir in diesem System?
Wir haben einen Kernagenten, der zuhört, was der Nutzer sagt, und ihn dann zu verschiedenen Experten entlang der Customer Journey weiterleitet. Verschiedene Experten haben Zugriff auf unterschiedliche Informationsbereiche. Es gibt andere Agenten im Hintergrund, die ebenfalls das Gespräch mitverfolgen und Schlüsselinformationen extrahieren, die sie später an einen menschlichen Verkäufer weitergeben könnten.
Und wirklich interessant ist auch: Wir haben Agenten, die spezifische Inhalte auswählen – in unserem Fall bestimmte Fotos. Dann haben wir Agenten, die spezifische Texte für den Nutzer schreiben, basierend auf allgemeinen Informationen, die dann konditioniert werden auf das, was der Nutzer ihnen erzählt hat. Dadurch entstehen wirklich personalisierte Produktbeschreibungen, basierend darauf, was die Nutzer interessiert.
Das klingt so, als müsste ich nicht zig Seiten unnötiger Informationen über ein
Produkt lesen, wenn ich eigentlich nur wissen will, ob die Kaffeemaschine
in meine Küche passt, und ich nicht jedes technische Detail sehen will.

Was ist wichtig beim Entwickeln von agentischer KI?
Ich verstehe jetzt das Backend, aber wir haben ja auch den Menschen, nämlich
den Kunden. Der Mensch kommuniziert mit diesem agentischen System.
Was war dir wichtig, als du diese Kommunikation gebaut hast?
Ich glaube, es hängt davon ab, wen du im Projekt fragst. Verschiedene Menschen fanden unterschiedliche Dinge am wichtigsten. Für mich war sehr wichtig, dass man sich entlang der Customer Journey vorwärts, aber auch rückwärts bewegen kann. Wenn du etwas im Laden kaufst, läufst du ja auch nicht einfach rein, nimmst einen Artikel, bezahlst und gehst raus, richtig? Manchmal schaust du dir etwas an und entscheidest dich zwischen verschiedenen Dingen. Vielleicht landet etwas im Einkaufskorb, aber dann nimmst du es wieder raus. Wir mussten diese Intelligenz im System schaffen, sodass ein Nutzer sich vor- und zurückbewegen kann, während er neue Informationen über die Produkte bekommt, die ihn interessieren.
Welcher Teil des gesamten Entwicklungsprozesses hat dir am
meisten Spaß gemacht, als du am Projekt gearbeitet hast?
Es gibt diese Limitierungen oder Einschränkungen, die wir bei der Nutzung eines Dienstes wie Gemini oder OpenAI haben. Und eines der wirklich coolen Dinge, die wir innerhalb dieser Einschränkungen umgesetzt haben, war, bestimmte Dinge so einzustellen, dass NEVO fast in Echtzeit reagiert. Das war sehr technisch, aber es hat unglaublich viel Spaß gemacht, das richtig hinzubekommen.
Herausforderungen bei Projekten mit Generativer KI
Wenn wir schon über Herausforderungen sprechen: Gab es noch eine technische
oder vielleicht auch eine projektspezifische Challenge, der du begegnet bist?
Ja, bei diesem Projekt – wie bei jedem Projekt mit generativer KI, an dem ich gearbeitet habe – ist eine der größten Herausforderungen die Systembewertung, weil eine kleine Änderung im Input zu einer großen Änderung im Output führen kann. Und besonders wenn mehrere Agenten zusammenarbeiten, kann eine sehr kleine Änderung im Input zu etwas völlig anderem im Output führen. Es ist nicht allzu schwierig, die verschiedenen Agenten oder die einzelnen Agenten zu testen. Aber alle zusammen zu testen, kann ziemlich komplex werden.
Eine der Lösungen, die wir entwickelt haben, war, einen KI-Kunden zu erzeugen, der sprachbasiert mit NEVO interagiert. Wir haben diese Interaktionen dann beobachtet – entweder zugehört oder den Text gelesen –, um zu entscheiden, wie wir das System verändern müssen. Das hat ziemlich viel Spaß gemacht.
Klingt auch nach Spaß! Und es nutzt das gesamte Potenzial von KI,
wenn du sie sogar für das Testen der KI verwenden kannst.
Und eine abschließende Frage: Welche Limitierungen von agentischer KI
siehst du generell noch, und wie könnte man ihnen begegnen?
Eine der größten Herausforderungen ist, wie empfindlich solche Systeme reagieren: Schon kleine Änderungen im Input können den Output komplett verändern. Menschen können sich in solchen Situationen meist gut anpassen. Sprachmodelle tun sich damit noch schwer. Wenn wir künftig Systeme entwickeln, die innerhalb des Systems mehr Feedback geben oder an bestimmten Stellen gezielt Menschen einbeziehen, sobald das System unsicher wird, können wir diese Empfindlichkeit langfristig deutlich reduzieren.
Vielen Dank, dass du deine Erfahrung mit agentischer KI geteilt hast!