Ein Fall für den KI-Agenten

Die Begriffe „KI-Agent“ oder „agentenbasierte KI“ sind im weitesten Sinne als autonome Systeme zu verstehen, die wahrnehmen, Entscheidungen treffen und durch eigene Aktionen bestimmte Ziele in einer definierten Umgebung erreichen. Das hört sich vermutlich sehr nach ChatGPT oder Gemini AI an, aber anders als Chatbots generieren KI-Agenten keine Antworten auf Fragen. Sie können vielmehr komplexe Probleme von Anfang bis Ende über viele einzelne Zwischenschritte und ohne menschliche Hilfe bearbeiten und lösen.
Dies basiert auf zwei Fähigkeiten, die der aktuellen generativen KI fehlen: Agenten sind zum einen in der Lage, ein komplexes Problem Schritt für Schritt zu bearbeiten, Zwischenergebnisse zu speichern, oft tagelang auf notwendige Informationen von Kunden oder Partnern zu warten und dennoch niemals den Kontext zu verlieren – und das alles ohne menschliche Überwachung. Zum anderen laufen sie in einem abgesicherten Modus, der zuverlässig richtige Antworten generiert. Damit vermeiden sie die sogenannten Halluzinationen – erfundene und völlig falsche Antworten – die den Einsatz von generativer KI in kritischen Unternehmensprozessen oft riskant macht.
Anwendungsfelder in der Logistik sind derzeit beispielsweise das Schadenmanagement, das Management aller im Fulfillment auftretenden Abweichungen und Störungen von Transportprozessen, bei der Kundenbetreuung, bei der Koordination einzelner Akteure in der Supply Chain, im Zolldokumentenmanagement oder auch bei der autonomen Abwicklung von Einkaufs- und Angebotsprozessen auch über Frachtenbörsen.
Vier Erfolgsfaktoren
Doch trotz steigendem Interesse – so ließe sich beispielsweise mit KI-Agenten dem Fachkräftemangel oder einer überalternden Mitarbeiterschaft entgegenwirken – wissen viele Unternehmen nicht, wo und wie sie anfangen sollen, KI-Agenten sinnvoll in den Arbeitsalltag zu integrieren. Vier Aspekte sollten berücksichtigt werden, damit einer produktiven Zusammenarbeit mit KI-Agenten nichts im Wege steht:
Schrittweise starten: Die Integration von KI-Agenten sollte kein kompletter Umbruch sein. Unternehmen könnten zunächst mit kleinen Routineaufgaben experimentieren. Das spart Mitarbeitern Zeit und reduziert die Fehleranfälligkeit. So kann ein KI-Agent beispielsweise aus einer vorhandenen Liste an Themen eine Meeting-Agenda erstellen. Sind erste Berührungsängste abgebaut, lassen sich schrittweise komplexere Anwendungsfälle ausprobieren.
Ein Werkzeug für jede Aufgabe: Die Art und Weise, wie KI-Agenten gestaltet werden, entscheidet maßgeblich darüber, wie effektiv sie Mitarbeiter künftig unterstützen. Unternehmen, die auf einen einzelnen Agenten als „Alleskönner“ setzen, laufen Gefahr, dass dessen Antworten verwässern und dadurch an Relevanz und Wirksamkeit verlieren. Besser ist es, spezialisierte Agenten für unterschiedliche Aufgaben zu entwickeln. So kann etwa ein Agent für die Erstellung von Inhalten wie Blogbeiträgen oder Pressemitteilungen konzipiert werden, während ein anderer bei strukturierten Entscheidungsprozessen unterstützt. Agenten, die auf konkrete Anwendungsfälle und Abläufe zugeschnitten sind, arbeiten zielgerichteter und liefern bessere Ergebnisse.
KI-Agenten als Teammitglieder: Die Zusammenarbeit zwischen Mensch und KI wird die Teamarbeit der Zukunft prägen. Um ihr Potenzial auszuschöpfen, ist es entscheidend, KI-Agenten nicht nur als Werkzeuge zu verstehen, sondern ihnen eine aktive Rolle im Team zu geben. So können sie zum Beispiel dabei helfen, Arbeitsabläufe zu organisieren, Inhalte zu erstellen oder zu optimieren, Fragen zu beantworten und interne Wissensdatenbanken zu pflegen. Oder sie unterstützen bei der Recherche und Entscheidungsfindung – egal, ob es um Produkte oder die Festlegung von Zielen geht. Entscheidend ist, dass Unternehmen sich frühzeitig überlegen, welche konkrete Rolle oder Aufgaben ein Agent im Team übernehmen soll – und ihn genau dort einbinden.
Den Mensch in den Mittelpunkt: Damit Mitarbeiter KI-Agenten nicht als Bedrohung wahrnehmen, sollte der Mensch immer im Zentrum bleiben. Klare Vorgaben für KI-Agenten und Vorschläge der Agenten, die immer von Teammitgliedern geprüft, genehmigt oder abgelehnt werden, sind ein wichtiger Aspekt für die Akzeptanz seitens der Mitarbeiter.
Gefahren: Kein „Ah“ ohne ein „Oh“
Die Technologie hat allerdings auch Nachteile, deren sich Unternehmen bewusst sein sollten: Sailpoint, Anbieter von Unified Identity Security, hat sich in dem Forschungsbericht „KI-Agenten: Die neue Angriffsfläche“ die negative Seite der Agenten angesehen. Laut dem Bericht setzen 82 Prozent der Unternehmen weltweit bereits KI-Agenten ein, aber nur 44 Prozent verfügen über Schutzrichtlinien. Zudem hat sich ein bemerkenswertes Paradoxon gezeigt: 96 Prozent der Technologieexperten halten KI-Agenten für ein wachsendes Risiko – gleichzeitig planen 98 Prozent der Unternehmen, deren Einsatz innerhalb des nächsten Jahres auszuweiten. Zu den Faktoren, die dazu beitragen, dass KI-Agenten ein Sicherheitsrisiko darstellen, gehören:
- die Fähigkeit von KI-Agenten, auf privilegierte Daten zuzugreifen (60 Prozent)
- ihr Potenzial, unbeabsichtigte Aktionen anzustoßen (58 Prozent)
- Weitergabe privilegierter Daten (57 Prozent)
- Treffen von Entscheidungen auf der Grundlage ungenauer oder ungeprüfter Daten (55 Prozent)
- Zugriff auf und Weitergabe von unangemessenen Informationen (54 Prozent).
Wenn Unternehmen den Einsatz von KI-Agenten erwägen, sollten sie deshalb einen identitätsorientierten Ansatz verfolgen, um sicherzustellen, dass Agenten genauso streng kontrolliert werden wie menschliche Nutzer: mit Echtzeitberechtigungen, minimalen Privilegien und vollständiger Nachvollziehbarkeit ihrer Aktionen. Denn KI-Agenten haben oft Zugriff auf eine Vielzahl hochsensibler Daten, darunter Kundeninformationen, Finanzdaten, geistiges Eigentum, juristische Dokumente und Transaktionen der Lieferkette – und KI-Agenten sind nicht nur tief in verschiedene Systeme eingebettet, sondern sind ein eigener Identitätstyp. In Zeiten weit verbreiteter Datenschutzverletzungen erhöhen unzureichend verwaltete KI-Agenten das Risiko zusätzlich.
Und wieso können Agenten auf einmal das, woran andere KI-Systeme scheitern und wonach die Industrie seit Jahren sucht? An besseren Modellen liegt es jedenfalls nicht – oft greifen die Agenten auf Standards zurück. Der Zuwachs an Handlungsfähigkeit liegt vielmehr einerseits an einer smarten Orchestrierung existierender Modelle für Text, Bild oder OCR sowie andererseits an einer tiefgehenden Integration in Datenbanken und IT-Systemen.
Sicherheit in ihren Antworten bekommen die KI-Agenten über Reasoning-Fähigkeiten. Sie verfügen über einen eingebauten Konfidenzmechanismus, der unsichere Modellantworten markiert. Zusätzlich laufen sie in einem Sandboxmodus, der KI-Komponenten zwingt, den Output in einem vorgegebenen, gesicherten Schema abzugeben. Sie können damit – wie ein Mensch – bei Grenzfällen immer noch eine Fehleinschätzung abgeben. Diese liegt aber unterhalb menschlicher Fehlerquoten. Zudem wissen die Systeme, dass sie diese Fälle durch einen Menschen überprüfen lassen müssen. (rok)


