Informationsbeschaffung im Zeitalter von KI. HR-Wissen auf Knopfdruck: Ein RAG Chatbot als intelligenter Assistent bei Lufthansa Group Business Services

Ein Beitrag von Johannes Ridinger, Lufthansa Group Business Services GmbH, Hamburg

Seit dem fulminanten Aufstieg von ChatGPT ist Künstliche Intelligenz (KI) in aller Munde. Die Diskussionen reichen von enthusiastischen Zukunftsvisionen bis hin zu kritischen Stimmen, die vor den möglichen Gefahren und Fehlern der Technologie warnen. Während der Hype um KI teilweise übertrieben scheint und es sicherlich Anwendungsfälle gibt, in denen traditionelle Methoden überlegen sind, gibt es auch Bereiche, in denen KI einen echten Mehrwert bieten kann.

Einer dieser Bereiche ist die Suche und Aufbereitung von Informationen, insbesondere in Fachgebieten mit umfangreichen Dokumentationen. Große Sprachmodelle (LLMs) haben das Potenzial, die Art und Weise, wie wir mit Wissen interagieren, grundlegend zu verändern. Anstatt sich auf traditionelle, oft zeitaufwendige und ineffiziente Methoden wie die reine Textsuche zu verlassen, können LLMs dabei helfen, relevante Informationen schnell und präzise zu identifizieren und aufzubereiten bzw. sogar schon zu interpretieren.

Dieser vielversprechende Anwendungsfall zeigt, dass KI, jenseits des Hypes, bereits heute einen konkreten Mehrwert für Mitarbeiter und Unternehmen bieten kann, indem sie den Zugang zu Wissen erleichtert und beschleunigt. So müssen Mitarbeiter im HR-Bereich beispielsweise nicht mehr mühsam nach Stichwörtern suchen, den entsprechenden Abschnitt in einem umfangreichen Handbuch finden und dann die Informationen auf ihre spezifische Situation anwenden und interpretieren. Stattdessen können sie ihre Frage direkt an einen Chatbot stellen. Dieser Chatbot wurde mit der gesamten Dokumentation des Bereiches Abrechnung vertraut gemacht und kann eine direkte und präzise Antwort liefern, die auf die individuellen Bedürfnisse des Mitarbeiters zugeschnitten ist. Dabei wird das RAG-Konzept (Retrieval Augmented Generation)(1) eingesetzt, um große Sprachmodelle wie GPT 3.5 oder GPT 4, bekannt geworden durch ChatGPT, mit der Fähigkeit zu kombinieren, gezielte Informationen aus externen Quellen abzurufen, um somit präzisere und faktenbasierte Antworten zu generieren. Damit wird das Sprachmodell nicht auf sein trainiertes Wissen beschränkt, sondern mit einem Retriever für zusätzliche Informationen verknüpft, der für jede Query die passendsten Ausschnitte aus der externen Quelle heraussucht.

LLM-gestützte Chatbots: Mehr als nur Informationsbeschaffung

Vergleicht man diese RAG Chatbots mit den bisher üblichen regelbasierten Chatbots, fällt direkt die Flexibilität und Anpassungsfähigkeit auf. Während regelbasierte Chatbots, z. B. im Kundenservice, bisher auf bestimmte Wörter oder Sätze programmiert waren und nur dann eine Antwort geben, wenn dies ihr Regelwerk zulässt, können die RAG Chatbots mithilfe der riesigen Sprachmodelle die Anfrage viel besser interpretieren und somit auch ohne die Erstellung eines umfassenden Regelwerks mithilfe des Retrieval-Prozesses passgenaue Antworten bieten. Dadurch werden diese Limits des Regelwerks gesprengt und es muss nicht jeder Einzelfall vorher definiert werden. Während die traditionellen Chatbots in einigen Fällen immer noch ihre Berechtigung haben, wo z. B. fest definierte Regeln von hoher Bedeutung sind, bieten sich Sprachmodell-gestützte RAG Chatbots deutlich besser für konversationsgetriebene Anwendungsfälle wie im Kundenservice an.(2) Ein Beispiel für die grobe Funktionsweise ist in Abbildung 1 dargestellt.

Abb. 1: Beispiel für die grobe Funktionsweise eines RAG Chatbots (Quelle: eigene Darstellung)Abb. 1: Beispiel für die grobe Funktionsweise eines RAG Chatbots (Quelle: eigene Darstellung)

Die Vorzüge dieser RAG Chatbots reichen weit über die Suche nach Informationen hinaus. Dank ihrer fortschrittlichen Sprachverarbeitungstechnologie können sie Anfragen in verschiedenen Sprachen verstehen und beantworten, selbst wenn die zugrunde liegende Dokumentation nur auf Deutsch vorliegt. Diese mehrsprachige Kompetenz fördert die Inklusion und erleichtert die Kommunikation in internationalen Unternehmen, in denen Mitarbeiter unterschiedliche Muttersprachen haben.
Ein weiterer entscheidender Vorteil liegt in der Möglichkeit, die Antworten des Chatbots gezielt zu steuern. So können HR-Mitarbeiter beispielsweise vordefinierte Antwortformulierungen erstellen, um sicherzustellen, dass die Informationen verständlich, einheitlich und im Einklang mit den Unternehmensrichtlinien kommuniziert werden. Dies gewährleistet nicht nur eine hohe Qualität der Antworten, sondern entlastet auch die HR-Abteilung, da sie nicht jede Anfrage individuell bearbeiten muss.

Insbesondere neue Mitarbeiter profitieren erheblich von einem solchen Chatbot. Sie können sich selbstständig Wissen aneignen und schneller in ihre Aufgaben hineinwachsen, anstatt ihre Kollegen mit Fragen zu beanspruchen, was den Zeitaufwand für alle Beteiligten reduziert und die Einarbeitung beschleunigt.


1 Patrick Lewis et al.: Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks, 08.12.2020, S. 2, online.
2 Nishchit: ChatGPT vs Traditional Chatbots: Core Differences, 29. Februar 2023, online.

Seite 1 | Weiter zu Seite 2 | weiter zu Seite 3

Bild: Adobe Stock/sai