Für Finanzinstitute gelten besonders strenge Regeln im Bereich von Datenschutz, Informationssicherheit und IT-Sicherheit. Dies gilt auch für KI-Systeme. Diese Fallstudie zeigt, wie bei grenke zwei sichere KI-Lösungen implementiert werden konnten, welche fortan Mitarbeitende bei der Erledigung ihrer Aufgaben unterstützen.
Co-Autoren: Tobias Domnik, Tobias Eljasik-Swoboda, Katharina Rainer, Branko Ristivojcevic, Jasmin Schauer, Tobias Wüchner
Über den Kunden
grenke ist ein globaler Finanzierungspartner für kleine und mittlere Unternehmen, der flexibles, schnelles und unkompliziertes Small-Ticket-Leasing und Bank-Services anbietet. Damit schafft grenke finanzielle Spielräume und hilft Kundinnen und Kunden, sich auf das eigene Geschäft zu fokussieren. 1978 in Baden-Baden gegründet, ist die Gruppe heute mit rund 2300 Mitarbeiterinnen und Mitarbeitern in über 30 Ländern weltweit aktiv und beim Small-Ticket-Leasing international führend.
Zu Beginn des Jahres 2023 macht grenke die strategische Entscheidung öffentlich, umfangreich in die Digitalisierung zu investieren. Im Rahmen des Programms Digital Excellence werden wesentliche Grundlagen für eine moderne Cloud Infrastruktur gelegt sowie IT-Sicherheit und Datenarchitektur auf die zukünftigen Herausforderungen ausgerichtet. Bereits damals beim Aufbau der Delivery Plattform mit an Board: ONTEC AI.
Basierend auf diesem technischen Fundament folgt 2024 der Aufbau der eigenen grenke KI-Plattform mit den Bereichen Generative KI, Maschinellem Lernen und Agenten KI. Ziel ist es einerseits, Unternehmensprozesse durch die Einbindung von KI in die eigenen Softwaresysteme effizienter zu gestalten, und andererseits die Mitarbeitenden mit modernsten Werkzeugen auszustatten, um sie bei der erfolgreichen Ausführung ihrer Tätigkeiten zu unterstützen.
Unternehmensweite Kampagne zu KI Use Cases
Über eine unternehmensweite Kampagne wird dafür der globale Bedarf an KI Use Cases im Unternehmen erfasst, bewertet, klassifiziert und entlang einer Abhängigkeits-Roadmap priorisiert. Das letzte Wort haben jedoch die Mitarbeitenden, die in einer internen Abstimmung ihre Top 3 Use Cases als Startpunkte für die Implementierung auswählen. Dadurch kann das Thema Künstliche Intelligenz mit einem starken Buy-In der Belegschaft angegangen werden.
Mit unter den Top Use Cases findet sich ein genereller KI-Chatbot-Assistent, der bei der täglichen Arbeit unterstützt. Außerdem der Aufbau einer grenke KI-Wissensdatenbank, die das schnelle und einfache Auffinden der richtigen Unternehmensinformation zum richtigen Zeitpunkt ermöglicht. Damit ist es naheliegend, die bereits bestehende Zusammenarbeit zu vertiefen und insbesondere im Bereich der generativen KI-Lösungen von der Expertise von ONTEC AI zu profitieren.
Der Chatbot Assistent
Der grenke-Chatbot – in einem internen Voting ELLA getauft – bietet einen sicheren Zugang zu verschiedene LLMs sowie LLM-Services in einer Umgebung, die von grenke selbst definiert wird und über die das Unternehmen die volle Kontrolle behält. Dies ist in Zeiten von DSGVO und DORA unerlässlich. Der LLM-Chat wurde in der Infrastruktur von grenke implementiert und bietet eine Vielzahl von Funktionen wie beispielsweise:
- Textgenerierung
- Übersetzung
- Zusammenfassung von Texten
- Korrekturlesen
- … und viele mehr.
Der LLM-Chat wird ergänzt durch ein „Chat-with-Documents“-Feature, eine Frage-Antwort-Funktion für einzelne Dokumente. Eine übersichtliche Chat-Historie sowie ein Prompt-Library, in der häufige genutzte Prompts gespeichert oder aus einer unternehmensweiten Bibliothek importiert werden können, runden die Usability dieser KI-Lösung ab.
Um die sichere Umgebung für sensible Daten zu gewährleisten, war es notwendig, On-Premise LLMs in der Infrastruktur von grenke bereitzustellen. In einem hybriden Setup können nun je nach Anwendungsfall Daten an On-Premise-Modelle oder an einen üblichen LLM-Provider übermittelt werden.
KI-Wissensmanagement: Eine interne Frage-Antwort-Lösung
grenke verfügt über einen großen internen Datenschatz, aus dem sich Mitarbeitende fortlaufend für ihre tägliche Arbeit bedienen. Ein großer Teil dieser Dokumente sind wichtige interne Vorgaben zu Prozessen und gesetzlichen Rahmenbedingung für das hoch regulierte Unternehmen. In der Vergangenheit implizierte dies regelmäßiges, manuelles Durchsuchen und Screenen von Dokumenten über Sprach- und Landesversionen hinweg – ein großer Zeitaufwand und oft energiezehrend.
Der entwickelte KI-Assistent verkürzt diesen Prozess signifikant: Das Tool bietet eine semantische Suche, mit der Dokumente und Informationen in einfacher Sprache abgefragt werden können. Mitarbeitende erhalten klare Antworten in Form einer Zusammenfassung, basierend auf den Informationen der grenke-Wissensdatenbank – inklusive zitierter Passagen und direkten Verweisen auf die Originaldokumente, aus denen die Antwort generiert wurde.
Der KI-Assistent greift dafür über verschiedene Schnittstellen auf interne Dokumentenablagen zu. Das Tool basiert auf RAG-Technologie und stellt mit Hilfe von erweiterten Validierungs-Algorithmen sicher, dass die Antworten absolut richtig und zuverlässig sind.
Beta-Tests im Bereich Agenten-KI
Im Projektverlauf stellte sich heraus, dass Geltungsbereiche (beispielsweise für welches Land oder für welche Abteilung eine Vorgabe gilt) Abhängigkeiten haben und man iterative Suchen benötigt, um Anfragen in den passenden Kontext zu setzten.
Aus diesem Grund wurde unterstützend für die Suche ein KI-Agent implementiert. Dieser wurde mit unterschiedlichen Fähigkeiten ausgestattet:
- Formularfelder vorausfüllen, beispielsweise Informationen dazu, innerhalb welcher Division oder innerhalb welcher Abteilung Dokumente durchsucht werden sollen (Bottom-up-Suche).
- Rückfragen stellen und Suchparameter verfeinern, bis das richtige Dokument oder die richtige Information gefunden ist.
- Mehrsprachigkeit, also automatisch Übersetzungen vornehmen und sprachübergreifend passende Suchergebnisse liefern.
Der Agent folgt dem Prinzip des „Human-in-the-loop“: Während er viel manuelle, vorbereitende Arbeit übernimmt, steht am Ende immer ein Mensch, der die finale Eingabe mittels eines „Bestätigungs-Buttons“ tätigt.
Besondere Kompetenzen
Die genannten Tools werden ergänzt durch besondere Features und Funktionen:
- Authentifizierung: Absolut sichere SSO-basierte 2-Faktor-Authentifizierung für alle Mitarbeitenden, auch außerhalb der virtuellen Desktops.
- Token-Usage-Dashboards: Einfache Kontrolle der Auslastung und Cost-Benefit-Analysen für Use Cases.
- Architektur-Kompatibilität: Die Implementierung erfolgten innerhalb der bestehenden Infrastruktur von grenke. Die gut strukturierte Architektur erlaubt die nahtlose Integration der Lösungen von ONTEC AI.
Vorgehensweise: Sprints, Check-ins und eine Zusammenarbeit auf Augenhöhe
Die Arbeit wurde auf Wunsch von grenke in Zwei-Wochen-Sprints organisiert. Es gab darüber hinaus mehrmals wöchentlich einen Austausch zwischen ONTEC AI und dem internen Team von grenke.
Diese Zusammenarbeit war von Anfang an eng und intensiv – ein gemeinsamer Prozess, bei dem beide Seiten gleichermaßen ihre Expertise einbrachten. So wurde zwischen den beiden Implementierungsteams eine partnerschaftliche Beziehung aufgebaut, die von gegenseitigem Vertrauen und Respekt geprägt ist. Die gemeinsame Arbeit war nicht nur fachlich anspruchsvoll, sondern auch menschlich erfreulich.
"Wir bei der grenke Digital GmbH sind sehr zufrieden mit ONTEC AI als Partner. Alle Lösungen, die wir bisher in Anspruch genommen haben, passen genau zu unseren Anforderungen. Vor allem schätzen wir die Flexibilität, Agilität und das hohe Maß an Service-Gedanken – eine absolute Notwendigkeit im fluiden und schnelllebigen Umfeld der Künstlichen Intelligenz“, Abstimmung zu implementieren. Auch wenn eine geografische Distanz besteht, ist von dieser Distanz aufgrund von regelmäßigem Austausch und der unkomplizierten Kommunikationskultur nichts zu spüren. Wir schätzen die partnerschaftliche Zusammenarbeit, bei der wir gemeinsam an einer Lösung arbeiten, anstatt ein Produkt zu kaufen und es dann ohne weitere Abstimmung zu implementieren.“
Dr. Tobias Wüchner, Managing Director der grenke Digital GmbH
Ergebnis: KI-Lösungen – skalierbar und Compliance-sicher
Die Implementierung des LLM-Chatbots und des KI-Wissensmanagements ging fließend von einer mehrstufigen Test-Phase in den produktiven Betrieb mit aktuell bis zu 400 täglich uniquen Usern über.
Flankiert durch ein regulatorisches KI-Framework und ein begleitendes Change Management Projekt, wird die grenke KI-Plattform mehr und mehr im Unternehmen verankert und die KI-Lösungen werden zu ständigen Begleitern für die Mitarbeitenden, unabhängig von ihrer Rolle oder Position innerhalb des Unternehmens.
Diese neuen KI-Lösungen führen zu einem besseren Arbeitserlebnis für die Mitarbeitenden und die noch auszuschöpfenden Potenziale können nicht hoch genug bewertet werden.
Ausblick
Über die breite Erfassung von Use Cases und die definierte Implementierungs-Roadmap befinden sich die nächsten Use Cases bereits in der Pipeline. Die KI-Ambitionen von grenke werden basierend auf den geschaffenen Grundlagen weiter ausgebaut.
„Wir freuen uns sehr darauf, in Zukunft wieder mit ONTEC AI zusammenzuarbeiten und weitere Use Cases zu implementieren. Die Erfahrungen, die wir gesammelt haben, haben uns gezeigt, dass wir mit ONTEC AI einen zuverlässigen und kompetenten Partner haben, der uns bei der Umsetzung unserer Ziele unterstützt. Wir sind überzeugt, dass unsere Zusammenarbeit auch in Zukunft erfolgreich sein wird und dass wir gemeinsam noch viele innovative Lösungen entwickeln werden.“
Dr. Tobias Domnik, Head of Organization Development, grenke AG
Zusammenfassung und Fazit
In diesem Projekt wurden zwei KI-Lösungen für grenke entwickelt, die Mitarbeitende in ihrem streng regulierten Arbeitsalltag entlasten: eine KI-Assistenz für das Wissensmanagement, sowie ein LLM-Chatbot, der auch den besonders hohen regulatorischen Anforderungen des Finanzwesens gerecht wird.
Erste Audit-Ergebnisse zeigen, dass die KI-Lösungen den strengen regulatorischen Vorgaben im Finanzwesen standhalten und zeugen davon, das KI auch dort absolut sicher und Compliance-konform umgesetzt werden kann.
Die Zusammenarbeit soll in Zukunft fortgesetzt werden: Über die definierte Implementierungs-Roadmap befinden sich die nächsten Use Cases bereits in der Pipeline.
Klingt spannend?
Gerne sprechen wir mit Ihnen über die Möglichkeiten, wie KI für Ihr hochreguliertes Unternehmen implementiert werden kann!