GenAI trifft Unternehmenswissen: Retrieval Augmented Generation für korrekte Antworten

In der Welt der generativen KI markiert RAG den nächsten Evolutionsschritt. Textgeneratoren werden dabei um den Zugriff auf externe Informationsquellen angereichert.

Hinweis: Dieser Blogbeitrag stammt aus der Zeit vor dem Zusammenschluss und wurde von X-INTEGRATE realisiert – heute Teil von ATVANTAGE. Unsere Erfahrung bleibt – nur unser Name hat sich geändert. Hier finden Sie weitere Informationen rund um die Fusion.

ChatGPT, Bard und Co. fällt zwar zu nahezu jeder Frage etwas ein, aber ob die Antworten immer korrekt sind, dessen kann man sich nicht sicher sein. Nicht ohne Grund kam schnell das Schlagwort vom „Bullshit-Generator“ auf. Zumindest zum jetzigen Status ist außerdem keine vollständige Aktualität gegeben (ChatGPT reicht nicht weiter als bis 2021). Dennoch ist die neue Technologie natürlich beeindruckend. Und sie gewinnt noch an Reiz, wenn sie mit firmeneigenem Wissen verknüpft wird. Hierbei spricht man von Retrieval Augmented Generation (RAG) – eine KI, die Informationen aus externen Wissensquellen abruft und dadurch die Qualität ihre eigenen Antworten schlagartig verbessert.

In diesem Beitrag gebe ich Ihnen einen Überblick über die Möglichkeiten mit sowie Funktionsweise von RAG und Einblicke in Projektbeispiele.

Retrieval Augmented Generation: Verknüpfung von KI mit firmeneigenem Wissen

Große Sprachmodelle (Large Language Models = LLM) wie ChatGPT und Bard verfügen nicht über eigenes Wissen, sondern sind stark darin, aus sehr großen Mengen an Input zielgerichteten Output zu generieren (siehe dazu auch hier). Das Wissen, das ein LLM aus seinen Trainingsdaten gelernt hat, wird als parametrisches Gedächtnis bezeichnet und in seinen neuronalen Gewichten gespeichert. LLMs verwenden dieses parametrische Gedächtnis, um auf Anfragen zu antworten. In den meisten Fällen ist jedoch die genaue Informationsquelle nicht bekannt. Deshalb können LLM auch keine wörtlichen Zitate liefern.

Sprachmodelle sind daher gut darin, allgemeine Texte auf Grundlage ihres Trainingsdatenkorpus zu generieren. In der unternehmerischen Praxis kommt es allerdings darauf an, Texte aus eigenen Wissensdatenbanken zu erstellen, wie sie im Intranet, auf Sharepoint- und Confluence-Seiten, wenn PDFs, Office-Dokumenten usw. vorliegen. Auf Grundlage dieser Informationen kann der KI-Assistent dann genaue und relevante Antworten liefern. Das derzeit größte Problem generativer Chatbots, ihre Tendenz zu Halluzinationen, lässt sich damit umgehen. In der genAI-Sprache bedeutet „Prompten“ die Eingabeaufforderung, die an das LLM gesendet wird. Sie wird beim RAG-Verfahren mit relevanten Informationen aus externen Wissensdatenbanken ergänzt, die über einen Information-Retrieval-Mechanismus abgerufen werden. Diese Informationen dienen als Kontext und werden gemeinsam mit der Anfrage verwendet, wodurch das parametrische Gedächtnis umgangen wird.

Vektorbasierte Datenbanken: So funktioniert RAG

Der Prompt wird in numerische Werte umgewandelt, was die Verwendung eines Embedding-Modells erfordert. Die numerischen Werte werden an eine Vektor- oder Graphdatenbank geleitet, in der das gesamte Wissen des Unternehmens gespeichert ist. Anhand der Werte werden die entsprechenden Einträge in der Datenbank gefunden, in Text rückverwandelt und dem LLM übergeben, zusammen mit Metadaten wie dem Speicherort und dem Ersteller eines PDFs. Dadurch bekommt man mit der Antwort zusätzlich die Quellenangabe geliefert.

Das beschriebene Vorgehen gilt als derzeit beste Methode zur Suche nach Inhalten. LLMs müssen hier in der Regel nicht weiter feingetunt oder trainiert werden (obwohl es in einigen Fällen sinnvoll sein kann). Voraussetzung dafür ist, dass das gesamte Unternehmenswissen dauerhaft vektorisiert wird. Dafür müssen bestehende Datensilos im Unternehmen aufgebrochen und zusammengeführt werden. Bisher arbeitet die klassische Unternehmenssuche hauptsächlich mit Indexdatenbanken, die nicht immer die gewünschte Antwortqualität liefern.

Die Zukunft der Unternehmenssuche: RAG in der Praxis

Retrieval Augmented Generation wird in allen Bereichen benötigt, in denen es auf aktuelle und genaue Informationen ankommt. Weil es aktuelle und kontextspezifische Daten verwendet, holt RAG generative KI-Systeme sozusagen in die Gegenwart. Bei  aller Art von Anfragen liefert die Technik sichtlich bessere Ergebnisse als ein großes generatives Sprachmodell allein.

RAG Beispiel 1

RAG in der Versicherungsbranche

RAG ist deshalb die Zukunft der Unternehmenssuche. Dies ist keine Utopie, sondern funktioniert bereits heute, wie X-INTEGRATE in einer Reihe von Projekten im Finanzdienstleistungssektor erfolgreich erprobt hat. Zum Beispiel hat eine Versicherung mithilfe von RAG einen Bot entwickelt, der automatisiert und individuell auf Sachstandsanfragen aus E-Mails oder Call-Center-Ereignissen antwortet, und zwar im spezifischen Kommunikationsstil der Versicherung.

RAG Beispiel 2

RAG im Bankensektor

Weiteres Beispiel ist eine Bank, die Finanzprodukte auf ihr Risiko hin bewerten muss. Der Risiko-Score basiert auf regulatorischen Anforderungen, internen Verfahrensanweisungen und Compliance-Richtlinien, die in Tausenden von Dokumenten enthalten sind. Kein Controller kann all diese Informationen überblicken. Die Bank hat sie vollständig vektorisiert und verwendet RAG, um Fragen zur Risikoeinschätzung an die Vektordatenbank zu stellen. Die Ergebnisse waren äußerst beeindruckend. Sie lüften einen Blick darauf, welches enorme Potenzial Retrieval Augmented Generation in der nahen Zukunft haben wird.

RAG Beispiel 1

Interesse geweckt? ATVANTAGE berät technologieneutral und führt bei Kunden ein individuelles „Unternehmens-GPT“ ein. Weitere Informationen dazu gibt es in unserem Workshop.

Über den Autor: Matthias Bauer

Matthias Bauer ist CTO Data Analytics & AI bei der ATVANTAGE und bringt mehr als 15 Jahre Expertise als Solution Architect mit. Daten dafür nutzen, Großes zu schaffen und Mehrwerte zu erzielen – in seinen Worten: Data Thinking – ist seine Leidenschaft. Matthias ist erfahren in Artificial Intelligence, Data Science und Data Management; dabei bedient er von Data Warehousing bis hin zu Data Virtualization ein breites Spektrum an datenbezogenen Fragestellungen.  

Matthias Bauer
CTO Data Analytics & AI ATVANTAGE GmbH

Mit uns arbeiten

Sie suchen einen Partner, der nicht nur berät, sondern mit Ihnen gemeinsam gestaltet? Ob Strategie, Technologie oder Umsetzung – wir unterstützen Sie entlang der gesamten digitalen Wertschöpfungskette. Lernen Sie unsere Leistungen kennen und finden Sie genau den Einstieg, der zu Ihren Zielen passt.

Bei uns arbeiten

Du willst nicht nur abwarten, was als nächstes passiert, sondern es mitgestalten? Dann bist du bei uns genau richtig. Wir suchen Menschen mit Haltung, Leidenschaft und Lust auf Wirkung – Entwickler:innen, Strateg:innen, Consultants und Kreative, die mit uns digitale Lösungen vorantreiben möchten.

Event 26.11.25

Enterprise RAG Challenge #3: Agents and Reasoning

This challenge explores how intelligent systems can combine retrieval-augmented generation (RAG) with agentic reasoning to deliver trustworthy, explainable results for complex real-world problems.

Technologie

Personalisierung trifft auf Effizienz – ODOSCOPE

ODOSCOPE liefert die Technologie – wir liefern Strategie, Know-how und Umsetzungspower. Als erfahrener Partner im digitalen Commerce bringen wir dein Personalisierungsvorhaben effizient auf die Straße

Blog 26.05.23

Bare Metal trifft auf Public Cloud

OVHcloud: Bare Metal vs. Public Cloud. Erfahre die Vor- und Nachteile beider Ansätze zur IT-Infrastruktur und wie sie individuelle Anforderungen erfüllen.

Insights

Das sind die Gewinner der Enterprise RAG Challenge

Entdecken Sie die Gewinner der Enterprise RAG Challenge! Sehen Sie sich das offizielle Announcement an und erfahren Sie, wie KI-Retrieval und LLMs die besten RAG-Lösungen geformt haben.

Leistung

Neue Customer Journey trifft auf alten Vertrieb

Auch im Geschäftskundenbereich hat sich die Customer Journey massiv verändert.

Blog 21.01.25

Die Zukunft der KI: Enterprise RAG Challenge

KI-Innovation, die überzeugt: Die Enterprise RAG Challenge zeigt, was möglich ist.

Insights

Team-Leaderboard der Enterprise RAG Challenge

Das Team-Leaderboard fasst alle eingereichten Beiträge zusammen – auch jene, die nach Bekanntgabe der Ground Truth eingereicht wurden. Daher betrachten wir diese Rangliste als inoffizielle Übersicht.

Insights

Die Gewinner der Enterprise RAG Challenge 3

Wir haben die besten KI-Agenten der Welt gesucht – und gefunden! Die Leaderboards bieten einen offenen, vergleichbaren Blick auf die Leistung aller eingereichten KI-Agenten.

Wissen 24.10.24

RAG-Systeme erklärt: Wettbewerbsvorteile mit IBM WatsonX

IBM WatsonX hilft mit RAG-Systemen, schnell und effizient datenbasierte Entscheidungen.

Insights

IBM watsonx Leaderboard der Enterprise RAG Challenge

Das Team-Leaderboard fasst alle eingereichten Beiträge zusammen – auch jene, die nach Bekanntgabe der Ground Truth eingereicht wurden. Daher betrachten wir diese Rangliste als inoffizielle Übersicht.

News 11.12.24

JOIN(+) wird Teil der TIMETOACT GROUP

Köln/Villingen-Schwenningen, 11. Dezember 2024 – Die TIMETOACT GROUP erwirbt mit JOIN(+) ein erfahrenes Beratungshaus zu Big Data & AI. Die Geschäftsführer der JOIN(+) leiten das Unternehmen weiter.

News

ZUARA wird Teil von catworkx

catworkx, der größte Atlassian Platinum und Enterprise Solution Partner in der DACH-Region, erwirbt mit der ZUARA einen führenden Atlassian Gold Solution Partner und Atlassian Training Partner.

Kompetenz

Governance & Operational Excellence

Die Digitalisierung führt unausweichlich dazu, dass sich Geschäftsprozesse ändern und Rollen und Verantwortlichkeiten neu verteilt werden.

Referenz 05.04.22

Modernisierung des operativen Kernsystems bei HeLaBa

Dank verbesserter Architektur im Altsystem gelingt es, moderne Technologien auf dem Host zu nutzen. So ist HeLaBa auf einen optionalen Systemumstieg vorbereitet, der risikoarm gestaltet werden kann.

Standort

Bern

Finden Sie u.a. catworkx GmbH in Bern: Kramgasse 82, 3011 Bern, Schweiz, Tel.: +41 31 302 60 00, E-Mail: info-ch@catworkx.com

Kompetenz

Business Innovation & Digital Transformation

Digitale Technologien nutzen, um Prozesse zu verbessern, datenbasierte Entscheidungen zu treffen & neue Geschäftsmodelle aufzubauen. Ohne Governance, Risiko & Compliance aus dem Blick zu verlieren.

Blog 20.02.24

Artificial Intelligence – No more experiments?!

Artificial Intelligence (AI) ist in aller Munde. Nach unserer Einschätzung – und damit deckungsgleich mit Prognosen von TechTarget, IDG und anderen Analysten – wird sich das auch im Jahr 2024 nicht ändern.

Logo Armacell
Referenz

Gebündelte Kompetenz für schnelle Mailmigration nach M365

TIMETOACT unterstützt gemeinsam mit novaCapta als Managed Service Partner Armacell für eine erfolgreiche Mailmigration ► Jetzt Success Story lesen

Kompetenz

Change, Collaboration & Leadership

In Sachen Change, Collaboration & Leadership geht es uns nicht um das Erreichen von Utopien, sondern um wirkliche, nachhaltige Veränderung, die Ihr Business genauso voranbringt wie Ihre Mitarbeitenden

Headerbild zu Managed Services bei Versicherungen
Branche

Managed Service für Versicherer

Mit Managed Service betreuen wir Ihre IT Anwendungen ganzheitlich ► Geringere Kosten ✓ Flexible Kapazitäten ✓ Jetzt persönlichen Austausch vereinbaren

Bleiben Sie mit dem TIMETOACT GROUP Newsletter auf dem Laufenden!

INSIGHTS Conference 2026

Prompt the Future – Together!

23. April 2026 · smartvillage Köln