Infinidat - weltweiter Anbieter von Unternehmens-Speicherlösungen - hat seine Architektur für Retrieval-Augmented-Generation (RAG-) Workflow-Deployments vorgestellt. Die Kombination von KI-Modellen und RAG ist eine Schlüsselkomponente für die Zukunft der generativen KI. Mit Hilfe der RAG-Architektur von Infinidat können InfiniBox- und InfiniBox SSA Unternehmensspeicher als Basis genutzt werden, um präzisere KI-Anwendungen in Unternehmen zu ermöglichen...
Zum Hintergrund: Ungenaue oder irreführende Ergebnisse eines GenAI-Modells, die als „KI-Halluzinationen“ bezeichnet werden, sind ein häufiges Problem, das die Einführung und den breiten Einsatz von KI in Unternehmen behindert. Eine KI-Halluzination kann ungenaue Informationen als „Fakten“ darstellen, nicht vorhandene Daten zitieren oder falsche Zuordnungen vornehmen. Das schränkt die KI ein und offenbart eine Lücke, die eine kontinuierliche Verfeinerung der Datenabfragen erfordert. Ein Fokus auf KI-Modelle ohne eine RAG-Strategie neigt dazu, sich auf eine große Menge öffentlich verfügbarer Daten zu stützen, während die unternehmenseigenen Datenbestände nicht ausreichend genutzt werden.
Anbieter von Speicherlösungen für Unternehmen so wie jetzt Infinidat, schließen die Lücke zwischen der Arbeit von Hyperscalern, die LLMs und SLMs in größerem Umfang aufbauen sowie das anfängliche Training der KI-Modelle übernehmen, und dem Einsatz der Modelle dann beim jeweiligen Unternehmen.
Um das Potenzial generativer KI auszuschöpfen, kann die neue Architektur laut Entwickler die Genauigkeit und Relevanz von KI-Modellen drastisch verbessern. Dies geschieht, indem sie strukturierte und unstrukturierte eigene Daten aus verschiedenen Datenquellen nutzen, z. B. Datenbanken aus bestehenden Infinidat-Plattformen. RAG-Inferencing ist heute Teil fast jedes LLM KI-Projekts.
Mit Hilfe der RAG-Architektur von Infinidat können InfiniBox- und InfiniBox SSA Unternehmensspeicher nun als Basis genutzt werden, um Outputs von KI-Modellen zu optimieren, ohne spezielle Geräte anschaffen zu müssen. Mit der InfuzeOS Cloud Edition bietet Infinidat die Möglichkeit, RAG in einer hybriden Multi-Cloud-Umgebung zu nutzen. Dadurch wird die Speicherinfrastruktur laut Anbieter zu einem strategischen Aktivposten für die Erschließung des geschäftlichen Mehrwerts von GenAI-Anwendungen im Unternehmen.
Abb.: Vereinfachte Darstellung einer RAG-Architektur mit Infinidat
Anmerkung: Die Grafik zeigt, dass die Entwicklung einer RAG-Pipeline ein inhärent iterativer Prozess ist. Durch die kontinuierliche Verfeinerung einer RAG-Pipeline mit neuen Daten können Unternehmen die Genauigkeit und Praxistauglichkeit von KI-modellgestützten Erkenntnissen erheblich verbessern und so die Vorteile und das Versprechen der generativen KI-Technologie maximieren (Bildquelle: Infinidat).
RAG erweitert KI-Modelle mit relevanten eigenen Daten, die aus den Vektordatenbanken eines Unternehmens abgerufen werden. Vektordatenbanken werden von einer Reihe von Anbietern wie Oracle, PostgreSQL, MongoDB und DataStax Enterprise angeboten und werden während des KI-Inferenzprozesses verwendet, der auf das KI-Training folgt. Als Teil eines GenAI-Frameworks erlaubt RAG Unternehmen, automatisch genauere, fundiertere und zuverlässigere Antworten auf Benutzeranfragen zu generieren.
Das ermöglicht einem KI-Lernmodell, wie einem Large Language Learning Model (LLM) oder einem Small Language Learning Model (SLM), Informationen und Wissen zu referenzieren, das über die Daten hinausgeht, auf denen es trainiert wurde. Damit werden nicht nur allgemeine Modelle mit den aktuellsten Informationen eines Unternehmens angepasst, sondern es entfällt auch die Notwendigkeit, KI-Modelle ständig ressourcenintensiv neu zu trainieren.
Die Risiken von KI-Halluzinationen verringern
Durch die Verbesserung der Genauigkeit von modellbasierten KI-Erkenntnissen kann dieser Ansatz von Infinidat dazu beitragen, dass GenAI die erhofften Ergebnisse für Unternehmen liefert. Die Lösung von Infinidat soll eine beliebige Anzahl von InfiniBox-Plattformen umfassen und erlaubt die Erweiterbarkeit auf Speicherlösungen von Drittanbietern über dateibasierte Protokolle wie NFS.
Um den Rollout von RAG für Unternehmen zu vereinfachen und zu beschleunigen, integriert Infinidat außerdem die Lösungen unterschiedlicher Cloud-Anbieter und stellt seine InfuzeOS Cloud Edition für AWS und Azure bereit, um RAG in einer Hybrid-Cloud-Konfiguration zu betreiben. Damit ergänzt Infinidat die Leistungen der Hyperscaler, die das anfängliche Training der KI-Modelle im großen Maßstab durchführen. Die Kombination von KI-Modellen und RAG ist eine Schlüsselkomponente für die Zukunft der generativen KI.
Kommentarauszug von Eric Herzog, CMO bei Infinidat: „Infinidat wird eine entscheidende Rolle bei RAG-Implementierungen spielen, weil InfiniBox-Speicherlösungen perfekt für Retrieval-basierte KI-Workloads geeignet sind. Vektordatenbanken, die für die Gewinnung von Informationen zur Steigerung der Genauigkeit von GenAI-Modellen von zentraler Bedeutung sind, laufen in der Speicherumgebung von Infinidat sehr gut…“.
Querverweis:
Unser Beitrag > Wann sind NoSQL-Datenbanken relationalen Datenbankmanagement-Systemen überlegen?
Unser Beitrag > Welche Graphdatenbank für welchen Anwendungsfall?
Unser Beitrag > Teradata stellt "Rapid-Start“-Anwendungsfälle für Gen AI mit Amazon Bedrock-Integration vor