München, Starnberg, 21. März 2024 - Neues Feature in Couchbase Server und DBaaS (Database-as-a-Service) Couchbase Capella; beschleunigt KI-gestützte Anwendungen...
Zur Ankündigung: Couchbase, Cloud-Datenbank-Plattformanbieter, stellt mit Vector Search ein neues Feature in Couchbase Server und dem DBaaS (Database-as-a-Service) Couchbase Capella vor. Damit kann die Entwicklung KI-gestützter adaptiver Anwendungen für kontextbezogene und hyperpersonalisierte Services vereinfacht und beschleunigt werden. Die Datenbank-Plattform bietet Couchbase Vector Search für verschiedenste Szenarien an, von Rechenzentren über Cloud und Mobile Computing bis zu IoT-Devices am Edge. Adaptive Anwendungen sollen so überall eingesetzt und Entwickler mit LangChain- und LlamaIndex-Support besser unterstützt werden können.
Typische Use Cases für adaptive Anwendungen sind beispielsweise Chatbots oder Semantic Search. Dafür werden hybride Suchfunktionen (Hybrid Search) benötigt, die unter anderem Texte, Vektoren, Tabellen und Lagerbestände durchsuchen. Vector Search ist in Verbindung mit Large Language Models (LLM) und Retrieval Augmented Generation (RAG) wichtig, um die Treffergenauigkeit zu erhöhen und Halluzinationen zu verhindern.
Dafür reine Vector-Datenbanken einzusetzen erhöht die Komplexität und beeinträchtigt die Performance der Applikationen. Couchbase beseitigt diese Einschränkungen durch die Integration von Vector Search in seine Multipurpose-Plattform und verbessert so die Qualität von LLM-Ergebnissen. Entwickler profitieren zudem von der Möglichkeit, SQL++-Queries für Vector Search bei der Applikations-Entwicklung zu nutzen.
Zusammen mit dem Columnar Service liefert Vector Search einen spezifischen Ansatz zur Komplexitäts- und Kostenreduktion durch die Konsolidierung von Workloads innerhalb einer einzigen Cloud-Datenbank-Plattform und punktet laut Anbieter u.a. mit diesen Leistungsmerkmalen (Quelle / Couchbase):
Similarity und Hybrid Search kombinieren und integrieren verschiedenste Text-, Vector-, Range- und Geo-Suchfunktionen.
Der Einsatz von Retrieval Augmented Generation macht KI-gestützte Anwendungen exakter, sicherer und schneller verfügbar.
Da die Suchfunktionen über einen einzigen Index laufen, verringern sich die Latenzzeiten und die Performance wird gesteigert.
Couchbase erweitert zudem das KI-Partnersystem durch den Support für LangChain und LlamaIndex. LangChain ermöglicht den Zugang zu LLM-Bibliotheken per API und LlamaIndex erhöht die Auswahlmöglichkeiten für LLMs bei der Entwicklung von adaptiven Anwendungen.
Abb.: Couchbase Distributed database architecture (Bildquelle: Couchbase).
Die neuen Features sollen laut Entwickler im zweiten Quartal 2024 für Capella und Couchbase Server sowie als Beta-Version für mobil und Edge verfügbar werden.
Querverweis:
Unser Beitrag > Cloud-Betriebskosten: Unternehmen geben zu viel Geld aus
Unser Beitrag > Denodo zu aktuellen Entwicklungstrends im unternehmensweiten Datenmanagement für 2024