Flink Native Inference führt KI-Modelle direkt in Confluent Cloud aus, um die Entwicklung zu optimieren. Flink Search als einheitliche Schnittstelle für die Abfrage von Vektordatenbanken vereinfacht den Prozess der Datenanreicherung. Integrierte ML-Funktionen sollen das Potenzial KI-gestützter Analysen auch für Anwender ohne Data-Science-Kenntnisse ermöglichen…
Zur Ankündigungsübersicht
Confluent Inc. kündigte am 20. März neue Funktionen in Confluent Cloud für Apache Flink® an, welche die Entwicklung von Echtzeit-Anwendungen für künstliche Intelligenz (KI) vereinfachen und beschleunigen sollen. (1) Flink Native Inference reduziert dazu komplexe Arbeitsabläufe, da es erlaubt, beliebige Open-Source-KI-Modelle direkt in Confluent Cloud auszuführen. Flink Search vereinheitlicht den Datenzugriff über mehrere Vektordatenbanken hinweg und optimiert die Suche und den Abruf über eine Schnittstelle.
Neue integrierte Funktionen für maschinelles Lernen (ML) bringen KI-gesteuerte Anwendungsfälle, wie Prognosen und Anomalieerkennung, direkt in Flink SQL, wodurch Datenanalyse einfach wird. Damit verändert sich die Art und Weise, wie Unternehmen KI für die Kundeninteraktion und Entscheidungsfindung in Echtzeit nutzen können. Die Möglichkeit, kontextbezogene und vertrauenswürdige Echtzeitdaten in KI- und ML-Modelle zu integrieren, kann Unternehmen damit einen direkten Wettbewerbsvorteil bieten.
Zu den Ankündigungsdetails
Confluent Cloud für Apache Flink ist eine serverlose Stream-Processing-Lösung. Sie ermöglicht Flink-Teams die Verarbeitung sowohl von kontinuierlichen Datenströmen als auch von Batch-Workloads innerhalb einer einzigen Plattform. Dadurch entfallen die Komplexität und der betriebliche Aufwand für die Verwaltung separater Verarbeitungslösungen.
Mit den jetzt veröffentlichten KI-, ML- und Analysefunktionen können Unternehmen laut Entwickler mehrere Arbeitsabläufe optimieren und ihre Effizienz steigern. Diese Funktionen sind im Rahmen eines Early-Access-Programms verfügbar, das für die Anmeldung von Confluent Cloud-Kunden offen ist.
- Flink Native Inference: Open-Source-KI-Modelle in Confluent Cloud ohne zusätzlichen Infrastrukturaufwand ausführen. Beim Arbeiten mit ML-Modellen und Datenpipelines verwenden Entwickler oft separate Tools und Programmiersprachen, was zu komplexen, fragmentierten Arbeitsabläufen und veralteten Daten führen kann. Flink Native Inference vereinfacht diesen Prozess, indem es ermöglicht, Open-Source- oder präzise abgestimmte KI-Modelle direkt in Confluent Cloud auszuführen. Dieser Ansatz bietet mehr Flexibilität und reduziert Kosten. Zudem verbleiben die Daten für die Inferenz vollständig innerhalb der Plattform, was die Sicherheit erhöht.
- Flink Search: Über eine einzige Schnittstelle auf Daten aus mehreren Vektordatenbanken zugreifen. Vektorsuchen liefern LLMs den erforderlichen Kontext, um Halluzinationen zu vermeiden und zuverlässige Ergebnisse zu gewährleisten. Flink Search vereinfacht den Zugriff auf Echtzeitdaten aus Vektordatenbanken wie MongoDB, Elasticsearch und Pinecone. Dadurch entfallen komplexe ETL-Prozesse oder manuelle Datenkonsolidierung, was wertvolle Zeit und Ressourcen spart. Gleichzeitig stellt es sicher, dass die Daten kontextbezogen und immer auf dem neuesten Stand sind.
- Integrierte ML-Funktionen: Mehr Teams erhalten Zugang zu Data-Science-Know-How. Viele Data-Science-Lösungen erfordern hochspezialisiertes Fachwissen, was zu Engpässen in den Entwicklungszyklen führt. Integrierte ML-Funktionen vereinfachen komplexe Aufgaben wie Prognosen, Anomalieerkennung und Echtzeit-Visualisierung direkt in Flink SQL. Diese Funktionen machen Echtzeit-KI für mehr Entwickler zugänglich, sodass Teams schneller umsetzbare Erkenntnisse gewinnen und Unternehmen flexibler intelligentere Entscheidungen treffen können.
Laut McKinsey** planen 92 % der Unternehmen, ihre KI-Investitionen in den nächsten drei Jahren zu erhöhen. Unternehmen wollen diese Chance nutzen und die Potenziale von KI ausschöpfen. Der Weg zur Entwicklung von Echtzeit-KI-Apps ist jedoch kompliziert. Entwickler müssen mit einer Vielzahl an Tools, Programmiersprachen und Schnittstellen arbeiten, um ML-Modelle zu integrieren und wertvolle Kontextinformationen aus den verschiedensten Datenquellen zu extrahieren. Diese fragmentierten Arbeitsabläufe führen zu hohen Kosten, operativen Verzögerungen und KI-Halluzinationen, die dem Ruf eines Unternehmens schaden können.
**siehe auch: McKinsey & Company, The state of AI: How organizations are rewiring to capture value, March 12, 2025 | Survey.
Bildquelle: Confluent.
Anwenderkommentar Steffen Höllinger, Co-Founder und CEO von Airy: „Die Daten-Streaming-Plattform von Confluent mit Flink AI Model Inference hat unseren Tech-Stack vereinfacht, indem sie es uns ermöglicht, direkt mit Large Language Models (LLMs) und Vektordatenbanken für Retrieval-Augmented Generation (RAG) und Schemainformationen zu arbeiten. So erhalten KI-Agenten Echtzeitkontext für intelligentere Entscheidungen. Dadurch konnten unsere Kunden ihre Produktivität steigern und Arbeitsabläufe in ihren Unternehmensprozessen optimieren.“
Weitere Funktionen in Confluent Cloud
Confluent hat zudem weitere Verbesserungen für Confluent Cloud angekündigt, die es Teams erleichtern soll, auf Echtzeitdaten zuzugreifen und diese zu vernetzen. Dazu gehören Tableflow, Freight Clusters, Confluent for Visual Studio (VS) Code und der Oracle XStream CDC Source Connector.
(1) Quelle / externer Link > https://www.confluent.io/blog/2025-q1-confluent-cloud-launch/
Querverweis:
Unser Beitrag > Trusted Agentic AI: Teradata Enterprise Vector Store Vorstellung mit möglicher NVIDIA NeMo Retriever Integration
Unser Beitrag > Neo4j-Graphdatenbank Parallel Runtime ermöglicht bis zu 100-mal höhere Analytik-Performance
Unser Beitrag > Technologie-Boost für Präzisionsmedizin: Care-for-Rare Foundation setzt auf Knowledge Graphen und KI