Die gemeinsam entwickelte on-Premise-Lösung soll Unternehmen auch bei anspruchsvollen KI-Anwendungen wie native RAG-Pipelines mehr Kontrolle, Sicherheit und Kostentransparenz geben…
Hintergrund
Der Markt für Künstliche Intelligenz befindet sich im Wandel: Geopolitische Unsicherheiten, steigende Anforderungen an Datensouveränität sowie volatilen Cloud-Kosten setzen viele Unternehmen unter Druck. Gleichzeitig stehen sie vor finanziellen Herausforderungen durch ungenutzte GPU-Investitionen und einer zunehmenden Komplexität im KI-Ökosystem. Die Nachfrage nach schlüsselfertigen, kontrollierbaren Lösungen wächst somit an. (1)
Die neu angekündigte Lösung (Stand 25. Juni 2025) richtet sich laut Teradata insbesondere an Organisationen mit hohen Anforderungen an Datensicherheit, Datenhoheit und regulatorische Compliance – etwa aus dem Finanzsektor, dem Gesundheitswesen oder der öffentlichen Verwaltung. Aber auch Unternehmen anderer Sektoren, die mehr Autonomie und Kontrolle über ihre KI-Strategien anstreben, sollen davon profitieren.
Zur Ankündigungsübersicht
Die „Teradata AI Factory“ ist eine neue, sofort verfügbare On-Premise-Plattform, die cloudbasierte KI- und Machine Learning-Funktionen von Teradata in sichere, lokale Unternehmensumgebungen bringt. Laut Anbieter in Zusammenarbeit mit NVIDIA entwickelt, kombiniert die Teradata AI Factory dazu zentrale Elemente wie Datenpipelines, Algorithmusausführung und Software-Infrastruktur innerhalb eines skalierbaren Gesamtsystems. Ziel ist es, eine leistungsstarke und gleichzeitig vertrauenswürdige Plattform für private KI-Innovationen bereitzustellen, mit Zitat „klaren Kostenstrukturen, hoher Sicherheit, sowie integrierter Governance und Compliance.“
Die Plattform wurde für die NVIDIA Enterprise AI Factory validiert und entwickelt. Mit Hilfe der Integration von Software, Hardware und vorgefertigten Teradata- und Drittanbieter-Tools können Compliance-Risiken und Kostenüberschreitungen reduziert werden; gleichzeitig kann der KI-Betrie vereinfacht werden. In Kombination mit den Teradata AI Microservices, NVIDIA und kundeneigenen NVIDIA-GPUs sollen sich laut Entwickler auch anspruchsvolle KI-Anwendungen wie native RAG-Pipelines (Retrieval-Augmented Generation) effizient realisieren lassen.
Die wichtigsten Vorteile des Angebotes umfassen (Quelle, Teradata):
„Höchste Sicherheit und Datenkontrolle: Sensible Daten verbleiben innerhalb der eigenen IT-Infrastruktur. Die Teradata AI Factory reduziert die Risiken öffentlicher oder geteilten KI-Plattformen wie Datenlecks, Verlust geistigen Eigentums oder Verstöße gegen Compliance-Richtlinien. Sie erfüllt zentrale Vorgaben wie GDPR oder HIPAA und ist somit besonders geeignet für Branchen mit hohen Anforderungen an Datensouveränität und Privatsphäre. Durch lokale Datenverarbeitung erhöht sich zudem die operative Sicherheit und Integrität.
Leistungsstarke KI mit kalkulierbaren Kosten: Dank lokaler Architektur bietet die AI Factory höchste Effizienz bei geringem Datenverkehr, niedriger Latenz und optimaler Ressourcennutzung. Unternehmen können KI-Modelle entweder auf CPUs betreiben oder mithilfe eigener GPUs beschleunigen – ganz ohne die Unsicherheiten variabler Cloud-Kosten. So lassen sich Hardware-Investitionen optimal nutzen, der Betrieb langfristig planbar gestalten und eine skalierbare, private KI-Innovation langfristig sicherstellen.
Sofort einsatzbereite Komplettlösung für schnelle Ergebnisse: Die nahtlose Integration von Hardware und Software eliminiert den Aufwand für individuelle Setups. Organisationen können ihre KI-Projekte schneller skalieren und den operativen Aufwand reduzieren. Die Kombination aus Teradata AI Microservices und NVIDIA NeMo liefert native RAG-Funktionalitäten – einschließlich Embedding, Retrieval, Reranking und Guardrails – und ermöglicht natürliche Sprachabfragen (Natural Language Querying) über alle Daten hinweg für schnellere und intelligentere Analysen."
Abb.: Teradata AI Factory, Übersicht (Bildquelle: Teradata).
Umfang und Komponenten der Teradata AI Factory:
Basierend auf der Teradata IntelliFlex-Plattform bietet die Lösung eine speziell für KI-Workloads konfigurierte Infrastruktur inklusive Enterprise Vector Store – zur Integration strukturierter und unstrukturierter Daten in generativen KI-Anwendungen.
"Moderne Software-Infrastruktur: Das neue AI Workbench ermöglicht eine Self-Service-Arbeitsumgebung mit Zugriff auf Analysebibliotheken wie ClearScape Analytics. Tools wie JupyterHub, ModelOps, Airflow, Gitea und Devpi sowie integrierte Unterstützung für Modellmanagement, Compliance und One-Click-Deployment von LLMs beschleunigen die Entwicklung und reduzieren technische Hürden.
Algorithmus-Ausführung mit hoher Leistung: Die Plattform ermöglicht die skalierbare Ausführung prädiktiver und generativer Modelle. Durch die Anbindung an Kunden-GPUs über Teradata AI Microservices mit NVIDIA wird die KI-Performance gesteigert – inklusive nativer RAG-Verarbeitung im offenen Teradata-Ökosystem.
Datenpipelines für moderne Workflows: Teradata integriert moderne Datenaufnahme-Tools sowie eigene Technologien wie QueryGrid zur effizienten Datenbewegung und -verknüpfung. Unterstützung für Open Table Formats, Objektspeicher und NVIDIA-Tools zum Umgang mit komplexen Formaten wie PDFs ermöglichen robuste, durchgängige Datenpipelines."
(1) Gartner: „Bis 2028 werden mehr als 20 % aller Unternehmen KI-Workloads – sei es Training oder Inferenz – lokal in ihren Rechenzentren betreiben. Anfang 2025 lag dieser Anteil noch bei etwa 2 %.“ (Quelle: Gartner „How to Determine Infrastructure Requirements for On-Premises Generation AI“ von Chandra Mukhyala, Jonathan Forest, Tony Harvey, veröffentlicht am 5. März 2025)
Querverweis:
Unser Beitrag > Trusted Agentic AI: Teradata Enterprise Vector Store Vorstellung mit möglicher NVIDIA NeMo Retriever Integration
Unser Beitrag > Podcast: IT-Infrastruktur-Anforderungen für KI-Projekte im Unternehmensmaßstab
Unser Beitrag > Cohesity zeigt neuen RecoveryAgent für KI-gesteuerte Wiederherstellung nach Cyberangriffen