KI-Implementierung auf Fachabteilungs- und Teamebene für spezialisierte lokale Applikationen. Intel Xeon 6 Prozessoren und Intel Advanced Matrix Extensions (Intel AMX) plus Storage und Data Management. KI für jede Fachabteilung auf jeder Ebene…
Zur Ankündigung
NetApp kündigte Anfang Mai zusammen mit Intel den NetApp AIPod Mini an. Die gemeinsame Lösung soll den Einsatz von künstlicher Intelligenz (KI) in Unternehmen vereinfachen. Das Angebot adressiert dabei spezifisch die Herausforderungen von Kosten und Komplexität bei der KI-Implementierung auf Abteilungs- und Teamebene.
Hintergrund: Unternehmen setzen KI ein, um ihre Effizienz und datengestützte Entscheidungsfindung zu verbessern. Allgemein verfügbare KI-Applikationen können jedoch die spezifischen Anforderungen einzelner Geschäftsbereiche nicht immer passgenau erfüllen. (1) Dann fehlt auf dieser Ebene zudem das technische Know-how oder Budget, um diese KI-Applikationen jeweils von Grund auf anzupassen.
Anmerkung: Inferenz ist der Prozess, der auf das aufwändige KI-Training folgt. Fast alle Anwendungen von KI basieren darauf. Das aus Sicht der Rechenleistung mitunter teure Training eines KI-Modells ist jedoch vielfach eine einmalige Ausgabe. Deshalb können im Anschluß mit Inferencing dann kostenoptimierte Hardware- und Software-Ressourcen zum Einsatz kommen.
NetApp und Intel stellen mit NetApp AIPod Mini dazu nun eine integrierte KI-Lösung auf Basis der intelligenter (NetApp) Dateninfrastruktur vor. Das System ermöglicht Inferencing mit abteilungseigenen Daten, um spezifische Ergebnisse zu erzielen. NetApp AIPod Mini soll z.B. die KI-Nutzung für die Automatisierung von Dokumentenerstellung und -recherche im Rechtswesen, die Implementierung personalisierter Einkaufserlebnisse mit dynamischer Preisgestaltung im Einzelhandel oder die Optimierung von vorausschauender Wartung und Lieferketten in der Produktion vereinfachen.
Abb.: NetApp AIPod Mini mit Intel (Quelle: NetApp).
Kommentarauszug Greg Ernst, Americas Corporate Vice President und General Manager bei Intel: „Durch die Kombination von Intel Xeon Prozessoren mit robustem Datenmanagement und Storage von NetApp bietet NetApp AIPod Mini Fachabteilungen die Möglichkeit, KI zur Lösung ihrer individuellen Herausforderungen einzusetzen. So können Anwender KI nutzen, ohne sich mit einer überdimensionierten Infrastruktur oder unnötiger technischer Komplexität belasten zu müssen.“
Mit Hilfe der neuen Lösung können vorgefertigte Retrieval-Augmented Generation (RAG)-Workflows direkt mit Geschäftsdaten interagieren. Dabei wird generative KI mit proprietären Informationen kombiniert, um präzise und kontextbezogene Einblicke zu erreichen.
Die Plattform basiert auf der Integration von Intel Xeon 6 Prozessoren und Intel Advanced Matrix Extensions (Intel AMX) mit NetApp All-Flash-Storage- sowie Datenmanagement mit Kubernetes-Integration. Sie basiert auf Open Platform for Enterprise AI (OPEA) als ein offenes Framework für modulare und flexible Implementierungen. Anmerkung: OPEA ist ein Linux Foundation Projekt.
Das neue System stellt die Skalierbarkeit in den Fokus, um keine Ressourcen für unnötigen Overhead oder Kapitalausgaben zu zu verschwenden.
Vorvalidierten Referenzdesigns mit vorgefertigten Workflows sollen laut Hersteller eine schnellere Einrichtung, Integration und Anpassung ohne zusätzlichen Overhead ermöglichen.
Basierend auf NetApp-Storage und der lokaler Datenverarbeitung kann NetApp AIPod Mini den Schutz sensibler Daten ermöglichen. Dazu gehören die integrierten Cyber-Resilienz- und Governance-Funktionen von NetApp ONTAP, einschließlich Zugriffskontrollen, Versionierung und Rückverfolgbarkeit. Compliance soll so direkt in KI-Workflows eingebettet werden werden und die Aktivitäten sind nachvollziehbar.
NetApp AIPod Mini mit Intel wird laut Anbieter im Sommer 2025 bei strategischen Distributoren und Partnern weltweit erhältlich sein. Zu den ersten Launch-Partnern gehören die NetApp Distributionspartner Arrow Electronics und TD SYNNEX sowie die Integrationspartner Insight Partners, CDW USA, CDW UK&I, Presidio und Long View Systems.
(1) Quelle: Harvard Business School Studie zu KI und Produktivität. Externer Link > https://mitsloan.mit.edu/sites/default/files/2023-10/SSRN-id4573321.pdf
Querverweis:
Unser Beitrag > Intel Innovation 2023: Übersicht zu Strategien für Entwickler, um KI in jede Anwendung zu bringen
Unser Beitrag > Akamai Cloud Inference Einführung: KI-Daten näher an Benutzer und Geräte bringen
Unser Beitrag > Agentic AI Automation: UiPath bringt erste unternehmensweite Plattform auf den Markt