Las Vegas (US), Starnberg, 11. Dez. 2024 - Neuer Amazon S3 Storage Browser für (Amazon) S3, Entwicklungen in den Bereichen KI-Modelle, Kühlung & Rack-Design u.v.m.
Zum Hintergrund: Amazon Web Services (AWS) hat im Rahmen seiner Konferenz AWS re:Invent 2024 vom 2.-6. Dez. in USA eine Vielzahl neuer Ankündigungen zu seinen Diensten, Kunden und Partnern gezeigt. Ein Schwerpunkt war, wie sollte es auch anders sein, das Thema KI. Aber auch im Bereich S3-Storage, Tiering und NAS-Storage wurden diverse Neuerungen und Weiterentwicklungen vorgestellt. Auf Grund der Vielzahl von Themen sowie Ankündigungen finden Sie hier einen komprimierten und gekürzten Auszug der (AWS) Originalmeldungen zu IT-Infrastruktur-relevanten Themenbereichen. (1)
1. Storage mit neuen Funktionen von Amazon Simple Storage Service (Amazon S3)
Einführung von abfragbaren Objekt-Metadaten für Amazon S3-Buckets (Vorschau): S3-Dateneinblicke mit der Metadatenerfassung von AWS; Abfrage von Objekten nach Schlüssel, Größe, Tags und mehr mit Athena, Redshift und Spark im großen Maßstab.
Neue Amazon S3-Tabellen: Für Analyse-Arbeitslasten optimierter Speicher Amazon S3 Tables optimiert die Speicherung tabellarischer Daten (wie Transaktionen und Sensormesswerte) in Apache Iceberg und ermöglicht kostenoptimierte performante Abfragen mit Athena, EMR und Spark.
Ankündigung von Amazon FSx Intelligent-Tiering, einer neuen Speicherklasse für FSx für OpenZFS: Amazon FSx Intelligent-Tiering bietet NAS-Funktionen mit automatischer Datenaufteilung auf häufig genutzte, selten genutzte und archivierte Speicherebenen bei einer Leistung von bis zu 400.000 IOPS mit Durchsatz von 20 GB/s und Integration mit AWS-Services.
Neue physische AWS-Datenübertragungs-Terminals für schnelleren Upload in die Cloud: Große Datensätze mit dem neuen AWS-Datenübertragungs-Terminal in höchster Geschwindigkeit auf AWS hochladen, wobei sichere physische Standorte laut AWS eine Verbindung mit hohem Durchsatz bereitstellen.
Benutzer mit Daten über Ihre Anwendungen mit Storage Browser verbinden: Amazon S3 Storage Browser für Amazon S3 ist eine Open-Source-Schnittstellenkomponente, die sich zu Webanwendungen hinzufügen läßt, um autorisierten Endbenutzern wie Kunden, Partnern und Mitarbeitern den Zugang zum einfacheren Durchsuchen, Hochladen, Herunterladen, Kopieren und Löschen von Daten in S3 zu ermöglichen.
2. GROW with SAP on AWS vereinfacht Cloud ERP Bereitstellung
"AWS und SAP SE haben „GROW with SAP on AWS“ angekündigt. Dabei handelt es sich um eine Zusammenarbeit zur Vereinfachung und Beschleunigung der Implementierung von SAP S/4HANA Cloud Public Edition, der Enterprise Resource Planning (ERP)-Lösung von SAP. Mit dieser Initiative ist AWS der erste Cloud-Anbieter, der die Lösung GROW with SAP über seinen Cloud-Marktplatz anbietet.
- GROW with SAP on AWS adressiert die traditionellen Herausforderungen von ERP-Implementierungen, wie z.B. hohe Vorlaufkosten und komplexe Änderungsmanagementprozesse. Als Software-as-a-Service-Lösung verkürzt sie die Implementierungszeit von Jahren auf Monate, eliminiert Vorabkosten für Bereitstellung und Lizenzierung und bietet Kunden eine einzige Rechnung. Kunden können ihre bestehenden AWS-Guthaben und -Verpflichtungen nutzen und gleichzeitig von der Verfügbarkeit, Flexibilität und Skalierbarkeit der Cloud profitieren.
- SAP-Daten mit AWS-Diensten wie Amazon Bedrock kombinieren: Amazon Bedrock ist über den Hub für generative KI in SAP AI Core auf der SAP Business Technology Platform und direkt auf AWS verfügbar. Der Dienst bietet Basismodelle von KI-Unternehmen wie AI21 Labs, Anthropic, Cohere, Meta, Mistral AI und Stability AI. Dieses Angebot ergänzt den generativen KI-Copiloten von SAP, Joule, der in allen SAP-Geschäftsanwendungen eingesetzt werden kann.
3. Rechenzentrumskomponenten zur Unterstützung von KI-Innovationen und zur Verbesserung der Energieeffizienz
Vereinfachtes elektrisches und mechanisches Design für hohe Verfügbarkeit: AWS hat die Stromverteilung und die mechanischen Systeme vereinfacht, was laut Anbieter eine Verfügbarkeit der Infrastruktur von 99,9999 % ermöglicht. Das neue Design reduziert potenzielle Fehlerquellen um 20 % und minimiert die Anzahl von Server-Racks, die von einem Problem mit der Stromversorgung betroffen sein können, um 89 %. Zu den Verbesserungen gehören die Verlegung der Notstromversorgung näher an die Racks und die Reduzierung der Anzahl der Lüfter, die zur Abführung der warmen Luft verwendet werden. Diese Änderungen tragen dazu bei, den Gesamtenergieverbrauch zu senken und gleichzeitig das Ausfallrisiko zu minimieren.
Abb.: Auszug von Keynote by Peter DeSantis, SVP, AWS Utility Computing Products (Bildquelle: AWS).
4. Innovationen in den Bereichen Kühlung, Rack-Design und Steuerungssysteme
AWS hat konfigurierbare „liquid-to-chip“-Kühlungslösungen für neue und bestehende Rechenzentren entwickelt, die auch KI-optimierte Racks mit hoher Dichte unterstützen. Das flexible, multimodale Kühlungsdesign sorgt für eine nahtlose Integration von Luft- und Flüssigkeitskühlung für die leistungsstärksten KI-Chipsätze wie AWS Trainium2 und KI-Supercomputing-Lösungen wie NVIDIA GB200 NVL72, ebenso wie für die Netzwerk-Switches und Storage-Server von AWS.
- AWS optimiert die Positionierung der Racks mit Hilfe von generativer KI, um neue Server so effizient wie möglich platzieren zu können. Damit soll sichergestellt werden, dass die zur Verfügung stehende Energieinfrastruktur und Energiemenge effizient genutzt wird.
- Neue Stromversorgungssysteme, um die Leistungsdichte pro Rack in den nächsten zwei Jahren um das Sechsfache zu erhöhen, mit Potenzial für eine weitere Verdreifachung in der Zukunft. Zusammengenommen ermöglichen diese Innovationen AWS, 12 % mehr Rechenleistung pro Standort für Kunden-Workloads bereitzustellen – damit reduziert sich die Gesamtzahl der Rechenzentren, die für die Bereitstellung der gleichen Menge an Rechenkapazität erforderlich sind.
- AWS hat ein Amazon-eigenes Steuerungssystem für seine elektrischen und mechanischen Anlagen eingeführt, das die Überwachung, Alarmierung und die Betriebsabläufe standardisiert. Intern entwickelte Telemetrie-Werkzeuge auf Basis von AWS-Technologien bieten Echtzeitdiagnosen und Dienste zur Fehlerbehebung und sorgen für optimale Betriebsbedingungen. AWS hat auch die Redundanz in den Steuerungssystemen erhöht und gleichzeitig deren Komplexität reduziert, was es ermöglicht, die Infrastruktur auf 99,9999 % Verfügbarkeit auszulegen.
- Verbesserte Energieeffizienz und Nachhaltigkeit, einschließlich einer Verringerung des mechanischen Energieverbrauchs um 46 % und einer Verringerung der Kohlenstoffbilanz des verwendeten Betons um 35 %:
- AWS hat ein effizienteres Kühlsystem implementiert, das den mechanischen Energieverbrauch der Kühlung unter Spitzenauslastung um bis zu 46 % reduziert, ohne den Wasserverbrauch pro Megawatt zu erhöhen.
- Verglichen mit dem Branchendurchschnitt hat AWS die CO2-Bilanz des in der Gebäudehülle von Rechenzentren verbauten Betons um bis zu 35 % reduziert.
- Darüber hinaus können die Notstromgeneratoren mit erneuerbarem Diesel betrieben werden, was die Treibhausgasemissionen über den Lebenszyklus des Kraftstoffs im Vergleich zu fossilem Diesel um bis zu 90 % reduziert.
- Durch die Unterstützung wachsender KI-Workloads bei gleichzeitiger Reduzierung des Energieverbrauchs und der Umweltbelastung will AWS seinen Kunden damit die Entwicklung und Ausführung leistungsfähigerer und effizienterer KI-Anwendungen ermöglichen.
Bildquelle: AWS
„Bei Amazon haben wir etwa 1.000 generative KI-Anwendungen in Betrieb. Wir haben aus der Vogelperspektive beobachtet, womit sich Entwickler beschäftigen“, sagt Rohit Prasad, SVP Amazon Artificial General Intelligence. „Unsere neuen Amazon Nova Modelle sollen interne und externe Entwickler bei der Bewältigung dieser Herausforderungen unterstützen. Sie bieten attraktive Fähigkeiten in den Bereichen Intelligenz und Erstellung von Inhalten. Gleichzeitig stellen sie bedeutsame Fortschritte bei Latenz, Kosteneffizienz, Personalisierung, Retrieval Augmented Generation (RAG) und agentenbasierten Funktionalitäten dar.“
5. Anwendungsbeispiele
Lotus wählt AWS als bevorzugten Cloud-Anbieter, um vernetzte und automatisierte Fahrzeuge voranzutreiben. Der Automobilhersteller wird AWS nutzen, um seine Vision80-Strategie umzusetzen, deren Ziel es ist, das Unternehmen bis 2028 in eine globale Luxus-Technologiemarke zu verwandeln. Dazu gehören:
Autonome und vernetzte Funktionen für Fahrzeuge:
- ROBO Soul, ein Software-Stack für selbstfahrende Fahrzeuge, der auf AWS läuft und automatische Aufgaben wie Einparken und Fahren auf der Autobahn für Elektrofahrzeuge der nächsten Generation von Lotus ermöglicht.
- ROBO Galaxy, eine Plattform für intelligente Fahrwerkzeuge, die mit AWS-Diensten wie Amazon Redshift, Amazon Managed Streaming for Apache Kafka (Amazon MSK) und AWS Glue entwickelt wurde und die Effizienz und Zugänglichkeit von autonomen Fahrzeugen auf internationalen Märkten verbessert. AWS ermöglicht es Lotus, wichtige Informationen wie Echtzeitkarten, Verkehrsbedingungen und Fahrerverhalten zu analysieren. Dies ermöglicht es, das intelligente Fahrsystem zu verbessern und die Fahrsicherheit, etwa durch automatisches Bremsen, wenn sich ein Objekt zu nahe an der Fahrzeugfront befindet, zu erhöhen.
- Lotus Connect, eine auf AWS basierende Plattform für vernetzte Fahrzeuge, bietet Fahrzeugfernsteuerung, Echtzeit-Statusüberwachung, Geofencing und die Ortung gestohlener Fahrzeuge. Sie nutzt Amazon Elastic Kubernetes Service (Amazon EKS) für eine schnelle Bereitstellung, Verwaltung und Skalierung von Containeranwendungen, wodurch die Bereitstellungszeit von sechs Monaten auf zwei Wochen verkürzt wurde.
- Die Plattform nutzt Amazon Aurora für digitale Schlüssel und erreicht eine Anwendungslatenz von weniger als 2,2 Sekunden. Dies ermöglicht es den Fahrern, ihren digitalen Schlüssel mit Familie und Freunden zu teilen und ihr Fahrzeug über ihr iPhone oder ihre Apple Watch zu verriegeln, zu entriegeln und zu starten, ohne eine Internetverbindung oder einen physischen Schlüssel zu benötigen.
- Personalisierung von Fahrerlebnis und Fahrzeugen: Lotus nutzt AWS Analytics, um Geschäftseinblicke zu gewinnen, Kaufmuster zu analysieren und maßgeschneiderte Kaufempfehlungen zu geben. Mit der Hilfe von Amazon CloudFront, dem Content Delivery Network von AWS, bietet Lotus seinen Kunden eine Echtzeit-3D-Visualisierung der Fahrzeuge für personalisierte Anpassungen und ein immersives Kauferlebnis. Durch Modellkonfigurationen in 3D können Kunden sehen, wie ihr Fahrzeug mit speziellen Zubehörteilen, Farben und Ausstattungspaketen aussehen würde, einschließlich einer kuratierten Auswahl an limitierten Designs aus der Zusammenarbeit mit Partnern, Künstlern und Luxusmarken.
Wiwynn wählt AWS Outposts, um die Bereitstellungszeit für die globale intelligente Fertigung um 90 Prozent zu verkürzen
Wiwynn hat AWS Outposts gewählt, um die Bereitstellungszeit für die globale intelligente Fertigung um 90 Prozent zu verkürzen. Durch die Nutzung von AWS Outposts und der umfassenden globalen Cloud-Infrastruktur von AWS konnte Wiwynn schnelle, kostengünstige, flexible, belastbare und sichere globale Bereitstellungen mit geringer Latenz realisieren und so seine Vision der globalen Expansion intelligenter Fabriken beschleunigen.
Oracle Database @ AWS in limitierter Vorschau verfügbar
Oracle hat die limitierte Preview von Oracle Database @ AWS angekündigt. Kunden können nun den Oracle Exadata Database Service auf der Oracle Cloud Infrastructure (OCI) auf AWS ausführen, beginnend mit der AWS US East Region.
Midea nutzt Amazon Connect und GenAI Services zum Aufbau intelligenter globaler Contact Center und zur Neugestaltung des Kundenerlebnisses (02.12.24) – AWS gab bekannt, dass Midea, ein führendes globales Technologieunternehmen, Amazon Connect nutzt, um eine schnelle und erfolgreiche Bereitstellung von Cloud-basierten Omnichannel-Kundenkontaktzentren in 14 Ländern und Regionen weltweit zu ermöglichen.
Comcast hat sein mobiles 5G-Kernnetz von der Infrastruktur vor Ort zu AWS migriert.
DATEV kooperiert mit Amazon Web Services für zukunftsfähige Prozesse im Zahlungsverkehr: DATEV nutzt die AWS Cloud-Technologie in Kombination mit eigenen Rechenzentren, um seine technische Infrastruktur für Zahlungsverkehrsprozesse zu modernisieren und zukunftsfähig zu gestalten. Durch diese Zusammenarbeit kann DATEV seinen Kunden ein sicheres, zuverlässiges System zur Verarbeitung sensibler Zahlungsdaten anbieten und gleichzeitig neue regulatorische Anforderungen erfüllen, die ab Ende 2025 in Kraft treten.
6. Neuerungen zu KI-Werkzeugen
AWS stärkt Amazon Bedrock mit branchenweit erstem KI-Schutz, neuer Agentenfunktion und Modellanpassung. Automated Reasoning Checks, Multi-Agent Collaboration und Model Distillation sind in der Preview verfügbar.
Die Ankündigungen sollen helfen, faktische Fehler aufgrund von Halluzinationen verhindern, mehrere KI-gesteuerte Agenten für komplexe Aufgaben zu orchestrieren und kleinere, aufgabenspezifische Modelle zu erstellen, die ähnliche Leistungen wie ein großes Modell erbringen können, jedoch zu einem Bruchteil der Kosten und Latenz.Funktionalitäten adressieren danach zentrale Herausforderungen bei der Entwicklung generativer KI-Anwendungen:
- Automated Reasoning Checks: Obwohl sich KI-Modelle rasant weiterentwickeln, bleibt weiterhin die Hürde, dass sie oft ungenaue oder erfundene Informationen (Halluzinationen) herausgeben. Dies kann in kritischen Anwendungsbereichen erhebliche Risiken bergen. Amazon Bedrock Guardrails erleichtert es Kunden, Sicherheits- und verantwortungsbewusste KI-Prüfungen auf generative KI-Anwendungen anzuwenden. Der Dienst ermöglicht nun auch den Zugang zu sogenannten Automated Reasoning Checks (zu Deutsch etwa „automatisierte Schlussfolgerungsüberprüfungen“). Dabei handelt es sich um die erste und bislang einzige Sicherheitsfunktionalität für generative KI, die mit logisch präzisen und überprüfbaren Schlussfolgerungen hilft, faktische Fehler durch sogenannte Halluzinationen zu vermeiden.
- Automated Reasoning Checks ermöglichen, faktische Antworten auf ihre Richtigkeit hin zu validieren, überprüfbare Ausgaben zu produzieren und genau einzusehen, warum ein Modell zu einem Ergebnis gekommen ist. Diese Möglichkeiten stärken das Vertrauen von Kunden in die Antworten von KI-Modellen, wodurch sich neue Anwendungsbereiche erschließen lassen. Insbesondere in sensiblen Bereichen und regulierten Branchen – beispielsweise Gesundheitswesen, Finanzdienstleistungen und Regierungsbehörden –, hilft die Lösung, um generative KI-Anwendungen zu entwickeln, die regulatorische Standards exakt einhalten.
- Multi-Agent Collaboration: Kunden streben danach, generative KI über einfache Zusammenfassungen und Chatfunktionen hinaus einzusetzen. Amazon Bedrock Agents ermöglicht es nun, mehrere KI-Agenten zu koordinieren, die komplexe Arbeitsabläufe gemeinsam ausführen können. Durch die Zusammenarbeit mehrerer Agenten können Unternehmen spezifische Anwendungen für verschiedene Projektschritte erstellen und diese parallel arbeiten lassen. Moody's, einer der weltweit führenden Anbieter von Finanzdaten, nutzt Multi-Agent Colloboration über Amazon Bedrock, um Worlflows im Bereich Risikoanalyse zu verbessern.
- Model Distillation: Unternehmen stehen vor der Herausforderung, KI-Modelle zu finden, die präzise Kenntnisse mit optimaler Leistung und Kosteneffizienz vereinen. Amazon Bedrock Model Distillation löst dieses Problem durch eine Technik, die das Wissen großer Modelle auf kleinere Modelle überträgt und dabei deren Leistungscharakteristiken beibehält. Kunden können nun ohne spezielle Expertise im maschinellen Lernen Modelle entwickeln, die bis zu 500 Prozent schneller und 75 Prozent günstiger sind, wobei der Genauigkeitsverlust weniger als 2 Prozent betragen kann.
- Zum Prozess: Kunden wählen ein großes und ein kleineres Modell aus derselben Modellfamilie, stellen Beispielprompts bereit, und Amazon Bedrock übernimmt die gesamte Feinabstimmung. Ein Beispiel ist Robin AI, ein KI-gestützter Assistent für den juristischen Bereich: Robin AI nutzt Model Distillation, um laut AWS hochwertige juristische Frage-Antwort-Systeme über Millionen von Vertragsparagrafen zu betreiben – zu deutlich reduzierten Kosten.
Amazon Nova ist eine neue Generation von Basismodellen (Foundation Models, FMs), die über künstliche Intelligenz (KI) für eine Vielzahl von Aufgaben verfügen. Die Amazon Nova Modelle sollen in Amazon Bedrock verfügbar sein und umfassen:
- Amazon Nova Micro, ein sehr schnelles Text-zu-Text-Modell
- Amazon Nova Lite, Amazon Nova Pro und Amazon Nova Premier, multimodale Modelle, die Text, Bilder und Videos verarbeiten können, um Text zu erzeugen
- Amazon Nova Canvas, welches Bilder in Studioqualität erzeugt
- Amazon Nova Reel, das Videos in Studioqualität erstellt.
Generative KI-Erweiterungen für Amazon Connect, die Cloud-basierte Plattform für Kundenkontakt- und Callcenter-Dienste. Diese zielen darauf ab, Kundenzufriedenheit steigern, Kundenanliegen schneller lösen und gleichzeitig die Betriebskosten senken. Die Erweiterungen auf einen Blick:
Automatisierte Kundensegmentierung für proaktive und personalisierte Interaktionen über verschiedene Kommunikationskanäle sowohl für Einzelpersonen als auch Gruppen mit ähnlichen Merkmalen.
- Amazon Q in Connect, ein auf generativer KI basierender Assistent, ermöglicht Unternehmen, relevante automatisierte und dynamische Self-Service-Erlebnisse zu schaffen.
- Anpassbare KI-Leitplanken mit robusten Kontrollen für KI-generierte Inhalte, die Unternehmen unterstützen, ihre Richtlinien beim KI-Einsatz einzuhalten und Kundeninteraktionen zu schützen.
- Durch neue, KI-gestützte Agentenbewertungen sowie intelligente Kontaktkategorisierung können Kundenservice-Manager Leistungstrends erkennen, Schulungen verbessern und die Servicequalität steigern.
Amazon Bedrock unterstützt bei schnelleren Einführung von generativer künstlicher Intelligenz (KI) mit über 100 neuen Modellen und Funktionen für Inferenz und Datenverarbeitung. Erweiterung von Modellen für Amazon Bedrock:
Amazon Bedrock ist ein vollständig verwalteter Dienst zum Erstellen und Skalieren generativer KI-Anwendungen. Die Ankündigung umfasst neue Werkzeuge zur Optimierung von Inferenzen und zusätzliche Datenfunktionen, die Kunden mehr Flexibilität und Kontrolle bieten, um schneller generative KI-Lösungen zu entwickeln und in der Produktion bereitzustellen. Diese Neuerungen zielen darauf ab, den Prozess der KI-Implementierung für Unternehmen zu beschleunigen und zu vereinfachen.
Die wichtigsten Punkte:
- Erweiterung der Modellauswahl: AWS wird der erste Cloud-Anbieter sein, der Modelle von Luma AI und poolside anbietet. Zudem wird das neueste Stability AI-Modell in Amazon Bedrock integriert. Besonders hervorzuheben sind die neu angekündigten Amazon Nova Modelle, eine neue Generation von Grundlagenmodellen mit branchenführender Preis-Leistung. Durch den neuen Amazon Bedrock Marketplace erhalten Kunden Zugang zu über 100 beliebten, aufstrebenden und spezialisierten Modellen, um die richtigen Modelle für ihren Anwendungsfall zu finden.
- Optimierte Inferenz und Prompt-Verarbeitung: Neue Funktionen wie Prompt-Caching und Amazon Bedrock Intelligent Prompt Routing bieten Kunden Möglichkeiten, ihre generativen KI-Anwendungen effizienter zu skalieren. Das sichere Prompt-Caching reduziert wiederholte Verarbeitungen, ohne dabei an Akkuratheit zu verlieren. Kunden können damit die Kosten um bis zu 90% und die Latenz um bis zu 85% bei unterstützten Modellen senken. Intelligent Prompt Routing optimiert automatisch die Auswahl des am besten geeigneten Modells für jede Anfrage, was die Kosten um bis zu 30% reduzieren kann, ohne die Genauigkeit zu beeinträchtigen.
- Erweiterte Datenfunktionen: Die Unterstützung für strukturierte Daten in der Amazon-Bedrock-Wissensdatenbank erweitert die Möglichkeiten für Kunden, ihre Daten für maßgeschneiderte generative KI-Anwendungen zu nutzen, indem sie an ihrem Ablageort abgefragt werden können. Die neue Unterstützung für strukturierte Datenabfragen bricht Datensilos auf und beschleunigt die Entwicklung von KI-Anwendungen von über einem Monat auf nur wenige Tage. Zusätzlich ermöglicht die neue GraphRAG-Unterstützung für Amazon-Bedrock-Wissensdatenbanken Kunden, automatisch Graphen mit Amazon Neptune zu generieren und Beziehungen zwischen Entitäten über Daten hinweg zu verknüpfen, ohne spezifische Expertise für die Erstellung von Graphen zu erfordern.
- Automatisierte Datenverarbeitung: Amazon Bedrock Data Automation transformiert unstrukturierte, multimodale Daten automatisch in strukturierte Daten – dies hilft Kunden, ihre Daten besser für generative KI und Analysen zu nutzen. Amazon Bedrock Data Automation stellt Kunden zudem Konfidenz-Werte bereit, um mögliche Risiken für Halluzinationen einzuschätzen und die Transparenz zu erhöhen.
Kundenbeispiele: Unternehmen wie Adobe nutzen das Prompt-Caching für schnellere Dokumentenzusammenfassungen, Argo Labs verwendet Intelligent Prompt Routing für Sprachagenten in Restaurants, die BMW Group implementiert GraphRAG für ihren KI-Assistenten MAIA, und Symbeo automatisiert die Datenextraktion aus komplexen Dokumenten mit Amazon Bedrock Data Automation.
Amazon SageMaker AI
Schneller mit beliebten verfügbaren Modellen – wie Llama oder Mistral – starten, die Trainingseffizienz maximieren, Kosten senken und bevorzugte Tools nutzen, um die Entwicklung von generativen KI-Modellen zu beschleunigen. Amazon SageMaker AI ist ein End-to-End-Service, der genutzt wird, um KI-Modelle für jeden Anwendungsfall mit vollständig verwalteter Infrastruktur, Tools und Workflows zu erstellen, zu trainieren und bereitzustellen. Wichtigste Punkte: AWS SageMaker HyperPod hilft Kunden dabei, die Entwicklung generativer KI-Modelle effizient über Tausende von KI-Accelerators zu skalieren. Damit lässt sich die Zeit für das Training von Basismodellen um bis zu 40% zu reduzieren.
Mit SageMaker HyperPod innerhalb von Minuten Modelltrainings starten: Kunden bekommen Zugang zu mehr als 30 kuratierten Modell-Trainingsvorlagen für beliebte öffentlich verfügbare Modelle, darunter Llama 3.2 90B, Llama 3.1 405B und Mistral 8x22B. Diese Vorlagen vereinfachen den Einstiegsprozess für Kunden erheblich, indem sie automatisch Trainingsdatensätze laden, verteilte Trainingstechniken anwenden und das System für effizientes Checkpointing und Wiederherstellung bei Infrastrukturausfällen konfigurieren.
Flexible Trainingspläne durch SageMaker HyperPod: SageMaker HyperPod reserviert automatisch Kapazitäten, richtet Cluster ein und erstellt Modell-Trainingsaufträge, wodurch Teams laut AWS Wochen an Modell-Trainingszeit einsparen können. Zudem stellt SageMaker automatisch die Infrastruktur bereit und führt die Trainingsaufträge aus.
SageMaker verwendet Amazon Elastic Compute Cloud (EC2) Capacity Blocks, um die richtige Menge an spezialisierten Recheninstanzen zu reservieren, die benötigt werden, um den Trainingsauftrag rechtzeitig abzuschließen. Durch Pausieren und Fortsetzen von Trainingsaufträgen, basierend auf der Verfügbarkeit dieser Kapazitätsblöcke, kann SageMaker HyperPod sicherstellen, dass Kunden Zugang zu den benötigten Rechenressourcen haben, um den Auftrag pünktlich abzuschließen – ohne manuelle Eingriffe
7. poolside und AWS kündigen strategische Partnerschaft an – generative KI für Softwareentwicklung auf Amazon Bedrock und Amazon Elastic Cloud Compute (EC2). Externer Link > https://poolside.ai/checkpoint/unveiling-our-partnership-with-aws
AWS und poolside machen durch eine mehrjährige Vereinbarung den generativen KI-Assistenten und die Basismodelle (Foundation Models, FMs) des KI-Einhorns in Amazon Bedrock verfügbar. In einer Finanzierungsrunde im Oktober wurde poolside mit drei Miliarden Dollar bewertet. Hier die wichtigsten Punkte:
Die generativen KI-Assistenten und FMs von poolside werden in Amazon Bedrock verfügbar sein. Dadurch können Kunden in naher Zukunft den generativen KI-Assistenten von poolside für die Softwareentwicklung mit ihren eigenen Daten anpassen und dabei von der Sicherheit, dem Datenschutz und der Leistung von AWS profitieren. AWS ist der erste Cloud-Anbieter, der vollständig verwaltete Modelle von poolside zur Verfügung stellt.
- Im Rahmen der Vereinbarung wird poolside die Inferenz seiner Malibu- und Point-FMs mit AWS Trainium-Chips betreiben. AWS Trainium ist ein hochleistungsfähiger Chip für maschinelles Lernen (ML), der den Zeit- und Kostenaufwand generativer KI-Modelle reduziert. AWS Kunden können ab sofort poolside sicher auf Amazon EC2 einsetzen und durch Amazon EC2 Trainium-Instanzen für die Inferenz bald auch über Amazon Bedrock.
- Die Einbindung der poolside-Modelle in Amazon Bedrock und EC2 bietet Kunden beider Unternehmen einen Vorteil bei der Lösung komplexer Software-Engineering-Aufgaben und der Steigerung der Entwicklungsproduktivität durch generative KI. Die FMs von poolside können mit dem Code und den Daten jedes Unternehmens abgestimmt werden und ein proprietäres generatives KI-Modell und einen Software-Engineering-Assistenten für das jeweilige Unternehmen erzeugen.
- Mit poolside in Amazon Bedrock und EC2 können Unternehmen Sicherheits-, Datenschutz- und Compliance-Vorgaben einhalten und gleichzeitig ihre benutzerdefinierten generativen KI-Modelle schnell bereitstellen. AWS Kunden können poolside-Modelle dort einsetzen, wo ihre Daten gespeichert sind, innerhalb ihrer Firewalls, in der sichersten Cloud der Welt und ohne, dass Daten an poolside zurückgegeben werden.
Die Technik des Reinforcement Learning From Code Execution Feedback (RLCEF) von poolside läuft ab sofort auf AWS. Sie versorgt etwa eine Million Container-Images, während sie 10.000 Code-Ausführungen pro Minute ermöglicht. Mit RLCEF kann poolside synthetische Trainingsdaten in großem Umfang generieren, indem Modelle realistischen Codierungsaufgaben ausgesetzt werden, Feedback auf Grundlage der Codeausführung gegeben und ein Reinforcement Learning-Ansatz für das Training eingesetzt wird. Dadurch können poolside-Modelle auf immer mehr Daten trainieren, ohne auf die Daten ihrer Kunden zurückgreifen zu müssen."
(1) Quelle: Weitere Details zur re:Invent 2024 finden Sie beim Anbieter unter diesem externen Link, nach Themenbereichen sortiert > https://aws.amazon.com/de/blogs/aws/top-announcements-of-aws-reinvent-2024/
Querverweis:
Unser Beitrag > Über die Zukunft von KI: Ein Kommentar von Prof. Daniel Cremers von der TU München (TUM)
Unser Beitrag > Teradata stellt "Rapid-Start“-Anwendungsfälle für Gen AI mit Amazon Bedrock-Integration vor
Unser Beitrag > Podcast: Scale-Out File- und Objectstorage als Basis zur Umsetzung von KI-Initiativen