AWS kündigt neue Tools für die Anwendungsentwicklung mit generativer KI an

München, Starnberg, 18. April 2023 - Amazon Bedrock (Preview) und Amazon Titan FMs; allgemeine Verfügbarkeit von Amazon Inf2- und Trn1n-Instanzen für EC2...

Zur Ankündigung: Aktuell setzen laut der letzten IT-Trends 2023 Studie von Capgemini rund 40 Prozent aller Befragten Künstliche Intelligenz intensiver ein. Die Anzahl der Anwender, die KI verstärkt nutzen, hat sich danach laut Report im Vergleich zum Vorjahr jedoch kaum verändert. Gründe für die Nutzung liegen in den technologischen Fortschritten, aber auch an neuen Prozesse für Entwicklung und Betrieb. (1) Generative KI ist jetzt gerade eines der großen Schlagworte. Dabei handelt es sich um eine Art von KI, die neue Inhalte und Ideen erstellen kann, z. B. Unterhaltungen, Geschichten, Bilder, Videos und Musik. Wie jede KI wird auch die generative KI von ML-Modellen angetrieben - sehr großen Modellen, die auf riesigen Datenmengen vortrainiert werden und als Foundation Models (FMs) bezeichnet werden.

 

Amazon Web Services (AWS) hat jetzt eine Reihe an Neuheiten in seinem Portfolio für Machine Learning (ML) angekündigt. Dabei handelt es sich um unterschiedliche Tools, die laut Anbieter den Einsatz und die Nutzung von generativer KI in Unternehmen vereinfachen sollen:

  1. Ankündigung von Amazon Bedrock (Preview) und Amazon Titan FMs: Dabei handelt es sich um einen neuen Managed Service, mit dem Kunden einsatzbereite Anwendungen auf Basis von generativer KI erstellen und skalieren können. Amazon Bedrock macht vortrainierte FMs (Foundation Models) von KI-Startups wie AI21 Labs, Anthropic und Stability AI über eine API leicht zugänglich; Kunden erhalten außerdem Zugang zu Amazon Titan FMs, eine von AWS entwickelte Foundation-Model-Familie. Amazon Bedrock ist ab sofort in der Preview-Version verfügbar. Zu den Kunden, die den Service bereits nutzen, zählt beispielsweise Coda.

  2. Allgemeine Verfügbarkeit von Amazon Inf2-Instanzen für EC2: Diese basieren auf von AWS eigens entwickelten Inferentia2-Chips, die speziell für große generative KI-Anwendungen mit Modellen mit Hunderten von Milliarden Parametern optimiert sind. Da der Großteil zukünftiger ML-Kosten durch die Ausführung von Schlussfolgerungen entsteht, hat AWS bei Investitionen in neue Chips vor ein paar Jahren auf inferenzoptimiertes Silizium gesetzt. Im Jahr 2018 wurde Inferentia angekündigt, den ersten speziell für Inferenzen entwickelten Chip. Inf2 bietet nun laut Entwickler einen bis zu viermal höheren Durchsatz und eine bis zu zehnmal niedrigere Latenzzeit im Vergleich zu Inferentia-basierten Instanzen der vorherigen Generation. Inf2-Instanzen sind die ersten für Inferenzen optimierten Instanzen in Amazon EC2, die skalierbare verteilte Inferenzen mit Ultra-High-Speed-Konnektivität zwischen Beschleunigern unterstützen. So bieten sie eine um 40 Prozent verbesserte Inferenzleistung und die niedrigsten Kosten für die Ausführung anspruchsvoller generativer KI-Inferenz-Workloads auf AWS. Zu den AWS-Kunden, die die Inf2-Instanzen bereits verwenden, zählt etwa Runway.

  3. Allgemeine Verfügbarkeit von Amazon Trn1n-Instanzen für EC2: Viele AWS-Kunden, darunter Helixon, Money Forward und das Amazon Search-Team, verwenden bereits Trn1-Instanzen, um die Trainingszeit von ML-Modellen auf AWS von Monaten auf Wochen oder gar Tage zu verkürzen. Die neuen, netzwerkoptimierten Trn1n-Instanzen auf Basis von AWS Trainium-Chips bieten im Vergleich zur vorherigen Generation eine verdoppelte Netzwerkbandbreite von 1.600 Gbit/s und eine um 20 Prozent höhere Leistung für das Trainieren großer, netzwerkintensiver ML-Modelle.

 

 


Abb: Building with Generative AI on AWS (Bildquelle: AWS)

 

Allgemeine Verfügbarkeit von Amazon CodeWhisperer: Dabei handelt es sich um einen Service, der Entwicklern Code-Empfehlungen auf der Grundlage ihrer Kommentare in natürlicher Sprache und des Codes in der integrierten Entwicklungsumgebung (IDE) generiert. CodeWhisperer ist sowohl auf öffentlich verfügbaren als auch Amazon-Code trainiert. Mit dem Service erhalten Entwickler laut Anbieter eine neue Möglichkeit, Code für AWS-Services deutlich schneller, sicherer und genauer zu generieren: Bereits in der Preview zeigte sich nach Informationen von AWS etwa, dass Entwickler ihre Aufgaben mit CodeWhisperer um bis zu 57 Prozent schneller abschließen konnten. Ab sofort ist der Amazon CodeWhisperer für alle Entwickler kostenlos verfügbar.

Weitere Informationen finden sich im folgenden AWS Blogpost. Externer Link > https://aws.amazon.com/de/blogs/machine-learning/announcing-new-tools-for-building-with-generative-ai-on-aws/

 

Querverweis:

Unser Beitrag > AWS re:Invent 2022: kompakte Übersicht mit Informationen zu den wesentlichen Ankündigungen

(1) Unser Beitrag > IT-Verantwortliche setzen auf Container-Technologien, Zero Trust und Machine Learning