DeepSeek-R1-Modelle können jetzt auf unterschiedliche Art und Weise auf AWS eingesetzt werden, da kein einzelnes Modell für jeden spezifischen Anwendungsfall hin optimiert ist…
Zur Ankündigungübersicht- verschiedene Möglichkeiten zum Einsatz von DeepSeek-R1 auf AWS:
- Amazon Bedrock Marketplace für das DeepSeek-R1-Modell,
- Amazon Bedrock Custom Model Import für die destillierten DeepSeek-R1 Llama-Modelle,
- Amazon SageMaker JumpStart für das DeepSeek-R1-Modell,
- Nutzung von Amazon EC2 Trn1 Instanzen mit AWS Trainium für die destillierten DeepSeek-R1-Modelle,
- Amazon SageMaker AI unterstützt die Ausführung von destillierten Llama- und Qwen-DeepSeek-Modellen
-
DeepSeek-Modelle können durch Hugging Face-Integration auf Amazon SageMaker AI trainiert werden.
Kein einzelnes Modell ist für jeden Anwendungsfall optimiert
Schon deshalb benötigen Kunden den Zugang zu einer Vielzahl an Modellen, um herauszufinden, was für ihre Bedürfnisse am besten funktioniert. Aus diesem Grund erweitert AWS die Auswahl mit Modellen wie DeepSeek-R1.
Mit dem neuen Angebot können auch erweiterte Optionen konfigurationstechnisch realisiert werden, mit denen die Sicherheits- und Infrastruktureinstellungen für das DeepSeek-R1-Modell anpassen lassen, einschließlich VPC-Netzwerke, Dienstrollenberechtigungen und Verschlüsselungseinstellungen. Für die Produktionsbereitstellung ist es laut Anbieter wichtig, diese Einstellungen zu überprüfen, um sie mit den jeweiligen Sicherheits- und Compliance-Anforderungen des Unternehmens in Einklang zu bringen.
DeepSeek brachte DeepSeek-V3 im Dezember 2024 auf den Markt und veröffentlichte anschließend am 20. Januar 2025 die Modelle DeepSeek-R1, DeepSeek-R1-Zero mit 671 Milliarden Parametern und DeepSeek-R1-Distill mit 1,5-70 Milliarden Parametern. Am 27. Januar 2025 wurde das auf Bildverarbeitung basierende Modell Janus-Pro-7B hinzugefügt. Die Modelle sind öffentlich verfügbar und sollen verschiedenen Berichten zufolge 90-95 % günstiger und kosteneffektiver als vergleichbare Modelle sein. Laut Entwickler zeichnet sich das Modell durch seine logischen Fähigkeiten aus, die durch neue Trainingstechniken erreicht werden.
Bildquelle: DeepSeek
Hinweis auf unseren Blogpost > Flash oder Festplatte für KI-Projekte? Technologisch und wirtschaftlich bestimmende Faktoren
Weitere Querverweise:
Unser Beitrag > KI-Forschung: NXAI veröffentlicht speichereffizientes neues xLSTM 7B Sprachmodell
Unser Beitrag > VAST Data kündigt mit v.5.2 seiner AI Data Plattform Verdoppelung der Schreibleistung an
Unser Beitrag > IBM Cloud erweitert AI Accelerator Angebot: Zusammenarbeit mit AMD bei GenAI und HPC