- Machine Learning›
- Amazon SageMaker AI›
- Preise
Amazon SageMaker AI – Preise
Preisübersicht
Amazon SageMaker AI unterstützt Datenwissenschaftler und Entwickler bei der schnellen Vorbereitung, Erstellung, Schulung und Bereitstellung hochwertiger Machine-Learning-Modelle (ML), indem es eine breite Palette von Funktionen zusammenführt, die speziell für ML entwickelt wurden. SageMaker AI unterstützt die führenden ML-Frameworks, Toolkits und Programmiersprachen.
Mit SageMaker AI zahlen Sie nur für das, was Sie nutzen. Sie haben zwei Zahlungsmöglichkeiten: ein On-Demand-Preismodell, das keine Mindestgebühren und keine Vorausleistungen vorsieht, und die Amazon SageMaker Savings Plans, die ein flexibles, nutzungsbasiertes Preismodell im Austausch für die Verpflichtung zu einer kontinuierlichen Nutzungsmenge bieten.
SageMaker AI – Kostenloses Kontingent
Amazon SageMaker AI kann kostenlos getestet werden. Die ersten Schritte mit SageMaker AI sind kostenlos. Ihr SageMaker AI Free Tier beginnt mit dem ersten Monat, wenn Sie Ihre erste SageMaker-AI-Ressource erstellen.
| Fähigkeiten von Amazon SageMaker AI | Nutzung eines kostenlosen Kontingents pro Monat für die ersten 2 Monate |
| Studio-Notebooks, und Notebook-Instances | 250 Stunden ml.t3.-medium-Instance auf Studio-Notebooks ODER 250 Stunden ml.t3.-medium-Instance auf Notebook-Instances |
AWS Pricing Calculator
Berechnen Sie Ihre Amazon-SageMaker- und Architekturkosten mit einem einzigen Kostenvoranschlag.
On-Demand-Preise
-
JupyterLab
-
Verarbeitung
-
Training
-
Echtzeit-Inferenz
-
JupyterLab
-
Amazon SageMaker JupyterLab
Starten Sie das vollständig verwaltete JupyterLab in Sekundenschnelle. Verwenden Sie die neueste webbasierte interaktive Entwicklungsumgebung für Notebooks, Code und Daten. Der von Ihnen gewählte Instance-Typ wird Ihnen nach der Dauer der Nutzung in Rechnung gestellt. -
Verarbeitung
-
Amazon SageMaker Processing
Mit Amazon SageMaker Processing können Sie Ihre Workloads für Vor- und Nachverarbeitung sowie Modellauswertung problemlos in einer vollständig verwalteten Infrastruktur ausführen. Der von Ihnen gewählte Instance-Typ wird Ihnen nach der Dauer der Nutzung in Rechnung gestellt.
-
Training
-
Amazon SageMaker – Training
Amazon SageMaker bietet alles, was Sie zum Trainieren, Optimieren und Debuggen von Modellen benötigen, und erleichtert so das Training von ML-Modellen (Machine Learning). Die Nutzung des von Ihnen gewählten Instance-Typs wird Ihnen in Rechnung gestellt. Wenn Sie Amazon SageMaker Debugger zum Debuggen von Problemen und Überwachen von Ressourcen während des Trainings verwenden, können Sie zum Debuggen Ihrer Trainingsaufgaben integrierte Regeln verwenden oder Ihre eigenen benutzerdefinierten Regeln schreiben. Die Verwendung der integrierten Regeln zum Debuggen Ihrer Trainingsaufgaben ist kostenlos. Bei benutzerdefinierten Regeln wird Ihnen der von Ihnen gewählte Instance-Typ auf der Grundlage der Nutzungsdauer in Rechnung gestellt.
-
Echtzeit-Inferenz
-
Amazon SageMaker Hosting: Echtzeit-Inferenz
Amazon SageMaker bietet Echtzeit-Inferenz für Ihre Anwendungsfälle, die Echtzeit-Vorhersagen benötigen. Die Nutzung des von Ihnen gewählten Instance-Typs wird Ihnen in Rechnung gestellt. Wenn Sie Amazon SageMaker Model Monitor zur Pflege hochpräziser Modelle verwenden, die Echtzeit-Inferenz bereitstellen, können Sie integrierte Regeln zur Überwachung Ihrer Modelle verwenden oder Ihre eigenen Regeln schreiben. Bei integrierten Regeln erhalten Sie bis zu 30 Stunden Überwachung kostenlos. Zusätzliche Gebühren werden nach der Dauer der Nutzung berechnet. Die Verwendung eigener benutzerdefinierter Regeln wird Ihnen separat in Rechnung gestellt.
Instance-Details
Instance für Amazon SageMaker P6 – Produktdetails
| Instance-Größe | Blackwell-GPUs | GPU-Speicher (GB) | vCPUs | Systemspeicher (GiB) | Instance-Speicher (TB) | Netzwerkbandbreite (Gbit/s) | EBS-Bandbreite (GBit/s) | Verfügbar in UltraServers |
| ml.p6-b200.48xlarge | 8 | 1.440 HBM3e | 192 | 2 048 | 8 x 3,84 | 8 x 400 | 100 | Nein |
ml.p6e- gb200.36xlarge |
4 | 740 HBM3e | 144 | 960 | 3 x 7,5 | 4 x 400 | 60 | Ja |
*P6e-GB200-Instances sind nur in UltraServers verfügbar
Details zu Amazon SageMaker UltraServer
UltraServers bieten eine Reihe von Instances, die über eine Netzwerk-Domain mit hoher Bandbreite miteinander verbunden sind. Beispielsweise verbindet der P6e-GB200 UltraServer bis zu 18 p6e-gb200.36xlarge-Instances unter einer NVIDIA-NVLink-Domain. Mit 4 NVIDIA Blackwell GPUs pro Instance unterstützt jeder P6e-GB200 UltraServer somit 72 GPUs, sodass Sie Ihre größten KI-Workloads mit hoher Leistung auf SageMaker ausführen können.
| Instance-Größe | Blackwell-GPUs | GPU-Speicher (GB) | vCPUs | Systemspeicher (GiB) | UltraServer-Speicher (TB) | Gesamt-EFA-Bandbreite (Gbit/s) | EBS-Bandbreite (GBit/s) | Verfügbar in UltraServers |
| ml.u-p6e-gb200x72 | 72 | 13 320 | 2 529 | 17 280 | 405 | 28 800 | 1 080 | Ja |
| ml.u-p6e-gb200x36 | 36 | 6 660 | 1 296 | 8 640 | 202,5 | 14 400 | 540 | Ja |
Produktdetails zur Amazon-SageMaker-P5-Instance
| Instance-Größe | vCPUs | Instance-Arbeitsspeicher (TiB) | GPU-Modell | GPU | GPU-Speicher insgesamt (GB) | Speicher pro GPU (GB) | Netzwerkbandbreite (Gbit/s) | GPUDirect RDMA | GPU Peer-to-Peer | Instance-Speicher (TB) | EBS-Bandbreite (Gbit/s) |
| ml.p5.48xlarge | 192 | 2 | NVIDIA H100 | 8 | 640 HBM3 | 80 | 3200 EFAv2 | Ja | 900 GB/s NVSwitch | 8x3.84 NVMe-SSD | 80 |
Produktdetails zur Amazon-SageMaker-P4d-Instance
| Instance-Größe | vCPUs | Instance-Arbeitsspeicher (GiB) | GPU-Modell | GPUs | GPU-Speicher insgesamt (GB) | Speicher pro GPU (GB) | Netzwerkbandbreite (Gbit/s) | GPUDirect RDMA | GPU Peer-to-Peer | Instance-Speicher (GB) | EBS-Bandbreite (Gbit/s) |
| ml.p4d.24xlarge | 96 | 1 152 | NVIDIA A100 | 8 | 320 HBM 2 | 40 | 400 ENA und EFA | Ja | 600 GB/s NVSwitch | 8 x 1 000 NVMe SSD | 19 |
| ml.p4de.24xlarge | 96 | 1 152 | NVIDIA A100 | 8 | 640 HNM2e | 80 | 400 ENA und EFA | Ja | 600 GB/s NVSwitch | 8X1000 NVMe-SSD | 19 |
Amazon-SageMaker-P3-Instance – Produktdetails
| Instance-Größe | vCPUs | Instance-Arbeitsspeicher (GiB) | GPU-Modell | GPUs | GPU-Speicher insgesamt (GB) | Speicher pro GPU (GB) | Netzwerkbandbreite (Gbit/s) | GPU Peer-to-Peer | Instance-Speicher (GB) | EBS-Bandbreite (Gbit/s) |
| ml.p3.2xlarge | 8 | 61 | NVIDIA V100 | 1 | 16 | 16 | Bis zu 10 | n. a. | Nur EBS | 1,5 |
| ml.p3.8xlarge | 32 | 244 | NVIDIA V100 | 4 | 64 | 16 | 10 | NVLink | Nur EBS | 7 |
| ml.p3.16xlarge | 64 | 488 | NVIDIA V100 | 8 | 128 | 16 | 25 | NVLink | Nur EBS | 14 |
| ml.p3dn.24xlarge | 96 | 768 | NVIDIA V100 | 8 | 256 | 32 | 100 | NVLink | 2 x 900 NVMe-SSD | 19 |
Amazon-SageMaker-G4-Instance – Produktdetails
| Instance-Größe | vCPUs | Instance-Arbeitsspeicher (GiB) | GPU-Modell | GPUs | GPU-Speicher insgesamt (GB) | Speicher pro GPU (GB) | Netzwerkbandbreite (Gbit/s) | Instance-Speicher (GB) | EBS-Bandbreite (Gbit/s) |
| ml.g4dn.xlarge | 4 | 16 | NVIDIA T4 | 1 | 16 | 16 | Bis zu 25 | 1 x 125 NVMe-SSD | Bis zu 3,5 |
| ml.g4dn.2xlarge | 8 | 32 | NVIDIA T4 | 1 | 16 | 16 | Bis zu 25 | 1 x 125 NVMe-SSD | Bis zu 3,5 |
| ml.g4dn.4xlarge | 16 | 64 | NVIDIA T4 | 1 | 16 | 16 | Bis zu 25 | 1 x 125 NVMe-SSD | 4,75 |
| ml.g4dn.8xlarge | 32 | 128 | NVIDIA T4 | 1 | 16 | 16 | 50 | 1 x 900 NVMe SSD | 9,5 |
| ml.g4dn.16xlarge | 64 | 256 | NVIDIA T4 | 1 | 16 | 16 | 50 | 1 x 900 NVMe SSD | 9,5 |
| ml.g4dn.12xlarge | 48 | 192 | NVIDIA T4 | 4 | 64 | 16 | 50 | 1 x 900 NVMe SSD | 9,5 |
Amazon-SageMaker-G5-Instance – Produktdetails
| Instance-Größe | vCPUs | Instance-Arbeitsspeicher (GiB) | GPU-Modell | GPUs | GPU-Speicher insgesamt (GB) | Speicher pro GPU (GB) | Netzwerkbandbreite (Gbit/s) | EBS-Bandbreite (Gbit/s) | Instance-Speicher (GB) |
| ml.g5n.xlarge | 4 | 16 | NVIDIA A10G | 1 | 24 | 24 | Bis zu 10 | Bis zu 3,5 | 1 x 250 |
| ml.g5.2xlarge | 8 | 32 | NVIDIA A10G | 1 | 24 | 24 | Bis zu 10 | Bis zu 3,5 | 1 x 450 |
| ml.g5.4xlarge | 16 | 64 | NVIDIA A10G | 1 | 24 | 24 | Bis zu 25 | 8 | 1 x 600 |
| ml.g5.8xlarge | 32 | 128 | NVIDIA A10G | 1 | 24 | 24 | 25 | 16 | 1 x 900 |
| ml.g5.16xlarge | 64 | 256 | NVIDIA A10G | 1 | 24 | 24 | 25 | 16 | 1 x 1900 |
| ml.g5.12xlarge | 48 | 192 | NVIDIA A10G | 4 | 96 | 24 | 40 | 16 | 1 x 3 800 |
| ml.g5.24xlarge | 96 | 384 | NVIDIA A10G | 4 | 96 | 24 | 50 | 19 | 1 x 3 800 |
| ml.g5.48xlarge | 192 | 768 | NVIDIA A10G | 8 | 192 | 24 | 100 | 19 | 2 x 3 800 |
Produktdetails zur Amazon-SageMaker-Trn1-Instance
| Instance-Größe | vCPUs | Arbeitsspeicher (GiB) | Trainium-Beschleuniger | Beschleunigerspeicher gesamt (GB) | Arbeitsspeicher pro Beschleuniger (GB) | Instance-Speicher (GB) | Netzwerkbandbreite (Gbit/s) | EBS-Bandbreite (Gbit/s) |
| ml.trn1.2xlarge | 8 | 32 | 1 | 32 | 32 | 1 x 500 NVMe SSD | Bis zu 12,5 | Bis zu 20 |
| ml.trn1.32xlarge | 128 | 512 | 16 | 512 | 32 | 4 x 2 000 NVMe-SSD | 800 | 80 |
Produktdetails zur Amazon-SageMaker-Inf1-Instance
| Instance-Größe | vCPUs | Arbeitsspeicher (GiB) | Inferentia-Beschleuniger | Beschleunigerspeicher gesamt (GB) | Arbeitsspeicher pro Beschleuniger (GB) | Instance-Speicher | Inter-Beschleuniger-Verbindungen | Netzwerkbandbreite (Gbit/s) | EBS-Bandbreite (Gbit/s) |
| ml.inf1.xlarge | 4 | 8 | 1 | 8 | 8 | Nur EBS | n. a. | Bis zu 25 | Bis zu 4,75 |
| ml.inf1.2xlarge | 8 | 16 | 1 | 8 | 8 | Nur EBS | n. a. | Bis zu 25 | Bis zu 4,75 |
| ml.inf1.6xlarge | 24 | 48 | 4 | 32 | 8 | Nur EBS | Ja | 25 | 4,75 |
| ml.inf1.24xlarge | 96 | 192 | 16 | 128 | 8 | Nur EBS | ja | 100 | 19 |
Produktdetails zur Amazon-SageMaker-Inf2-Instance
| Instance-Größe | vCPUs | Arbeitsspeicher (GiB) | Inferentia-Beschleuniger | Beschleunigerspeicher gesamt (GB) | Arbeitsspeicher pro Beschleuniger (GB) | Instance-Speicher | Inter-Beschleuniger-Verbindungen | Netzwerkbandbreite (Gbit/s) | EBS-Bandbreite (Gbit/s) |
| ml.inf2.xlarge | 4 | 16 | 1 | 32 | 32 | Nur EBS | n. a. | Bis zu 25 | Bis zu 10 |
| ml.inf2.8xlarge | 32 | 128 | 1 | 32 | 32 | Nur EBS | n. a. | Bis zu 25 | 10 |
| ml.inf2.24xlarge | 96 | 384 | 6 | 196 | 32 | Nur EBS | Ja | 50 | 30 |
| ml.inf2.48xlarge | 192 | 768 | 12 | 384 | 32 | Nur EBS | Ja | 100 | 60 |
Amazon SageMaker Studio
Amazon SageMaker Studio ist eine einzige webbasierte Oberfläche für die komplette ML-Entwicklung und bietet eine Auswahl an vollständig verwalteten integrierten Entwicklungsumgebungen (IDEs) und speziell entwickelten Tools. Sie können kostenlos auf SageMaker Studio zugreifen. Ihnen werden nur die zugrundeliegende Rechenleistung und der Speicher berechnet, die Sie für verschiedene IDEs und ML-Tools in SageMaker Studio verwenden.
Sie können viele Dienste von SageMaker Studio, AWS SDK für Python (Boto3) oder AWS Command Line Interface (AWS CLI) nutzen, darunter die folgenden:
- IDEs auf SageMaker Studio zur Durchführung einer vollständigen ML-Entwicklung mit einer Vielzahl vollständig verwalteter IDEs, darunter JupyterLab, Code Editor basierend auf Code-OSS (Visual Studio Code – Open Source) und RStudio
- SageMaker Pipelines zum Automatisieren und Verwalten von ML-Workflows
- SageMaker Autopilot zum automatischen Erstellen von ML-Modellen mit vollständiger Transparenz
- SageMaker Experiments zum Organisieren und Nachverfolgen Ihrer Trainingsaufträge und -versionen
- SageMaker Debugger zum Debuggen von Anomalien während des Trainings
- SageMaker Model Monitor zur Aufrechterhaltung qualitativ hochwertiger Modelle
- SageMaker Clarify zur besseren Erklärung Ihrer ML-Modelle und zur Erkennung von Verzerrungen
- SageMaker JumpStart zur einfachen Bereitstellung von ML-Lösungen für viele Anwendungsfälle. Für die grundlegenden API-Aufrufe, die Amazon SageMaker in Ihrem Namen vornimmt, können Ihnen Gebühren von anderen in der Lösung verwendeten AWS-Services entstehen.
- SageMaker Inference Recommender für Empfehlungen zur richtigen Endpunktkonfiguration
Sie zahlen nur für die zugrunde liegenden Rechen- und Speicherressourcen in SageMaker oder anderen AWS-Services, basierend auf Ihrer Nutzung.
Um das kostenlose Kontingent von Amazon Q Developer auf Jupyter Lab und Code Editor zu nutzen, folgen Sie den Anweisungen hier. Um Amazon Q Developer Pro in Jupyter Lab verwenden zu können, müssen Sie Amazon Q Developer abonnieren. Preise für Amazon Q Developer finden Sie hier.
Gesamtbetriebskosten (TCO) mit Amazon SageMaker
Amazon SageMaker bietet mindestens 54 % niedrigere Gesamtbetriebskosten (TCO) über einen Zeitraum von drei Jahren im Vergleich zu anderen selbstverwalteten cloudbasierten Lösungen. Erfahren Sie mehr mit der vollständigen TCO-Analyse für Amazon SageMaker.
Preisbeispiele
-
Preisbeispiel 1: JupyterLab
Als Datenwissenschaftler verbringen Sie 20 Tage damit, JupyterLab für schnelle Experimente mit Notebooks, Code und Daten für 6 Stunden pro Tag auf einer ml.g4dn.xlarge-Instance zu verwenden. Sie erstellen einen JupyterLab-Space und führen ihn dann aus, um auf die JupyterLab-IDE zuzugreifen. Die Rechenleistung wird nur für die Instance berechnet, die verwendet wird, wenn der JupyterLab-Speicherplatz läuft. Die Speichergebühren für einen JupyterLab-Speicherplatz fallen an, bis er gelöscht wird.Datenverarbeitung
Instance Dauer Tage Gesamtdauer Kosten pro Stunde Gesamtsumme ml.r6i.4 x groß 6 Stunden 20 6 * 20 = 120 Stunden 1.440 EUR 172,80 EUR Speicher
Sie werden den Allzweck-SSD-Speicher 480 Stunden lang (24 Stunden* 20 Tage) verwenden. In einer Region, die 0,1211 € pro GB-Monat berechnet:
0,1211 € pro GB-Monat * 5 GB * 480 / (24 Stunden/Tag * 30-Tage-Monat) = 0,4037 €
-
Preisbeispiel 2: Verarbeitung
Für Amazon SageMaker Processing fallen nur Gebühren für die genutzte Instance während der Ausführung Ihrer Aufträge an. Wenn Sie die Eingabedaten zur Verarbeitung in Amazon S3 bereitstellen, lädt Amazon SageMaker die Daten zu Beginn der Verarbeitungsaufgabe aus Amazon S3 auf einen lokalen Dateispeicher herunter.
Der Datenanalyst führt einen Auftrag zur Vorverarbeitung und Validierung von Daten auf zwei ml.m5.4xlarge-Instances für eine Auftragsdauer von 10 Minuten aus. Sie lädt einen Datensatz von 100 GB in S3 als Eingabe für den Verarbeitungsauftrag hoch, und die Ausgabedaten (die ungefähr die gleiche Größe haben) werden wieder in S3 gespeichert.
Stunden Verarbeitungs-Instances Kosten pro Stunde Gesamtsumme 1 * 2 * 0,167 = 0,334 ml.c6i.2xlarge 0,459481 € 0,150460 € Universell-Speicher (SSD) (GB) Kosten pro Stunde Gesamtsumme 100 GB * 2 = 200 0,14 € 0,0032 € Die Zwischensumme für den Amazon-SageMaker-Processing-Auftrag = 0,15046 €.
Zwischensumme für 200 GB an Universell-Speicher (SSD) = 0,0032 €.
In diesem Beispiel würden insgesamt 0,15366 € berechnet werden
-
Preisbeispiel 3: Training
Die Gesamtkosten für Training und Debugging betragen in diesem Beispiel 24,077292 €. Für die Computing-Instances und die Universell-Speicher-Volumes, die von den in Amazon SageMaker Debugger integrierten Regeln verwendet werden, fallen keine zusätzlichen Gebühren an.
Universell-Speicher (SSD) für Training (GB) Universell-Speicher (SSD) für in den Debugger integrierte Regeln (GB) Universell-Speicher (SSD) für benutzerdefinierte Debugger-Regeln (GB) Preis pro GB/Monat Zwischensumme Genutzte Kapazität 3 2 1 Kosten 0 € Keine zusätzlichen Gebühren für integrierte Speichervolumes 0 € 0,10 € 0 € Stunden Training-Instance Debug-Instance Kosten pro Stunde Zwischensumme 4 * 0,5 = 2,00 ml.c6i.2xlarge – 0,459481 € 0,91896 € 4 * 0,5 * 2 = 4 – Keine zusätzlichen Gebühren für integrierte Regel-Instances 0 € 0 € 4 * 0,5 = 2 ml.c7i.48xlarge – 11,579165 € 23,1583 € ------- 24,07729 € Ein Datenwissenschaftler hat eine Woche lang an einem Modell für ein neues Konzept gearbeitet. Er trainiert das Modell vier Mal auf einem ml.m4.4xlarge für 30 Minuten pro Trainingslauf, wobei Amazon SageMaker Debugger mit zwei integrierten Regeln einer selbst geschriebenen Regel aktiviert ist. Bei der benutzerdefinierten Regel legte er die ml.m5.xlarge-Instance fest. Sie führt das Training mit einem Trainings-Datenvolumen von 3 GB in Amazon S3 aus und gibt 1 GB an Modellausgabe an Amazon S3 weiter. SageMaker erstellt Universell-Speicher SSD (gp2)-Volumes für jede Trainings-Instance. SageMaker erstellt außerdem Universell-Speicher SSD (gp2)-Volumes für jede definierte Regel. In diesem Beispiel werden insgesamt vier Universell-Speicher SSD (gp2)-Volumes erstellt. SageMaker Debugger gibt 1 GB Debug-Daten an den Amazon-S3-Bucket des Kunden aus.