Kursbeschreibung (description): |
Dieser Kurs AW234 MLOps Engineering on AWS baut auf der im Software Development verbreiteten DevOps-Methodik auf und erweitert sie, um Machine Learning (ML)-Modelle zu erstellen, zu trainieren und bereitzustellen. Der Kurs AW234 MLOps Engineering on AWS basiert auf dem vierstufigen MLOps-Reifegradmodell. Der Fokus liegt auf den ersten drei Stufen: Initial, Repeatable und Reliable. Der Kurs betont die Bedeutung von Daten, Modellen und Code für erfolgreiche ML-Bereitstellungen. Es wird gezeigt, wie Tools, Automatisierung, Prozesse und Teamarbeit eingesetzt werden, um Herausforderungen bei der Übergabe zwischen Data Engineers, Data Scientists, Softwareentwicklern und Betrieb zu bewältigen. Außerdem wird der Einsatz von Tools und Prozessen zur Überwachung und Reaktion bei Abweichungen der Modellvorhersagen von den vereinbarten Key Performance Indicators in der Produktion behandelt.
Dieser Kurs AW234 MLOps Engineering on AWS umfasst Präsentationen, praktische Übungen (Labs), Demonstrationen, Wissensüberprüfungen und Workbook-Aufgaben.
|
|

Zielgruppe (target group): |
Dieser Kurs AW234 MLOps Engineering on AWS richtet sich an:
- MLOps Engineers, die ML-Modelle in der AWS Cloud produktiv setzen und überwachen möchten
- DevOps Engineers, die für die erfolgreiche Bereitstellung und Wartung von ML-Modellen in der Produktion verantwortlich sind
|
|

Voraussetzungen (requirements): |
Um an dem Kurs AW234 MLOps Engineering on AWS bei qSkills teilnehmen zu können, müssen Sie die folgenden AWS-Trainings besucht haben:
Eine Teilnahme an den folgenden AWS-Trainings ist im Vorfeld empfehlenswert:
- The Elements of Data Science
oder vergleichbare Praxiserfahrung
- Machine Learning Terminology and Process
|
|

Ziele (objectives): |
In diesem Kurs AW234 MLOps Engineering on AWS lernen Sie:
- Die Vorteile von MLOps zu erläutern
- DevOps und MLOps zu vergleichen und gegenüberzustellen
- Sicherheits- und Governance-Anforderungen für einen ML-Anwendungsfall zu bewerten und mögliche Lösungen sowie Gegenmaßnahmen zu
beschreiben
- Experimentierumgebungen für MLOps mit Amazon SageMaker einzurichten
- Best Practices für Versionierung und Integritätssicherung von ML-Modellartefakten (Daten, Modell und Code) zu erklären
- Drei Optionen zur Erstellung einer vollständigen CI/CD-Pipeline im ML-Kontext zu beschreiben
- Best Practices zur Implementierung von automatisiertem Packaging, Testing und Deployment (Daten/Modell/Code) zu benennen
- Zu demonstrieren, wie ML-basierte Lösungen überwacht werden
- Zu demonstrieren, wie eine ML-Lösung automatisiert wird, die ein Modell testet, verpackt und bereitstellt, Leistungsabfälle erkennt und das Modell mit neuen Daten neu trainiert
|
|

Preis und Dauer (price and duration): |
Dauer (duration): 3 Tage Preis (price): 1995,- Euro zzgl. MwSt.
Eine Druckansicht dieses Workshops finden Sie hier.
|
|

Termine (dates): |
Termine auf Anfrage. Falls Sie einen Terminwunsch für diesen Workshop haben, werden wir dies gerne für Sie prüfen!
|
|
 |
Inhalte (agenda): |
- Einführung in MLOps
- Prozesse
- Personen
- Technologie
- Sicherheit und Governance
- MLOps-Reifegradmodell
- Initial MLOps: Experimentierumgebungen in SageMaker Studio
- MLOps in das Experimentieren bringen
- Einrichten der ML-Experimentierumgebung
- Demonstration: Erstellen und Aktualisieren einer Lifecycle-Konfiguration für SageMaker Studio
- Praktische Übung: Bereitstellen einer SageMaker-Studio-Umgebung mit dem AWS Service Catalog
- Workbook: Initial MLOps
- Repeatable MLOps: Repositories
- Datenmanagement für MLOps
- Versionskontrolle von ML-Modellen
- Code-Repositories im ML-Kontext
- Repeatable MLOps: Orchestrierung
- ML-Pipelines
- Demonstration: Einsatz von SageMaker Pipelines zur Orchestrierung von Modellaufbau-Pipelines
- End-to-End-Orchestrierung mit AWS Step Functions
- Praktische Übung: Automatisieren eines Workflows mit Step Functions
- End-to-End-Orchestrierung mit SageMaker Projects
- Demonstration: Standardisierung einer End-to-End-ML-Pipeline mit SageMaker Projects
- Verwendung von Drittanbieter-Tools für Wiederholbarkeit
- Demonstration: Human-in-the-Loop beim Inferenzprozess
- Governance und Sicherheit
- Demonstration: Sicherheits-Best-Practices für SageMaker
- Workbook: Repeatable MLOps
- Reliable MLOps: Skalierung und Testing
- Skalierung und Multi-Account-Strategien
- Testing und Traffic Shifting
- Demonstration: Einsatz von SageMaker Inference Recommender
- Praktische Übung: Testen von Modellvarianten
- Praktische Übung: Traffic Shifting
- Workbook: Multi-Account-Strategien
- Reliable MLOps: Monitoring
- Bedeutung des Monitorings im ML
- Praktische Übung: Überwachen eines Modells auf Datenabweichungen
- Betriebliche Überlegungen zum Modellmonitoring
- Behebung von Problemen, die beim Monitoring von ML-Lösungen erkannt werden
- Workbook: Reliable MLOps
- Praktische Übung: Erstellen und Troubleshooten einer ML-Pipeline
|
|
 |