Automatisiertes Machine Learning & Explainable AI

Wer teilnehmen sollte:

Diese Schulung richtet sich an Data Scientists, ML Engineers, Analyst:innen und Digitalverantwortliche, die maschinelles Lernen skalierbar, nachvollziehbar und vertrauenswürdig gestalten möchten. Vorausgesetzt werden Grundlagenkenntnisse in Python und ML sowie Interesse an Best Practices und ethisch verantwortungsvoller KI-Entwicklung.

Zielgruppe:

Data Scientists, Machine Learning Engineers, KI-Interessierte aus IT und Fachabteilungen, die ML-Modelle effizient trainieren, validieren und nachvollziehbar gestalten wollen. Angesprochen sind insbesondere Praktiker:innen, die bestehende ML-Infrastrukturen verbessern oder skalieren möchten, ohne sich tief in den Modellcode einzuarbeiten.

Schulungsziel:

Nach Abschluss dieser Schulung sind die Teilnehmenden in der Lage, automatisierte Machine-Learning-Pipelines zu erstellen, Modelle effizient zu trainieren und zu bewerten sowie deren Ergebnisse gegenüber Stakeholdern nachvollziehbar zu kommunizieren. Sie lernen relevante Tools und Frameworks im Bereich AutoML kennen und verstehen, wie Explainable AI (XAI) hilft, Modelle transparent, vertrauenswürdig und auditierbar zu machen. Darüber hinaus erwerben sie Wissen über typische Bias-Quellen und können ethische Anforderungen an KISysteme berücksichtigen.

Schulungsbeschreibung:

Diese dreitägige Schulung vermittelt praxisnah, wie moderne Data-Science-Prozesse durch automatisierte Workflows (AutoML) beschleunigt und gleichzeitig durch erklärbare KI (XAI) transparent und robust gestaltet werden. Der erste Tag führt in die Prinzipien von AutoML ein, beleuchtet Workflow-Engines und Toolchains wie H2O AutoML, Auto-Sklearn, Google AutoML, Azure AutoML sowie deren Einbindung in bestehende ML-Workflows.

Am zweiten Tag liegt der Fokus auf Explainable AI: Die Teilnehmenden lernen gängige XAIMethoden wie SHAP, LIME, Feature Importance und Partial Dependence Plots kennen. Anhand realer Datensätze untersuchen sie die Funktionsweise und Entscheidungslogik von Blackbox-Modellen (z. B. Gradient Boosting, Deep Learning).

Am dritten Tag werden ethische, regulatorische und technische Anforderungen diskutiert – z. B. Fairness, Bias Detection, Datenschutz, sowie die Integration von XAI in MLOps-Workflows. Die Schulung endet mit einem Hands-on-Projekt, in dem die Teilnehmenden ein AutoMLModell trainieren, erklären und mit Dashboards präsentieren.

Downloads: