Gen AI: LLM-Tools und -Integration für Developer

Kursinhalt:

Dieser Kurs richtet sich an Softwareentwickler:innen, die bestehende LLMs und KI-Tools nutzen möchten, um ihre Anwendungen zu erweitern, effizienter zu arbeiten oder KI-basierte Features in bestehende Systeme zu integrieren. Voraussetzung sind grundlegende Kenntnisse in Python sowie Interesse an APIs, Automatisierung und Machine Learning-Technologien.

Zielgruppe:

Softwareentwickler:innen, die keine eigenen LLMs trainieren, sondern bestehende APIs, Open-Source-Modelle und Bibliotheken effizient in ihre Anwendungen integrieren möchten. Der Fokus liegt auf einer pragmatischen Nutzung von KI-Tools, strukturiertem Prompting, der technischen Integration von LLMs in eigene Applikationen sowie auf dem sicheren und datenschutzkonformen Einsatz.

Schulungsziel:

Nach Abschluss dieser Schulung sind die Teilnehmenden in der Lage, bestehende LLMs und KI-Tools gezielt für Softwareprojekte zu nutzen. Sie verstehen die Limitierungen und Risiken von LLMs, können effektive Prompts für verschiedene Coding-Szenarien schreiben und lernen relevante Frameworks wie LangChain oder Haystack für Retrieval-Augmented Generation (RAG) kennen. Praktische Hands-on-Sessions helfen dabei, LLMs effizient in Anwendungen zu integrieren, Daten sicher zu verarbeiten und typische Herausforderungen wie Kontextgrenzen oder Sicherheitslücken zu meistern.

Schulungsbeschreibung:

In dieser fünf-tägigen praxisorientierten Schulung lernen Entwickler:innen, wie sie bestehende LLMs sinnvoll in eigene Softwareprojekte einbinden. Statt selbst Modelle zu trainieren, geht es darum, bestehende APIs und Open-Source-Modelle geschickt zu nutzen.

Am ersten Tag werden die Grundlagen von LLMs sowie ihre Herausforderungen behandelt: Datenschutz, Kontextlimits, Bias, Unzuverlässigkeit und typische Fehlermuster. Anschließend erlernen die Teilnehmenden strukturierte Prompting-Techniken, um LLMs gezielt für Programmieraufgaben einzusetzen, etwa für Code-Generierung, Optimierung oder Review.

Die folgenden Tage fokussieren sich auf die technische Integration von LLMs in eigene Anwendungen mit LangChain, Haystack und RAG-Techniken. Zudem wird gezeigt, wie sich mit Gradio und Streamlit schnell Prototypen von LLM-gestützten Anwendungen entwickeln lassen. Im weiteren Verlauf beschäftigen sich die Teilnehmenden mit fortgeschrittenem Prompting, Sicherheitskonzepten (Jailbreaking, Prompt Injection) sowie Backup-Strategien für LLMs.

Den Abschluss bildet ein praxisnahes Abschlussprojekt, in dem die Teilnehmenden eine eigene KI-gestützte Developer-Assistant-App bauen. Dabei werden erlernte Konzepte wie RAG, LLM-APIs und Prompting-Frameworks in einer realistischen Anwendung verknüpft.

Downloads: