Dieser Kurs richtet sich an Softwareentwickler:innen, die bestehende LLMs und KI-Tools nutzen möchten, um ihre Anwendungen zu erweitern, effizienter zu arbeiten oder KI-basierte Features in bestehende Systeme zu integrieren. Voraussetzung sind grundlegende Kenntnisse in Python sowie Interesse an APIs, Automatisierung und Machine Learning-Technologien.
Softwareentwickler:innen, die keine eigenen LLMs trainieren, sondern bestehende APIs, Open-Source-Modelle und Bibliotheken effizient in ihre Anwendungen integrieren möchten. Der Fokus liegt auf einer pragmatischen Nutzung von KI-Tools, strukturiertem Prompting, der technischen Integration von LLMs in eigene Applikationen sowie auf dem sicheren und datenschutzkonformen Einsatz.
Nach Abschluss dieser Schulung sind die Teilnehmenden in der Lage, bestehende LLMs und KI-Tools gezielt für Softwareprojekte zu nutzen. Sie verstehen die Limitierungen und Risiken von LLMs, können effektive Prompts für verschiedene Coding-Szenarien schreiben und lernen relevante Frameworks wie LangChain oder Haystack für Retrieval-Augmented Generation (RAG) kennen. Praktische Hands-on-Sessions helfen dabei, LLMs effizient in Anwendungen zu integrieren, Daten sicher zu verarbeiten und typische Herausforderungen wie Kontextgrenzen oder Sicherheitslücken zu meistern.
In dieser fünf-tägigen praxisorientierten Schulung lernen Entwickler:innen, wie sie bestehende LLMs sinnvoll in eigene Softwareprojekte einbinden. Statt selbst Modelle zu trainieren, geht es darum, bestehende APIs und Open-Source-Modelle geschickt zu nutzen.
Am ersten Tag werden die Grundlagen von LLMs sowie ihre Herausforderungen behandelt: Datenschutz, Kontextlimits, Bias, Unzuverlässigkeit und typische Fehlermuster. Anschließend erlernen die Teilnehmenden strukturierte Prompting-Techniken, um LLMs gezielt für Programmieraufgaben einzusetzen, etwa für Code-Generierung, Optimierung oder Review.
Die folgenden Tage fokussieren sich auf die technische Integration von LLMs in eigene Anwendungen mit LangChain, Haystack und RAG-Techniken. Zudem wird gezeigt, wie sich mit Gradio und Streamlit schnell Prototypen von LLM-gestützten Anwendungen entwickeln lassen. Im weiteren Verlauf beschäftigen sich die Teilnehmenden mit fortgeschrittenem Prompting, Sicherheitskonzepten (Jailbreaking, Prompt Injection) sowie Backup-Strategien für LLMs.
Den Abschluss bildet ein praxisnahes Abschlussprojekt, in dem die Teilnehmenden eine eigene KI-gestützte Developer-Assistant-App bauen. Dabei werden erlernte Konzepte wie RAG, LLM-APIs und Prompting-Frameworks in einer realistischen Anwendung verknüpft.
Bereichern Sie unser Team mit Ihrem Können.
Herzfeldergasse 30
2351 Wiener Neudorf | Österreich