Die Schulung richtet sich an Entwickler:innen, die moderne LLMs produktiv einsetzen möchten – sei es in Form von Chatbots, Automatisierung oder Retrieval-Systemen. Vorausgesetzt werden solide Python-Kenntnisse und Interesse an APIs, JSON, Datenverarbeitung und Machine Learning-Technologien. Erfahrungen mit Webframeworks (Flask, FastAPI) oder Tools wie Docker sind hilfreich, aber nicht zwingend.
Softwareentwickler:innen, KI-Praktiker:innen und Tech Leads, die bestehende Large Language Models (LLMs) sinnvoll in eigene Anwendungen integrieren möchten – mit Fokus auf Retrieval-Augmented Generation (RAG), Prompt Engineering, sicheren LLM-Workflows und schnellem Prototyping. Der Kurs richtet sich an alle, die LLMs nicht selbst trainieren, sondern produktiv nutzen wollen.
Nach Abschluss dieser Schulung sind die Teilnehmenden in der Lage, bestehende LLMs wie GPT, Claude oder LLaMA über APIs und Open-Source-Frameworks in ihre Softwarelösungen zu integrieren. Sie lernen, strukturierte Prompts zu erstellen, Retrieval-Techniken für kontextbasierte Antworten zu verwenden und LLM-Features mit Tools wie LangChain, Haystack, Gradio oder Streamlit umzusetzen. Sicherheitsaspekte wie Prompt Injection und datenschutzkonforme Architekturentscheidungen werden genauso behandelt wie konkrete Anwendungsszenarien (z. B. Chatbots, Developer Assistants, Wissensdatenbanken). Am Ende steht ein funktionsfähiger LLM-Prototyp inklusive RAG-Integration.
Diese fünft.gige Schulung bietet einen tiefgehenden, praxisorientierten Einstieg in die Integration von LLMs in moderne Softwareprojekte. Im Mittelpunkt steht die pragmatische Nutzung vorhandener Modelle über APIs, Open-Source-Bibliotheken und No-Code-Plattformen.
Der erste Tag vermittelt ein technisches Verständnis für LLMs, typische Fehlerquellen und Einschränkungen. Danach werden die Grundlagen und Strategien des Prompt Engineerings erarbeitet, um systematisch strukturierte Prompts für verschiedenste Aufgaben zu gestalten – von Codegenerierung über Refactoring bis hin zu Datenextraktion.
An den Tagen drei und vier stehen LangChain, Haystack und RAG im Fokus: Wie lassen sich LLMs über Dokumente mit Vektorsuche kombinieren? Welche Datenformate sind nötig? Welche Rolle spielen Chroma, FAISS, Pinecone? Parallel wird demonstriert, wie man mit Gradio und Streamlit in kürzester Zeit interaktive Chatinterfaces oder Agenten-Tools erstellt – auch multimodal (Text, Bild, Sprache).
Am fünften Tag entwerfen und präsentieren die Teilnehmenden ein eigenes LLM-Projekt – z. B. ein Developer Assistant, ein interner FAQ-Chatbot oder eine Dokumenten-Suchmaschine.
Bereichern Sie unser Team mit Ihrem Können.
Herzfeldergasse 30
2351 Wiener Neudorf | Österreich