KI-Grundlagen und LLM-Verständnis
Du lernst, wie Large Language Models statistisch funktionieren, wie sie Tokens nutzen und welche Einschränkungen sie haben. Prompt Engineering wird im Kontext moderner KI‑Systeme eingeordnet – du verstehst n‑Shots, Parameter‑Tuning, Templates und eingebundene Kontextinformationen wie z.B. Dokumentationsquellen.
Prompt Engineering in Aktion
Im zweiten Teil wendest du dein Wissen sofort an: du lernst, mit Prompt Engineering Code und Unit‑Tests zu generieren und Dokumentationen zu erstellen. Darüber hinaus spezifizierst du den nötigen Kontext, um das Generieren von Code den Bedürfnissen deines Projekts anzupassen. Du bekommst einen Überblick über die Nutzung von Agenten und setzt dieses Wissen in praktischen Übungen um.
So bist du bestens gerüstet, LLMs in deiner tägliche Entwicklungstätigkeit zu nutzen und damit effizienter und sicherer zu arbeiten.