Hier findet ihr die Materialien, Links und weitere Informationen aus unserem Workshop.
- LLMs nicht nur als Coding-Assistenz, sondern als Übersetzer von natürlicher Sprache in Code.
- Entwickler:innen interagieren mit dem LLM, nicht mehr direkt mit dem Code.
- Ziel: schnelleres Prototyping, kostengünstige Experimente, Umsetzung komplexer Ideen.
- Zeit: schnelle Iteration, Hypothesen testen
- Kosten: günstige Prototypen statt langer Entwicklungszyklen
- Neue Möglichkeiten: komplexe oder aufwändige Projekte einfacher umsetzbar
- Claude Code – starke Performance beim Vibecoding
- Cursor – IDE mit LLM-Integration (Autocomplete, .cursorrules etc.)
- Github Copilot – Code-Reviews, Autocomplete

Claude Code Dokumentation: docs.anthropic.com
Für die Nutzung in vscode empfehlen wir das Plugin Claude Code for VSCode
- Kontext: Projektbeschreibung, Tech-Stack, Coding Conventions für das Projekt in .cursor/rules oder CLAUDE.md schreiben. Beispiel-Templates findet ihr hier: cursor.directory oder hier awsome-cursorrules
- Prompting: präzise, wie an einen Kollegen formulieren
- Iteration: häufig committen, kurze Chats, Arbeitsschritte trennen
cursorrules können versteckte Prompts enthalten, die scädlichen Code generieren (ascii smuggling).
Um versteckte Zeichen in Markdownfiles zu erkennen kann es hilfreich sein, in den vscode/cursor settings versteckte Zeichen in Markdown Files einzublenden.
command+shift+p > "Preferences: Open User Settings (JSON)" > folgendes Snippet einfügen und speichern
"[markdown]": {
"editor.unicodeHighlight.invisibleCharacters": true,
}
Auch MCP Server können Sicherheitsrisiken bergen. Hier ein Artikel von Docker zu dem Thema: MCP Horror Stories: The Security Issues Threatening AI Infrastructure