Lokale LLMs nutzen auf eigener Hardware - eine Einschätzung der Technik und Datensicherheit
🚀 Self-Hosted LLM Stack – Production-Ready AI ohne Vendor Lock-in
Cloud-Services sind bequem aber bringen Datenschutz- Kosten- und Abhängigkeitsrisiken mit sich. In meinem Talk zeige ich wie man mit Open-Source-Tools wie Docker Ollama und Open-WebUI aktuelle Modelle wie Gemma Mistral oder Qwen3 komplett on-premises betreibt.
Von Hardware-Anforderungen bis zur Live-Demo: Installation Konfiguration und produktiver Einsatz – ein praxisnaher Weg zu mehr Kontrolle und Freiheit in KI-Projekten.
Sprecher Florian Wolf: https://www.linkedin.com/…
E-tickets make event day easier—just show up and scan.
Check How
Event photos
Ticket Info
Tickets for Lokale LLMs nutzen auf eigener Hardware - eine Einschätzung der Technik und Datensicherheit can be booked here.