KI mit Lokaler Ollama und WebUi

Lesezeit: 10-15 Minuten  
Stufe: Einsteiger bis Fortgeschrittener Anfänger  
Vorkenntnisse: Basiswissen aus Teil 1 (Ollama lokal) empfohlen  
Kosten: 0€ (Open Source)

🖥️ Lokale KI ganz einfach mit WebUI – dein smarter Einstieg

Im letzten Beitrag haben wir gesehen, wie einfach es ist, Ollama als lokale KI auf dem eigenen Rechner einzurichten – ohne Cloud, ohne Kosten, aber mit voller Kontrolle. Jetzt gehen wir den nächsten Schritt:

Mit WebUI bekommt deine KI ein Gesicht – und du ein grafisches Bedienfeld, ganz ohne Kommandozeile. Egal ob für den Alltag, zum Spielen oder für kleine Automatisierungen: WebUI macht alles einfacher und zugänglicher.

🚀 Warum WebUI?

  • Einfach zu bedienen: Kein Terminal, keine Codes – einfach im Browser chatten.
  • Visuelle Verwaltung: Modell-Auswahl, Verlauf, Rollenprofile – alles per Klick.
  • Erweiterbar: Später mit Dateien, Plugins und sogar Zugriff auf deine eigenen Daten erweiterbar.

🔧 Installation: Ollama + WebUI

Voraussetzung: Du hast Ollama bereits installiert (siehe Teil 1 ).

Nun installieren wir WebUI. Am einfachsten geht das per Docker:

docker run -d \
  -p 3000:3000 \
  -e 'OLLAMA_HOST=http://host.docker.internal:11434' \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui

Nach ein paar Sekunden erreichst du deine eigene Oberfläche unter:

http://localhost:3000

🧭 Erste Schritte in der WebUI

  • Modell starten: Wähle z. B. llama3 oder mistral aus der Liste.
  • Chat beginnen: Schreibe direkt in das Textfeld – wie bei ChatGPT.
  • Rollenprofile: Erstelle z. B. einen Schreibassistenten, IT-Support oder Ideengeber.

🔮 Was du mit WebUI noch alles machen kannst

Sobald deine WebUI steht, kannst du mit wenigen Handgriffen tiefer eintauchen – und dein System Stück für Stück erweitern. Hier ein kleiner Ausblick:

🧠 Eigenes Modeling

Du kannst mit Custom Prompts oder benutzerdefinierten Rollen arbeiten – sogar mit verschiedenen Personas für unterschiedliche Aufgaben. Wer will, kann auch eigene Modelle über Ollama integrieren.

🔁 Automatisierung mit n8n

Mit n8n kannst du deine lokale KI automatisieren. Beispiele:

  • Telegram-Bot mit lokaler Intelligenz
  • Texte aus PDFs extrahieren und zusammenfassen
  • Regelmäßig Webseiteninhalte analysieren lassen

📚 RAG oder Datenbank als KI-Gedächtnis

Mit RAG (Retrieval-Augmented Generation) verbindest du deine KI mit echten Wissensquellen. Die KI kann dann aus deinen PDFs, Notizen oder Datenbanken lernen – und echte, datenbasierte Antworten geben.

✅ Fazit

Mit Ollama + WebUI holst du dir nicht nur eine KI auf den eigenen Rechner – du schaffst dir ein kleines KI-Studio für Alltag, Hobby oder Business. Datenschutz bleibt bei dir, keine Abo-Kosten, keine Limitierungen durch Cloud-Anbieter.

Der Einstieg ist einfach – und der Weg nach oben ist offen: Automatisieren, Lernen, Gestalten. Alles lokal, alles selbstbestimmt.

🔗 Quellen & Tools

Du willst mehr? In Kürze folgt Teil 3 mit konkreten Praxisbeispielen zur Automatisierung mit KI und n8n!