# Ollama fuer den Sprachassistenten einrichten (kostenlos lokal) Diese Anleitung zeigt, wie du den Sprachassistenten ohne API-Kosten mit Ollama nutzt. ## Ziel - Lokales KI-Modell auf dem eigenen Rechner - Keine laufenden API-Kosten - 1-Klick-Preset in den Einstellungen der App ## 1) Ollama installieren ### Linux ```bash curl -fsSL https://ollama.com/install.sh | sh ``` Danach pruefen: ```bash ollama --version ``` ## 2) Modell laden Empfohlen fuer freien Schreib- und Korrekturmodus (CPU-freundlich): ```bash ollama pull qwen2.5:3b-instruct ``` Optional groessere Alternative (bessere Qualitaet, aber langsamer auf CPU): ```bash ollama pull qwen2.5:7b-instruct ``` ## 3) Ollama-Server starten ```bash ollama serve ``` Der Server laeuft dann standardmaessig auf: - `http://127.0.0.1:11434` ## 4) In der App aktivieren (1-Klick) 1. Zu `Einstellungen -> Sprachassistent & KI` gehen. 2. Auf **Kostenlos lokal (Ollama)** klicken. 3. Auf **Speichern** klicken. Der Preset setzt: - Base URL: `http://127.0.0.1:11434/v1` - Modell: `qwen2.5:3b-instruct` - API-Key: nicht erforderlich ## 5) Funktionstest In einer Vokabellektion im Assistenten-Bereich eine kurze Nachricht senden, z. B.: - "Korrigiere: Ich habe morgen ein Termin." Wenn die Antwort kommt, ist alles korrekt verbunden. ## Troubleshooting ### Keine Verbindung zum Sprachassistenten - Pruefen, ob `ollama serve` laeuft. - Pruefen, ob Base URL exakt `http://127.0.0.1:11434/v1` ist. - Falls Docker/Remote-Setup: Netzwerkzugriff auf Port `11434` sicherstellen. ### Modell nicht gefunden - Modell erneut laden: ```bash ollama pull qwen2.5:3b-instruct ``` ### Antwort langsam (haeufig bei CPU-only Servern) - `qwen2.5:3b-instruct` als Standard nutzen - Andere GPU/CPU-Auslastung reduzieren ## Hinweise fuer A2-Ziel Ollama reicht gut fuer: - freie Schreibuebungen - kurze situative Dialoge - gezielte Fehlerkorrektur Empfehlung: - taeglich 10-20 Minuten "frei schreiben + korrigieren lassen" - pro Woche 2-3 laengere Aufgaben (80-120 Woerter) - Korrekturen aktiv in eigene neue Saetze uebertragen