Files
yourpart3/docs/OLLAMA_LANGUAGE_ASSISTANT_SETUP.md
Torsten Schulz (local) 776dea2584
All checks were successful
Deploy to production / deploy (push) Successful in 4m31s
feat(LanguageAssistantView): add preset options for Ollama and OpenAI
- Introduced a new section for language assistant presets, allowing users to quickly apply configurations for Ollama and OpenAI.
- Implemented methods to set the base URL and model for each preset, enhancing user experience with one-click setup.
- Added styling for the preset buttons and hints to improve UI clarity and usability.
2026-04-17 15:24:22 +02:00

2.0 KiB

Ollama fuer den Sprachassistenten einrichten (kostenlos lokal)

Diese Anleitung zeigt, wie du den Sprachassistenten ohne API-Kosten mit Ollama nutzt.

Ziel

  • Lokales KI-Modell auf dem eigenen Rechner
  • Keine laufenden API-Kosten
  • 1-Klick-Preset in den Einstellungen der App

1) Ollama installieren

Linux

curl -fsSL https://ollama.com/install.sh | sh

Danach pruefen:

ollama --version

2) Modell laden

Empfohlen fuer freien Schreib- und Korrekturmodus:

ollama pull qwen2.5:7b-instruct

Optional kleinere Alternative (weniger RAM):

ollama pull qwen2.5:3b-instruct

3) Ollama-Server starten

ollama serve

Der Server laeuft dann standardmaessig auf:

  • http://127.0.0.1:11434

4) In der App aktivieren (1-Klick)

  1. Zu Einstellungen -> Sprachassistent & KI gehen.
  2. Auf Kostenlos lokal (Ollama) klicken.
  3. Auf Speichern klicken.

Der Preset setzt:

  • Base URL: http://127.0.0.1:11434/v1
  • Modell: qwen2.5:7b-instruct
  • API-Key: nicht erforderlich

5) Funktionstest

In einer Vokabellektion im Assistenten-Bereich eine kurze Nachricht senden, z. B.:

  • "Korrigiere: Ich habe morgen ein Termin."

Wenn die Antwort kommt, ist alles korrekt verbunden.

Troubleshooting

Keine Verbindung zum Sprachassistenten

  • Pruefen, ob ollama serve laeuft.
  • Pruefen, ob Base URL exakt http://127.0.0.1:11434/v1 ist.
  • Falls Docker/Remote-Setup: Netzwerkzugriff auf Port 11434 sicherstellen.

Modell nicht gefunden

  • Modell erneut laden:
ollama pull qwen2.5:7b-instruct

Antwort langsam

  • Kleineres Modell nutzen (qwen2.5:3b-instruct)
  • Andere GPU/CPU-Auslastung reduzieren

Hinweise fuer A2-Ziel

Ollama reicht gut fuer:

  • freie Schreibuebungen
  • kurze situative Dialoge
  • gezielte Fehlerkorrektur

Empfehlung:

  • taeglich 10-20 Minuten "frei schreiben + korrigieren lassen"
  • pro Woche 2-3 laengere Aufgaben (80-120 Woerter)
  • Korrekturen aktiv in eigene neue Saetze uebertragen