From 776dea2584f911c6aca3c33d8ef62e7a987a72e6 Mon Sep 17 00:00:00 2001 From: "Torsten Schulz (local)" Date: Fri, 17 Apr 2026 15:24:22 +0200 Subject: [PATCH] feat(LanguageAssistantView): add preset options for Ollama and OpenAI - Introduced a new section for language assistant presets, allowing users to quickly apply configurations for Ollama and OpenAI. - Implemented methods to set the base URL and model for each preset, enhancing user experience with one-click setup. - Added styling for the preset buttons and hints to improve UI clarity and usability. --- docs/OLLAMA_LANGUAGE_ASSISTANT_SETUP.md | 102 ++++++++++++++++++ .../views/settings/LanguageAssistantView.vue | 62 +++++++++++ 2 files changed, 164 insertions(+) create mode 100644 docs/OLLAMA_LANGUAGE_ASSISTANT_SETUP.md diff --git a/docs/OLLAMA_LANGUAGE_ASSISTANT_SETUP.md b/docs/OLLAMA_LANGUAGE_ASSISTANT_SETUP.md new file mode 100644 index 0000000..c93ae3f --- /dev/null +++ b/docs/OLLAMA_LANGUAGE_ASSISTANT_SETUP.md @@ -0,0 +1,102 @@ +# Ollama fuer den Sprachassistenten einrichten (kostenlos lokal) + +Diese Anleitung zeigt, wie du den Sprachassistenten ohne API-Kosten mit Ollama nutzt. + +## Ziel + +- Lokales KI-Modell auf dem eigenen Rechner +- Keine laufenden API-Kosten +- 1-Klick-Preset in den Einstellungen der App + +## 1) Ollama installieren + +### Linux + +```bash +curl -fsSL https://ollama.com/install.sh | sh +``` + +Danach pruefen: + +```bash +ollama --version +``` + +## 2) Modell laden + +Empfohlen fuer freien Schreib- und Korrekturmodus: + +```bash +ollama pull qwen2.5:7b-instruct +``` + +Optional kleinere Alternative (weniger RAM): + +```bash +ollama pull qwen2.5:3b-instruct +``` + +## 3) Ollama-Server starten + +```bash +ollama serve +``` + +Der Server laeuft dann standardmaessig auf: + +- `http://127.0.0.1:11434` + +## 4) In der App aktivieren (1-Klick) + +1. Zu `Einstellungen -> Sprachassistent & KI` gehen. +2. Auf **Kostenlos lokal (Ollama)** klicken. +3. Auf **Speichern** klicken. + +Der Preset setzt: + +- Base URL: `http://127.0.0.1:11434/v1` +- Modell: `qwen2.5:7b-instruct` +- API-Key: nicht erforderlich + +## 5) Funktionstest + +In einer Vokabellektion im Assistenten-Bereich eine kurze Nachricht senden, z. B.: + +- "Korrigiere: Ich habe morgen ein Termin." + +Wenn die Antwort kommt, ist alles korrekt verbunden. + +## Troubleshooting + +### Keine Verbindung zum Sprachassistenten + +- Pruefen, ob `ollama serve` laeuft. +- Pruefen, ob Base URL exakt `http://127.0.0.1:11434/v1` ist. +- Falls Docker/Remote-Setup: Netzwerkzugriff auf Port `11434` sicherstellen. + +### Modell nicht gefunden + +- Modell erneut laden: + +```bash +ollama pull qwen2.5:7b-instruct +``` + +### Antwort langsam + +- Kleineres Modell nutzen (`qwen2.5:3b-instruct`) +- Andere GPU/CPU-Auslastung reduzieren + +## Hinweise fuer A2-Ziel + +Ollama reicht gut fuer: + +- freie Schreibuebungen +- kurze situative Dialoge +- gezielte Fehlerkorrektur + +Empfehlung: + +- taeglich 10-20 Minuten "frei schreiben + korrigieren lassen" +- pro Woche 2-3 laengere Aufgaben (80-120 Woerter) +- Korrekturen aktiv in eigene neue Saetze uebertragen diff --git a/frontend/src/views/settings/LanguageAssistantView.vue b/frontend/src/views/settings/LanguageAssistantView.vue index 71e7d06..e56f0f3 100644 --- a/frontend/src/views/settings/LanguageAssistantView.vue +++ b/frontend/src/views/settings/LanguageAssistantView.vue @@ -28,6 +28,22 @@ {{ $t('settings.languageAssistant.enabled') }} +
+

Schnellstart (1-Klick)

+
+ + +
+

+ Der Ollama-Preset setzt http://127.0.0.1:11434/v1 und + qwen2.5:7b-instruct. Kein API-Key erforderlich. +

+
+