feat(LanguageAssistantView): add preset options for Ollama and OpenAI
All checks were successful
Deploy to production / deploy (push) Successful in 4m31s
All checks were successful
Deploy to production / deploy (push) Successful in 4m31s
- Introduced a new section for language assistant presets, allowing users to quickly apply configurations for Ollama and OpenAI. - Implemented methods to set the base URL and model for each preset, enhancing user experience with one-click setup. - Added styling for the preset buttons and hints to improve UI clarity and usability.
This commit is contained in:
102
docs/OLLAMA_LANGUAGE_ASSISTANT_SETUP.md
Normal file
102
docs/OLLAMA_LANGUAGE_ASSISTANT_SETUP.md
Normal file
@@ -0,0 +1,102 @@
|
||||
# Ollama fuer den Sprachassistenten einrichten (kostenlos lokal)
|
||||
|
||||
Diese Anleitung zeigt, wie du den Sprachassistenten ohne API-Kosten mit Ollama nutzt.
|
||||
|
||||
## Ziel
|
||||
|
||||
- Lokales KI-Modell auf dem eigenen Rechner
|
||||
- Keine laufenden API-Kosten
|
||||
- 1-Klick-Preset in den Einstellungen der App
|
||||
|
||||
## 1) Ollama installieren
|
||||
|
||||
### Linux
|
||||
|
||||
```bash
|
||||
curl -fsSL https://ollama.com/install.sh | sh
|
||||
```
|
||||
|
||||
Danach pruefen:
|
||||
|
||||
```bash
|
||||
ollama --version
|
||||
```
|
||||
|
||||
## 2) Modell laden
|
||||
|
||||
Empfohlen fuer freien Schreib- und Korrekturmodus:
|
||||
|
||||
```bash
|
||||
ollama pull qwen2.5:7b-instruct
|
||||
```
|
||||
|
||||
Optional kleinere Alternative (weniger RAM):
|
||||
|
||||
```bash
|
||||
ollama pull qwen2.5:3b-instruct
|
||||
```
|
||||
|
||||
## 3) Ollama-Server starten
|
||||
|
||||
```bash
|
||||
ollama serve
|
||||
```
|
||||
|
||||
Der Server laeuft dann standardmaessig auf:
|
||||
|
||||
- `http://127.0.0.1:11434`
|
||||
|
||||
## 4) In der App aktivieren (1-Klick)
|
||||
|
||||
1. Zu `Einstellungen -> Sprachassistent & KI` gehen.
|
||||
2. Auf **Kostenlos lokal (Ollama)** klicken.
|
||||
3. Auf **Speichern** klicken.
|
||||
|
||||
Der Preset setzt:
|
||||
|
||||
- Base URL: `http://127.0.0.1:11434/v1`
|
||||
- Modell: `qwen2.5:7b-instruct`
|
||||
- API-Key: nicht erforderlich
|
||||
|
||||
## 5) Funktionstest
|
||||
|
||||
In einer Vokabellektion im Assistenten-Bereich eine kurze Nachricht senden, z. B.:
|
||||
|
||||
- "Korrigiere: Ich habe morgen ein Termin."
|
||||
|
||||
Wenn die Antwort kommt, ist alles korrekt verbunden.
|
||||
|
||||
## Troubleshooting
|
||||
|
||||
### Keine Verbindung zum Sprachassistenten
|
||||
|
||||
- Pruefen, ob `ollama serve` laeuft.
|
||||
- Pruefen, ob Base URL exakt `http://127.0.0.1:11434/v1` ist.
|
||||
- Falls Docker/Remote-Setup: Netzwerkzugriff auf Port `11434` sicherstellen.
|
||||
|
||||
### Modell nicht gefunden
|
||||
|
||||
- Modell erneut laden:
|
||||
|
||||
```bash
|
||||
ollama pull qwen2.5:7b-instruct
|
||||
```
|
||||
|
||||
### Antwort langsam
|
||||
|
||||
- Kleineres Modell nutzen (`qwen2.5:3b-instruct`)
|
||||
- Andere GPU/CPU-Auslastung reduzieren
|
||||
|
||||
## Hinweise fuer A2-Ziel
|
||||
|
||||
Ollama reicht gut fuer:
|
||||
|
||||
- freie Schreibuebungen
|
||||
- kurze situative Dialoge
|
||||
- gezielte Fehlerkorrektur
|
||||
|
||||
Empfehlung:
|
||||
|
||||
- taeglich 10-20 Minuten "frei schreiben + korrigieren lassen"
|
||||
- pro Woche 2-3 laengere Aufgaben (80-120 Woerter)
|
||||
- Korrekturen aktiv in eigene neue Saetze uebertragen
|
||||
Reference in New Issue
Block a user