All checks were successful
Deploy to production / deploy (push) Successful in 5m19s
- Corrected grammatical errors and improved the phrasing in the BISAYA_PHASE4_DIDACTICS, ensuring clarity and accuracy in the learning materials. - Updated the course content generation script to include lessons from phase 5, enhancing the overall structure and flow of the course. - Introduced a new vocabulary course content synchronization process, improving the integration of vocabulary resources across different modules. - Enhanced the VocabService to dynamically adjust temperature settings based on the mode, optimizing response generation for different contexts. - Added new localized titles and vocabulary entries in multiple languages, enriching the learning experience for users.
103 lines
2.0 KiB
Markdown
103 lines
2.0 KiB
Markdown
# Ollama fuer den Sprachassistenten einrichten (kostenlos lokal)
|
|
|
|
Diese Anleitung zeigt, wie du den Sprachassistenten ohne API-Kosten mit Ollama nutzt.
|
|
|
|
## Ziel
|
|
|
|
- Lokales KI-Modell auf dem eigenen Rechner
|
|
- Keine laufenden API-Kosten
|
|
- 1-Klick-Preset in den Einstellungen der App
|
|
|
|
## 1) Ollama installieren
|
|
|
|
### Linux
|
|
|
|
```bash
|
|
curl -fsSL https://ollama.com/install.sh | sh
|
|
```
|
|
|
|
Danach pruefen:
|
|
|
|
```bash
|
|
ollama --version
|
|
```
|
|
|
|
## 2) Modell laden
|
|
|
|
Empfohlen fuer freien Schreib- und Korrekturmodus (CPU-freundlich):
|
|
|
|
```bash
|
|
ollama pull qwen2.5:3b-instruct
|
|
```
|
|
|
|
Optional groessere Alternative (bessere Qualitaet, aber langsamer auf CPU):
|
|
|
|
```bash
|
|
ollama pull qwen2.5:7b-instruct
|
|
```
|
|
|
|
## 3) Ollama-Server starten
|
|
|
|
```bash
|
|
ollama serve
|
|
```
|
|
|
|
Der Server laeuft dann standardmaessig auf:
|
|
|
|
- `http://127.0.0.1:11434`
|
|
|
|
## 4) In der App aktivieren (1-Klick)
|
|
|
|
1. Zu `Einstellungen -> Sprachassistent & KI` gehen.
|
|
2. Auf **Kostenlos lokal (Ollama)** klicken.
|
|
3. Auf **Speichern** klicken.
|
|
|
|
Der Preset setzt:
|
|
|
|
- Base URL: `http://127.0.0.1:11434/v1`
|
|
- Modell: `qwen2.5:3b-instruct`
|
|
- API-Key: nicht erforderlich
|
|
|
|
## 5) Funktionstest
|
|
|
|
In einer Vokabellektion im Assistenten-Bereich eine kurze Nachricht senden, z. B.:
|
|
|
|
- "Korrigiere: Ich habe morgen ein Termin."
|
|
|
|
Wenn die Antwort kommt, ist alles korrekt verbunden.
|
|
|
|
## Troubleshooting
|
|
|
|
### Keine Verbindung zum Sprachassistenten
|
|
|
|
- Pruefen, ob `ollama serve` laeuft.
|
|
- Pruefen, ob Base URL exakt `http://127.0.0.1:11434/v1` ist.
|
|
- Falls Docker/Remote-Setup: Netzwerkzugriff auf Port `11434` sicherstellen.
|
|
|
|
### Modell nicht gefunden
|
|
|
|
- Modell erneut laden:
|
|
|
|
```bash
|
|
ollama pull qwen2.5:3b-instruct
|
|
```
|
|
|
|
### Antwort langsam (haeufig bei CPU-only Servern)
|
|
|
|
- `qwen2.5:3b-instruct` als Standard nutzen
|
|
- Andere GPU/CPU-Auslastung reduzieren
|
|
|
|
## Hinweise fuer A2-Ziel
|
|
|
|
Ollama reicht gut fuer:
|
|
|
|
- freie Schreibuebungen
|
|
- kurze situative Dialoge
|
|
- gezielte Fehlerkorrektur
|
|
|
|
Empfehlung:
|
|
|
|
- taeglich 10-20 Minuten "frei schreiben + korrigieren lassen"
|
|
- pro Woche 2-3 laengere Aufgaben (80-120 Woerter)
|
|
- Korrekturen aktiv in eigene neue Saetze uebertragen
|