All checks were successful
Deploy to production / deploy (push) Successful in 5m19s
- Corrected grammatical errors and improved the phrasing in the BISAYA_PHASE4_DIDACTICS, ensuring clarity and accuracy in the learning materials. - Updated the course content generation script to include lessons from phase 5, enhancing the overall structure and flow of the course. - Introduced a new vocabulary course content synchronization process, improving the integration of vocabulary resources across different modules. - Enhanced the VocabService to dynamically adjust temperature settings based on the mode, optimizing response generation for different contexts. - Added new localized titles and vocabulary entries in multiple languages, enriching the learning experience for users.
2.0 KiB
2.0 KiB
Ollama fuer den Sprachassistenten einrichten (kostenlos lokal)
Diese Anleitung zeigt, wie du den Sprachassistenten ohne API-Kosten mit Ollama nutzt.
Ziel
- Lokales KI-Modell auf dem eigenen Rechner
- Keine laufenden API-Kosten
- 1-Klick-Preset in den Einstellungen der App
1) Ollama installieren
Linux
curl -fsSL https://ollama.com/install.sh | sh
Danach pruefen:
ollama --version
2) Modell laden
Empfohlen fuer freien Schreib- und Korrekturmodus (CPU-freundlich):
ollama pull qwen2.5:3b-instruct
Optional groessere Alternative (bessere Qualitaet, aber langsamer auf CPU):
ollama pull qwen2.5:7b-instruct
3) Ollama-Server starten
ollama serve
Der Server laeuft dann standardmaessig auf:
http://127.0.0.1:11434
4) In der App aktivieren (1-Klick)
- Zu
Einstellungen -> Sprachassistent & KIgehen. - Auf Kostenlos lokal (Ollama) klicken.
- Auf Speichern klicken.
Der Preset setzt:
- Base URL:
http://127.0.0.1:11434/v1 - Modell:
qwen2.5:3b-instruct - API-Key: nicht erforderlich
5) Funktionstest
In einer Vokabellektion im Assistenten-Bereich eine kurze Nachricht senden, z. B.:
- "Korrigiere: Ich habe morgen ein Termin."
Wenn die Antwort kommt, ist alles korrekt verbunden.
Troubleshooting
Keine Verbindung zum Sprachassistenten
- Pruefen, ob
ollama servelaeuft. - Pruefen, ob Base URL exakt
http://127.0.0.1:11434/v1ist. - Falls Docker/Remote-Setup: Netzwerkzugriff auf Port
11434sicherstellen.
Modell nicht gefunden
- Modell erneut laden:
ollama pull qwen2.5:3b-instruct
Antwort langsam (haeufig bei CPU-only Servern)
qwen2.5:3b-instructals Standard nutzen- Andere GPU/CPU-Auslastung reduzieren
Hinweise fuer A2-Ziel
Ollama reicht gut fuer:
- freie Schreibuebungen
- kurze situative Dialoge
- gezielte Fehlerkorrektur
Empfehlung:
- taeglich 10-20 Minuten "frei schreiben + korrigieren lassen"
- pro Woche 2-3 laengere Aufgaben (80-120 Woerter)
- Korrekturen aktiv in eigene neue Saetze uebertragen