Opencode Lokale Modelle Vollständiger Leitfaden
Verwenden Sie Ollama, um AI-Modelle lokal mit Opencode auszuführen für vollständige Privatsphäre und Null-API-Kosten.
Voraussetzungen
Installieren Sie Ollama von ollama.ai
Konfiguration
Fügen Sie zu Ihrer Opencode-Konfiguration hinzu:
{
"providers": {
"ollama": {
"model": "codellama",
"baseURL": "http://localhost:11434"
}
}
}
Empfohlene Modelle
codellama- Am besten für Code-Generierungdeepseek-coder- Hervorragend für komplexe Aufgabenqwen2.5-coder- Gutes Gleichgewicht zwischen Geschwindigkeit und Qualität