Fortgeschrittene Konfiguration
Sobald Sie mit den grundlegenden Operationen von Opencode vertraut sind, können Sie über Konfigurationsdateien einen leistungsfähigeren Workflow anpassen.
settings.json
Opencode ist mit dem settings.json-Konfigurationssystem von VS Code kompatibel und fügt einige KI-spezifische Konfigurationen hinzu.
{
"editor.fontSize": 14,
"opencode.ai.model": "gpt-4-turbo",
"opencode.ai.autoSuggest": true,
"opencode.terminal.shell": "zsh"
}
Benutzerdefinierte Modelle konfigurieren
Verwendung von Ollama (Lokale Modelle)
Opencode unterstützt Ollama perfekt, was bedeutet, dass Sie Llama 3 oder DeepSeek kostenlos lokal ausführen können.
- Stellen Sie sicher, dass Sie Ollama installiert und gestartet haben (
ollama serve). - Führen Sie in Opencode
/connectaus oder öffnen Sie die Einstellungen. - Fügen Sie einen neuen Provider hinzu und wählen Sie OpenAI Compatible.
- Füllen Sie die Konfiguration aus:
- Base URL:
http://localhost:11434/v1 - API Key:
ollama(beliebig ausfüllen) - Model ID:
llama3oderdeepseek-coder
- Base URL:
Verwendung der offiziellen DeepSeek API
Wenn Sie die Cloud-API von DeepSeek verwenden möchten:
- Base URL:
https://api.deepseek.com/v1 - API Key: Geben Sie Ihren DeepSeek Key ein
Speicherort der Konfigurationsdatei
Wenn Sie es vorziehen, Dateien direkt zu bearbeiten, finden Sie config.json hier:
- macOS/Linux:
~/.opencode/config.json - Windows:
%USERPROFILE%\.opencode\config.json
Tastenkürzel binden
Es wird empfohlen, häufig verwendete KI-Funktionen an bequeme Tastenkürzel zu binden:
Chat View:Cmd+LInline Edit:Cmd+KExplain Code:Cmd+.
Plugin-Empfehlungen
- Python: Offizielles Python-Plugin
- GitLens: Erweiterte Git-Funktionen
- Prettier: Code-Formatierung