OpenCode Tutorials
Startseite
Anleitungen
Ökosystem
FAQ
Vergleiche
Artikel
  • Offizielle Website
  • Offizieller Download
  • Offizielle Dokumentation
  • Über uns
  • Kontakt
  • Datenschutz
  • Nutzungsbedingungen
  • Haftungsausschluss
  • Markenhinweis
  • 简体中文
  • English
  • Deutsch
Startseite
Anleitungen
Ökosystem
FAQ
Vergleiche
Artikel
  • Offizielle Website
  • Offizieller Download
  • Offizielle Dokumentation
  • Über uns
  • Kontakt
  • Datenschutz
  • Nutzungsbedingungen
  • Haftungsausschluss
  • Markenhinweis
  • 简体中文
  • English
  • Deutsch
  • Neueste Artikel

    • Opencode Blogartikel - AI-Programmierung an der Spitze
    • Willkommen bei OpenCodex

Opencode Lokale Modelle Vollständiger Leitfaden

Verwenden Sie Ollama, um AI-Modelle lokal mit Opencode auszuführen für vollständige Privatsphäre und Null-API-Kosten.

Voraussetzungen

Installieren Sie Ollama von ollama.ai

Konfiguration

Fügen Sie zu Ihrer Opencode-Konfiguration hinzu:

{
  "providers": {
    "ollama": {
      "model": "codellama",
      "baseURL": "http://localhost:11434"
    }
  }
}

Empfohlene Modelle

  • codellama - Am besten für Code-Generierung
  • deepseek-coder - Hervorragend für komplexe Aufgaben
  • qwen2.5-coder - Gutes Gleichgewicht zwischen Geschwindigkeit und Qualität

Nächste Schritte

  • Provider-Einrichtungsleitfaden
  • Erweiterte Konfiguration
Zuletzt aktualisiert: 28.02.26, 14:48