|
|
@@ -29,9 +29,9 @@ config.
|
|
|
|
|
|
---
|
|
|
|
|
|
-#### Basis URL
|
|
|
+#### Base URL
|
|
|
|
|
|
-Sie können den Basis-URL für jeden Anbieter anpassen, indem Sie die Option `baseURL` festlegen. Dies ist nützlich, wenn Sie Proxy-Dienste oder benutzerdefinierte Endpunkte verwenden.
|
|
|
+Sie können die Base URL für jeden Anbieter anpassen, indem Sie die Option `baseURL` festlegen. Das ist nuetzlich, wenn Sie Proxy-Dienste oder benutzerdefinierte Endpunkte verwenden.
|
|
|
|
|
|
```json title="opencode.json" {6}
|
|
|
{
|
|
|
@@ -57,7 +57,7 @@ Getestet und verifiziert, dass es gut mit OpenCode funktioniert. [Learn more](/d
|
|
|
Wenn Sie neu sind, empfehlen wir Ihnen, mit OpenCode Zen zu beginnen.
|
|
|
:::
|
|
|
|
|
|
-1. Führen Sie den Befehl `/connect` in TUI aus, wählen Sie Opencode aus und gehen Sie zu [opencode.ai/auth](https://opencode.ai/auth).
|
|
|
+1. Führen Sie den Befehl `/connect` in TUI aus, wählen Sie OpenCode aus und gehen Sie zu [opencode.ai/auth](https://opencode.ai/auth).
|
|
|
|
|
|
```txt
|
|
|
/connect
|
|
|
@@ -105,7 +105,7 @@ Sehen Sie hier keinen Anbieter? Senden Sie einen PR.
|
|
|
/connect
|
|
|
```
|
|
|
|
|
|
-3. Geben Sie Ihren Schlüssel 302.AI API ein.
|
|
|
+3. Geben Sie Ihren 302.AI API-Schlüssel ein.
|
|
|
|
|
|
```txt
|
|
|
┌ API key
|
|
|
@@ -122,7 +122,7 @@ Sehen Sie hier keinen Anbieter? Senden Sie einen PR.
|
|
|
|
|
|
---
|
|
|
|
|
|
-### Amazonas-Grundgestein
|
|
|
+### Amazon Bedrock
|
|
|
|
|
|
So verwenden Sie Amazon Bedrock mit OpenCode:
|
|
|
|
|
|
@@ -137,7 +137,7 @@ So verwenden Sie Amazon Bedrock mit OpenCode:
|
|
|
|
|
|
#### Umgebungsvariablen (Schnellstart)
|
|
|
|
|
|
- Legen Sie eine dieser Umgebungsvariablen fest, während Sie Opencode ausführen:
|
|
|
+ Legen Sie eine dieser Umgebungsvariablen fest, während Sie OpenCode ausführen:
|
|
|
|
|
|
```bash
|
|
|
# Option 1: Using AWS access keys
|
|
|
@@ -282,7 +282,7 @@ Verwenden Sie für benutzerdefinierte Inferenzprofile den Modell- und Anbieterna
|
|
|
Die Verwendung Ihres Claude Pro/Max-Abonnements in OpenCode wird von [Anthropic](https://anthropic.com) nicht offiziell unterstützt.
|
|
|
:::
|
|
|
|
|
|
-##### Verwendung von API-Tasten
|
|
|
+##### Verwendung von API-Keys
|
|
|
|
|
|
Sie können auch **Erstellen eines API-Schlüssels** auswählen, wenn Sie kein Pro/Max-Abonnement haben. Außerdem wird Ihr Browser geöffnet, Sie werden aufgefordert, sich bei Anthropic anzumelden, und Sie erhalten einen Code, den Sie in Ihr Terminal einfügen können.
|
|
|
|
|
|
@@ -303,7 +303,7 @@ Wenn Sie auf die Fehlermeldung „Es tut mir leid, aber ich kann Ihnen bei diese
|
|
|
2. Gehen Sie zu [Azure AI Foundry](https://ai.azure.com/) und stellen Sie ein Modell bereit.
|
|
|
|
|
|
:::note
|
|
|
- Der Bereitstellungsname muss mit dem Modellnamen übereinstimmen, damit Opencode ordnungsgemäß funktioniert.
|
|
|
+ Der Bereitstellungsname muss mit dem Modellnamen übereinstimmen, damit OpenCode ordnungsgemäß funktioniert.
|
|
|
:::
|
|
|
|
|
|
3. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Azure**.
|
|
|
@@ -350,7 +350,7 @@ Wenn Sie auf die Fehlermeldung „Es tut mir leid, aber ich kann Ihnen bei diese
|
|
|
2. Gehen Sie zu [Azure AI Foundry](https://ai.azure.com/) und stellen Sie ein Modell bereit.
|
|
|
|
|
|
:::note
|
|
|
- Der Bereitstellungsname muss mit dem Modellnamen übereinstimmen, damit Opencode ordnungsgemäß funktioniert.
|
|
|
+ Der Bereitstellungsname muss mit dem Modellnamen übereinstimmen, damit OpenCode ordnungsgemäß funktioniert.
|
|
|
:::
|
|
|
|
|
|
3. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Azure Cognitive Services**.
|
|
|
@@ -482,7 +482,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
|
|
|
/models
|
|
|
```
|
|
|
|
|
|
- Sie können Modelle auch über Ihre Opencode-Konfiguration hinzufügen.
|
|
|
+ Sie können Modelle auch über Ihre OpenCode-Konfiguration hinzufügen.
|
|
|
|
|
|
```json title="opencode.json"
|
|
|
{
|
|
|
@@ -554,7 +554,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
|
|
|
|
|
|
---
|
|
|
|
|
|
-### Tiefe Infrarot
|
|
|
+### Deep Infra
|
|
|
|
|
|
1. Gehen Sie zu [Deep Infra dashboard](https://deepinfra.com/dash), erstellen Sie ein Konto und generieren Sie einen API-Schlüssel.
|
|
|
|
|
|
@@ -591,7 +591,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
|
|
|
/connect
|
|
|
```
|
|
|
|
|
|
-3. Geben Sie Ihren Firmware-Schlüssel API ein.
|
|
|
+3. Geben Sie Ihren Firmware API-Schlüssel ein.
|
|
|
|
|
|
```txt
|
|
|
┌ API key
|
|
|
@@ -608,7 +608,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
|
|
|
|
|
|
---
|
|
|
|
|
|
-### Feuerwerk AI
|
|
|
+### Fireworks AI
|
|
|
|
|
|
1. Gehen Sie zu [Fireworks AI console](https://app.fireworks.ai/), erstellen Sie ein Konto und klicken Sie auf **API-Schlüssel erstellen**.
|
|
|
|
|
|
@@ -618,7 +618,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
|
|
|
/connect
|
|
|
```
|
|
|
|
|
|
-3. Geben Sie Ihren Fireworks-Schlüssel AI API ein.
|
|
|
+3. Geben Sie Ihren Fireworks AI API-Schlüssel ein.
|
|
|
|
|
|
```txt
|
|
|
┌ API key
|
|
|
@@ -679,7 +679,7 @@ GitLab Duo bietet AI-gestützten Agenten-Chat mit nativen Tool-Aufruffunktionen
|
|
|
|
|
|
:::note
|
|
|
Sie können auch die Umgebungsvariable „GITLAB_TOKEN“ angeben, wenn Sie dies nicht möchten
|
|
|
-um das Token im Opencode-Authentifizierungsspeicher zu speichern.
|
|
|
+um das Token im OpenCode-Authentifizierungsspeicher zu speichern.
|
|
|
:::
|
|
|
|
|
|
##### Selbstgehostetes GitLab
|
|
|
@@ -784,9 +784,9 @@ Dieses Plugin bietet umfassende GitLab-Repository-Verwaltungsfunktionen, einschl
|
|
|
|
|
|
---
|
|
|
|
|
|
-### GitHub-Copilot
|
|
|
+### GitHub Copilot
|
|
|
|
|
|
-So verwenden Sie Ihr GitHub Copilot-Abonnement mit Opencode:
|
|
|
+So verwenden Sie Ihr GitHub Copilot-Abonnement mit OpenCode:
|
|
|
|
|
|
:::note
|
|
|
Einige Modelle benötigen möglicherweise ein [Pro+
|
|
|
@@ -839,7 +839,7 @@ So verwenden Sie Google Vertex AI mit OpenCode:
|
|
|
- `GOOGLE_APPLICATION_CREDENTIALS`: Pfad zur Schlüsseldatei Ihres Dienstkontos JSON
|
|
|
- Authentifizieren Sie sich mit gcloud CLI: `gcloud auth application-default login`
|
|
|
|
|
|
- Legen Sie sie fest, während Sie Opencode ausführen.
|
|
|
+ Legen Sie sie fest, während Sie OpenCode ausführen.
|
|
|
|
|
|
```bash
|
|
|
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode
|
|
|
@@ -892,7 +892,7 @@ Die Region `global` verbessert die Verfügbarkeit und reduziert Fehler ohne zus
|
|
|
|
|
|
---
|
|
|
|
|
|
-### Umarmendes Gesicht
|
|
|
+### Hugging Face
|
|
|
|
|
|
[Hugging Face Inference Providers](https://huggingface.co/docs/inference-providers) bietet Zugriff auf offene Modelle, die von 17+-Anbietern unterstützt werden.
|
|
|
|
|
|
@@ -952,7 +952,7 @@ Weitere Anbieter und erweiterte Funktionen wie Caching und Ratenbegrenzung finde
|
|
|
|
|
|
#### Optionale Konfigurationen
|
|
|
|
|
|
-Falls Sie eine Funktion oder ein Modell von Helicone sehen, das nicht automatisch über Opencode konfiguriert wird, können Sie es jederzeit selbst konfigurieren.
|
|
|
+Falls Sie eine Funktion oder ein Modell von Helicone sehen, das nicht automatisch über OpenCode konfiguriert wird, können Sie es jederzeit selbst konfigurieren.
|
|
|
|
|
|
Hier ist [Helicone's Model Directory](https://helicone.ai/models). Sie benötigen dies, um die IDs der Modelle abzurufen, die Sie hinzufügen möchten.
|
|
|
|
|
|
@@ -1036,7 +1036,7 @@ Alle verfügbaren Header finden Sie unter [Helicone Header Directory](https://do
|
|
|
|
|
|
### llama.cpp
|
|
|
|
|
|
-Sie können Opencode für die Verwendung lokaler Modelle über das Dienstprogramm [llama.cpp's](https://github.com/ggml-org/llama.cpp) llama-server konfigurieren
|
|
|
+Sie können OpenCode für die Verwendung lokaler Modelle über das Dienstprogramm [llama.cpp's](https://github.com/ggml-org/llama.cpp) llama-server konfigurieren
|
|
|
|
|
|
```json title="opencode.json" "llama.cpp" {5, 6, 8, 10-15}
|
|
|
{
|
|
|
@@ -1084,7 +1084,7 @@ IO.NET bietet 17-Modelle, die für verschiedene Anwendungsfälle optimiert sind:
|
|
|
/connect
|
|
|
```
|
|
|
|
|
|
-3. Geben Sie Ihren Schlüssel IO.NET API ein.
|
|
|
+3. Geben Sie Ihren IO.NET API-Schlüssel ein.
|
|
|
|
|
|
```txt
|
|
|
┌ API key
|
|
|
@@ -1103,7 +1103,7 @@ IO.NET bietet 17-Modelle, die für verschiedene Anwendungsfälle optimiert sind:
|
|
|
|
|
|
### LM Studio
|
|
|
|
|
|
-Sie können Opencode über LM Studio für die Verwendung lokaler Modelle konfigurieren.
|
|
|
+Sie können OpenCode über LM Studio für die Verwendung lokaler Modelle konfigurieren.
|
|
|
|
|
|
```json title="opencode.json" "lmstudio" {5, 6, 8, 10-14}
|
|
|
{
|
|
|
@@ -1135,7 +1135,7 @@ In diesem Beispiel:
|
|
|
|
|
|
---
|
|
|
|
|
|
-### Mondschuss AI
|
|
|
+### Moonshot AI
|
|
|
|
|
|
So verwenden Sie Kimi K2 von Moonshot AI:
|
|
|
|
|
|
@@ -1174,7 +1174,7 @@ So verwenden Sie Kimi K2 von Moonshot AI:
|
|
|
/connect
|
|
|
```
|
|
|
|
|
|
-3. Geben Sie Ihren MiniMax-Schlüssel API ein.
|
|
|
+3. Geben Sie Ihren MiniMax API-Schlüssel ein.
|
|
|
|
|
|
```txt
|
|
|
┌ API key
|
|
|
@@ -1191,7 +1191,7 @@ So verwenden Sie Kimi K2 von Moonshot AI:
|
|
|
|
|
|
---
|
|
|
|
|
|
-### Nebius-Token-Fabrik
|
|
|
+### Nebius Token Factory
|
|
|
|
|
|
1. Gehen Sie zu [Nebius Token Factory console](https://tokenfactory.nebius.com/), erstellen Sie ein Konto und klicken Sie auf **Schlüssel hinzufügen**.
|
|
|
|
|
|
@@ -1220,7 +1220,7 @@ So verwenden Sie Kimi K2 von Moonshot AI:
|
|
|
|
|
|
### Ollama
|
|
|
|
|
|
-Sie können Opencode über Ollama für die Verwendung lokaler Modelle konfigurieren.
|
|
|
+Sie können OpenCode über Ollama für die Verwendung lokaler Modelle konfigurieren.
|
|
|
|
|
|
:::tip
|
|
|
Ollama kann sich automatisch für OpenCode konfigurieren. Weitere Informationen finden Sie unter [Ollama integration docs](https://docs.ollama.com/integrations/opencode).
|
|
|
@@ -1260,7 +1260,7 @@ Wenn Toolaufrufe nicht funktionieren, versuchen Sie, `num_ctx` in Ollama zu erh
|
|
|
|
|
|
---
|
|
|
|
|
|
-### Ollama-Wolke
|
|
|
+### Ollama Cloud
|
|
|
|
|
|
So verwenden Sie Ollama Cloud mit OpenCode:
|
|
|
|
|
|
@@ -1268,7 +1268,7 @@ So verwenden Sie Ollama Cloud mit OpenCode:
|
|
|
|
|
|
2. Navigieren Sie zu **Einstellungen** > **Schlüssel** und klicken Sie auf **Add API Key**, um einen neuen API-Schlüssel zu generieren.
|
|
|
|
|
|
-3. Kopieren Sie den Schlüssel API zur Verwendung in OpenCode.
|
|
|
+3. Kopieren Sie den API-Schlüssel zur Verwendung in OpenCode.
|
|
|
|
|
|
4. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Ollama Cloud**.
|
|
|
|
|
|
@@ -1326,7 +1326,7 @@ Wir empfehlen, sich für [ChatGPT Plus or Pro](https://chatgpt.com/pricing) anzu
|
|
|
/models
|
|
|
```
|
|
|
|
|
|
-##### Verwendung von API-Tasten
|
|
|
+##### Verwendung von API-Keys
|
|
|
|
|
|
Wenn Sie bereits über einen API-Schlüssel verfügen, können Sie **API-Schlüssel manuell eingeben** auswählen und ihn in Ihr Terminal einfügen.
|
|
|
|
|
|
@@ -1344,7 +1344,7 @@ OpenCode Zen ist eine Liste getesteter und verifizierter Modelle, die vom OpenCo
|
|
|
/connect
|
|
|
```
|
|
|
|
|
|
-3. Geben Sie Ihren OpenCode-Schlüssel API ein.
|
|
|
+3. Geben Sie Ihren OpenCode API-Schlüssel ein.
|
|
|
|
|
|
```txt
|
|
|
┌ API key
|
|
|
@@ -1386,7 +1386,7 @@ OpenCode Zen ist eine Liste getesteter und verifizierter Modelle, die vom OpenCo
|
|
|
/models
|
|
|
```
|
|
|
|
|
|
- Sie können auch zusätzliche Modelle über Ihre Opencode-Konfiguration hinzufügen.
|
|
|
+ Sie können auch zusätzliche Modelle über Ihre OpenCode-Konfiguration hinzufügen.
|
|
|
|
|
|
```json title="opencode.json" {6}
|
|
|
{
|
|
|
@@ -1401,7 +1401,7 @@ OpenCode Zen ist eine Liste getesteter und verifizierter Modelle, die vom OpenCo
|
|
|
}
|
|
|
```
|
|
|
|
|
|
-5. Sie können sie auch über Ihre Opencode-Konfiguration anpassen. Hier ist ein Beispiel für die Angabe eines Anbieters
|
|
|
+5. Sie können sie auch über Ihre OpenCode-Konfiguration anpassen. Hier ist ein Beispiel für die Angabe eines Anbieters
|
|
|
|
|
|
```json title="opencode.json"
|
|
|
{
|
|
|
@@ -1425,7 +1425,7 @@ OpenCode Zen ist eine Liste getesteter und verifizierter Modelle, die vom OpenCo
|
|
|
|
|
|
---
|
|
|
|
|
|
-### SAP AI Kern
|
|
|
+### SAP AI Core
|
|
|
|
|
|
SAP AI Core bietet Zugriff auf 40+ Modelle von OpenAI, Anthropic, Google, Amazon, Meta, Mistral und AI21 über eine einheitliche Plattform.
|
|
|
|
|
|
@@ -1441,7 +1441,7 @@ SAP AI Core bietet Zugriff auf 40+ Modelle von OpenAI, Anthropic, Google, Amazon
|
|
|
/connect
|
|
|
```
|
|
|
|
|
|
-3. Geben Sie Ihren Serviceschlüssel JSON ein.
|
|
|
+3. Geben Sie Ihren JSON-Service-Account-Key ein.
|
|
|
|
|
|
```txt
|
|
|
┌ Service key
|
|
|
@@ -1480,7 +1480,7 @@ SAP AI Core bietet Zugriff auf 40+ Modelle von OpenAI, Anthropic, Google, Amazon
|
|
|
|
|
|
---
|
|
|
|
|
|
-### OVHcloud AI Endpunkte
|
|
|
+### OVHcloud AI Endpoints
|
|
|
|
|
|
1. Gehen Sie zum [OVHcloud panel](https://ovh.com/manager). Navigieren Sie zum Abschnitt `Public Cloud`, `AI & Machine Learning` > `AI Endpoints` und klicken Sie auf der Registerkarte `API Keys` auf **Neuen API-Schlüssel erstellen**.
|
|
|
|
|
|
@@ -1509,7 +1509,7 @@ SAP AI Core bietet Zugriff auf 40+ Modelle von OpenAI, Anthropic, Google, Amazon
|
|
|
|
|
|
### Scaleway
|
|
|
|
|
|
-So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/generative-apis/) mit Opencode:
|
|
|
+So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/generative-apis/) mit OpenCode:
|
|
|
|
|
|
1. Gehen Sie zu [Scaleway Console IAM settings](https://console.scaleway.com/iam/api-keys), um einen neuen API-Schlüssel zu generieren.
|
|
|
|
|
|
@@ -1536,7 +1536,7 @@ So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/gen
|
|
|
|
|
|
---
|
|
|
|
|
|
-### Zusammen AI
|
|
|
+### Together AI
|
|
|
|
|
|
1. Gehen Sie zu [Together AI console](https://api.together.ai), erstellen Sie ein Konto und klicken Sie auf **Schlüssel hinzufügen**.
|
|
|
|
|
|
@@ -1546,7 +1546,7 @@ So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/gen
|
|
|
/connect
|
|
|
```
|
|
|
|
|
|
-3. Geben Sie Ihren Together-Schlüssel AI API ein.
|
|
|
+3. Geben Sie Ihren Together AI API-Schlüssel ein.
|
|
|
|
|
|
```txt
|
|
|
┌ API key
|
|
|
@@ -1563,17 +1563,17 @@ So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/gen
|
|
|
|
|
|
---
|
|
|
|
|
|
-### Venedig AI
|
|
|
+### Venice AI
|
|
|
|
|
|
1. Gehen Sie zu [Venice AI console](https://venice.ai), erstellen Sie ein Konto und generieren Sie einen API-Schlüssel.
|
|
|
|
|
|
-2. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Venedig AI**.
|
|
|
+2. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Venice AI**.
|
|
|
|
|
|
```txt
|
|
|
/connect
|
|
|
```
|
|
|
|
|
|
-3. Geben Sie Ihren Venedig-Schlüssel AI API ein.
|
|
|
+3. Geben Sie Ihren Venice AI API-Schlüssel ein.
|
|
|
|
|
|
```txt
|
|
|
┌ API key
|
|
|
@@ -1617,7 +1617,7 @@ Mit dem Vercel AI Gateway können Sie über einen einheitlichen Endpunkt auf Mod
|
|
|
/models
|
|
|
```
|
|
|
|
|
|
-Sie können Modelle auch über Ihre Opencode-Konfiguration anpassen. Hier ist ein Beispiel für die Angabe der Provider-Routing-Reihenfolge.
|
|
|
+Sie können Modelle auch über Ihre OpenCode-Konfiguration anpassen. Hier ist ein Beispiel für die Angabe der Provider-Routing-Reihenfolge.
|
|
|
|
|
|
```json title="opencode.json"
|
|
|
{
|
|
|
@@ -1727,7 +1727,7 @@ Einige nützliche Routing-Optionen:
|
|
|
/models
|
|
|
```
|
|
|
|
|
|
- Sie können auch zusätzliche Modelle über Ihre Opencode-Konfiguration hinzufügen.
|
|
|
+ Sie können auch zusätzliche Modelle über Ihre OpenCode-Konfiguration hinzufügen.
|
|
|
|
|
|
```json title="opencode.json" {6}
|
|
|
{
|
|
|
@@ -1749,7 +1749,7 @@ Einige nützliche Routing-Optionen:
|
|
|
So fügen Sie einen **OpenAI-kompatiblen** Anbieter hinzu, der nicht im Befehl `/connect` aufgeführt ist:
|
|
|
|
|
|
:::tip
|
|
|
-Sie können jeden OpenAI-kompatiblen Anbieter mit Opencode verwenden. Die meisten modernen AI-Anbieter bieten OpenAI-kompatible APIs an.
|
|
|
+Sie können jeden OpenAI-kompatiblen Anbieter mit OpenCode verwenden. Die meisten modernen AI-Anbieter bieten OpenAI-kompatible APIs an.
|
|
|
:::
|
|
|
|
|
|
1. Führen Sie den Befehl `/connect` aus und scrollen Sie nach unten zu **Andere**.
|
|
|
@@ -1883,7 +1883,7 @@ Wenn Sie Probleme beim Konfigurieren eines Anbieters haben, überprüfen Sie Fol
|
|
|
|
|
|
Dies gilt nicht für Anbieter wie Amazon Bedrock, die für ihre Authentifizierung auf Umgebungsvariablen angewiesen sind.
|
|
|
|
|
|
-2. Überprüfen Sie bei benutzerdefinierten Anbietern die Opencode-Konfiguration und:
|
|
|
- - Stellen Sie sicher, dass der im Befehl `/connect` verwendete Anbieter ID mit dem ID in Ihrer Opencode-Konfiguration übereinstimmt.
|
|
|
+2. Überprüfen Sie bei benutzerdefinierten Anbietern die OpenCode-Konfiguration und:
|
|
|
+ - Stellen Sie sicher, dass der im Befehl `/connect` verwendete Anbieter ID mit dem ID in Ihrer OpenCode-Konfiguration übereinstimmt.
|
|
|
- Für den Anbieter wird das richtige npm-Paket verwendet. Verwenden Sie beispielsweise `@ai-sdk/cerebras` für Cerebras. Und für alle anderen OpenAI-kompatiblen Anbieter verwenden Sie `@ai-sdk/openai-compatible`.
|
|
|
- Überprüfen Sie, ob im Feld `options.baseURL` der richtige Endpunkt API verwendet wird.
|