|
|
@@ -148,32 +148,32 @@ Définissez l'une de ces variables d'environnement lors de l'exécution de openc
|
|
|
|
|
|
# Option 3: Using Bedrock bearer token
|
|
|
AWS_BEARER_TOKEN_BEDROCK=XXX opencode
|
|
|
- ```
|
|
|
+```
|
|
|
|
|
|
Ou ajoutez-les à votre profil bash :
|
|
|
|
|
|
```bash title="~/.bash_profile"
|
|
|
export AWS_PROFILE=my-dev-profile
|
|
|
export AWS_REGION=us-east-1
|
|
|
- ```
|
|
|
+```
|
|
|
|
|
|
#### Fichier de configuration (recommandé)
|
|
|
|
|
|
Pour une configuration spécifique au projet ou persistante, utilisez `opencode.json` :
|
|
|
|
|
|
```json title="opencode.json"
|
|
|
- {
|
|
|
- "$schema": "https://opencode.ai/config.json",
|
|
|
- "provider": {
|
|
|
- "amazon-bedrock": {
|
|
|
- "options": {
|
|
|
- "region": "us-east-1",
|
|
|
- "profile": "my-aws-profile"
|
|
|
- }
|
|
|
- }
|
|
|
- }
|
|
|
- }
|
|
|
- ```
|
|
|
+{
|
|
|
+ "$schema": "https://opencode.ai/config.json",
|
|
|
+ "provider": {
|
|
|
+ "amazon-bedrock": {
|
|
|
+ "options": {
|
|
|
+ "region": "us-east-1",
|
|
|
+ "profile": "my-aws-profile"
|
|
|
+ }
|
|
|
+ }
|
|
|
+ }
|
|
|
+}
|
|
|
+```
|
|
|
|
|
|
**Options disponibles :**
|
|
|
|
|
|
@@ -190,19 +190,19 @@ Les options du fichier de configuration sont prioritaires sur les variables d'en
|
|
|
Si vous utilisez des points de terminaison d'un VPC pour Bedrock :
|
|
|
|
|
|
```json title="opencode.json"
|
|
|
- {
|
|
|
- "$schema": "https://opencode.ai/config.json",
|
|
|
- "provider": {
|
|
|
- "amazon-bedrock": {
|
|
|
- "options": {
|
|
|
- "region": "us-east-1",
|
|
|
- "profile": "production",
|
|
|
- "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
|
|
|
- }
|
|
|
- }
|
|
|
- }
|
|
|
- }
|
|
|
- ```
|
|
|
+{
|
|
|
+ "$schema": "https://opencode.ai/config.json",
|
|
|
+ "provider": {
|
|
|
+ "amazon-bedrock": {
|
|
|
+ "options": {
|
|
|
+ "region": "us-east-1",
|
|
|
+ "profile": "production",
|
|
|
+ "endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
|
|
|
+ }
|
|
|
+ }
|
|
|
+ }
|
|
|
+}
|
|
|
+```
|
|
|
|
|
|
:::note
|
|
|
L'option `endpoint` est un alias pour l'option générique `baseURL`, utilisant la terminologie spécifique à AWS. Si `endpoint` et `baseURL` sont spécifiés, `endpoint` est prioritaire.
|
|
|
@@ -334,7 +334,7 @@ Ou ajoutez-le à votre profil bash :
|
|
|
|
|
|
```bash title="~/.bash_profile"
|
|
|
export AZURE_RESOURCE_NAME=XXX
|
|
|
- ```
|
|
|
+```
|
|
|
|
|
|
6. Exécutez la commande `/models` pour sélectionner votre modèle déployé.
|
|
|
|
|
|
@@ -381,7 +381,7 @@ Ou ajoutez-le à votre profil bash :
|
|
|
|
|
|
```bash title="~/.bash_profile"
|
|
|
export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
|
|
|
- ```
|
|
|
+```
|
|
|
|
|
|
6. Exécutez la commande `/models` pour sélectionner votre modèle déployé.
|
|
|
|
|
|
@@ -477,7 +477,7 @@ Ou définissez-le comme variable d'environnement.
|
|
|
|
|
|
```bash title="~/.bash_profile"
|
|
|
export CLOUDFLARE_API_TOKEN=your-api-token
|
|
|
- ```
|
|
|
+```
|
|
|
|
|
|
5. Exécutez la commande `/models` pour sélectionner un modèle.
|
|
|
|
|
|
@@ -488,18 +488,18 @@ Ou définissez-le comme variable d'environnement.
|
|
|
Vous pouvez également ajouter des modèles via votre configuration opencode.
|
|
|
|
|
|
```json title="opencode.json"
|
|
|
- {
|
|
|
- "$schema": "https://opencode.ai/config.json",
|
|
|
- "provider": {
|
|
|
- "cloudflare-ai-gateway": {
|
|
|
- "models": {
|
|
|
- "openai/gpt-4o": {},
|
|
|
- "anthropic/claude-sonnet-4": {}
|
|
|
- }
|
|
|
- }
|
|
|
- }
|
|
|
- }
|
|
|
- ```
|
|
|
+{
|
|
|
+ "$schema": "https://opencode.ai/config.json",
|
|
|
+ "provider": {
|
|
|
+ "cloudflare-ai-gateway": {
|
|
|
+ "models": {
|
|
|
+ "openai/gpt-4o": {},
|
|
|
+ "anthropic/claude-sonnet-4": {}
|
|
|
+ }
|
|
|
+ }
|
|
|
+ }
|
|
|
+}
|
|
|
+```
|
|
|
|
|
|
---
|
|
|
|
|
|
@@ -673,8 +673,10 @@ Sélectionnez **OAuth** et votre navigateur s'ouvrira pour autorisation.
|
|
|
6. Exécutez la commande `/models` pour voir les modèles disponibles.
|
|
|
|
|
|
```txt
|
|
|
- /models
|
|
|
- ```
|
|
|
+ /models
|
|
|
+ ```
|
|
|
+
|
|
|
+````
|
|
|
|
|
|
Trois modèles basés sur Claude sont disponibles :
|
|
|
|
|
|
@@ -697,11 +699,11 @@ Fichier `opencode.json`. Il est également recommandé de désactiver le partage
|
|
|
|
|
|
```json
|
|
|
{
|
|
|
- "$schema": "https://opencode.ai/config.json",
|
|
|
- "small_model": "gitlab/duo-chat-haiku-4-5",
|
|
|
- "share": "disabled"
|
|
|
+"$schema": "https://opencode.ai/config.json",
|
|
|
+"small_model": "gitlab/duo-chat-haiku-4-5",
|
|
|
+"share": "disabled"
|
|
|
}
|
|
|
-```
|
|
|
+````
|
|
|
|
|
|
:::
|
|
|
|
|
|
@@ -848,7 +850,7 @@ Définissez-les lors de l'exécution de opencode.
|
|
|
|
|
|
```bash
|
|
|
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode
|
|
|
- ```
|
|
|
+```
|
|
|
|
|
|
Ou ajoutez-les à votre profil bash.
|
|
|
|
|
|
@@ -856,7 +858,7 @@ Ou ajoutez-les à votre profil bash.
|
|
|
export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
|
|
|
export GOOGLE_CLOUD_PROJECT=your-project-id
|
|
|
export VERTEX_LOCATION=global
|
|
|
- ```
|
|
|
+```
|
|
|
|
|
|
:::tip
|
|
|
La région `global` améliore la disponibilité et réduit les erreurs sans frais supplémentaires. Utilisez des points de terminaison régionaux (par exemple, `us-central1`) pour les exigences de résidence des données. [En savoir plus](https://cloud.google.com/vertex-ai/generative-ai/docs/partner-models/use-partner-models#regional_and_global_endpoints)
|
|
|
@@ -1394,17 +1396,17 @@ OpenCode Zen est une liste de modèles testés et vérifiés fournie par l'équi
|
|
|
Vous pouvez également ajouter des modèles supplémentaires via votre configuration opencode.
|
|
|
|
|
|
```json title="opencode.json" {6}
|
|
|
- {
|
|
|
- "$schema": "https://opencode.ai/config.json",
|
|
|
- "provider": {
|
|
|
- "openrouter": {
|
|
|
- "models": {
|
|
|
- "somecoolnewmodel": {}
|
|
|
- }
|
|
|
- }
|
|
|
- }
|
|
|
- }
|
|
|
- ```
|
|
|
+{
|
|
|
+ "$schema": "https://opencode.ai/config.json",
|
|
|
+ "provider": {
|
|
|
+ "openrouter": {
|
|
|
+ "models": {
|
|
|
+ "somecoolnewmodel": {}
|
|
|
+ }
|
|
|
+ }
|
|
|
+ }
|
|
|
+}
|
|
|
+```
|
|
|
|
|
|
5. Vous pouvez également les personnaliser via votre configuration opencode. Voici un exemple de spécification d'un fournisseur
|
|
|
|
|
|
@@ -1459,13 +1461,13 @@ Ou définissez la variable d'environnement `AICORE_SERVICE_KEY` :
|
|
|
|
|
|
```bash
|
|
|
AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode
|
|
|
- ```
|
|
|
+```
|
|
|
|
|
|
Ou ajoutez-le à votre profil bash :
|
|
|
|
|
|
```bash title="~/.bash_profile"
|
|
|
export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
|
|
|
- ```
|
|
|
+```
|
|
|
|
|
|
4. Définissez éventuellement l'ID de déploiement et le groupe de ressources :
|
|
|
|
|
|
@@ -1735,17 +1737,17 @@ Si vous êtes abonné au **Plan de codage GLM**, sélectionnez **Plan de codage
|
|
|
Vous pouvez également ajouter des modèles supplémentaires via votre configuration opencode.
|
|
|
|
|
|
```json title="opencode.json" {6}
|
|
|
- {
|
|
|
- "$schema": "https://opencode.ai/config.json",
|
|
|
- "provider": {
|
|
|
- "zenmux": {
|
|
|
- "models": {
|
|
|
- "somecoolnewmodel": {}
|
|
|
- }
|
|
|
- }
|
|
|
- }
|
|
|
- }
|
|
|
- ```
|
|
|
+{
|
|
|
+ "$schema": "https://opencode.ai/config.json",
|
|
|
+ "provider": {
|
|
|
+ "zenmux": {
|
|
|
+ "models": {
|
|
|
+ "somecoolnewmodel": {}
|
|
|
+ }
|
|
|
+ }
|
|
|
+ }
|
|
|
+}
|
|
|
+```
|
|
|
|
|
|
---
|
|
|
|