| 123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222223224 |
- ---
- title: Modelos
- description: Configuración de un proveedor y modelo LLM.
- ---
- OpenCode usa el [AI SDK](https://ai-sdk.dev/) y [Models.dev](https://models.dev) para admitir **75+ proveedores LLM** y admite la ejecución de modelos locales.
- ---
- ## Proveedores
- Los proveedores más populares están precargados de forma predeterminada. Si agregó las credenciales de un proveedor mediante el comando `/connect`, estarán disponibles cuando inicie OpenCode.
- Obtenga más información sobre [proveedores](/docs/providers).
- ---
- ## Selecciona un modelo
- Una vez que hayas configurado tu proveedor podrás seleccionar el modelo que desees escribiendo:
- ```bash frame="none"
- /models
- ```
- ---
- ## Modelos recomendados
- Hay muchos modelos disponibles y cada semana salen nuevos modelos.
- :::tip
- Considere utilizar uno de los modelos que recomendamos.
- :::
- Sin embargo, sólo unos pocos de ellos son buenos tanto para generar código como para llamar a herramientas.
- Aquí hay varios modelos que funcionan bien con OpenCode, sin ningún orden en particular. (Esta no es una lista exhaustiva ni necesariamente actualizada):
- -GPT 5.2
- - Códice GPT 5.1
- - Claude Opus 4.5
- - Claude Soneto 4.5
- -Minimax M2.1
- - Géminis 3 Pro
- ---
- ## Establecer un valor predeterminado
- Para configurar uno de estos como modelo predeterminado, puede configurar la tecla `model` en su
- OpenCode configuración.
- ```json title="opencode.json" {3}
- {
- "$schema": "https://opencode.ai/config.json",
- "model": "lmstudio/google/gemma-3n-e4b"
- }
- ```
- Aquí el ID completo es `provider_id/model_id`. Por ejemplo, si usa [OpenCode Zen](/docs/zen), usaría `opencode/gpt-5.1-codex` para GPT 5.1 Codex.
- Si ha configurado un [proveedor personalizado](/docs/providers#custom), `provider_id` es la clave de la parte `provider` de su configuración y `model_id` es la clave de `provider.models`.
- ---
- ## Configurar modelos
- Puede configurar globalmente las opciones de un modelo a través de la configuración.
- ```jsonc title="opencode.jsonc" {7-12,19-24}
- {
- "$schema": "https://opencode.ai/config.json",
- "provider": {
- "openai": {
- "models": {
- "gpt-5": {
- "options": {
- "reasoningEffort": "high",
- "textVerbosity": "low",
- "reasoningSummary": "auto",
- "include": ["reasoning.encrypted_content"],
- },
- },
- },
- },
- "anthropic": {
- "models": {
- "claude-sonnet-4-5-20250929": {
- "options": {
- "thinking": {
- "type": "enabled",
- "budgetTokens": 16000,
- },
- },
- },
- },
- },
- },
- }
- ```
- Aquí estamos configurando ajustes globales para dos modelos integrados: `gpt-5` cuando se accede a través del proveedor `openai` y `claude-sonnet-4-20250514` cuando se accede a través del proveedor `anthropic`.
- Los nombres de modelo y proveedor integrados se pueden encontrar en [Models.dev](https://models.dev).
- También puede configurar estas opciones para cualquier agente que esté utilizando. La configuración del agente anula cualquier opción global aquí. [Más información](/docs/agents/#additional).
- También puede definir variantes personalizadas que amplíen las integradas. Las variantes le permiten configurar diferentes ajustes para el mismo modelo sin crear entradas duplicadas:
- ```jsonc title="opencode.jsonc" {6-21}
- {
- "$schema": "https://opencode.ai/config.json",
- "provider": {
- "opencode": {
- "models": {
- "gpt-5": {
- "variants": {
- "high": {
- "reasoningEffort": "high",
- "textVerbosity": "low",
- "reasoningSummary": "auto",
- },
- "low": {
- "reasoningEffort": "low",
- "textVerbosity": "low",
- "reasoningSummary": "auto",
- },
- },
- },
- },
- },
- },
- }
- ```
- ---
- ## Variantes
- Muchos modelos admiten múltiples variantes con diferentes configuraciones. OpenCode se envía con variantes predeterminadas integradas para proveedores populares.
- ### Variantes integradas
- OpenCode se envía con variantes predeterminadas para muchos proveedores:
- **Anthropic**:
- - `high` - Presupuesto de pensamiento alto (predeterminado)
- - `max` - Presupuesto de pensamiento máximo
- **OpenAI**:
- Varía según el modelo, pero aproximadamente:
- - `none` - Sin razonamiento
- - `minimal` - Mínimo esfuerzo de razonamiento
- - `low` - Bajo esfuerzo de razonamiento
- - `medium` - Esfuerzo de razonamiento medio
- - `high` - Alto esfuerzo de razonamiento
- - `xhigh` - Esfuerzo de razonamiento extra alto
- **Google**:
- - `low` - Menor esfuerzo/presupuesto simbólico
- - `high` - Mayor esfuerzo/presupuesto simbólico
- :::tip
- Esta lista no es exhaustiva. Muchos otros proveedores también tienen valores predeterminados integrados.
- :::
- ### Variantes personalizadas
- Puede anular las variantes existentes o agregar las suyas propias:
- ```jsonc title="opencode.jsonc" {7-18}
- {
- "$schema": "https://opencode.ai/config.json",
- "provider": {
- "openai": {
- "models": {
- "gpt-5": {
- "variants": {
- "thinking": {
- "reasoningEffort": "high",
- "textVerbosity": "low",
- },
- "fast": {
- "disabled": true,
- },
- },
- },
- },
- },
- },
- }
- ```
- ### Variantes de ciclo
- Utilice la combinación de teclas `variant_cycle` para cambiar rápidamente entre variantes. [Más información](/docs/keybinds).
- ---
- ## Cargando modelos
- Cuando se inicia OpenCode, busca modelos en el siguiente orden de prioridad:
- 1. El indicador de línea de comando `--model` o `-m`. El formato es el mismo que en el archivo de configuración: `provider_id/model_id`.
- 2. La lista de modelos en la configuración OpenCode.
- ```json title="opencode.json"
- {
- "$schema": "https://opencode.ai/config.json",
- "model": "anthropic/claude-sonnet-4-20250514"
- }
- ```
- El formato aquí es `provider/model`.
- 3. El último modelo utilizado.
- 4. El primer modelo que utiliza una prioridad interna.
|