--- title: zen description: Lista seleccionada de modelos proporcionada por OpenCode. --- import config from "../../../../config.mjs" export const console = config.console export const email = `mailto:${config.email}` OpenCode Zen es una lista de modelos probados y verificados proporcionada por el equipo OpenCode. :::note OpenCode Zen se encuentra actualmente en versión beta. ::: Zen funciona como cualquier otro proveedor en OpenCode. Inicia sesión en OpenCode Zen y obtiene su clave API. Es **completamente opcional** y no necesitas usarlo para usarlo. OpenCode. --- ## Fondo Hay una gran cantidad de modelos, pero solo unos pocos. Estos modelos funcionan bien como agentes codificadores. Además, la mayoría de los proveedores son configurado de manera muy diferente; por lo que obtienes un rendimiento y una calidad muy diferentes. :::tip Probamos un grupo selecto de modelos y proveedores que funcionan bien con OpenCode. ::: Entonces, si estás usando un modelo a través de algo como OpenRouter, nunca podrás ser Asegúrese de obtener la mejor versión del modelo que desea. Para solucionar este problema, hicimos un par de cosas: 1. Probamos un grupo selecto de modelos y hablamos con sus equipos sobre cómo mejor ejecutarlos. 2. Luego trabajamos con algunos proveedores para asegurarnos de que estuvieran siendo atendidos. correctamente. 3. Finalmente, comparamos la combinación modelo/proveedor y llegamos con una lista que nos sentimos bien recomendando. OpenCode Zen es una puerta de enlace de IA que le brinda acceso a estos modelos. --- ## Cómo funciona OpenCode Zen funciona como cualquier otro proveedor en OpenCode. 1. Inicias sesión en **OpenCode Zen**, agregas tu facturación detalles y copie su clave API. 2. Ejecuta el comando `/connect` en TUI, selecciona OpenCode Zen y pega tu clave API. 3. Ejecute `/models` en TUI para ver la lista de modelos que recomendamos. Se le cobra por solicitud y puede agregar créditos a su cuenta. --- ## Puntos finales También puede acceder a nuestros modelos a través de los siguientes puntos finales API. | Modelo | Identificación del modelo | Punto final | Paquete SDK de IA | | ---------------------- | ------------------------- | -------------------------------------------------- | --------------------------- | | GPT 5.2 | gpt-5.2 | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` | | Códice GPT 5.2 | gpt-5.2-códice | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` | | GPT 5.1 | gpt-5.1 | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` | | Códice GPT 5.1 | gpt-5.1-códice | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` | | GPT 5.1 Códice Máximo | gpt-5.1-codex-max | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` | | GPT 5.1 Códice Mini | gpt-5.1-codex-mini | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` | | GPT 5 | gpt-5 | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` | | Códice GPT 5 | gpt-5-códice | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` | | GPT5Nano | gpt-5-nano | `https://opencode.ai/zen/v1/responses` | `@ai-sdk/openai` | | Claude Soneto 4.5 | soneto-claude-4-5 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` | | Claude Soneto 4 | claude-soneto-4 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` | | Claude Haiku 4.5 | claude-haiku-4-5 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` | | Claude Haiku 3.5 | claude-3-5-haiku | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` | | Claude Opus 4.6 | claude-opus-4-6 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` | | Claude Opus 4.5 | claude-opus-4-5 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` | | Claude Opus 4.1 | claude-opus-4-1 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` | | Géminis 3 Pro | geminis-3-pro | `https://opencode.ai/zen/v1/models/gemini-3-pro` | `@ai-sdk/google` | | Géminis 3 Flash | geminis-3-flash | `https://opencode.ai/zen/v1/models/gemini-3-flash` | `@ai-sdk/google` | | MiniMax M2.1 | minimax-m2.1 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` | | MiniMax M2.1 Gratis | minimax-m2.1-libre | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` | | GLM 4.7 | glm-4.7 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` | | GLM 4.7 Gratis | glm-4.7-libre | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` | | GLM 4.6 | glm-4.6 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` | | Kimi K2.5 | kimi-k2.5 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` | | Kimi K2.5 Gratis | kimi-k2.5-libre | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` | | Pensamiento Kimi K2 | kimi-k2-pensando | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` | | Kimi K2 | kimi-k2 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` | | Codificador Qwen3 480B | codificador qwen3 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` | | Gran pepinillo | gran pepinillo | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` | El [ID del modelo](/docs/config/#models) en su configuración OpenCode utiliza el formato `opencode/`. Por ejemplo, para el Codex GPT 5.2, deberías use `opencode/gpt-5.2-codex` en su configuración. --- ### Modelos Puede obtener la lista completa de modelos disponibles y sus metadatos en: ``` https://opencode.ai/zen/v1/models ``` --- ## Precios Apoyamos un modelo de pago por uso. A continuación se muestran los precios **por 1 millón de tokens**. | Modelo | Entrada | Salida | Lectura en caché | Escritura en caché | | ------------------------------------ | ------- | ------ | ---------------- | ------------------ | | Gran pepinillo | Gratis | Gratis | Gratis | - | | MiniMax M2.1 Gratis | Gratis | Gratis | Gratis | - | | MiniMax M2.1 | $0,30 | $1,20 | $0,10 | - | | GLM 4.7 Gratis | Gratis | Gratis | Gratis | - | | GLM 4.7 | $0,60 | $2.20 | $0,10 | - | | GLM 4.6 | $0,60 | $2.20 | $0,10 | - | | Kimi K2.5 Gratis | Gratis | Gratis | Gratis | - | | Kimi K2.5 | $0,60 | $3.00 | $0,08 | - | | Pensamiento Kimi K2 | $0,40 | $2.50 | - | - | | Kimi K2 | $0,40 | $2.50 | - | - | | Codificador Qwen3 480B | $0,45 | $1,50 | - | - | | Claude Sonnet 4.5 (≤ 200.000 tokens) | $3.00 | $15.00 | $0,30 | $3,75 | | Claude Sonnet 4.5 (> 200.000 tokens) | $6.00 | $22,50 | $0,60 | $7.50 | | Claude Soneto 4 (≤ 200.000 fichas) | $3.00 | $15.00 | $0,30 | $3,75 | | Claude Sonnet 4 (> 200.000 fichas) | $6.00 | $22,50 | $0,60 | $7.50 | | Claude Haiku 4.5 | $1.00 | $5.00 | $0,10 | $1,25 | | Claude Haiku 3.5 | $0,80 | $4.00 | $0,08 | $1.00 | | Claude Opus 4.6 (≤ 200.000 tokens) | $5.00 | $25.00 | $0,50 | $6.25 | | Claude Opus 4.6 (> 200K fichas) | $10.00 | $37,50 | $1.00 | $12,50 | | Claude Opus 4.5 | $5.00 | $25.00 | $0,50 | $6.25 | | Claude Opus 4.1 | $15.00 | $75.00 | $1,50 | $18,75 | | Géminis 3 Pro (≤ 200.000 tokens) | $2.00 | $12.00 | $0,20 | - | | Géminis 3 Pro (> 200.000 tokens) | $4.00 | $18.00 | $0,40 | - | | Géminis 3 Flash | $0,50 | $3.00 | $0,05 | - | | GPT 5.2 | $1,75 | $14.00 | $0,175 | - | | Códice GPT 5.2 | $1,75 | $14.00 | $0,175 | - | | GPT 5.1 | $1.07 | $8,50 | $0,107 | - | | Códice GPT 5.1 | $1.07 | $8,50 | $0,107 | - | | GPT 5.1 Códice Máximo | $1,25 | $10.00 | $0,125 | - | | GPT 5.1 Códice Mini | $0,25 | $2.00 | $0,025 | - | | GPT 5 | $1.07 | $8,50 | $0,107 | - | | Códice GPT 5 | $1.07 | $8,50 | $0,107 | - | | GPT5Nano | Gratis | Gratis | Gratis | - | Es posible que notes _Claude Haiku 3.5_ en tu historial de uso. Este es un [modelo de bajo costo](/docs/config/#models) que se utiliza para generar los títulos de tus sesiones. :::note Las tarifas de las tarjetas de crédito se trasladan al costo (4,4% + 0,30 dólares por transacción); No cobramos nada más allá de eso. ::: Los modelos gratuitos: - GLM 4.7 Free está disponible en OpenCode por tiempo limitado. El equipo está aprovechando este tiempo para recopilar comentarios y mejorar el modelo. - Kimi K2.5 Free está disponible en OpenCode por tiempo limitado. El equipo está aprovechando este tiempo para recopilar comentarios y mejorar el modelo. - MiniMax M2.1 Free está disponible en OpenCode por tiempo limitado. El equipo está aprovechando este tiempo para recopilar comentarios y mejorar el modelo. - Big Pickle es un modelo sigiloso gratuito en OpenCode por tiempo limitado. El equipo está aprovechando este tiempo para recopilar comentarios y mejorar el modelo. Contáctenos si tiene alguna pregunta. --- ### Recarga automática Si su saldo es inferior a $5, Zen recargará automáticamente $20. Puedes cambiar el monto de la recarga automática. También puedes desactivar la recarga automática por completo. --- ### Límites mensuales También puede establecer un límite de uso mensual para todo el espacio de trabajo y para cada miembro de tu equipo. Por ejemplo, digamos que establece un límite de uso mensual de $20, Zen no usará más de $20 en un mes. Pero si tienes habilitada la recarga automática, Zen podría terminar cobrarle más de $20 si su saldo es inferior a $5. --- ## Privacidad Todos nuestros modelos están alojados en los EE. UU. Nuestros proveedores siguen una política de retención cero y no utilizan sus datos para la capacitación de modelos, con las siguientes excepciones: - Big Pickle: Durante su periodo gratuito, los datos recopilados podrán utilizarse para mejorar el modelo. - GLM 4.7 Gratis: Durante su periodo gratuito, los datos recopilados podrán utilizarse para mejorar el modelo. - Kimi K2.5 Free: Durante su periodo gratuito, los datos recopilados podrán utilizarse para mejorar el modelo. - MiniMax M2.1 Free: Durante su período gratuito, los datos recopilados podrán utilizarse para mejorar el modelo. - API de OpenAI: las solicitudes se conservan durante 30 días de acuerdo con las [Políticas de datos de OpenAI](https://platform.openai.com/docs/guides/your-data). - API de Anthropic: las solicitudes se conservan durante 30 días de acuerdo con las [Políticas de datos de Anthropic](https://docs.anthropic.com/en/docs/claude-code/data-usage). --- ## Para equipos Zen también funciona muy bien para equipos. Puedes invitar a compañeros de equipo, asignar roles, seleccionar los modelos que utiliza su equipo y más. :::note Actualmente, los espacios de trabajo son gratuitos para los equipos como parte de la versión beta. ::: Actualmente, administrar su espacio de trabajo es gratuito para equipos como parte de la versión beta. estaremos compartiremos más detalles sobre los precios pronto. --- ### Roles Puedes invitar a compañeros de equipo a tu espacio de trabajo y asignar roles: - **Administrador**: administra modelos, miembros, claves API y facturación - **Miembro**: administra solo sus propias claves API Los administradores también pueden establecer límites de gastos mensuales para cada miembro para mantener los costos bajo control. --- ### Acceso al modelo Los administradores pueden habilitar o deshabilitar modelos específicos para el espacio de trabajo. Las solicitudes realizadas a un modelo deshabilitado devolverán un error. Esto es útil para los casos en los que desea desactivar el uso de un modelo que recopila datos. --- ### Trae tu propia llave Puede utilizar sus propias teclas OpenAI o Anthropic API mientras accede a otros modelos en Zen. Cuando utiliza sus propias claves, los tokens los factura directamente el proveedor, no Zen. Por ejemplo, es posible que su organización ya tenga una clave para OpenAI o Anthropic. y quieres usar ese en lugar del que proporciona Zen. --- ## Objetivos Creamos OpenCode Zen para: 1. **Evaluar** los mejores modelos/proveedores de agentes de codificación. 2. Tener acceso a las opciones de **más alta calidad** y no degradar el rendimiento ni recurrir a proveedores más baratos. 3. Transmitir cualquier **bajada de precio** vendiendo al costo; por lo que el único margen de beneficio es para cubrir nuestras tarifas de procesamiento. 4. **No tener ningún bloqueo** al permitirle usarlo con cualquier otro agente de codificación. Y siempre le permitirá utilizar cualquier otro proveedor con OpenCode también.