models.mdx 6.7 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354555657585960616263646566676869707172737475767778798081828384858687888990919293949596979899100101102103104105106107108109110111112113114115116117118119120121122123124125126127128129130131132133134135136137138139140141142143144145146147148149150151152153154155156157158159160161162163164165166167168169170171172173174175176177178179180181182183184185186187188189190191192193194195196197198199200201202203204205206207208209210211212213214215216217218219220221222
  1. ---
  2. title: モデル
  3. description: LLM プロバイダーとモデルを構成します。
  4. ---
  5. OpenCode は [AI SDK](https://ai-sdk.dev/) および [Models.dev](https://models.dev) を使用して **75 以上の LLM プロバイダー** をサポートし、ローカル モデルの実行をサポートします。
  6. ---
  7. ## プロバイダー
  8. 最も一般的なプロバイダーはデフォルトでプリロードされています。 `/connect` コマンドを使用してプロバイダーの資格情報を追加した場合は、OpenCode を開始するときにそれらの資格情報を使用できるようになります。
  9. [プロバイダー](/docs/providers).
  10. ---
  11. ## モデルを選択してください
  12. プロバイダーを構成したら、次のように入力して必要なモデルを選択できます。
  13. ```bash frame="none"
  14. /models
  15. ```
  16. ---
  17. ## 推奨機種
  18. たくさんのモデルがあり、毎週のように新しいモデルが登場します。
  19. :::tip
  20. 当社が推奨するモデルのいずれかの使用を検討してください。
  21. :::
  22. However,
  23. ここでは、OpenCode で適切に動作するいくつかのモデルを順不同で示します。 (これは完全なリストではなく、必ずしも最新であるとは限りません):
  24. - GPT5.2
  25. - GPT 5.1 コーデックス
  26. - クロード 作品4.5
  27. - クロード・ソネット 4.5
  28. - ミニマックス M2.1
  29. - ジェミニ 3 プロ
  30. ---
  31. ## デフォルトを設定する
  32. これらのいずれかをデフォルトのモデルとして設定するには、`model` キーを
  33. OpenCodeの設定。
  34. ```json title="opencode.json" {3}
  35. {
  36. "$schema": "https://opencode.ai/config.json",
  37. "model": "lmstudio/google/gemma-3n-e4b"
  38. }
  39. ```
  40. ここでの完全な ID は `provider_id/model_id` です。たとえば、[OpenCode Zen](/docs/zen) を使用している場合、GPT 5.1 Codex には `opencode/gpt-5.1-codex` を使用します。
  41. [カスタムプロバイダー](/docs/providers#custom) を構成している場合、`provider_id` は構成の `provider` 部分のキーであり、`model_id` は `provider.models` のキーです。
  42. ---
  43. ## モデルの構成
  44. config を通じてモデルのオプションをグローバルに設定できます。
  45. ```jsonc title="opencode.jsonc" {7-12,19-24}
  46. {
  47. "$schema": "https://opencode.ai/config.json",
  48. "provider": {
  49. "openai": {
  50. "models": {
  51. "gpt-5": {
  52. "options": {
  53. "reasoningEffort": "high",
  54. "textVerbosity": "low",
  55. "reasoningSummary": "auto",
  56. "include": ["reasoning.encrypted_content"],
  57. },
  58. },
  59. },
  60. },
  61. "anthropic": {
  62. "models": {
  63. "claude-sonnet-4-5-20250929": {
  64. "options": {
  65. "thinking": {
  66. "type": "enabled",
  67. "budgetTokens": 16000,
  68. },
  69. },
  70. },
  71. },
  72. },
  73. },
  74. }
  75. ```
  76. ここでは、2 つの組み込みモデル (`openai` プロバイダー経由でアクセスする場合は `gpt-5`、`anthropic` プロバイダー経由でアクセスする場合は `claude-sonnet-4-20250514`) のグローバル設定を構成しています。
  77. 組み込みプロバイダーとモデル名は、[Models.dev](https://models.dev).
  78. 使用しているエージェントに対してこれらのオプションを構成することもできます。ここでエージェント設定はグローバル オプションをオーバーライドします。 [詳細はこちら](/docs/agents/#additional)。
  79. 組み込みバリアントを拡張するカスタム バリアントを定義することもできます。バリアントを使用すると、重複したエントリを作成せずに、同じモデルに対して異なる設定を構成できます。
  80. ```jsonc title="opencode.jsonc" {6-21}
  81. {
  82. "$schema": "https://opencode.ai/config.json",
  83. "provider": {
  84. "opencode": {
  85. "models": {
  86. "gpt-5": {
  87. "variants": {
  88. "high": {
  89. "reasoningEffort": "high",
  90. "textVerbosity": "low",
  91. "reasoningSummary": "auto",
  92. },
  93. "low": {
  94. "reasoningEffort": "low",
  95. "textVerbosity": "low",
  96. "reasoningSummary": "auto",
  97. },
  98. },
  99. },
  100. },
  101. },
  102. },
  103. }
  104. ```
  105. ---
  106. ## バリエーション
  107. 多くのモデルは、異なる構成の複数のバリアントをサポートしています。 OpenCode には、一般的なプロバイダーのデフォルトのバリアントが組み込まれています。
  108. ### 組み込みバリアント
  109. OpenCode には、多くのプロバイダーのデフォルトのバリアントが付属しています。
  110. **人間的**:
  111. - `high` - 高度な思考予算 (デフォルト)
  112. - `max` - 最大の思考予算
  113. **OpenAI**:
  114. モデルによって異なりますが、おおよそ次のとおりです。
  115. - `none` - 理由はありません
  116. - `minimal` - 最小限の推論努力
  117. - `low` - 推論の労力が少ない
  118. - `medium` - 中程度の推論努力
  119. - `high` - 高い推論努力
  120. - `xhigh` - 非常に高い推論努力
  121. **グーグル**:
  122. - `low` - 労力/トークン予算の削減
  123. - `high` - より高い労力/トークン予算
  124. :::tip
  125. このリストは包括的なものではありません。他の多くのプロバイダーにもデフォルトが組み込まれています。
  126. :::
  127. ### カスタムバリアント
  128. 既存のバリアントをオーバーライドすることも、独自のバリアントを追加することもできます。
  129. ```jsonc title="opencode.jsonc" {7-18}
  130. {
  131. "$schema": "https://opencode.ai/config.json",
  132. "provider": {
  133. "openai": {
  134. "models": {
  135. "gpt-5": {
  136. "variants": {
  137. "thinking": {
  138. "reasoningEffort": "high",
  139. "textVerbosity": "low",
  140. },
  141. "fast": {
  142. "disabled": true,
  143. },
  144. },
  145. },
  146. },
  147. },
  148. },
  149. }
  150. ```
  151. ### サイクルのバリエーション
  152. キーバインド `variant_cycle` を使用すると、バリアントをすばやく切り替えることができます。 [詳細はこちら](/docs/keybinds)。
  153. ---
  154. ## モデルのロード
  155. OpenCode が起動すると、次の優先順位でモデルがチェックされます。
  156. 1. `--model` または `-m` コマンド ライン フラグ。形式は構成ファイルと同じです: `provider_id/model_id`。
  157. 2. OpenCode 構成内のモデルのリスト。
  158. ```json title="opencode.json"
  159. {
  160. "$schema": "https://opencode.ai/config.json",
  161. "model": "anthropic/claude-sonnet-4-20250514"
  162. }
  163. ```
  164. ここでの形式は `provider/model` です。
  165. 3. 最後に使用されたモデル。
  166. 4. 内部優先を使用した最初のモデル。