モデル一覧に戻る
DeepSeek-AIオープンソース

DeepSeek V3.2

中国のDeepSeek-AIが開発したオープンソース大規模モデル。Mixture-of-Experts(MoE)アーキテクチャを採用し、685Bパラメータのうち推論時に活性化されるのは一部のみという効率的な設計。MITライセンスで商用利用が可能でありながら、API料金も極めて低価格。

パラメータ

685B (MoE)

コンテキスト長

128K

ライセンス

MIT

リリース日

2026-03-28

API料金

入力料金(1Mトークンあたり)

$0.27

出力料金(1Mトークンあたり)

$1.1

課金モード:標準

強み

  • MITライセンスで商用利用可能
  • API料金が極めて低額
  • MoEアーキテクチャで効率的
  • 128Kコンテキスト対応

弱み

  • 日本語処理能力は日本語特化モデルに劣る
  • サーバーが中国国内にある場合あり
  • 推論速度がやや遅い

活用場面

  • コスト重視の大規模処理
  • オンプレミスでのモデル運用
  • MoEアーキテクチャの研究
  • 商用サービスへの組み込み