モデル一覧に戻る
DeepSeek-AIオープンソース
DeepSeek V3.2
中国のDeepSeek-AIが開発したオープンソース大規模モデル。Mixture-of-Experts(MoE)アーキテクチャを採用し、685Bパラメータのうち推論時に活性化されるのは一部のみという効率的な設計。MITライセンスで商用利用が可能でありながら、API料金も極めて低価格。
パラメータ
685B (MoE)
コンテキスト長
128K
ライセンス
MIT
リリース日
2026-03-28
API料金
入力料金(1Mトークンあたり)
$0.27
出力料金(1Mトークンあたり)
$1.1
課金モード:標準
強み
- ・MITライセンスで商用利用可能
- ・API料金が極めて低額
- ・MoEアーキテクチャで効率的
- ・128Kコンテキスト対応
弱み
- ・日本語処理能力は日本語特化モデルに劣る
- ・サーバーが中国国内にある場合あり
- ・推論速度がやや遅い
活用場面
- ・コスト重視の大規模処理
- ・オンプレミスでのモデル運用
- ・MoEアーキテクチャの研究
- ・商用サービスへの組み込み