料金比較
【2026年5月版】主要AIモデルAPI料金の完全比較一覧
2026年5月時点での主要AIモデルAPI料金を比較します。料金はすべて1MトークンあたりのUSD表記です。
テキスト生成モデル
ハイエンドモデル
| モデル | プロバイダー | 入力 ($/1M) | 出力 ($/1M) |
|---|---|---|---|
| GPT-5.2 Pro | OpenAI | 5.00 | 40.00 |
| Claude Opus 4.7 | Anthropic | 15.00 | 75.00 |
| Gemini 3.0 Pro | 1.25 | 5.00 | |
| Grok 4.2 Beta | xAI | 5.00 | 15.00 |
スタンダードモデル
| モデル | プロバイダー | 入力 ($/1M) | 出力 ($/1M) |
|---|---|---|---|
| GPT-5.2 | OpenAI | 1.25 | 10.00 |
| Gemini 3.0 Flash | 0.075 | 0.30 | |
| DeepSeek V3.2 | DeepSeek | 0.27 | 1.10 |
| Qwen3.6-27B | Alibaba | 0.35 | 1.40 |
| GLM-4.7 | Zhipu AI | 0.50 | 2.00 |
コスト効率分析
最もコスト効率に優れるのは明らかにGoogleのGemini 3.0 Flash(入力$0.075/1M)ですが、性能面ではGPT-5.2やClaude Opus 4.7に劣ります。
性能と価格のバランスでは、DeepSeek V3.2が最も優れたコストパフォーマンスを提供しています。HLEスコア35.60でありながら、入力$0.27/1Mという低価格を実現しています。
バッチ処理の活用
大量のデータを処理する場合、バッチモードの活用で大幅なコスト削減が可能です:
- GPT-5.2: バッチで50%割引
- Claude Opus 4.7: バッチで50%割引
- 各社ともレイテンシは数時間程度
バッチ処理を前提とした設計にすることで、ハイエンドモデルでも手頃な価格で利用できます。
まとめ
- 低コスト重視 → Gemini 3.0 Flash / DeepSeek V3.2
- バランス重視 → DeepSeek V3.2 / Qwen3.6-27B
- 高性能重視 → GPT-5.2 / Claude Opus 4.7
- 最高性能 → GPT-5.2 Pro