モデル一覧に戻る
DeepMindオープンソース
Gemma 4 26B A4B(混合专家模型)
Gemma 4 26B A4Bは、DeepMindが開発した混合専門家(MoE)アーキテクチャを採用した基盤モデルです。約25.2Bのパラメータ規模を持ち、チャット形式の対話に最適化された設計となっています。
パラメータ
25.2B
コンテキスト長
256K
ライセンス
Apache 2.0
リリース日
2026-04
API料金
このモデルのAPI料金情報は現在未公開です。最新情報は各公式サイトでご確認ください。
強み
- ・MoEによる効率的な推論
- ・256Kの長いコンテキスト
- ・Apache 2.0のオープンライセンス
弱み
- ・特定タスクへの特化不足
- ・大規模モデルへの性能差
- ・運用コストの変動可能性
活用場面
- ・高度なチャットボット開発
- ・長文ドキュメントの解析
- ・オープンソースAIの構築