モデル一覧に戻る
DeepMindオープンソース

Gemma 4 26B A4B(混合专家模型)

Gemma 4 26B A4Bは、DeepMindが開発した混合専門家(MoE)アーキテクチャを採用した基盤モデルです。約25.2Bのパラメータ規模を持ち、チャット形式の対話に最適化された設計となっています。

パラメータ

25.2B

コンテキスト長

256K

ライセンス

Apache 2.0

リリース日

2026-04

API料金

このモデルのAPI料金情報は現在未公開です。最新情報は各公式サイトでご確認ください。

強み

  • MoEによる効率的な推論
  • 256Kの長いコンテキスト
  • Apache 2.0のオープンライセンス

弱み

  • 特定タスクへの特化不足
  • 大規模モデルへの性能差
  • 運用コストの変動可能性

活用場面

  • 高度なチャットボット開発
  • 長文ドキュメントの解析
  • オープンソースAIの構築