モデル一覧

主要AIモデルの仕様・ライセンス・性能概要を一覧で比較できます。国産モデルも網羅。

Qwen3.6-27B

オープンソース

Alibabaが開発したオープンソースモデルの最新版。27Bパラメータで軽量ながら高性能を実現しており、Apache 2.0ライセンスで商用利用が可能。多言語対応が強化されており、日本語処理能力も前世代から大幅に向上。

開発元

Alibaba

パラメータ

27B

コンテキスト長

128K

タイプ

基盤

入力 $0.35出力 $1.4/1M tokens
詳細を見る

GPT-5.2

プロプライエタリ

OpenAIの主力汎用モデル。前世代GPT-5.1から推論・コーディング性能を大幅に向上させた。256Kトークンのコンテキストウィンドウをサポートし、幅広いタスクで安定した高性能を発揮する。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

256K

タイプ

基盤

入力 $1.25出力 $10/1M tokens
詳細を見る

Claude Opus 4.7

プロプライエタリ

Anthropicの高性能チャットモデル。Mythosアーキテクチャをベースに、対話形式のタスクに最適化されている。Managed Agents機能を搭載し、複雑な業務フローの自動化に対応。

開発元

Anthropic

パラメータ

非公開

コンテキスト長

200K

タイプ

チャット

入力 $15出力 $75/1M tokens
詳細を見る

Claude Mythos Preview

プロプライエタリ

Anthropicの最新推論特化モデル。Mythosアーキテクチャを採用し、HLEベンチマークで64.70を記録するなど、複雑な推論タスクにおいて現在最高水準の性能を発揮する。Managed Agents機能により、自律的なツール利用やマルチステップのタスク実行が可能。安全性と性能の両立を重視した設計が特徴。

開発元

Anthropic

パラメータ

非公開

コンテキスト長

200K

タイプ

推論

入力 $15出力 $75/1M tokens
詳細を見る

Grok 4.2 Beta

プロプライエタリ

xAIが開発する対話特化型モデル。X(旧Twitter)のリアルタイムデータと連携できる点が最大の特徴で、最新の話題やトレンドに基づいた回答が可能。

開発元

xAI

パラメータ

非公開

コンテキスト長

128K

タイプ

チャット

入力 $5出力 $15/1M tokens
詳細を見る

Gemma 4 31B

条件付オープン

Google DeepMindの軽量オープンモデルの最新版。31Bパラメータで効率的な性能を提供し、Gemmaライセンスのもと商用利用も可能(条件あり)。ローカル環境での動作も現実的であり、プライバシー要件の厳しい環境での利用に適する。

開発元

Google DeepMind

パラメータ

31B

コンテキスト長

128K

タイプ

基盤

詳細を見る

DeepSeek V3.2

オープンソース

中国のDeepSeek-AIが開発したオープンソース大規模モデル。Mixture-of-Experts(MoE)アーキテクチャを採用し、685Bパラメータのうち推論時に活性化されるのは一部のみという効率的な設計。MITライセンスで商用利用が可能でありながら、API料金も極めて低価格。

開発元

DeepSeek-AI

パラメータ

685B (MoE)

コンテキスト長

128K

タイプ

基盤

入力 $0.27出力 $1.1/1M tokens
詳細を見る

Gemini 3.0 Pro

プロプライエタリ

Google DeepMindの最新フラッグシップモデル。200万トークンの超長コンテキストをサポートし、テキスト・画像・音声を統合的に処理できるマルチモーダル対応が特徴。

開発元

Google DeepMind

パラメータ

非公開

コンテキスト長

2M

タイプ

基盤

入力 $1.25出力 $5/1M tokens
詳細を見る

GPT-5.1 Codex Max

プロプライエタリ

OpenAIのコーディング特化モデルの最上位版。SWE-bench Verifiedで68.2を記録し、実践的なソフトウェア開発タスクにおいてトップクラスの性能を発揮する。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

256K

タイプ

コーディング

入力 $2.5出力 $15/1M tokens
詳細を見る

Llama-3-Namazu-405B

条件付オープン

Sakana AIが開発した大規模パラメータ版のNamazuモデル。Llama-3-405Bをベースに、日本の文化的・社会的文脈に最適化した事後学習を施している。

開発元

Sakana AI

パラメータ

405B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Namazu-DeepSeek-V3.1-Terminus

オープンソース

Sakana AIが開発した日本特化型オープンLLM。DeepSeek-V3.1-Terminusをベースに、日本の文化的・社会的文脈に合うよう事後学習でバイアスを是正したモデル。政治・歴史・外交テーマにおける中立性と正確性の大幅改善が特徴。

開発元

Sakana AI

パラメータ

685B (MoE)

コンテキスト長

128K

タイプ

基盤

詳細を見る

PLaMo 2.0

条件付オープン

Preferred Networks(PFN)が開発した国産大規模言語モデルの最新版。310億パラメータで、日本語タスクにおいてGPT-4 miniやClaude 2.5に匹敵する性能を実現。さくらインターネット・NICTとの共同プロジェクトにより、NICTが蓄積した700億ページ超の日本語Webデータを学習に活用。

開発元

Preferred Networks

パラメータ

31B

コンテキスト長

32K

タイプ

基盤

入力 ¥50出力 ¥200/1M tokens
詳細を見る

ELYZA-Thinking-1.0-Qwen-32B

条件付オープン

ELYZAが開発した日本初の推論特化型モデル。OpenAIのo1/o3シリーズと同様の「思考の連鎖(Chain-of-Thought)」アプローチを採用し、複雑な推論タスクに特化している。

開発元

ELYZA

パラメータ

32B

コンテキスト長

32K

タイプ

推論

入力 ¥80出力 ¥320/1M tokens
詳細を見る

たかね (Takane)

プロプライエタリ

富士通が開発した企業向け国産大規模言語モデル。13Bパラメータで、金融・医療・法務などの特定ドメインに特化したカスタマイズを提供する戦略を採る。

開発元

富士通

パラメータ

13B

コンテキスト長

8K

タイプ

基盤

詳細を見る

つづみ (tsuzumi)

プロプライエタリ

NTTグループが開発した国産大規模言語モデル。日本語に特化しつつ、NTTグループの通信インフラと深く統合したAIソリューションを提供する構想。

開発元

NTT

パラメータ

7B〜13B

コンテキスト長

8K

タイプ

基盤

詳細を見る

Llama-3-ELYZA-JP-8B

条件付オープン

ELYZAが開発した日本語特化型オープンモデル。MetaのLlama 3をベースに、大量の日本語データでファインチューニングしており、8Bパラメータながら日本語生成の品質は非常に高い。

開発元

ELYZA

パラメータ

8B

コンテキスト長

8K

タイプ

基盤

入力 ¥30出力 ¥120/1M tokens
詳細を見る

Youri-7B

オープンソース

rinnaが開発した日本語特化型オープンソースモデル。70億パラメータで軽量ながら、日本語処理に最適化された学習が施されている。Apache 2.0ライセンスで商用利用が可能。

開発元

rinna

パラメータ

7B

コンテキスト長

8K

タイプ

基盤

詳細を見る

Gemini 3.2 Flash (Unreleased Preview)

プロプライエタリ

Gemini 3.2 Flash (Unreleased Preview)は、Google DeepMindが開発した推論モデルです。2Mという非常に長いコンテキストウィンドウを搭載しており、大規模なデータの処理が可能です。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

2M

タイプ

基盤

詳細を見る

Gemma 4 120B

条件付オープン

Gemma 4 120Bは、Google DeepMindによって開発された基盤モデルです。128Kのコンテキスト長を備え、大規模なパラメータ規模による高度な処理能力を特徴としています。

開発元

Google Deep Mind

パラメータ

1200.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Grok 4.3 Beta (Early Access)

プロプライエタリ

Grok 4.3 Beta (Early Access)は、xAIが開発した推論モデルです。約5兆パラメータという大規模な構成と、200万トークンの極めて長いコンテキストウィンドウを特徴としています。

開発元

xAI

パラメータ

5000.0B

コンテキスト長

2000K

タイプ

基盤

詳細を見る

Happy Horse (Video Generation Model)

プロプライエタリ

Happy Horseは、阿里巴巴によって開発された基盤モデルです。多模態大モデルとして設計されており、ビデオ生成に特化した機能を備えています。

開発元

阿里巴巴

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

文心大模型5.1预览版

プロプライエタリ

文心大模型5.1预览版は、百度によって開発された大規模な推論モデルです。約8兆パラメータという極めて巨大な規模を誇り、128Kのコンテキストウィンドウを備えた基盤モデルです。

開発元

百度

パラメータ

8000.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

DeepSeek V4 Flash

オープンソース

DeepSeek V4 Flashは、DeepSeek-AIによって開発された推論モデルです。約2840Bという大規模なパラメータ数と1Mの長いコンテキストウィンドウを備えています。

開発元

DeepSeek-AI

パラメータ

2840.0B

コンテキスト長

1M

タイプ

基盤

入力 $0.14出力 $/1M tokens
詳細を見る

DeepSeek V4 Pro

オープンソース

DeepSeek V4 Proは、DeepSeek-AIによって開発された大規模な推論モデルです。約16兆パラメータの巨大なスケールと、100万トークンの広範なコンテキストウィンドウを備えています。

開発元

DeepSeek-AI

パラメータ

16000.0B

コンテキスト長

1M

タイプ

基盤

入力 $1.74出力 $/1M tokens
詳細を見る

GPT-5.5

プロプライエタリ

GPT-5.5は、OpenAIが開発したフラッグシップの推論モデルです。Agentプログラミング、コンピュータ操作、ナレッジワークに特化しており、100万トークンの広大なコンテキストウィンドウをサポートしています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

タイプ

基盤

入力 $2.5出力 $/1M tokens
詳細を見る

GPT-5.5 Pro

プロプライエタリ

OpenAIが開発したGPT-5.5 Proは、高度な推論能力を備えた基盤モデルです。1000Kという極めて長いコンテキストウィンドウをサポートしています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

1000K

タイプ

基盤

入力 $30出力 $/1M tokens
詳細を見る

Tencent HunYuan 3 Preview

条件付オープン

Tencent HunYuan 3 Previewは、腾讯AI实验室によって開発された大規模な推論モデルです。約2.95兆パラメータという極めて大きな規模を持ち、256Kの広いコンテキストウィンドウに対応しています。

開発元

腾讯AI实验室

パラメータ

2950.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

GPT-image-2

プロプライエタリ

OpenAIが開発したGPT-image-2は、ネイティブな推論能力を内蔵した最高性能の画像生成モデルです。Thinkingモードによるリアルタイム联网や、高い文字レンダリング精度を備えており、DALL-Eシリーズの後継として展開されます。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

タイプ

推論

入力 $8出力 $/1M tokens
詳細を見る

Kimi K2.6

プロプライエタリ

Kimi K2.6は、Moonshot AIが開発した大規模な推論モデルです。約10兆パラメータという膨大な規模を誇り、256Kの広範なコンテキストウィンドウを備えています。

開発元

Moonshot AI

パラメータ

10000.0B

コンテキスト長

256K

タイプ

基盤

入力 $0.95出力 $/1M tokens
詳細を見る

Qwen3.6-Max-Preview

プロプライエタリ

Qwen3.6-Max-Previewは、阿里巴巴が開発した大規模な基盤モデルです。約10兆パラメータという極めて高い計算能力を持ち、最大262Kの長いコンテキストウィンドウに対応したチャット特化型モデルです。

開発元

阿里巴巴

パラメータ

10000.0B

コンテキスト長

262K

タイプ

基盤

入力 $1.3出力 $/1M tokens
詳細を見る

Gemini 3.1 Flash TTS (preview)

プロプライエタリ

Gemini 3.1 Flash TTS (preview) は、Google DeepMindが開発した音声基盤モデルです。8Kのコンテキストウィンドウを備え、効率的な音声生成を実現します。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

8K

タイプ

基盤

詳細を見る

Qwen3.6-35B-A3B (MoE 架构, 35B 总参数, 3B 激活参数)

オープンソース

Qwen3.6-35B-A3Bは、阿里巴巴が開発した推論モデルです。MoEアーキテクチャを採用し、35Bの総パラメータ数に対し3Bの活性化パラメータ数を実現しており、最大200Kのコンテキスト長をサポートします。

開発元

阿里巴巴

パラメータ

350.0B

コンテキスト長

200K

タイプ

基盤

詳細を見る

Muse Spark by Meta Superintelligence Labs

プロプライエタリ

Muse Spark by Meta Superintelligence Labsは、MetaがAI研究体系を全面的に再構築した後に発表した初の推論モデルです。多模态入力へのネイティブ対応と、マルチエージェント並列推論メカニズムを内蔵しています。

開発元

Facebook AI研究实验室

パラメータ

非公開

コンテキスト長

タイプ

推論

詳細を見る

GLM-5V-Turbo

プロプライエタリ

GLM-5V-Turboは、智谱AIが開発した推論大模型です。200Kのコンテキスト長を備え、高度な推論能力を基盤モデルとして提供しています。

開発元

智谱AI

パラメータ

非公開

コンテキスト長

200K

タイプ

基盤

詳細を見る

Gemma 4 26B A4B(混合专家模型)

オープンソース

Gemma 4 26B A4Bは、DeepMindが開発した混合専門家(MoE)アーキテクチャを採用した基盤モデルです。約25.2Bのパラメータ規模を持ち、チャット形式の対話に最適化された設計となっています。

開発元

DeepMind

パラメータ

25.2B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Gemma 4 E2B(有效2B端侧模型)

オープンソース

Gemma 4 E2Bは、DeepMindが開発したマルチモーダル基盤モデルです。約5.1Bのパラメータ規模を持ちながら、エッジデバイスでの効率的な動作を想定した設計となっています。

開発元

DeepMind

パラメータ

5.1B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Gemma 4 E4B(有效4B端侧高性能模型)

オープンソース

Gemma 4 E4Bは、DeepMindが開発したマルチモーダル基盤モデルです。8.0Bのパラメータ規模を持ちながら、デバイス上での効率的な動作を実現する高性能な設計となっています。

開発元

DeepMind

パラメータ

8.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Qwen 3.6 Plus Preview

プロプライエタリ

Qwen 3.6 Plus Previewは、阿里巴巴によって開発された基盤モデルです。チャット特化型の設計となっており、最大100万トークンの広大なコンテキストウィンドウをサポートしています。

開発元

阿里巴巴

パラメータ

非公開

コンテキスト長

1M

タイプ

基盤

入力 $0.5出力 $/1M tokens
詳細を見る

Qwen3.5-Omni-Flash

プロプライエタリ

Qwen3.5-Omni-Flashは、阿里巴巴が開発した多模态大模型(マルチモーダル基盤モデル)です。256Kの広範なコンテキストウィンドウをサポートしており、効率的な処理を実現します。

開発元

阿里巴巴

パラメータ

非公開

コンテキスト長

256K

タイプ

基盤

詳細を見る

Qwen3.5-Omni-Light

プロプライエタリ

Qwen3.5-Omni-Lightは、阿里巴巴が開発した多模態基盤モデルです。256Kの長い文脈ウィンドウに対応しており、高度なマルチモーダル処理を実現します。

開発元

阿里巴巴

パラメータ

非公開

コンテキスト長

256K

タイプ

基盤

詳細を見る

Qwen3.5-Omni-Plus

プロプライエタリ

Qwen3.5-Omni-Plusは、阿里巴巴が開発した多模态大模型(マルチモーダル基盤モデル)です。256Kの広大なコンテキストウィンドウを備えており、高度な情報の処理能力を有しています。

開発元

阿里巴巴

パラメータ

非公開

コンテキスト長

256K

タイプ

基盤

詳細を見る

GLM 5.1

オープンソース

GLM 5.1は、智谱AIによって開発された推論モデルです。約754.0Bという大規模なパラメータ数と200Kのコンテキストウィンドウを備え、高度な推論能力を提供します。

開発元

智谱AI

パラメータ

754.0B

コンテキスト長

200K

タイプ

基盤

入力 $1.4出力 $/1M tokens
詳細を見る

Cursor Composer 2

プロプライエタリ

Cursor Composer 2は、Cursorによって開発されたプログラミング特化の基盤モデルです。200Kの長いコンテキストウィンドウを備え、高度なコード生成と編集をサポートします。

開発元

Cursor

パラメータ

非公開

コンテキスト長

200K

タイプ

基盤

入力 $0.5出力 $/1M tokens
詳細を見る

MiniMax-M2.7

プロプライエタリ

MiniMax-M2.7は、MiniMaxAIが開発したMoEアーキテクチャ採用の推論モデルです。200K tokensの広範なコンテキストウィンドウをサポートし、モデル自身がトレーニングサイクルを駆動する高度な自己改善能力を備えています。

開発元

MiniMaxAI

パラメータ

非公開

コンテキスト長

タイプ

コーディング

入力 $0.3出力 $/1M tokens
詳細を見る

GPT-5.4 mini

プロプライエタリ

GPT-5.4 miniはOpenAIが開発した推論モデルです。400Kという広範なコンテキストウィンドウをサポートする基盤モデルとして提供されています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

400K

タイプ

基盤

入力 $0.375出力 $/1M tokens
詳細を見る

GPT-5.4 nano

プロプライエタリ

GPT-5.4 nanoは、OpenAIが開発したマルチモーダル基盤モデルです。400Kという広範なコンテキストウィンドウを備えており、高度な情報処理が可能です。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

400K

タイプ

基盤

入力 $0.1出力 $/1M tokens
詳細を見る

GLM-5-Turbo

プロプライエタリ

GLM-5-Turboは、智谱AIによって開発された推論モデルです。200Kの長いコンテキストウィンドウを備え、高度な推論能力を提供します。

開発元

智谱AI

パラメータ

非公開

コンテキスト長

200K

タイプ

基盤

入力 $1.2出力 $/1M tokens
詳細を見る

MiniMax M3

プロプライエタリ

MiniMax M3は、MiniMaxAIが開発したマルチモーダル基盤モデルです。多様なデータ形式を処理する能力を備えており、クローズドライセンスで提供されています。

開発元

MiniMaxAI

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

Gemini Embedding 2

プロプライエタリ

Gemini Embedding 2は、Google DeepMindによって開発されたEmbeddingモデルです。8Kのコンテキスト長を備え、高度なテキスト表現のベクトル化を支援します。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

8K

タイプ

基盤

詳細を見る

GPT-5.4

プロプライエタリ

GPT-5.4はOpenAIが開発したGPT-5シリーズの最新マルチモーダル推論モデルです。複雑な知識作業やソフトウェアエンジニアリング、最大100万トークンの長文解析に最適化されています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

タイプ

推論

入力 $2.5出力 $/1M tokens
詳細を見る

GPT-5.4 Pro

プロプライエタリ

GPT-5.4 ProはOpenAIが開発したマルチモーダル基盤モデルです。100万トークンの広大なコンテキストウィンドウを備えています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

1M

タイプ

基盤

入力 $30出力 $/1M tokens
詳細を見る

Qwen3.5-122B-A10B

プロプライエタリ

Qwen3.5-122B-A10Bは、阿里巴巴が開発した推論モデルです。約1220.0Bという大規模なパラメータ数と、262Kの長いコンテキストウィンドウを備えています。

開発元

阿里巴巴

パラメータ

1220.0B

コンテキスト長

262K

タイプ

基盤

詳細を見る

Qwen3.5-27B

プロプライエタリ

Qwen3.5-27Bは、阿里巴巴によって開発された推論モデルです。約270Bのパラメータ規模を持ち、1010Kという極めて長いコンテキストウィンドウに対応しています。

開発元

阿里巴巴

パラメータ

270.0B

コンテキスト長

1010K

タイプ

基盤

詳細を見る

Qwen3.5-35B-A3B

プロプライエタリ

Qwen3.5-35B-A3Bは、阿里巴巴によって開発された推論モデルです。約350Bのパラメータ規模を誇り、最大1Mの広範なコンテキストウィンドウをサポートしています。

開発元

阿里巴巴

パラメータ

350.0B

コンテキスト長

1M

タイプ

基盤

詳細を見る

GPT-5.3

プロプライエタリ

GPT-5.3はOpenAIが開発した基盤モデルです。1Mの長いコンテキストウィンドウをサポートしており、高度な処理能力を備えています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

1M

タイプ

基盤

詳細を見る

Gemini 3.1 Pro Preview

プロプライエタリ

Gemini 3.1 Pro Previewは、Google DeepMindが開発したマルチモーダル基盤モデルです。100万トークンの広大なコンテキストウィンドウを備えています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

1M

タイプ

基盤

入力 $2出力 $/1M tokens
詳細を見る

Claude Sonnet 4.6

プロプライエタリ

Claude Sonnet 4.6は、Anthropicが開発した基盤モデルです。100万トークンの広大なコンテキストウィンドウを備えたチャット特化型の大規模言語モデルです。

開発元

Anthropic

パラメータ

非公開

コンテキスト長

1M

タイプ

基盤

入力 $3出力 $/1M tokens
詳細を見る

Grok 4.2

プロプライエタリ

Grok 4.2は、xAIによって開発された推論モデルです。200Kの長いコンテキストウィンドウを備え、高度な推論能力を提供します。

開発元

xAI

パラメータ

非公開

コンテキスト長

200K

タイプ

基盤

詳細を見る

Qwen3.5-35B-A3B-Instruct

オープンソース

Qwen3.5-35B-A3B-Instructは、阿里巴巴によって開発された基盤モデルです。大規模なパラメータ数と256Kの長いコンテキストウィンドウを備えたチャット特化型モデルです。

開発元

阿里巴巴

パラメータ

350.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Qwen3.5-397B-A17B

オープンソース

Qwen3.5-397B-A17Bは、阿里巴巴によって開発された多模態基盤モデルです。約397.0Bのパラメータ規模を持ち、最大256Kの長いコンテキストウィンドウをサポートしています。

開発元

阿里巴巴

パラメータ

397.0B

コンテキスト長

256K

タイプ

基盤

入力 $0.5出力 $/1M tokens
詳細を見る

Qwen3.5-9B-Instruct

オープンソース

Qwen3.5-9B-Instructは、阿里巴巴によって開発された基盤モデルです。チャット特化型の設計となっており、128Kの長いコンテキストウィンドウをサポートしています。

開発元

阿里巴巴

パラメータ

90.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Gemini 3 Deep Think February 2026 Upgrade

プロプライエタリ

Gemini 3 Deep Think February 2026 Upgradeは、Google DeepMindが開発した推論モデルです。1Mの広大なコンテキストウィンドウを備えており、高度な推論能力を提供します。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

1M

タイプ

推論

詳細を見る

GPT-5.3-Codex-Spark (Research Preview)

プロプライエタリ

GPT-5.3-Codex-Spark (Research Preview)は、OpenAIが開発したコーディング特化型のAIモデルです。128Kのコンテキストウィンドウを備え、高度なプログラミング支援を目的としています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

128K

タイプ

コーディング

詳細を見る

MiniMax M2.5

プロプライエタリ

MiniMax M2.5は、MiniMaxAIが開発した大規模な推論モデルです。約2.29兆パラメータという膨大な規模を持ち、128Kのコンテキストウィンドウに対応しています。

開発元

MiniMaxAI

パラメータ

2290.0B

コンテキスト長

128K

タイプ

基盤

入力 $0.3出力 $/1M tokens
詳細を見る

GLM-5

オープンソース

GLM-5は、智谱AIによって開発された大規模な基盤モデルです。約7.4兆パラメータという極めて大きな規模を持ち、200Kの長いコンテキストウィンドウに対応したチャット特化型モデルです。

開発元

智谱AI

パラメータ

7440.0B

コンテキスト長

200K

タイプ

基盤

入力 $1出力 $/1M tokens
詳細を見る

Seedance 2.0

プロプライエタリ

Seedance 2.0は、字节跳动Seed团队によって開発されたマルチモーダル基盤モデルです。最大128Kのコンテキストウィンドウをサポートし、高度な多角的データ処理を実現します。

開発元

字节跳动Seed团队

パラメータ

非公開

コンテキスト長

128K

タイプ

基盤

詳細を見る

Cursor Composer 1.5

プロプライエタリ

Cursorのfoundationモデル。

開発元

Cursor

パラメータ

非公開

コンテキスト長

200K

タイプ

基盤

入力 $3.5出力 $/1M tokens
詳細を見る

Qwen-Image-2.0

プロプライエタリ

Qwen-Image-2.0は、阿里巴巴が開発した多模态大模型(マルチモーダルAIモデル)です。高度な視覚情報の処理能力を備え、コンテキストウィンドウは1Kトークンに対応しています。

開発元

阿里巴巴

パラメータ

非公開

コンテキスト長

1K

タイプ

基盤

詳細を見る

Claude Sonnet 5

プロプライエタリ

Claude Sonnet 5は、Anthropicが開発したマルチモーダル基盤モデルです。100万トークンの広大なコンテキストウィンドウをサポートしており、高度な情報処理が可能です。

開発元

Anthropic

パラメータ

非公開

コンテキスト長

1M

タイプ

基盤

詳細を見る

Anthropic Claude Opus 4.6

プロプライエタリ

Anthropicが開発したClaude Opus 4.6は、高度な思考能力を持つ推論モデルです。1000Kという極めて長いコンテキストウィンドウを備えた、クローズドソースの基盤モデルです。

開発元

Anthropic

パラメータ

非公開

コンテキスト長

1000K

タイプ

基盤

入力 $2.5出力 $/1M tokens
詳細を見る

GPT-5.3 Codex

プロプライエタリ

GPT-5.3 Codexは、OpenAIが開発したプログラミング特化型の基盤モデルです。400Kという非常に長いコンテキストウィンドウを備え、大規模なコードベースの処理に適しています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

400K

タイプ

コーディング

詳細を見る

GLM-OCR

オープンソース

GLM-OCRは、智谱AIが開発した視覚大模型です。約90億パラメータの規模を持ち、Apache 2.0ライセンスで公開されているオープンなマルチモーダルモデルです。

開発元

智谱AI

パラメータ

9.0B

コンテキスト長

8K

タイプ

基盤

詳細を見る

Qwen3-Coder-Next

プロプライエタリ

Qwen3-Coder-Nextは、阿里巴巴(Alibaba)によって開発されたプログラミング特化の基盤モデルです。80Bのパラメータ規模と256Kの長いコンテキストウィンドウを備え、高度なコード生成および解析を実現します。

開発元

阿里巴巴

パラメータ

80.0B

コンテキスト長

256K

タイプ

コーディング

詳細を見る

Step 3.5 Flash

オープンソース

StepFunAIが開発したStep 3.5 Flashは、約1.96兆パラメータを搭載した大規模な基盤モデルです。256Kの広範なコンテキストウィンドウを備え、高度なチャット機能を提供します。

開発元

StepFunAI

パラメータ

1960.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Doubao Seed 2.0 Lite

プロプライエタリ

Doubao Seed 2.0 Liteは、字节跳动Seed团队によって開発されたマルチモーダル基盤モデルです。最大256kの広範なコンテキストウィンドウをサポートしており、高度な多形式データの処理が可能です。

開発元

字节跳动Seed团队

パラメータ

非公開

コンテキスト長

256

タイプ

基盤

詳細を見る

Doubao Seed 2.0 Pro

プロプライエタリ

Doubao Seed 2.0 Proは、字节跳动Seed团队によって開発された推論モデルです。256kの広大なコンテキストウィンドウを備え、高度な推論タスクに対応する基盤モデルとして提供されています。

開発元

字节跳动Seed团队

パラメータ

非公開

コンテキスト長

256

タイプ

基盤

詳細を見る

PaddleOCR-VL-1.5

オープンソース

PaddleOCR-VL-1.5は、百度が開発した多模态大模型です。パラメータ規模は約0.9Bで、Apache 2.0ライセンスの下で公開されています。

開発元

百度

パラメータ

0.9B

コンテキスト長

タイプ

基盤

詳細を見る

Qwen3-ASR

オープンソース

Qwen3-ASRは、阿里巴巴によって開発された音声大模型です。8.0Bのパラメータ規模と128Kのコンテキスト長を備え、Apache 2.0ライセンスの下で公開されています。

開発元

阿里巴巴

パラメータ

8.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

DeepSeek-OCR 2

プロプライエタリ

DeepSeek-OCR 2は、DeepSeek-AIによって開発されたマルチモーダル大模型です。約3.5Bのパラメータ規模を持ち、32Kのコンテキスト長に対応した効率的なモデルとなっています。

開発元

DeepSeek-AI

パラメータ

3.5B

コンテキスト長

32K

タイプ

基盤

詳細を見る

Tencent HunyuanImage-3.0-Instruct

条件付オープン

Tencent HunyuanImage-3.0-Instructは、腾讯AI实验室によって開発された視覚大模型です。約800Bという大規模なパラメータ規模を持ち、128Kのコンテキスト長に対応しています。

開発元

腾讯AI实验室

パラメータ

800.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Kimi K2.5

プロプライエタリ

Kimi K2.5は、Moonshot AIが開発したマルチモーダル基盤モデルです。約10兆パラメータという大規模なスケールと256Kのコンテキストウィンドウを備えています。

開発元

Moonshot AI

パラメータ

10000.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Qwen3-Max-Thinking

プロプライエタリ

Qwen3-Max-Thinkingは、阿里巴巴によって開発された推論モデルです。約10兆パラメータという大規模な構成と、100万トークンの非常に長いコンテキストウィンドウを備えています。

開発元

阿里巴巴

パラメータ

10000.0B

コンテキスト長

1000K

タイプ

推論

詳細を見る

ByteDance-Seed/Stable-DiffCoder-8B-Base

オープンソース

ByteDance-Seed/Stable-DiffCoder-8B-Baseは、字节跳动Seed团队によって開発されたプログラミング特化の基盤モデルです。約80Bのパラメータ規模を持ち、効率的なコード生成と推論を目的として設計されています。

開発元

字节跳动Seed团队

パラメータ

80.0B

コンテキスト長

8K

タイプ

コーディング

詳細を見る

Qwen3-TTS-12Hz-0.6B-CustomVoice

プロプライエタリ

Qwen3-TTS-12Hz-0.6B-CustomVoiceは、阿里巴巴が開発した音声大模型です。約60億パラメータの規模を持ち、高度な音声合成機能を提供します。

開発元

阿里巴巴

パラメータ

6.0B

コンテキスト長

タイプ

基盤

詳細を見る

Qwen3-TTS-12Hz-1.7B-Base

オープンソース

Qwen3-TTS-12Hz-1.7B-Baseは、阿里巴巴によって開発された音声基盤モデルです。17.0Bのパラメータ規模を持ち、高度な音声生成を実現します。

開発元

阿里巴巴

パラメータ

17.0B

コンテキスト長

タイプ

基盤

詳細を見る

Qwen3-TTS-12Hz-1.7B-CustomVoice

オープンソース

Qwen3-TTS-12Hz-1.7B-CustomVoiceは、阿里巴巴が開発した音声大模型です。170億パラメータの規模を持ち、効率的な音声合成と処理を実現します。

開発元

阿里巴巴

パラメータ

17.0B

コンテキスト長

8K

タイプ

基盤

詳細を見る

Qwen3-TTS-12Hz-1.7B-CustomVoice-2B

プロプライエタリ

Qwen3-TTS-12Hz-1.7B-CustomVoice-2Bは、阿里巴巴によって開発された音声大模型です。高度な音声合成機能を提供し、効率的な音声処理を実現します。

開発元

阿里巴巴

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

Qwen3-TTS-12Hz-1.7B-VoiceDesign-2B

プロプライエタリ

Qwen3-TTS-12Hz-1.7B-VoiceDesign-2Bは、阿里巴巴によって開発された音声大模型です。高度な音声生成および設計機能を備えたモデルとして提供されています。

開発元

阿里巴巴

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

GLM-4.7-Flash

オープンソース

GLM-4.7-Flashは、智谱AIによって開発された推論モデルです。約310.0Bのパラメータ規模を持ち、200Kの長いコンテキストウィンドウに対応しています。

開発元

智谱AI

パラメータ

310.0B

コンテキスト長

200K

タイプ

基盤

詳細を見る

Qwen3-TTS-12Hz-0.6B-Base

オープンソース

Qwen3-TTS-12Hz-0.6B-Baseは、阿里巴巴が開発した音声大モデルです。約6.0Bのパラメータ規模を持ち、Apache 2.0ライセンスの下で公開されています。

開発元

阿里巴巴

パラメータ

6.0B

コンテキスト長

4K

タイプ

基盤

詳細を見る

TranslateGemma 12B

条件付オープン

Google DeepMindが開発したTranslateGemma 12Bは、翻訳に特化した基盤モデルです。128Kの長いコンテキストウィンドウを備え、高度な翻訳タスクに対応します。

開発元

Google Deep Mind

パラメータ

13.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

TranslateGemma 27B

条件付オープン

TranslateGemma 27Bは、Google Deep Mindによって開発された翻訳特化の基盤モデルです。約29Bのパラメータ規模を持ち、最大128Kの長いコンテキストウィンドウに対応しています。

開発元

Google Deep Mind

パラメータ

29.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

TranslateGemma 4B

条件付オープン

TranslateGemma 4Bは、Google DeepMindが開発した翻訳特化型の基盤モデルです。約50億パラメーターの規模を持ち、128Kの長いコンテキストウィンドウに対応しています。

開発元

Google Deep Mind

パラメータ

5.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

GLM-Image

オープンソース

GLM-Imageは、智谱AIによって開発された視覚大模型です。約160Bのパラメータ規模を持ち、MITライセンスの下で公開されているオープンなマルチモーダルモデルです。

開発元

智谱AI

パラメータ

160.0B

コンテキスト長

4K

タイプ

基盤

詳細を見る

MiniMax-M2.2

プロプライエタリ

MiniMax-M2.2は、MiniMaxAIによって開発された基盤モデルです。チャット特化型の大型言語モデルとして位置付けられており、クローズドライセンスで提供されています。

開発元

MiniMaxAI

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

Baichuan-M3-235B

オープンソース

Baichuan-M3-235Bは、百川智能によって開発された基盤モデルです。約2350Bという大規模なパラメータ数を持ち、チャット用途に特化した設計となっています。

開発元

百川智能

パラメータ

2350.0B

コンテキスト長

タイプ

基盤

詳細を見る

MedGemma 1.5 4B

オープンソース

MedGemma 1.5 4Bは、Google Researchが開発したマルチモーダル基盤モデルです。約40.0Bのパラメータ規模を持ち、128Kの長いコンテキストウィンドウに対応しています。

開発元

Google Research

パラメータ

40.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

AgentCPM-Explore

オープンソース

AgentCPM-Exploreは、OpenBMBが開発した推論モデルです。約40.0Bのパラメータ規模を持ち、Apache 2.0ライセンスの下で公開されています。

開発元

OpenBMB

パラメータ

40.0B

コンテキスト長

タイプ

基盤

詳細を見る

Qwen3 Vision-Language Embedding 2B

オープンソース

Qwen3 Vision-Language Embedding 2Bは、阿里巴巴によって開発されたembeddingモデルです。Apache 2.0ライセンスで公開されており、32Kのコンテキスト長をサポートしています。

開発元

阿里巴巴

パラメータ

20.0B

コンテキスト長

32K

タイプ

基盤

詳細を見る

Qwen3 Vision-Language Embedding 8B

オープンソース

Qwen3 Vision-Language Embedding 8Bは、阿里巴巴が開発したembeddingモデルです。32Kのコンテキスト長を備え、Apache 2.0ライセンスの下で公開されています。

開発元

阿里巴巴

パラメータ

80.0B

コンテキスト長

32K

タイプ

基盤

詳細を見る

Qwen3 Vision-Language Reranker 2B

オープンソース

Qwen3 Vision-Language Reranker 2Bは、阿里巴巴が開発したマルチモーダル対応の推論モデルです。効率的なパラメータ規模で高度な再ランキング処理を実現します。

開発元

阿里巴巴

パラメータ

20.0B

コンテキスト長

32K

タイプ

基盤

詳細を見る

Qwen3 Vision-Language Reranker 8B

オープンソース

Qwen3 Vision-Language Reranker 8Bは、阿里巴巴が開発したembeddingモデルです。Apache 2.0ライセンスの下で公開されており、32Kのコンテキスト長に対応しています。

開発元

阿里巴巴

パラメータ

80.0B

コンテキスト長

32K

タイプ

基盤

詳細を見る

IQuest-Coder-V1-40B-Instruct

プロプライエタリ

IQuest-Coder-V1-40B-Instructは、iquestlabによって開発されたプログラミング特化型の基盤モデルです。約400Bのパラメータ規模を誇り、最大128Kの長いコンテキストウィンドウをサポートしています。

開発元

iquestlab

パラメータ

400.0B

コンテキスト長

128K

タイプ

コーディング

詳細を見る

IQuest-Coder-V1-40B-Loop-Instruct

プロプライエタリ

IQuest-Coder-V1-40B-Loop-Instructは、iquestlabによって開発されたプログラミング特化型の基盤モデルです。約400Bの大規模なパラメータ数と128Kの長いコンテキストウィンドウを搭載しています。

開発元

iquestlab

パラメータ

400.0B

コンテキスト長

128K

タイプ

コーディング

詳細を見る

Qwen-Image-2512

オープンソース

Qwen-Image-2512は、阿里巴巴が開発した多模态大模型(マルチモーダルモデル)です。約200Bのパラメータ規模を持ち、Apache 2.0ライセンスの下で公開されています。

開発元

阿里巴巴

パラメータ

200.0B

コンテキスト長

タイプ

基盤

詳細を見る

XVERSE-Ent-A4.2B

プロプライエタリ

XVERSE-Ent-A4.2Bは、元象XVERSEが開発した基盤モデルです。約250.0Bのパラメータ規模を持ち、8Kのコンテキストウィンドウに対応しています。

開発元

元象XVERSE

パラメータ

250.0B

コンテキスト長

8K

タイプ

基盤

詳細を見る

XVERSE-Ent-A5.7B

プロプライエタリ

XVERSE-Ent-A5.7Bは、元象XVERSEによって開発された基盤モデルです。約360.0Bのパラメータ規模を持ち、8Kのコンテキストウィンドウに対応しています。

開発元

元象XVERSE

パラメータ

360.0B

コンテキスト長

8K

タイプ

基盤

詳細を見る

NextStep-1.1

オープンソース

NextStep-1.1は、StepFunAIによって開発された視覚大模型(VLM)です。約150.0Bのパラメータ規模を持つ基盤モデルであり、Apache 2.0ライセンスの下で公開されています。

開発元

StepFunAI

パラメータ

150.0B

コンテキスト長

タイプ

基盤

詳細を見る

MiniMax M2.1 Preview

プロプライエタリ

MiniMax M2.1 Previewは、MiniMaxAIによって開発された基盤モデルです。約2.3兆パラメータという大規模なスケールと200Kの長いコンテキストウィンドウを備えた、チャット特化型のモデルです。

開発元

MiniMaxAI

パラメータ

2300.0B

コンテキスト長

200K

タイプ

基盤

詳細を見る

Qwen-Image-Edit-2511

オープンソース

Qwen-Image-Edit-2511は、阿里巴巴によって開発された視覚大モデルです。Apache 2.0ライセンスの下で公開されており、画像編集などのマルチモーダルなタスクに対応しています。

開発元

阿里巴巴

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

GLM-4.7

オープンソース

GLM-4.7は、智谱AIが開発した大規模な基盤モデルです。約3.58兆パラメータという極めて高いスケールを誇り、200Kの長いコンテキストウィンドウを備えたチャット特化型モデルです。

開発元

智谱AI

パラメータ

3580.0B

コンテキスト長

200K

タイプ

基盤

詳細を見る

Google Nano Banana 2 (Rumored)

プロプライエタリ

Google Nano Banana 2 (Rumored)は、Google DeepMindによって開発された基盤モデルです。視覚大模型として位置付けられており、クローズドライセンスで提供されます。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

FunctionGemma 270M IT

条件付オープン

FunctionGemma 270M ITは、Google Deep Mindが開発した基盤モデルです。約2.7Bのパラメータ規模を持ち、最大32Kのコンテキスト長に対応しています。

開発元

Google Deep Mind

パラメータ

2.7B

コンテキスト長

32K

タイプ

基盤

詳細を見る

GPT-5.2-Codex

プロプライエタリ

GPT-5.2-Codexは、OpenAIによって開発されたプログラミング特化型の基盤モデルです。高度なコード生成能力を備え、クローズドソースとして提供されています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

タイプ

コーディング

詳細を見る

Gemini 3.0 Flash

プロプライエタリ

Gemini 3.0 Flashは、Google DeepMindが開発した基盤モデルです。チャット特化型の設計となっており、2000Kという非常に長いコンテキストウィンドウを備えています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

2000K

タイプ

基盤

詳細を見る

OpenAI GPT Realtime Mini - 2025-12-15

プロプライエタリ

OpenAI GPT Realtime Mini - 2025-12-15は、OpenAIが開発した多模態基盤モデルです。クローズドソースのライセンス形式で提供されています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

OpenAI GPT-4o Mini TTS - 2025-12-15

プロプライエタリ

OpenAIが開発したOpenAI GPT-4o Mini TTS - 2025-12-15は、音声生成に特化した音声大模型です。クローズドソースのライセンス形式で提供されています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

OpenAI GPT-4o Mini Transcribe - 2025-12-15

プロプライエタリ

OpenAI GPT-4o Mini Transcribe - 2025-12-15は、OpenAIが開発した音声特化の基盤モデルです。高度な音声処理能力を備え、効率的な文字起こしや音声認識を実現します。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

Seed1.6-Embedding-1215

プロプライエタリ

Seed1.6-Embedding-1215は、字节跳动Seed团队によって開発されたembeddingモデルです。2025年12月15日にリリースされ、クローズドライセンスで提供されています。

開発元

字节跳动Seed团队

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

OpenAI GPT-5.2

プロプライエタリ

OpenAIが開発した基盤モデルであるOpenAI GPT-5.2は、高度な対話能力を持つチャット特化型モデルです。最大400Kという広大なコンテキストウィンドウをサポートしています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

400K

タイプ

基盤

入力 $0.875出力 $/1M tokens
詳細を見る

OpenAI GPT-5.2 Instant

プロプライエタリ

OpenAI GPT-5.2 Instantは、OpenAIによって開発された基盤モデルです。チャット向けに最適化されており、256Kの広範なコンテキストウィンドウをサポートしています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

256K

タイプ

基盤

詳細を見る

OpenAI GPT-5.2 Pro

プロプライエタリ

OpenAI GPT-5.2 Proは、OpenAIが開発した高度な推論モデルです。256Kの大規模なコンテキストウィンドウを備え、複雑な推論タスクに最適化された基盤モデルとして提供されています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

256K

タイプ

基盤

詳細を見る

GLM-ASR-2512

プロプライエタリ

GLM-ASR-2512は、智谱AIによって開発された音声大模型です。高度な音声処理能力を備えたクローズドソースのモデルとして提供されています。

開発元

智谱AI

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

GLM-ASR-Nano-2512

オープンソース

GLM-ASR-Nano-2512は、智谱AIによって開発された音声大模型です。約20.0Bのパラメータ規模を持ち、Apache 2.0ライセンスの下で公開されています。

開発元

智谱AI

パラメータ

20.0B

コンテキスト長

タイプ

基盤

詳細を見る

Gemini 2.5 Flash Native Audio - 2512

プロプライエタリ

Gemini 2.5 Flash Native Audio - 2512は、Google DeepMindが開発した音声特化のAIモデルです。128Kのコンテキストウィンドウを備え、高度な音声処理を実現する基盤モデルとして設計されています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

128K

タイプ

基盤

詳細を見る

GLM-4.6V 106B-A12B

オープンソース

GLM-4.6V 106B-A12Bは、智谱AIによって開発された多模態基盤モデルです。128Kのコンテキストウィンドウを搭載し、MITライセンスの下で公開されています。

開発元

智谱AI

パラメータ

1080.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

GLM-4.6V-Flash 9B

オープンソース

GLM-4.6V-Flash 9Bは、智谱AIによって開発された多模態基盤モデルです。約90.0Bのパラメータ規模を持ち、128Kのコンテキストウィンドウに対応しています。

開発元

智谱AI

パラメータ

90.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Gemini 3 Pro – Deep Think Mode

プロプライエタリ

Gemini 3 Pro – Deep Think Modeは、Google Deep Mindによって開発された推論モデルです。高度な論理的思考に特化した設計となっており、クローズドライセンスで提供されています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

タイプ

推論

詳細を見る

Amazon Nova 2 Lite

プロプライエタリ

Amazon Nova 2 Liteは、Amazonによって開発された推論モデルです。1000Kという非常に長いコンテキストウィンドウを備えており、高度な推論能力を提供します。

開発元

亚马逊

パラメータ

非公開

コンテキスト長

1000K

タイプ

基盤

詳細を見る

Amazon Nova 2 Omni(Preview)

プロプライエタリ

Amazon Nova 2 Omni(Preview)は、Amazonが開発した多模态大模型(マルチモーダル基盤モデル)です。1000Kという極めて長いコンテキストウィンドウを備えているのが特徴です。

開発元

亚马逊

パラメータ

非公開

コンテキスト長

1000K

タイプ

基盤

詳細を見る

Amazon Nova 2 Pro(Preview)

プロプライエタリ

Amazon Nova 2 Pro(Preview)は、亚马逊が開発した推論モデルです。1000Kという非常に長いコンテキストウィンドウを備えた基盤モデルとして提供されています。

開発元

亚马逊

パラメータ

非公開

コンテキスト長

1000K

タイプ

基盤

詳細を見る

Amazon Nova 2 Sonic

プロプライエタリ

Amazon Nova 2 Sonicは、Amazonが開発した音声特化型の基盤モデルです。100万トークンという極めて長いコンテキストウィンドウを備えているのが特徴です。

開発元

亚马逊

パラメータ

非公開

コンテキスト長

1000K

タイプ

基盤

詳細を見る

Ministral 3 14B (v25.12, Base/Instruct/Reasoning)

オープンソース

MistralAIが開発したMinistral 3 14Bは、高度な推論能力を持つマルチモーダル基盤モデルです。256Kの長いコンテキストウィンドウを備え、Apache 2.0ライセンスの下で公開されています。

開発元

MistralAI

パラメータ

140.0B

コンテキスト長

256K

タイプ

推論

詳細を見る

Ministral 3 8B (v25.12, Base/Instruct/Reasoning)

オープンソース

Ministral 3 8Bは、MistralAIが開発した推論機能を備えたマルチモーダル大規模言語モデルです。256Kの長いコンテキストウィンドウをサポートし、Apache 2.0ライセンスの下で公開されています。

開発元

MistralAI

パラメータ

80.0B

コンテキスト長

256K

タイプ

推論

詳細を見る

Mistral Large 3 (v25.12, Base/Instruct)

オープンソース

Mistral Large 3 (v25.12, Base/Instruct)は、MistralAIが開発したマルチモーダル基盤モデルです。約6.75兆パラメータの巨大なスケールと256Kの広範なコンテキストウィンドウを備えています。

開発元

MistralAI

パラメータ

6750.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

DeepSeek V3.2 Speciale

プロプライエタリ

DeepSeek-AIが開発したDeepSeek V3.2 Specialeは、高い計算能力を持つ推論特化型の基盤モデルです。出力制限を緩和することで複雑な推論能力を向上させており、数学や情報オリンピックなどのトップレベルの競技プログラミングで金牌レベルの性能を実現しています。

開発元

DeepSeek-AI

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

DeepSeekMath-V2

オープンソース

DeepSeekMath-V2は、DeepSeek-AIによって開発された推論モデルです。約6.85兆という大規模なパラメータ数を持ち、108Kの長いコンテキストウィンドウに対応しています。

開発元

DeepSeek-AI

パラメータ

6850.0B

コンテキスト長

108K

タイプ

基盤

詳細を見る

Z-Image-Turbo (6B)

オープンソース

Z-Image-Turbo (6B)は、阿里巴巴が開発した視覚大模型(マルチモーダル基盤モデル)です。約60Bのパラメータ規模を持ち、Apache 2.0ライセンスの下で公開されています。

開発元

阿里巴巴

パラメータ

60.0B

コンテキスト長

4096

タイプ

基盤

詳細を見る

Claude Opus 4.5

プロプライエタリ

Claude Opus 4.5は、Anthropicが開発した基盤モデルです。高度な推論能力を備えた推論モデルとして位置づけられており、200Kの広範なコンテキストウィンドウをサポートしています。

開発元

Anthropic

パラメータ

非公開

コンテキスト長

200K

タイプ

基盤

入力 $2.5出力 $/1M tokens
詳細を見る

Google Gemini 3.0 Flash Lite(Unannounced / Rumored)

プロプライエタリ

Google DeepMindが開発したマルチモーダル基盤モデルです。128Kのコンテキストウィンドウを備え、効率的な処理を目的とした軽量設計となっています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

128K

タイプ

基盤

詳細を見る

GPT-5.1 Pro

プロプライエタリ

GPT-5.1 Proは、OpenAIによって開発された基盤モデルです。推論モデルとして定位されており、400Kの広範なコンテキストウィンドウを備えています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

400K

タイプ

基盤

詳細を見る

Google Nano Banana Pro

プロプライエタリ

Google Nano Banana Proは、Google DeepMindによって開発されたマルチモーダル基盤モデルです。最大400Kの長いコンテキストウィンドウをサポートしています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

400K

タイプ

基盤

詳細を見る

Grok 4.1 Fast

プロプライエタリ

Grok 4.1 Fastは、xAIが開発した推論モデルです。200万トークンの非常に長いコンテキストウィンドウを備えており、高度な推論処理を高速に行う設計となっています。

開発元

xAI

パラメータ

非公開

コンテキスト長

2M

タイプ

基盤

詳細を見る

OpenAI GPT-5.1-Codex-Max

プロプライエタリ

OpenAI GPT-5.1-Codex-Maxは、OpenAIによって開発されたプログラミング特化の基盤モデルです。400Kという非常に長いコンテキストウィンドウを備えており、大規模なコードベースの処理に適しています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

400K

タイプ

コーディング

詳細を見る

Gemini 3.0 Pro preview-11-2025

プロプライエタリ

Gemini 3.0 Pro preview-11-2025は、Google Deep Mindが開発したマルチモーダル基盤モデルです。100万トークンの極めて長いコンテキストウィンドウを備えています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

1000K

タイプ

基盤

詳細を見る

xAI Grok 4.1 (Non-Thinking, codename: tensor)

プロプライエタリ

xAIが開発したxAI Grok 4.1 (Non-Thinking, codename: tensor)は、2025年11月17日にリリースされた推論モデルです。クローズドライセンスで提供されており、コーダーとしての機能を提供します。

開発元

xAI

パラメータ

非公開

コンテキスト長

タイプ

コーディング

詳細を見る

xAI Grok 4.1 (Thinking, codename: quasarflux)

プロプライエタリ

xAIが開発したxAI Grok 4.1 (Thinking, codename: quasarflux)は、高度な推論能力を備えた推論モデルです。クローズドソースとして提供されており、複雑な問題解決に特化した設計となっています。

開発元

xAI

パラメータ

非公開

コンテキスト長

タイプ

コーディング

詳細を見る

OpenAI GPT-5.1 Codex

プロプライエタリ

OpenAI GPT-5.1 Codexは、OpenAIによって開発されたプログラミング特化型の基盤モデルです。400Kという広範なコンテキストウィンドウを備えています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

400K

タイプ

コーディング

詳細を見る

OpenAI GPT-5.1 Codex Mini

プロプライエタリ

OpenAIが開発したOpenAI GPT-5.1 Codex Miniは、プログラミングに特化した基盤モデルです。コード生成や開発効率の向上を目的として設計されています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

タイプ

コーディング

詳細を見る

Baidu ERNIE 5.0

プロプライエタリ

Baidu ERNIE 5.0は、百度が開発した大規模なマルチモーダル基盤モデルです。約24兆という膨大なパラメータ規模を持ち、高度な処理能力を備えています。

開発元

百度

パラメータ

24000.0B

コンテキスト長

タイプ

基盤

詳細を見る

GPT-5.1

プロプライエタリ

GPT-5.1はOpenAIが開発した基盤モデルです。推論モデルとして位置づけられており、400Kという広範なコンテキストウィンドウを備えています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

400K

タイプ

基盤

詳細を見る

GPT-5.1 Instant

プロプライエタリ

GPT-5.1 InstantはOpenAIが開発した推論モデルです。400Kの長いコンテキストウィンドウを備え、高度な推論能力を提供します。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

400K

タイプ

基盤

入力 $1.25出力 $/1M tokens
詳細を見る

ERNIE-4.5-VL-28B-A3B-Thinking Multimodal Reasoning Model

オープンソース

ERNIE-4.5-VL-28B-A3B-Thinking Multimodal Reasoning Modelは、百度が開発したマルチモーダル推論モデルです。約280Bのパラメータ規模と131Kのコンテキストウィンドウを備え、高度な推論能力を提供します。

開発元

百度

パラメータ

280.0B

コンテキスト長

131K

タイプ

推論

詳細を見る

OpenAI GPT-5-Codex-Mini

プロプライエタリ

OpenAIが開発したOpenAI GPT-5-Codex-Miniは、プログラミングに特化したコーダーモデルです。2025年11月7日にリリースされ、クローズドライセンスで提供されています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

タイプ

コーディング

詳細を見る

Kimi K2 Thinking

プロプライエタリ

Kimi K2 Thinkingは、Moonshot AIによって開発された推論モデルです。約10.4兆パラメータという大規模なモデル構成と、256Kの長いコンテキストウィンドウを備えています。

開発元

Moonshot AI

パラメータ

10400.0B

コンテキスト長

256K

タイプ

推論

詳細を見る

MiniMax Speech 2.6

プロプライエタリ

MiniMax Speech 2.6は、MiniMaxAIによって開発された音声大模型です。ストリーミング形式のコンテキスト処理に対応しており、高度な音声生成および認識を提供します。

開発元

MiniMaxAI

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

文心一言 ERNIE 5.0 Thinking Preview

プロプライエタリ

百度が開発した推論モデル、文心一言 ERNIE 5.0 Thinking Previewです。約24兆パラメータという大規模な構成と128Kのコンテキストウィンドウを備えた高度な推論能力を持つ基盤モデルです。

開発元

百度

パラメータ

24000.0B

コンテキスト長

128K

タイプ

推論

詳細を見る

Composer 1

プロプライエタリ

Composer 1は、Cursorによって開発された基盤モデルです。200Kの広範なコンテキストウィンドウを備えており、クローズドソースとして提供されています。

開発元

Cursor

パラメータ

非公開

コンテキスト長

200K

タイプ

基盤

入力 $1.25出力 $/1M tokens
詳細を見る

MiniMax Hailuo 2.3

プロプライエタリ

MiniMax Hailuo 2.3は、MiniMaxAIが開発した視覚基盤モデルです。2025年10月28日にリリースされ、クローズドライセンスの下で提供されています。

開発元

MiniMaxAI

パラメータ

非公開

コンテキスト長

10

タイプ

基盤

詳細を見る

MiniMax Hailuo 2.3 Fast

プロプライエタリ

MiniMaxAIが開発したMiniMax Hailuo 2.3 Fastは、視覚機能に特化した基盤モデルです。高速な処理を実現し、クローズドライセンスで提供されています。

開発元

MiniMaxAI

パラメータ

非公開

コンテキスト長

10

タイプ

基盤

詳細を見る

MiniMax-M2

オープンソース

MiniMax-M2は、MiniMaxAIによって開発された大規模な基盤モデルです。約2.3兆パラメータという膨大な規模を持ち、205Kの長いコンテキストウィンドウに対応したチャット向けモデルです。

開発元

MiniMaxAI

パラメータ

2300.0B

コンテキスト長

205K

タイプ

基盤

詳細を見る

Qwen3-VL-2B-Instruct

オープンソース

Qwen3-VL-2B-Instructは、阿里巴巴が開発した多模态大規模言語モデルです。200億パラメータの規模を持ち、256Kの長いコンテキストウィンドウをサポートしています。

開発元

阿里巴巴

パラメータ

20.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Qwen3-VL-2B-Thinking

オープンソース

Qwen3-VL-2B-Thinkingは、阿里巴巴が開発した多模態推論モデルです。約20.0Bのパラメータ規模を持ち、256Kの長いコンテキストウィンドウに対応しています。

開発元

阿里巴巴

パラメータ

20.0B

コンテキスト長

256K

タイプ

推論

詳細を見る

Qwen3-VL-32B-Instruct

オープンソース

Qwen3-VL-32B-Instructは、阿里巴巴が開発した多模态大模型(マルチモーダル基盤モデル)です。約3200億パラメータの規模を持ち、256Kの長いコンテキストウィンドウをサポートしています。

開発元

阿里巴巴

パラメータ

320.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Qwen3-VL-32B-Thinking

オープンソース

Qwen3-VL-32B-Thinkingは、阿里巴巴が開発した多模態推論モデルです。約320Bのパラメータ規模と256Kのコンテキストウィンドウを備え、高度な視覚理解と推論能力を提供します。

開発元

阿里巴巴

パラメータ

320.0B

コンテキスト長

256K

タイプ

推論

詳細を見る

DeepSeek-OCR

オープンソース

DeepSeek-OCRは、DeepSeek-AIによって開発された視覚大模型です。約30.0Bのパラメータ規模を持ち、MITライセンスの下で公開されています。

開発元

DeepSeek-AI

パラメータ

30.0B

コンテキスト長

タイプ

基盤

詳細を見る

Claude Haiku 4.5

プロプライエタリ

Claude Haiku 4.5は、Anthropicが開発したマルチモーダル対応の基盤モデルです。200Kの広範なコンテキストウィンドウを備えており、効率的な情報処理が可能です。

開発元

Anthropic

パラメータ

非公開

コンテキスト長

200K

タイプ

基盤

詳細を見る

Google Veo 3.1 Fast Generate (Preview)

プロプライエタリ

Google Veo 3.1 Fast Generate (Preview)は、Google DeepMindが開発した基盤モデルです。視覚領域に特化した大規模モデルとして提供されています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

Google Veo 3.1 Generate (Preview)

プロプライエタリ

Google DeepMindによって開発されたGoogle Veo 3.1 Generate (Preview)は、高度な視覚能力を持つ基盤モデルです。2025年10月15日にリリースされ、クローズドライセンスで提供されています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

Qwen3-VL-4B-Instruct

オープンソース

Qwen3-VL-4B-Instructは、阿里巴巴が開発した多模态大模型(マルチモーダル基盤モデル)です。40.0Bのパラメータ規模を持ち、最大256Kの長いコンテキストウィンドウに対応しています。

開発元

阿里巴巴

パラメータ

40.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Qwen3-VL-4B-Thinking

オープンソース

Qwen3-VL-4B-Thinkingは、阿里巴巴が開発した推論モデルです。約44.4Bのパラメータ規模を持ち、256Kの長いコンテキストウィンドウに対応しています。

開発元

阿里巴巴

パラメータ

44.4B

コンテキスト長

256K

タイプ

推論

詳細を見る

Qwen3-VL-8B-Instruct

オープンソース

Qwen3-VL-8B-Instructは、阿里巴巴によって開発された多模态大模型です。256Kの長いコンテキストウィンドウを備え、Apache 2.0ライセンスの下で公開されています。

開発元

阿里巴巴

パラメータ

88.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Qwen3-VL-8B-Thinking

オープンソース

Qwen3-VL-8B-Thinkingは、阿里巴巴が開発した推理モデルです。約87.7Bのパラメータ規模を持ち、256Kの長いコンテキストウィンドウに対応しています。

開発元

阿里巴巴

パラメータ

87.7B

コンテキスト長

256K

タイプ

推論

詳細を見る

GPT Image 1 - Mini

プロプライエタリ

GPT Image 1 - Miniは、OpenAIが開発した多模态大模型(マルチモーダルモデル)です。4096トークンのコンテキストウィンドウを備え、クローズドライセンスで提供されています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

4096

タイプ

基盤

詳細を見る

Gemini 2.5 Computer Use Preview (10-2025)

プロプライエタリ

Gemini 2.5 Computer Use Preview (10-2025)は、Google Deep Mindが開発したマルチモーダル基盤モデルです。128Kのコンテキストウィンドウを備え、コンピューター操作への対応を目的としたプレビュー版として提供されています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

128K

タイプ

基盤

詳細を見る

OpenAI GPT Image 1 mini

プロプライエタリ

OpenAI GPT Image 1 miniは、OpenAIが開発したマルチモーダルAIモデルです。視覚情報を扱うことに特化した視覚大モデルとして設計されています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

Grok Imagine v0.9

プロプライエタリ

Grok Imagine v0.9は、xAIによって開発された多模态大模型(マルチモーダル基盤モデル)です。32Kのコンテキストウィンドウをサポートしており、クローズドライセンスで提供されています。

開発元

xAI

パラメータ

非公開

コンテキスト長

32K

タイプ

基盤

詳細を見る

Claude Sonnet 4.5

プロプライエタリ

Claude Sonnet 4.5は、Anthropicによって開発された基盤モデルです。チャット特化型の設計となっており、1000Kという極めて広範なコンテキストウィンドウをサポートしています。

開発元

Anthropic

パラメータ

非公開

コンテキスト長

1000K

タイプ

基盤

詳細を見る

General Language Model - 4.6

オープンソース

General Language Model - 4.6は、智谱AIによって開発された大規模な基盤モデルです。約3.5兆パラメータという非常に大きな規模を持ち、最大200Kの長いコンテキストウィンドウに対応したチャット特化型モデルです。

開発元

智谱AI

パラメータ

3550.0B

コンテキスト長

200K

タイプ

基盤

詳細を見る

Sora 2

プロプライエタリ

Sora 2は、OpenAIが開発した多模态大模型(マルチモーダル基盤モデル)です。4096トークンのコンテキスト長を持ち、クローズドライセンスで提供されています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

4096

タイプ

基盤

詳細を見る

DeepSeek-V3.2-Exp

オープンソース

DeepSeek-AIが開発したDeepSeek-V3.2-Expは、DeepSeek Sparse Attention(DSA)を初めて導入した基盤モデルの実験版です。V3.1-Terminusと同等の性能を維持しながら、長文コンテキストにおける推論速度を大幅に向上させています。

開発元

DeepSeek-AI

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

Kuaishou Kling 2.5 Turbo Video Model

プロプライエタリ

Kuaishou Kling 2.5 Turbo Video Modelは、昆仑万维によって開発された基盤モデルです。視覚大モデルとして設計されており、高品質なビデオ生成を目的としています。

開発元

昆仑万维

パラメータ

非公開

コンテキスト長

タイプ

基盤

詳細を見る

Gemini 2.5 Flash-Lite-Preview-09-2025

プロプライエタリ

Gemini 2.5 Flash-Lite-Preview-09-2025は、Google DeepMindが開発した基盤モデルです。チャット向けに最適化されており、100万トークンの非常に長いコンテキストウィンドウを備えています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

1000K

タイプ

基盤

詳細を見る

Gemini 2.5 Flash-Preview-09-2025

プロプライエタリ

Gemini 2.5 Flash-Preview-09-2025は、Google Deep Mindによって開発された基盤モデルです。チャット形式の対話に最適化されており、最大100万トークンの非常に長いコンテキストウィンドウをサポートしています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

1000K

タイプ

基盤

詳細を見る

Qwen3-VL-235B-A22B-Instruct

オープンソース

Qwen3-VL-235B-A22B-Instructは、阿里巴巴によって開発された多模態大模型です。235Bという大規模なパラメータ数と256Kの長いコンテキストウィンドウを備えています。

開発元

阿里巴巴

パラメータ

2350.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

DeepSeek-V3.1 Terminus

オープンソース

DeepSeek-AIが開発したDeepSeek-V3.1 Terminusは、約6.7兆パラメータを誇る大規模な基盤モデルです。128Kのコンテキストウィンドウを備え、高度なチャット機能を提供します。

開発元

DeepSeek-AI

パラメータ

6710.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Qwen-Image-Edit-2509

オープンソース

阿里巴巴が開発したQwen-Image-Edit-2509は、300Bのパラメータを持つ大規模な多模態モデルです。128Kの長いコンテキストウィンドウをサポートし、高度な画像編集処理を目的として設計されています。

開発元

阿里巴巴

パラメータ

300.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Qwen3-Omni-30B-A3B-Instruct

オープンソース

Qwen3-Omni-30B-A3B-Instructは、阿里巴巴によって開発されたマルチモーダル基盤モデルです。約300Bのパラメータ規模を持ち、128Kのコンテキストウィンドウをサポートしています。

開発元

阿里巴巴

パラメータ

300.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Qwen3-TTS-Flash

プロプライエタリ

Qwen3-TTS-Flashは、阿里巴巴が開発した音声大模型です。128Kのコンテキスト長を備え、高度な音声処理を実現するクローズドモデルです。

開発元

阿里巴巴

パラメータ

非公開

コンテキスト長

128K

タイプ

基盤

詳細を見る

Grok 4 Fast

プロプライエタリ

Grok 4 Fastは、xAIによって開発された基盤モデルです。大規模なコンテキストウィンドウを備えたチャット特化型モデルとして設計されています。

開発元

xAI

パラメータ

非公開

コンテキスト長

2000K

タイプ

基盤

詳細を見る

GPT-5 Codex

プロプライエタリ

GPT-5 Codexは、OpenAIによって開発されたプログラミング特化型のAIモデルです。400Kの広大なコンテキストウィンドウを備え、大規模なコードベースの処理に最適化されています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

400K

タイプ

コーディング

詳細を見る

Qwen3-Next-80B-A3B

オープンソース

Qwen3-Next-80B-A3Bは、阿里巴巴が開発した基盤モデルです。約800Bの巨大なパラメータ規模を持ち、256Kの長いコンテキストウィンドウに対応したチャット特化型の大規模言語モデルです。

開発元

阿里巴巴

パラメータ

800.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Qwen3-ASR-Flash

プロプライエタリ

Qwen3-ASR-Flashは、阿里巴巴によって開発された音声特化の大規模モデルです。10Kのコンテキスト長を備え、効率的な音声処理を実現します。

開発元

阿里巴巴

パラメータ

非公開

コンテキスト長

10K

タイプ

基盤

詳細を見る

EmbeddingGemma - 300M

条件付オープン

EmbeddingGemma - 300Mは、Google DeepMindによって開発されたembeddingモデルです。効率的なベクトル表現を可能にし、テキストデータの意味的な検索や分類に適しています。

開発元

Google Deep Mind

パラメータ

3.0B

コンテキスト長

2K

タイプ

基盤

詳細を見る

Kimi K2-Instruct-0905

オープンソース

Moonshot AIが開発した、大規模なパラメータ数を誇る基盤モデルです。256Kの長いコンテキストウィンドウに対応しており、高度な対話能力を備えたチャット特化型モデルとして設計されています。

開発元

Moonshot AI

パラメータ

10000.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Qwen3 Max (Preview)

プロプライエタリ

Qwen3 Max (Preview)は、阿里巴巴によって開発された基盤モデルです。チャット向けに最適化されており、256Kの広範なコンテキストウィンドウをサポートしています。

開発元

阿里巴巴

パラメータ

非公開

コンテキスト長

256K

タイプ

基盤

詳細を見る

Hunyuan-MT-7B

条件付オープン

Hunyuan-MT-7Bは、腾讯AI实验室によって開発された翻訳特化型の基盤モデルです。約70Bのパラメータ規模を持ち、256Kの長いコンテキストウィンドウに対応しています。

開発元

腾讯AI实验室

パラメータ

70.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

GPT Realtime

プロプライエタリ

GPT RealtimeはOpenAIが開発したマルチモーダル基盤モデルです。32Kのコンテキストウィンドウを備えており、高度なリアルタイム処理を目的として設計されています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

32K

タイプ

基盤

詳細を見る

Grok Code Fast 1

プロプライエタリ

Grok Code Fast 1は、xAIが開発したコーディング特化のAIモデルです。256Kの広大なコンテキストウィンドウを備え、効率的なプログラミング支援を提供します。

開発元

xAI

パラメータ

非公開

コンテキスト長

256K

タイプ

コーディング

詳細を見る

Gemini 2.5 Flash Image Preview

プロプライエタリ

Gemini 2.5 Flash Image Previewは、Google DeepMindが開発した多模态大模型(マルチモーダルモデル)です。32Kのコンテキストウィンドウを備え、効率的な処理を実現する設計となっています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

32K

タイプ

基盤

詳細を見る

Nano Banana

プロプライエタリ

Nano BananaはGoogle DeepMindが開発した基盤モデルです。32Kのコンテキストウィンドウを備えた多模態大模型として設計されています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

32K

タイプ

基盤

詳細を見る

DeepSeek-V3.1

オープンソース

DeepSeek-AIが開発したDeepSeek-V3.1は、約6710Bのパラメータ規模を持つ大規模な基盤モデルです。128Kの長いコンテキストウィンドウを備え、高度なチャット機能を提供します。

開発元

DeepSeek-AI

パラメータ

6710.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

ERNIE-4.5-VL-28B-A3B Multimodal MoE Chat Model

オープンソース

ERNIE-4.5-VL-28B-A3Bは、百度が開発した多模態大模型(マルチモーダル基盤モデル)です。MoEアーキテクチャを採用し、膨大なパラメータ数と131Kの長いコンテキストウィンドウを備えています。

開発元

百度

パラメータ

280.0B

コンテキスト長

131K

タイプ

基盤

詳細を見る

Seed-OSS-36B

オープンソース

Seed-OSS-36Bは、字节跳动Seed团队によって開発された基盤モデルです。約360Bのパラメータ規模と512Kの広大なコンテキストウィンドウを搭載しています。

開発元

字节跳动Seed团队

パラメータ

360.0B

コンテキスト長

512K

タイプ

基盤

詳細を見る

Qwen-Image-Edit

オープンソース

Qwen-Image-Editは、阿里巴巴が開発した多模态大模型(マルチモーダル基盤モデル)です。約200Bのパラメータ規模を持ち、128Kの長いコンテキストウィンドウに対応しています。

開発元

阿里巴巴

パラメータ

200.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Gemma 3-270M

条件付オープン

Gemma 3-270Mは、Google DeepMindによって開発された基盤モデルです。コンパクトなサイズながら128Kの広いコンテキストウィンドウを備えています。

開発元

Google Deep Mind

パラメータ

2.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

GLM-4.5V

オープンソース

GLM-4.5Vは、智谱AIが開発したマルチモーダル基盤モデルです。約1兆600億パラメータという大規模な構成を持ち、64Kのコンテキストウィンドウに対応しています。

開発元

智谱AI

パラメータ

1060.0B

コンテキスト長

64K

タイプ

基盤

詳細を見る

GPT-5

プロプライエタリ

GPT-5はOpenAIによって開発された基盤モデルです。400Kの広範なコンテキストウィンドウを備え、高度な汎用性能を提供します。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

400K

タイプ

基盤

詳細を見る

GPT-5-Nano

プロプライエタリ

GPT-5-NanoはOpenAIが開発した推論モデルです。256Kの長いコンテキストウィンドウを備え、高度な推論タスクに対応します。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

256K

タイプ

基盤

詳細を見る

GPT-5-Pro

プロプライエタリ

GPT-5-ProはOpenAIが開発した基盤モデルです。推論モデルとして位置付けられており、400Kという広範なコンテキストウィンドウを備えています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

400K

タイプ

基盤

詳細を見る

GPT-5-mini

プロプライエタリ

GPT-5-miniは、OpenAIによって開発された基盤モデルです。400Kの広大なコンテキストウィンドウを備えており、効率的な処理が可能です。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

400K

タイプ

基盤

詳細を見る

Claude Opus 4.1

プロプライエタリ

Claude Opus 4.1は、Anthropicが開発した推論モデルです。200Kの広いコンテキストウィンドウを備え、高度な推論能力を提供します。

開発元

Anthropic

パラメータ

非公開

コンテキスト長

200K

タイプ

基盤

入力 $7.5出力 $/1M tokens
詳細を見る

GPT Opensources 120B

オープンソース

GPT Opensources 120Bは、OpenAIが開発した推論モデルです。117.0Bのパラメータ規模と128Kのコンテキストウィンドウを備え、オープンライセンスで提供されています。

開発元

OpenAI

パラメータ

117.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

GPT Opensources 20B

オープンソース

GPT Opensources 20Bは、OpenAIが開発した推論モデルです。約210.0Bのパラメータ規模を持ち、128Kのコンテキストウィンドウに対応したオープンな基盤モデルです。

開発元

OpenAI

パラメータ

210.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Qwen3-4B-2507

オープンソース

Qwen3-4B-2507は、阿里巴巴によって開発された基盤モデルです。チャット特化型の設計であり、256Kという長いコンテキストウィンドウを備えています。

開発元

阿里巴巴

パラメータ

40.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Qwen3-4B-Thinking-2507

オープンソース

Qwen3-4B-Thinking-2507は、阿里巴巴が開発した推論モデルです。約40.0Bのパラメータ規模を持ち、256Kの長いコンテキストウィンドウに対応したチャット特化型モデルです。

開発元

阿里巴巴

パラメータ

40.0B

コンテキスト長

256K

タイプ

推論

詳細を見る

Genie 3

プロプライエタリ

Genie 3は、Google DeepMindによって開発された基盤モデルです。128Kのコンテキストウィンドウを備え、高度な処理能力を提供します。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

128K

タイプ

基盤

詳細を見る

Hunyuan-0.5B

条件付オープン

Hunyuan-0.5Bは、Tencent ARCによって開発された基盤モデルです。256Kの長いコンテキストウィンドウを備えたチャット特化型のモデルとなっています。

開発元

Tencent ARC

パラメータ

5.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Hunyuan-1.8B

条件付オープン

Tencent ARCが開発したHunyuan-1.8Bは、18.0Bのパラメータ規模を持つ基盤モデルです。最大256Kの長いコンテキストウィンドウに対応したチャット特化型モデルとして提供されています。

開発元

Tencent ARC

パラメータ

18.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Hunyuan-4B

条件付オープン

Hunyuan-4Bは、Tencent ARCによって開発された基盤モデルです。チャット性能に特化した大規模言語モデルであり、最大256Kの長いコンテキストウィンドウをサポートしています。

開発元

Tencent ARC

パラメータ

40.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Hunyuan-7B

条件付オープン

Hunyuan-7Bは、Tencent ARCによって開発された基盤モデルです。チャット形式の対話に特化しており、256Kという広範なコンテキストウィンドウを備えています。

開発元

Tencent ARC

パラメータ

70.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

Qwen Image

オープンソース

Qwen Imageは、阿里巴巴によって開発されたマルチモーダル基盤モデルです。約200Bの大規模なパラメータ数と128Kのコンテキストウィンドウを備えています。

開発元

阿里巴巴

パラメータ

200.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Gemini 2.5 Deep Think

プロプライエタリ

Gemini 2.5 Deep Thinkは、Google Deep Mindが開発した推論モデルです。1000Kという非常に長いコンテキストウィンドウを備えたチャット特化型の基盤モデルとなっています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

1000K

タイプ

推論

詳細を見る

Qwen3-Coder-30B-A3B-Instruct

オープンソース

Qwen3-Coder-30B-A3B-Instructは、阿里巴巴が開発したプログラミング特化の基盤モデルです。1000Kという非常に長いコンテキストウィンドウを処理でき、大規模なコードベースの解析に適しています。

開発元

阿里巴巴

パラメータ

305.0B

コンテキスト長

1000K

タイプ

コーディング

詳細を見る

Step3-321B-A38B

オープンソース

StepFunAIが開発した、3.2兆パラメータを誇る大規模な多模态基盤モデルです。64Kのコンテキスト長に対応し、Apache 2.0ライセンスのもとで公開されています。

開発元

StepFunAI

パラメータ

3210.0B

コンテキスト長

64K

タイプ

基盤

詳細を見る

Qwen3-30B-A3B-Instruct-2507

オープンソース

Qwen3-30B-A3B-Instruct-2507は、阿里巴巴が開発した基盤モデルです。約305Bのパラメータ規模を持ち、最大256Kの長いコンテキストウィンドウに対応したチャット特化型モデルです。

開発元

阿里巴巴

パラメータ

305.0B

コンテキスト長

256K

タイプ

基盤

入力 $0.5出力 $/1M tokens
詳細を見る

GLM-4.5-MoE-106B-A12B-0715

オープンソース

GLM-4.5-MoE-106B-A12B-0715は、智谱AIによって開発された推論モデルです。128Kのコンテキストウィンドウを備え、大規模なパラメータ規模を持つ基盤モデルとして提供されています。

開発元

智谱AI

パラメータ

1060.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

GLM-4.5-MoE-355B-A32B-0715

オープンソース

GLM-4.5-MoE-355B-A32B-0715は、智谱AIが開発した推論モデルです。3550Bの巨大なパラメータ規模と128Kのコンテキストウィンドウを備え、高度な推論能力を提供します。

開発元

智谱AI

パラメータ

3550.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Intern-S1

オープンソース

Intern-S1は、上海人工智能实验室によって開発された大規模な多模態基盤モデルです。約2.4兆パラメータという極めて高い規模を誇り、128Kのコンテキストウィンドウを備えています。

開発元

上海人工智能实验室

パラメータ

2410.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Qwen3-235B-A22B-Thinking-2507

オープンソース

Qwen3-235B-A22B-Thinking-2507は、阿里巴巴が開発した高度な推論モデルです。256Kの広大なコンテキストウィンドウを備え、複雑な推論タスクに対応するように設計されています。

開発元

阿里巴巴

パラメータ

2350.0B

コンテキスト長

256K

タイプ

推論

詳細を見る

Qwen3-Coder-480B-A35B-Instruct

オープンソース

Qwen3-Coder-480B-A35B-Instructは、阿里巴巴が開発したプログラミング特化の基盤モデルです。480Bの大規模なパラメータ数と256Kの長いコンテキストウィンドウを備え、高度なコード生成と解析を可能にします。

開発元

阿里巴巴

パラメータ

4800.0B

コンテキスト長

256K

タイプ

コーディング

詳細を見る

Qwen3-235B-A22B-Instruct-2507

オープンソース

Qwen3-235B-A22B-Instruct-2507は、阿里巴巴が開発したオープンライセンスの基盤モデルです。大規模なパラメータ数と256Kの長いコンテキストウィンドウを備えた、チャット特化型のAIモデルとなっています。

開発元

阿里巴巴

パラメータ

2350.0B

コンテキスト長

256K

タイプ

基盤

詳細を見る

OpenAI o3 Alpha

プロプライエタリ

OpenAI o3 Alphaは、OpenAIが開発した推論モデルです。128Kのコンテキストウィンドウを備えており、高度な推論能力に特化した設計となっています。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

128K

タイプ

推論

詳細を見る

ChatGPT Agent Model

プロプライエタリ

ChatGPT Agent Modelは、OpenAIによって開発された推論モデルです。128Kのコンテキストウィンドウを備え、高度な推論能力を提供します。

開発元

OpenAI

パラメータ

非公開

コンテキスト長

128K

タイプ

基盤

詳細を見る

Voxtral-Mini-3B-2507

オープンソース

Voxtral-Mini-3B-2507は、MistralAIによって開発された音声特化の基盤モデルです。30.0Bのパラメータ規模を持ち、最大32Kのコンテキスト長に対応しています。

開発元

MistralAI

パラメータ

30.0B

コンテキスト長

32K

タイプ

基盤

詳細を見る

Voxtral-Small-24B-2507

オープンソース

Voxtral-Small-24B-2507は、MistralAIが開発した音声特化の基盤モデルです。約240Bのパラメータ規模を持ち、32Kのコンテキストウィンドウに対応しています。

開発元

MistralAI

パラメータ

240.0B

コンテキスト長

32K

タイプ

基盤

詳細を見る

GLM4-MoE-100B-A10B

オープンソース

GLM4-MoE-100B-A10Bは、智谱AIが開発した基盤モデルです。大規模なパラメータ数と128Kの長いコンテキストウィンドウを備えたチャット特化型モデルとなっています。

開発元

智谱AI

パラメータ

1000.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Gemini Embedding 001

プロプライエタリ

Gemini Embedding 001は、Google Deep Mindが開発したembeddingモデルです。最大2Kのコンテキスト長をサポートしており、クローズドライセンスで提供されています。

開発元

Google Deep Mind

パラメータ

非公開

コンテキスト長

2K

タイプ

基盤

詳細を見る

Kimi-K2-0711-Preview

プロプライエタリ

Kimi-K2-0711-Previewは、Moonshot AIによって開発された大規模な基盤モデルです。約10兆パラメータという非常に巨大なモデル規模を持ち、最大131Kのコンテキストウィンドウに対応したチャット向けAIとして設計されています。

開発元

Moonshot AI

パラメータ

10000.0B

コンテキスト長

131K

タイプ

基盤

詳細を見る

Devstral Medium

プロプライエタリ

Devstral Mediumは、MistralAIが開発したプログラミング特化型の基盤モデルです。128Kの広範なコンテキストウィンドウを搭載しており、大規模なコードベースの処理に適しています。

開発元

MistralAI

パラメータ

非公開

コンテキスト長

128K

タイプ

基盤

詳細を見る

Devstral Small 1.1

オープンソース

Devstral Small 1.1は、MistralAIによって開発されたプログラミング特化型の基盤モデルです。約240Bのパラメータ規模を持ち、最大128Kの長いコンテキストウィンドウに対応しています。

開発元

MistralAI

パラメータ

240.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Grok 4

プロプライエタリ

Grok 4はxAIによって開発された推論モデルです。256Kの長いコンテキストウィンドウを搭載し、高度な推論能力を備えた基盤モデルとして提供されています。

開発元

xAI

パラメータ

非公開

コンテキスト長

256K

タイプ

基盤

詳細を見る

Grok 4 Heavy

プロプライエタリ

Grok 4 Heavyは、xAIによって開発された基盤モデルです。チャット特化型の設計となっており、128Kのコンテキストウィンドウを備えています。

開発元

xAI

パラメータ

非公開

コンテキスト長

128K

タイプ

基盤

詳細を見る

Grok 4-Test-Time-Compute

プロプライエタリ

Grok 4-Test-Time-Computeは、xAIによって開発された推論モデルです。132Kのコンテキストウィンドウを備え、高度な推論能力を提供します。

開発元

xAI

パラメータ

非公開

コンテキスト長

132K

タイプ

基盤

詳細を見る

MedGemma 27B Instruct

プロプライエタリ

MedGemma 27B Instructは、DeepMindによって開発された医療分野に特化した基盤モデルです。270億パラメータの規模を持ち、最大128Kの長いコンテキストウィンドウに対応したチャットモデルとなっています。

開発元

DeepMind

パラメータ

270.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

MedGemma 4B Instruct

プロプライエタリ

MedMindによって開発されたMedGemma 4B Instructは、医療分野に特化したチャット形式の基盤モデルです。約400億のパラメータ規模を持ち、最大128Kの長いコンテキストウィンドウに対応しています。

開発元

DeepMind

パラメータ

40.0B

コンテキスト長

128K

タイプ

基盤

詳細を見る

Skywork-R1V3-38B

オープンソース

Skywork-R1V3-38Bは、昆仑万维によって開発された基盤モデルです。約380Bのパラメータ規模を持つチャット特化型の大規模言語モデルとして構築されています。

開発元

昆仑万维

パラメータ

380.0B

コンテキスト長

8K

タイプ

基盤

詳細を見る

Grok 4 Code (Test-Time-Compute)

プロプライエタリ

Grok 4 Code (Test-Time-Compute)は、xAIによって開発されたプログラミング特化の基盤モデルです。132Kのコンテキストウィンドウを備え、高度なコード生成と解析能力を提供します。

開発元

xAI

パラメータ

非公開

コンテキスト長

132K

タイプ

コーディング

詳細を見る

Grok 4 Code

プロプライエタリ

Grok 4 CodeはxAIによって開発されたプログラミング特化型の基盤モデルです。128Kのコンテキストウィンドウを備え、高度なコード生成と解析を実現します。

開発元

xAI

パラメータ

非公開

コンテキスト長

128K

タイプ

コーディング

詳細を見る

TTS-1.6b-en_fr

プロプライエタリ

TTS-1.6b-en_frは、个人によって開発された音声大模型です。16Bのパラメータ規模を持ち、4Kのコンテキスト長に対応した音声生成モデルとなっています。

開発元

个人

パラメータ

16.0B

コンテキスト長

4K

タイプ

基盤

詳細を見る