はじめに
こんにちは。T.H.です。
今回はローカルLLMモデルの現状について軽く触れておきます。
趣旨
2025年5月にローカルLLMについて記事を書かせていただきました。
LLMモデルの進化は日進月歩であり、どのモデルを使用すべきかはすぐにでも変わってしまう。といった内容を記載しました。では実際に数か月でどれくらい有力なモデルが出ているのか見てみようという趣旨になります。
モデル一覧
前回のLLMについて書いた記事は2025/05/30でした。
MicrosoftのPhi-4、GoogleのGemma3、QwenのQwen3といったモデルが立て続けに出てきて、ローカルLLMの性能が1段階上がったころだと認識しています。
そこから現在(10/06)までどのようなモデルがリリースされていったのか、有力そうなものを独断でピックアップしていきます。
リリース元 | リリース | モデル(シリーズ) | 備考 |
---|---|---|---|
Mistral AI | 2025/6 | Magistral | mistralの推論特化 |
2025/6 | Gemma 3n | スマートフォンなど向けの軽量モデル | |
Baidu | 2025/6 | ERNIE 4.5 | 従来(2025/3)のモデルをオープンソース化 |
Mistral AI | 2025/7 | Devstral 2507 | mistralのコーディング向け |
Liquid AI | 2025/7 | LFM2 | 軽量、デバイス向け |
Qwen | 2025/8 | Qwen3-Coder | qwen3のコーディング向け |
OpenAI | 2025/8 | gpt-oss | gpt-oss-20bでo3-mini相当 |
Nous Research | 2025/8 | Hermes 4 | |
ByteDance | 2025/8 | Seed-OSS | |
IBM | 2025/10 | Granite 4.0 | 学習セットの透明性を押し出している |
OpenAIがついにOSS化に踏み切ったことが一番大きなトピックでしょうか。
わずか半年足らずでこれだけのモデルが出ています。もちろんこれがすべてではありません。リリース元はほぼアメリカと中国です(Mistral AIはフランス)。
性能面でいえば家庭用PCでローカル利用、かつコーディング関連の利用目的であれば基本的には最新のAPIから1~2世代前、と理解したほうが良さそうです。バイブコーディングで大量にリクエストを使う際のサブAPIとしての利用がメインでしょうか。
まとめ
これだけの数をまじめに比較検証しながら利用していくのは個人や小規模組織では難しいでしょう。
定期的に「よさげな」モデルに乗り換えつつ利用していくのが現実的かと思います。あるモデルに特化してチューニングするのはよほど特定の用途が決まっていない限り効率の面で厳しいといえます。
補足
同じ期間内でOllamaに新UIが追加され、LM Studioが商用利用可となっていました。ツールも含めて変化が非常に速いですね。