日本企業が開発する国産LLM(大規模言語モデル)は、2023年の黎明期から急速に進化し、2026年3月時点で30以上の主要モデルが存在するエコシステムを形成しています。本記事では、各社のモデルの技術的特性、産業別の導入事例、コスト構造、そして今後の展望を網羅的にまとめます。
なぜ今「ローカルLLM」なのか
日本企業がローカルLLMに注目する背景には、大きく3つの要因があります。
| 要因 | 詳細 |
|---|---|
| データ主権・セキュリティ | 個人情報保護法の厳格な運用が求められる金融・医療・製造業で、入力データが外部の学習データに流用されるリスクを遮断する必要がある |
| コスト構造 | クラウド API の従量課金は全社導入時に月額数千万円に達するケースもあり、3年程度でオンプレミスの方が安価になる逆転現象が発生 |
| 日本語への最適化 | 汎用グローバルモデルでは日本語特有の敬語・主語省略・専門用語への対応が不十分で、業務品質に直結する |
政府も経済産業省主導の GENIAC(Generative AI Accelerator Challenge) プロジェクトを通じて国産LLM開発を支援し、2025年12月には 5年間で1兆円規模 のAI・半導体投資を表明しています。
主要な国産LLMモデル一覧
以下は、2026年3月時点で公開情報をもとに整理した主要モデルの比較です。
| 開発元 | モデル名 | 公開日 | パラメータ数 | 開発方式 | ライセンス | 主な強み | URL |
|---|---|---|---|---|---|---|---|
| 楽天 | Rakuten AI 3.0 | 2026-03-17 | 約7,000億(MoE) | MoE(Mistral系基盤) | Apache 2.0 | 最大のオープンウェイト国産モデル | HuggingFace |
| NEC | cotomi v3 | 2026-03-09 | 約130億 | 独自アーキテクチャ | 商用サービス | 推論速度 GPT-4比10倍超、AIエージェント機能 | 公式 |
| PFN | PLaMo 2.2 Prime | 2026-01 | 310億 | フルスクラッチ(SSM+SWA) | PLaMo Community | JFBench で GPT-5.1同等、自治体150以上に導入 | HuggingFace |
| NTT | tsuzumi 2 | 2025-10-20 | 300億 | フルスクラッチ | 商用サービス | GPU 1基で運用可能、ドメイン適応の学習効率が競合の10倍 | 公式 |
| Stockmark | Stockmark-2-100B | 2025-09 | 1,000億 | フルスクラッチ | MIT | ビジネス特化、GPT-4o 超えの正答率 | HuggingFace |
| ELYZA | Shortcut-1.0-Qwen-32B | 2025-07 | 320億 | Qwen適応 | 公開(HF) | GPT-4o同等性能、医療特化モデルあり | HuggingFace |
| rinna | Bakeneko 32B | 2025-02 | 320億 | Qwen適応 | Apache 2.0 | 累計600万DL超、推論最適化の知見を公開 | HuggingFace |
| 富士通 | Takane | 2024-09-30 | 約1,040億(Cohere基盤) | 共同開発 | 商用サービス | JGLUE 世界最高スコア、1bit量子化技術 | 公式 |
| CyberAgent | CALM3-22B-Chat | 2024-07 | 220億 | フルスクラッチ | Apache 2.0 | 70Bモデル同等性能を22Bで実現 | HuggingFace |
| SB Intuitions | Sarashina | 2024-06-14 | 最大4,600億(MoE) | フルスクラッチ | API + 研究公開 | 国内最大規模、1兆パラメータモデル開発中 | HuggingFace |
大手5社のLLM戦略
NTT「tsuzumi」:1GPU で動くフルスクラッチ純国産モデル
NTT の tsuzumi は、40年以上の自然言語処理研究の蓄積を基盤とした 完全自社開発(フルスクラッチ) のLLMです。
tsuzumi の最大の特徴は「超軽量」であること。初代 tsuzumi は 0.6B(超軽量版・CPU動作可能)と 7B(軽量版・GPU 1基)の二段構えで設計され、2025年10月リリースの tsuzumi 2 は 300億パラメータながら H100 GPU 1基(約500万円のハードウェア) で稼働します。
| 特性 | 詳細 |
|---|---|
| 軽量性 | 40GB以下のVRAM級GPU(A100等の旧世代GPU含む)で動作可能 |
| 日本語性能 | GPT-3.5 に対して81.3%の勝率。MT-bench(日本語)で高スコア |
| 適応学習効率 | ドメイン適応に必要なデータ量が競合の10分の1(FP技能検定テストで200問 vs 他社1,900問) |
| 開発思想 | フルスクラッチ開発により、学習データの権利・品質・バイアスを完全にコントロール |
NTT の AI関連受注額は FY2025 Q1で 670億円 に達しており、tsuzumi は商業的にも成功を収めています。
NEC「cotomi」:軽量×高速のエージェント路線
NEC の cotomi は約130億パラメータという比較的小規模ながら、GPT-4比 10倍以上の推論速度 を実現する独自アーキテクチャのモデルです。
2025年7月に v3(128Kコンテキスト対応)、同年8月にエージェント技術「cotomi Act」をリリース。cotomi Act は WebArena ベンチマークで 80.4% (人間の78.2%を超過)を達成しました。2026年3月にはデジタル庁の「政府AI」実証にも選定されています。
cotomi Pro は GPU 2基 で稼働可能で、GPT-4比87%高速な応答を実現します。クラウド・オンプレの両方に対応し、独自に収集・加工した多言語データで学習されています。
富士通「Takane」:Cohere との共同開発で日本語世界記録
富士通の Takane は、カナダの Cohere 社の Command R+(約1,040億パラメータ)をベースに日本語特化の追加学習を施した共同開発モデルです。JGLUE ベンチマークで世界最高スコア を記録しました。
2025年9月には「生成AI軽量化技術」を発表し、1ビット量子化で精度89%を維持 しながらメモリ消費を94%削減する技術を実現。規制対応ソフトウェア更新では3人月の作業を 4時間に短縮(100倍の生産性向上) する実績もあります。
SB Intuitions「Sarashina」:国内最大規模への挑戦
SB Intuitions(ソフトバンク100%子会社)の Sarashina シリーズは、日本最大規模のLLM開発プロジェクトです。Sarashina2-8x70B は MoEアーキテクチャで合計約4,600億パラメータ に達し、1兆パラメータモデル の開発も進行中です。
学習データの設計が特徴的で、日英コード比率 5:4:1、訓練トークン数 2.1T と詳細が公開されています。日本語データは CommonCrawl から独自構築し、CCNet/HojiChar/MinHashLSH 等で高品質にクリーニングしています。
インフラ面では世界最大規模の NVIDIA DGX SuperPOD(Blackwell GPU 4,000基以上)を構築し、2023〜2025年で約1,700億円を投資しました。研究モデルは Hugging Face で MIT ライセンスで公開されています。
楽天「Rakuten AI 3.0」:Apache 2.0 の最大オープンモデル
楽天の Rakuten AI 3.0 は MoEアーキテクチャで約7,000億パラメータ を持ち、2026年3月に Hugging Face で Apache 2.0ライセンス として公開された国内最大のオープンウェイトモデルです。日本語ベンチマークでは GPT-4o を上回る性能を示します。
楽天エコシステム内の膨大なデータを活用し、自社サービスにおけるコストを 最大90%削減 することを目指しています。大企業としては唯一、フロンティア級LLMを完全にオープンなライセンスで公開している点が際立ちます。
スタートアップ・中堅企業のオープンモデル
PFN「PLaMo」:SSMハイブリッドの独自路線
PFN の PLaMo 2 シリーズは、Selective State Space Model(SSM)と Sliding Window Attention(SWA)を組み合わせたハイブリッドアーキテクチャ を採用しています。PLaMo 2 8B は12.5倍大きい PLaMo 100B と同等以上のベンチマーク性能を示し、PLaMo 2.2 Prime 31B は JFBench で GPT-5.1と同等性能 を達成しました。
全国 150以上の自治体 に「QommonsAI」経由で導入済み。PLaMo Lite(1Bパラメータ)はエッジデバイスでの動作も可能です。ライセンスは「PLaMo Community License」(年商10億円未満の企業・個人は無料)という独自形態をとっています。
ELYZA:拡散型LLMで新境地
東京大学松尾研究室発の ELYZA は、2026年1月に ELYZA-LLM-Diffusion を公開。テキストを左から右へ順次生成する従来方式ではなく、拡散モデル方式でノイズからテキストを生成 する画期的なアプローチです。
医療特化の ELYZA-LLM-Med(Qwen2.5-72Bベース)は IgakuQA(医師国家試験ベンチマーク)で全国トップスコアを記録。デジタル庁の「政府AI」にも選定されています。
Stockmark:MITライセンスのビジネス特化1,000億パラメータ
Stockmark-2-100B は 1,000億パラメータのフルスクラッチ開発 で、MITライセンス という最も寛容なライセンスで公開されたビジネス特化LLMです。1.5兆トークンで学習され、ビジネス質問応答では GPT-4o の88%に対して 90%の正答率 を達成。トヨタ、パナソニック、日清、サントリーなどに導入実績があります。
その他の注目プレイヤー
- CyberAgent CALM3-22B-Chat: フルスクラッチ開発の220億パラメータモデル。Meta Llama-3-70B-Instruct(700億パラメータ)と同等性能を Apache 2.0 で公開
- rinna Bakeneko 32B: 累計600万DL超。T4 GPU での推論時間・メモリ比較を公開しており、int8量子化で VRAM 3.8GB まで削減可能
- Sakana AI: 「Attention Is All You Need」共著者が設立。進化的モデルマージ(Evolutionary Model Merge) で勾配ベースの学習なしにモデルを構築する独自手法
- LINE japanese-large-lm: Apache 2.0 で公開。公開コーパス+社内クローリングWebで総650GBのデータから学習
GENIAC プロジェクトと政府支援
GENIAC の段階的発展
経済産業省と NEDO が推進する GENIAC プロジェクトは、第1期から第4期まで採択数を拡大してきました。
| フェーズ | 採択数 | 主な目的 | 注目プロジェクト |
|---|---|---|---|
| 第1期・第2期 | 約30件 | 汎用基盤モデル構築と専門分野データ拡充 | ウーブン・バイ・トヨタ(都市時空間理解)、リコー(ドキュメント理解)、Turing(自動運転VLM) |
| 第3期 | 24件 | 社会実装を見据えた専門モデルとAIエージェント | Airion(PLCプログラム自動生成)、Arivexis(創薬)、Direava(外科手術支援) |
| 第4期 | 公募中 | さらなるスケールアップ | 2026年1月公募開始 |
AWS や Microsoft が計算資源パートナーとして H100・H200 インスタンスを提供しています。
デジタル庁「政府AI」:18万人規模の国産LLM導入
デジタル庁は生成AIプラットフォーム「源内(Gennai)」を構築し、2026年3月に 7社が選定 されました(NTTデータの tsuzumi 2、KDDI/ELYZA の Llama-3.1-ELYZA-JP-70B、PFN の PLaMo 2.0 Prime、NEC cotomi v3 等)。全省庁の約 18万人 の職員への展開を予定しています。
産業別の導入事例
金融業界
- みずほフィナンシャルグループ + SB Intuitions: Sarashina をベースにした金融特化LLMの共同開発を推進
- 三菱UFJフィナンシャル・グループ + Sakana AI: 進化的モデルマージ技術を活用した金融AI提携を展開
医療・ヘルスケア
- 三重大学医学部附属病院 + NTT西日本: tsuzumi を用いて看護記録・医師の経過記録から要約を生成し、申し送り業務を効率化
- ELYZA-LLM-Med: IgakuQA(医師国家試験ベンチマーク)で全国トップスコアを記録
自治体
- 全国150以上の自治体: PFN の PLaMo を「QommonsAI」経由で導入し、行政業務に活用
教育
- 東京通信大学: 学内データを学外に出さない要件のもと、NTT tsuzumi を学内LLM基盤として採用
ローカルLLMのコスト構造
オンプレミス vs クラウドAPI
| コスト項目 | 小規模構成 | 大規模構成 |
|---|---|---|
| ハードウェア(GPU、サーバー) | 約500万円 | 約5,000万円 |
| ソフトウェア・保守費用(年間) | 約50万円 | 約500万円 |
| 運用人件費(年間) | 約8,000万円 | 約3.8億円 |
一見高額に見えますが、tsuzumi のような軽量モデルは旧世代GPU(A100等)やCPU混在環境でも動作するため、ハードウェア投資を大幅に抑えられます。クラウドAPI利用料が月額数千万円に達する企業の場合、3年程度でオンプレミスの方が安価 になる逆転現象が起きています。
ライセンス別のコスト特性
| ライセンス形態 | 代表モデル | 特徴 |
|---|---|---|
| Apache 2.0 / MIT | Rakuten AI 3.0、Stockmark-2-100B、CALM3 | 完全無償。商用利用可。最も自由度が高い |
| Community License | PLaMo 2 8B | 年商10億円未満は無料。持続可能な開発との両立 |
| 商用サービス | tsuzumi 2、cotomi v3、Takane | API・オンプレ契約。エンタープライズサポート込み |
| 非商用 | Sarashina2-8x70B(MoE版) | 研究用途に限定。商用利用不可 |
技術トレンド
マルチモーダル化
- ウーブン・バイ・トヨタ: 6億件の動画像と言語データセットで都市の時空間理解モデルを開発。行動理解評価で85.41%の精度
- リコー: 図表を含む複雑なビジネス文書の視覚的理解に特化したマルチモーダルLLM
- Turing: 完全自動運転のための視覚言語モデル
エッジSLM(Small Language Model)
PLaMo Lite(1Bパラメータ)や Rakuten AI 2.0 mini(1.5Bパラメータ)のように、エッジデバイスやモバイル端末で直接動作する小規模モデルの開発が加速しています。クラウドを介さず端末内で処理が完結するため、プライバシー保護と低遅延を両立できます。
国産LLMの競争力と課題
グローバルモデルとの性能差
Nejumi Leaderboard 4(2025年12月)では、GPT-5.2(0.8285)に対し国産最上位は50位(0.6910)と差があります。しかし、PLaMo 2.2 Prime が JFBench で GPT-5.1 と同等、Rakuten AI 3.0 が日本語タスクで GPT-4o を上回るなど、日本語特化タスクでは十分に競争力があります。
国産LLMの本質的価値
国産LLMの価値は汎用性能の追求ではなく、以下の4点にあります。
- データ主権: 金融・医療・防衛データの国内処理
- コスト効率: tsuzumi 2 の GPU 1基運用に代表される低コスト運用
- 少量データでのドメイン適応: tsuzumi 2 は競合の10分の1の学習データで専門領域に対応
- 法的透明性: フルスクラッチモデルは著作権リスクを回避
課題
- 投資規模の格差: 日本の1兆円(5年間)はグローバルでは OpenAI 単体の年間投資額にも満たない
- AI人材の不足: ML エンジニアの獲得競争がグローバルで激化
- エネルギー・インフラ制約: 大規模学習には膨大な電力とデータセンター容量が必要
まとめ:ハイブリッド共存戦略
日本の国産LLM開発は「ハイブリッド共存」戦略に収斂しつつあります。汎用タスクには GPT、Claude、Gemini を活用しつつ、機密データ処理・規制産業・オンプレミス環境・日本語特化タスクには国産LLMを配置するという棲み分けです。
NTT の tsuzumi 2 が GPU 1基で動作し、PFN の PLaMo 翻訳が月額サブスクリプションで提供される現実は、「大は小を兼ねる」とは限らないAIの新しい競争軸を示しています。グローバルの模倣ではなく、データ主権・軽量化・ドメイン特化という独自の価値を持つ生態系として、日本のLLMエコシステムは成熟しつつあります。
以上、日本企業によるローカルLLM開発事例をまとめた、現場からお送りしました。