国産LLM「LLM-jp-4」公開、GPT-4oを超えた国産AIの実力

AI NEWS DIGEST | 2026.04.15(朝)

国産LLM「LLM-jp-4」公開
GPT-4oを超えた国産AIの実力

国立情報学研究所が12兆トークンで学習、一部指標でGPT-4oを超える日本語性能を達成

国立情報学研究所(NII)が2026年4月3日、純国産の大規模言語モデル「LLM-jp-4」をオープンソースライセンスで公開した。日本語能力の標準指標「日本語MT-Bench」で最高スコア7.82を記録し、GPT-4o(7.29)を上回る結果を示した点が大きく注目されている。海外API依存を抜け出したい企業にとって、具体的な選択肢が初めて整った瞬間といえるかもしれない。

① 国産LLM「LLM-jp-4」— GPT-4oを超えた日本語性能とオープンソース戦略

📰 国立情報学研究所(NII)プレスリリース | 2026年4月3日公開

国立情報学研究所(NII)は2026年4月3日、日本語・英語に最適化した大規模言語モデル「LLM-jp-4」の2モデルをオープンソースで公開した。公開されたのは約86億パラメータの「8Bモデル」と、約320億パラメータのMixture-of-Experts(MoE)構造を採用した「32B-A3Bモデル」の2種類。2,600名以上の研究者・エンジニアが参加する産学連携プロジェクト「LLM-jp」がフルスクラッチで開発した。

学習データは約12兆トークンの良質なコーパスで、日本語・英語・中国語・韓国語・プログラムコードを含む。日本語能力ベンチマーク「日本語MT-Bench」では8Bモデルが7.54、32B-A3Bモデルが7.82を達成し、GPT-4o(7.29)やAlibabaのQwen3-8B(7.14)を上回った。英語性能も同水準を維持している。

開発・学習プロセスやデータセットは広く公開される方針で、企業や研究者が独自のファインチューニングや業務特化カスタマイズを行いやすい設計になっている。さらに約320億パラメータのフルモデル「32Bモデル」と約3,320億パラメータの大規模MoE「332B-A31Bモデル」が2026年度中に順次公開予定で、高度な業務用途への対応が見込まれる。

記事を読む →

💡 コプラスの視点

国産オープンソースLLMの登場は、企業のAI導入における二つのブレーキ——「海外サーバーへの機密データ送信リスク」と「ライセンスコストの重さ」——を同時に取り除く可能性を持つ。LLM-jp-4はオンプレミスや自社クラウドでの動作が可能なため、法律・会計・医療・製造など専門知識と機密情報が絡む業種でのカスタマイズ展開に適している。まずは8Bモデルを社内RAGや文書要約に試験導入し、費用対効果を測るファーストステップとして検討してみてほしい。

📌 本日のまとめ

国産LLM「LLM-jp-4」は、高性能・オープンソース・日本語特化の三拍子が揃ったモデルです。海外APIへの依存を減らしながら業務にAIを組み込みたい企業にとって、具体的な第一歩を踏み出せる好機が来ています。コプラスでは貴社の業種・課題に合ったAI活用の進め方を個別にご相談いただけます。

AI活用をコプラスに相談する →