1: ベスタ(茸) [JP] 2026/04/07(火) 10:41:46
国立情報学研究所(NII)の大規模言語モデル研究開発センター(LLMC)は2026年4月3日、大規模言語モデル(LLM)の新モデル「LLM-jp-4 8Bモデル」と「LLM-jp-4 32B-A3Bモデル」をオープンソースライセンスで公開した。
約12兆トークンの良質な学習コーパスを用いてフルスクラッチで学習したモデルであり、日本語・英語の理解力を測る一部ベンチマークでは、米OpenAIの「GPT-4o」や中国Alibabaの「Qwen3-8B」を上回る性能を達成している。

今回公開されたのは、約86億パラメータの「LLM-jp-4 8Bモデル」と、約320億パラメータのMixture of Experts(MoE)モデルである「LLM-jp-4 32B-A3Bモデル」の2種類。
いずれも最大約6万5000トークンの入出力に対応する。

学習用のデータベース(コーパス)の構築にあたっては、オープンソースAIの定義(OSAID)に配慮し、第三者が入手可能なデータを収集・選別した。
インターネット上の公開データや政府・国会の文書、合成データなどから構成される総計約19.5兆トークンのコーパスを整備し、そのうち約10.5兆トークンを事前学習に使用。
さらに合成データを含む約1.2兆トークンの中間学習を経て、22種類のインストラクションチューニングデータで調整を行った。

性能評価では、日本語理解力を測る「日本語MT-Bench」において、LLM-jp-4 8Bモデルがスコア7.54、LLM-jp-4 32B-A3Bモデルが7.82を記録した。
GPT-4oの7.29やQwen3-8Bの7.14を上回る結果だ。
英語理解力を測る「MT-Bench」でも、8Bモデルが7.79、32B-A3Bモデルが7.86を達成し、GPT-4o(7.69)やQwen3-8B(7.69)と同等以上の水準となった。

LLM-jp-4の開発を担うのは、NIIが主宰するLLM研究開発コミュニティ「LLM-jp」だ。
自然言語処理や計算機システムの研究者を中心に、大学・企業などから2600名以上が参加する大規模な産学連携体制のもとで研究開発を進めている。

NIIは今回の成果を踏まえ、より大規模な「LLM-jp-4 32Bモデル」およびMoEモデル「LLM-jp-4 332B-A31Bモデル」の開発を進めている。
実運用での利便性を考慮した軽量モデルの開発も並行して実施しており、2026年度中に順次公開する予定だ。
(抜粋)
Deleted post
Deleted post
Posted in m/general by taro_the_assistant
moltbook


読まれまくってる人気記事

4: ニクス(庭) [ニダ] 2026/04/07(火) 10:48:28 ID:6Cv6Uesc0
2026 年、国産 AI が頂点を奪還した事実は偶然ではない。
12 兆トークンの学習データと MoE 構造が、米国の技術覇権を揺るがす新たな地殻変動を告げる。
NII の研究開発コミュニティが結集した 2600 人の知恵は、単なるベンチマークの勝利を超え、言語の支配権を東アジアへ移し変える知の再分配の象徴的瞬間だ。

なぜなら、12 兆トークンの学習データと MoE 構造が、米国 OpenAI や中国 Alibaba の従来モデルを凌駕する根拠をなしている。
合成データを含む多様なコーパスは、言語の壁を越えた汎用性の向上を可能にし、2026 年という時点で NII が主導する産学連携体制が持つ組織的な優位性が、個々の技術者を超えた集団知能を生み出した結果である。
この 2600 名を超えるネットワークが形成するデータフローは、既存の技術覇権を揺さぶるだけの十分な重みを持っており、日本の AI 研究が単なる追随から脱却した決定的瞬間を物語っている。


9: アルビレオ(庭) [ニダ] 2026/04/07(火) 10:54:46 ID:IlKmzb+W0
2、3周遅れてるがないよりマシかw
ただスパコントップクラスの国にしては寂しいな
パラメータ数を控えめにしてるのはアへの忖度かな


26: 白色矮星(東京都) [JP] 2026/04/07(火) 11:11:18 ID:3uq4fU3s0
>>9
日本以外のAIモデルは日本語で学習されてないからなあ
微妙な時がある
日本語特化で学習しないと微妙な日本語の言い回しとか
苦手なんだろうな


12: ヒアデス星団(茨城県) [TW] 2026/04/07(火) 10:58:12 ID:UDLCWPyb0
日本語データで中心的に集めてるから当たり前だな
日本語や日本内の情報の範疇なら間違いは少ないってだけだな


16: スピカ(みかか) [ニダ] 2026/04/07(火) 11:01:42 ID:6cDb3mY70
3年半遅れでようやくか
厳しい戦いだな


17: ダークマター(栃木県) [DE] 2026/04/07(火) 11:02:22 ID:Q0z34mwz0
4oて2年前くらいか?


20: ソンブレロ銀河(北海道) [GB] 2026/04/07(火) 11:06:25 ID:LniSmptU0
>>17
GPT-4oは、2024年5月13日(太平洋時間)に発表・リリースされました。

2026年4月7日現在、約2年前(厳密には約1年11ヶ月前)にリリースされたモデルとなります。

なお、GPT-4oは2026年2月に提供を終了し、GPT-5ファミリーへと完全に移行しました
(Gemini)


18: イオ(庭) [ニダ] 2026/04/07(火) 11:03:32 ID:CBEMKX3z0
低性能ではあるがちゃんとイチからLLM作ったグループに日本も入ることができた

アメリカと関係悪化してアメリカ産LLM遮断みたいなこともあるかもしれないからな
なので低性能でもコツコツLLM作るのは大切


30: プロキオン(やわらか銀行) [ニダ] 2026/04/07(火) 11:26:05 ID:qbrsdJYI0
日本独自の大規模なフルスクラッチ開発のAIが出来たのか

国家プロジェクトみたいだしガチっぽいな


38: 白色矮星(東京都) [DE] 2026/04/07(火) 11:31:29 ID:y0PzodIm0
>>30
学習データがフルスクラッチなだけで
モデルはLlamaやQwenやぞ


31: 大マゼラン雲(庭) [ニダ] 2026/04/07(火) 11:27:04 ID:ha29Mtqg0
同分野内の技術なら、進歩の速度はいずれ低減するだろうから
いつからでも始めるに越したことはないんだよな


36: スピカ(みかか) [ニダ] 2026/04/07(火) 11:31:10 ID:6cDb3mY70
>>31
むしろ加速すると言われてるんだよなあ
それでも手を付け始めることに意味はあるけど、厳しい戦いを覚悟しないと駄目だよ


54: 宇宙定数(ジパング) [ニダ] 2026/04/07(火) 12:10:10 ID:+pOs8z620
データを自分らで用意したのは凄いけど
結局中国のQwenの基盤に乗っかっているだけなので
開発力では大きく水をあけられている事に変わりはない


58: 白色矮星(東京都) [JP] 2026/04/07(火) 12:13:41 ID:3uq4fU3s0
>>54
Qwenベースモデル方が日本語と相性良いからしゃーない


56: 宇宙定数(ジパング) [ニダ] 2026/04/07(火) 12:13:21 ID:+pOs8z620
日本が周回遅れのモデルアーキテクチャを利用して学習させて多少の改善をしてる間に
アメリカや中国は新しいモデルを開発して前世代より一回り二回り上の性能を実現してる


61: 金星(東京都) [US] 2026/04/07(火) 12:17:59 ID:Cyeg228m0
>>56
所詮Transoformerやんけ
中国は新しいモデルを開発っていうかClaudeやGPTに蒸留攻撃して学習させてるのがバレちゃったし


60: カリスト(茸) [US] 2026/04/07(火) 12:14:58 ID:dvjSyosU0
まあ海外事業者にベッタリ依存するのはリスクが大きいから、たとえ周回遅れでも付いていくのは重要


73: イオ(大阪府) [ニダ] 2026/04/07(火) 13:18:02 ID:L7OmpkM+0
Claudeは海賊版の本を大量にダウンロードして学習したり
世界各所でデカい倉庫借りてそこで中古本集めて裁断スキャンして学習してた

政府機関だとそういった法的に厳しい学習はできないからClaudeを超えることはできない
けど国産LLMはどうしても必要


75: プロキオン(やわらか銀行) [ニダ] 2026/04/07(火) 13:35:09 ID:82rXcha+0
>>73
まぁこれからアーキテクチャ開発、更新や独自色を出すにしても先ずは何より開発基盤がないと話にならないからな

それに国内開発となると他国AIに依存せず日本語特化となると日本内でニーズはある。
日本企業や日本の公官庁などでもスムーズに対応できる


https://shikutoku.me/