[新製品・サービス]
NTT、軽量LLMの次世代版「tsuzumi 2」を発表、金融/医療/自治体の専門知識を強化
2025年10月20日(月)日川 佳三(IT Leaders編集部)
NTTは2025年10月20日、大規模言語モデル(LLM)「tsuzumi(つづみ)」の次世代モデル「tsuzumi 2」を提供開始した。300億パラメータに抑え、GPU1基のオンプレミスサーバーでも動作するようにした。金融・医療・自治体の専門知識を強化し、追加学習などによる特化型モデルの開発効率を高めている。
NTTの「tsuzumi(つづみ)」は、同社がスクラッチで開発した大規模言語モデル(LLM)である。初期版は2024年から提供している。日本語処理能力の高さや、少ない追加学習量で業界特化型モデルを開発可能な点をアピールしている(関連記事:NTT、1GPUで推論動作可能な軽量LLM「tsuzumi」を発表、2024年3月に商用化)。
今回、次世代モデル「tsuzumi 2」を提供開始した。30B(300億)パラメータに抑えており、推論時にGPU1基(NVIDIA A100 40GBを想定)のオンプレミスサーバーでも動作するようにした。前世代と同様に日本語処理能力を高めており、業界特化型知識として金融・医療・自治体の専門知識を強化している(図1)。

拡大画像表示
金融分野の業界知識について、FP(ファイナンシャルプランニング)2級試験で検証している。LLMのデフォルトでは正答率54%で合格基準(正答率60%)を満たせなかったが、追加で200問を学習させたところ、正答率70%で合格基準を満たした。一方、パラメータサイズが近い他モデル(Gemma-2 27B)では追加1900問でようやく正答率64%となり合格基準に達したという(図2)。

拡大画像表示
精度(量子化サイズ)は、16ビット(精度優先)、8ビット(バランス)、4ビット(コスト・スピード優先)の3種類。それぞれの精度をベンチマークプログラム「日本語MT-Bench」で比較したところ、4ビットでも大きな精度低下は見られなかったという(図3)。

拡大画像表示