[市場動向]

東工大など、スパコン「富岳」でLLMを学習、130億パラメータの「Fugaku-LLM」を公開

GPU以外でLLMを学習させるスキルセットを獲得

2024年5月10日(金)日川 佳三(IT Leaders編集部)

東京工業大学、東北大学、富士通、理化学研究所、名古屋大学、サイバーエージェント、Kotoba Technologiesの7組織は2024年5月10日、スーパーコンピュータ「富岳」で大規模言語モデル(LLM)を学習する研究成果として、130億パラメータのLLM「Fugaku-LLM」を公開した。富岳の計算資源1万3824ノードを約1カ月間占有して学習させて構築したもので、日本語の能力が高いとしている。

この記事の続きをお読みいただくには、
会員登録(無料)が必要です
  • 1
  • 2
関連キーワード

東京工業大学 / 富岳 / 生成AI / スーパーコンピュータ / 大規模言語モデル / 理化学研究所 / 富士通 / 産学連携 / 協業・提携 / GPT / 産業技術総合研究所 / HPC / 東北大学 / サイバーエージェント / 名古屋大学

関連記事

トピックス

[Sponsored]

東工大など、スパコン「富岳」でLLMを学習、130億パラメータの「Fugaku-LLM」を公開 [ 2/2 ] 東京工業大学、東北大学、富士通、理化学研究所、名古屋大学、サイバーエージェント、Kotoba Technologiesの7組織は2024年5月10日、スーパーコンピュータ「富岳」で大規模言語モデル(LLM)を学習する研究成果として、130億パラメータのLLM「Fugaku-LLM」を公開した。富岳の計算資源1万3824ノードを約1カ月間占有して学習させて構築したもので、日本語の能力が高いとしている。

PAGE TOP