[市場動向]
東工大など、スパコン「富岳」でLLMを学習、130億パラメータの「Fugaku-LLM」を公開
GPU以外でLLMを学習させるスキルセットを獲得
2024年5月10日(金)日川 佳三(IT Leaders編集部)
東京工業大学、東北大学、富士通、理化学研究所、名古屋大学、サイバーエージェント、Kotoba Technologiesの7組織は2024年5月10日、スーパーコンピュータ「富岳」で大規模言語モデル(LLM)を学習する研究成果として、130億パラメータのLLM「Fugaku-LLM」を公開した。富岳の計算資源1万3824ノードを約1カ月間占有して学習させて構築したもので、日本語の能力が高いとしている。
- > 前へ
- 1
- 2
関連キーワード
東京工業大学 / 富岳 / 生成AI / スーパーコンピュータ / 大規模言語モデル / 理化学研究所 / 富士通 / 産学連携 / 協業・提携 / GPT / 産業技術総合研究所 / HPC / 東北大学 / サイバーエージェント / 名古屋大学 / 東京科学大学 / ABCI