[市場動向]
東工大など、スパコン「富岳」でLLMを学習、130億パラメータの「Fugaku-LLM」を公開
GPU以外でLLMを学習させるスキルセットを獲得
2024年5月10日(金)日川 佳三(IT Leaders編集部)
東京工業大学、東北大学、富士通、理化学研究所、名古屋大学、サイバーエージェント、Kotoba Technologiesの7組織は2024年5月10日、スーパーコンピュータ「富岳」で大規模言語モデル(LLM)を学習する研究成果として、130億パラメータのLLM「Fugaku-LLM」を公開した。富岳の計算資源1万3824ノードを約1カ月間占有して学習させて構築したもので、日本語の能力が高いとしている。
- > 前へ
- 1
- 2