NTTと東京大学は2023年1月10日、深層ニューラルネットワーク(NN)の計算過程に物理系を用いる「物理NN」に適した学習アルゴリズムを考案し、有効性を確認したと発表した。光を用いた物理NNに同アルゴリズムを適用し、学習過程を含めて物理NN上で効率的に計算可能であることを実証した。AI処理の電力消費や演算時間の低減につながるとしている。
NTTと東京大学は、深層ニューラルネットワーク(NN)の計算過程に物理系を用いる「物理NN」に適した学習アルゴリズムを考案し、有効性を確認した。光を用いた物理NNに適用し、学習過程を含めて物理NN上で効率的に計算可能であることを実証した。AI処理の電力消費や演算時間の低減につながるとしている(図1)。
拡大画像表示
NTTと東大は研究の背景を次のように説明している。「深層NNを高速に計算するための計算媒体として、コンピュータのデジタル演算ではなく、光各種の物理系の状態変化を計算過程として利用する物理NNに注目が集まっている。しかし現状では、深層NNの学習を物理系上で実現することは困難であり、学習計算の大部分をデジタル演算に依存している」。
両者によると、深層NNの学習は一般的に誤差逆伝搬法(BP法)と呼ぶアルゴリズムを用いるが、BP法は、学習パラメータや微分値といった深層NNの情報の正確な把握が前提である。「このため、物理NNにBP法を適用するには、高い精度での物理系の状態計測や、物理シミュレーションによる微分応答の近似などが必要になり、学習計算が複雑になっていた」という。
今回、NTTと東大は、物理NNに適した「拡張DFA法」と呼ぶアルゴリズムを開発した。脳の情報処理から着想を得て開発したDFA法と呼ぶ手法に着目し、これを物理NNでの実装に適する形に拡張した(図2)。特徴として、物理系の情報を正確に把握する必要がない点を挙げる。学習過程の簡略化により、物理NNで事実上実現できていなかった学習が可能になった。
拡大画像表示
「従来のDFA法は、BP法と比べれば物理NNへの適用性が高いものの、依然として非線形変換やその導関数の計算が必要だった。今回の手法は、この部分を任意の非線形関数に置換できるようにDFA法を拡張した」(両者)。これにより、BP法で必要となっていた物理系の状態計測や、微分応答の物理シミュレーションによる近似、これに基づく逐次的な逆伝搬計算が不要になった。
物理NNへの適用性を、実機での実験で検証した。深層リザーバコンピュータと呼ぶ深層NNモデルを光NN上に実装し、原理検証実験を行った。図3は、画像処理のベンチマークタスクの性能を比較した結果である。GPUとの比較では、モデルの大規模化に伴う光NNの学習加速効果を確認した。
今後は、今回開発したアルゴリズムを用いた、具体的な問題への適用性を検討する。さらに、光ハードウェアの大規模小型集積化を進める。
拡大画像表示