ラトナ(Latona)は2020年5月26日、GPUを搭載したIoTエッジ機器でKubernetesクラスタを組み、マイクロサービス単位でGPUコンテナを安定的に稼働させる技術を開発したと発表した。
ラトナは、クラウドから遮断されたクローズドなネットワーク環境において、GPUを搭載したIoTエッジ機器でKubernetesクラスタを構築した(図1)。IoTエッジ機器には、単一または複数台の「NVIDIA Jetson(NX、Xavier、TX2、Nano)」を使っている。
図1:GPUを搭載したIoTエッジ機器でKubernetesクラスタを組み、マイクロサービス単位でGPUコンテナを安定的に稼働させる技術を開発した(出典:ラトナ)
拡大画像表示
拡大画像表示
コンテナの稼働環境である、IoTエッジ機器で構成したKubernetesクラスタの上で、GPU用の数値計算ライブラリ「CuPy」を利用した処理を稼働させた。さらに、同環境でラトナのAI/IoT基盤「AION」のマイクロサービスランタイム環境が稼働することを確認した。
GPUを搭載したIoTエッジ機器でKubernetesクラスタを運用するメリットについてラトナは、IoTデータをバッチ処理ではなくリアルタイムに安定して処理できるようになることなどを挙げる。GPU処理により、これまでよりも大容量のデータを高速に処理できるようになる。
想定するユースケースは、以下の通り。
- 製造ロボットやPLCから取得した設備ビッグデータをリアルタイムで統計解析し、その場で結果と示唆を得る
- 製造ラインのビジョンシステムとして、より多くの画像/IoTデータを統合的にAI/統計処理し、その場で結果と示唆を得る
- 製造ラインなどで、ロボットのリアルタイム制御をするためのAI処理を、高速化/安定化する
- 小売店舗の導線解析などにおいて、より多くの画像/IoTデータを統合的にAI/統計処理し、その場で結果と示唆を得る