[事例ニュース]

セブン-イレブン、VLAモデル搭載ヒューマノイド「Astra」を2029年までに店舗に導入へ

人型ロボットが商品補充や店内調理などの店舗業務を担う

2025年10月1日(水)日川 佳三、河原 潤(IT Leaders編集部)

セブン-イレブン・ジャパン(本社:東京都千代田区)は2025年9月30日、マルチモーダルAIモデル「VLA(Vision-Language-Action)」を搭載したヒューマノイド(人型ロボット)を、2029年までにコンビニエンスストア店舗に導入する計画を発表した。ロボット開発メーカーのテレイグジスタンス(TX)と共同で、小売業向けヒューマノイド「Astra」の開発と検証に取り組む。カメラ画像とテキストの指示を基にロボットの行動を制御するVLAモデルを実装する。

 セブン-イレブン・ジャパンが、AIモデルを搭載したヒューマノイド(人型ロボット)を2029年までにコンビニエンスストア店舗に導入する計画を明らかにした。遠隔操作とAIを活用したロボットを研究・開発するロボティクスメーカーのテレイグジスタンス(TX)と共同で、小売業向けヒューマノイド「Astra」の開発と検証に取り組む。

 店舗へのヒューマノイド導入の目的について、「レジカウンター内で高頻度に行う作業の自動化を図る。商品補充や店内調理などの店舗業務をロボットが担うことで、従業員は接客や売場管理といった人にしかできない業務に注力できるようになる」と説明している。

 ヒューマノイドのAI基盤モデルとして、カメラ画像とテキストの指示を基にロボットの行動を制御するマルチモーダルなVLA(Vision-Language-Action、注1)モデルを開発してロボットに実装する。

注1:VLA(Vision-Language-Action)モデルは、視覚情報(Vision)、言語理解(Language)、物理的な行動(Action)のマルチモーダルな情報を統合し連携させてロボットなどのエージェントを動かすためのAIモデル。カメラ映像を見て状況を理解し、自然言語の指示を解釈したうえで、具体的なロボットの動作命令に変換する。この仕組みにより、ロボットやエージェントが人間のように自律的に行動しタスクをこなすことを目指している。


動画1:飲料陳列ロボット「TX Ghost」の動作(出典:テレイグジスタンス)

 TXは、コンビニはじめ小売業向けに飲料陳列ロボット「TX Ghost」(動画1)を展開しており、遠隔操作によるデータ収集基盤をすでに構築している。このインフラを活用してセブン-イレブンの店舗業務に基づく実環境データを収集し、VLAモデルに学習させる。今後、両社は以下の取り組みを推進する。

  1. 店舗業務の中で、技術的・経済的にロボットによる自動化が可能な業務領域を特定し、効果を検証する
  2. 現場の課題を解決可能なハードウェアを開発する
  3. VLAモデルの学習に必要な動作データを大規模に収集し、VLAモデルを構築する

 さらに、早稲田大学理工学術院 基幹理工学部 表現工学科教授の尾形哲也氏、東京大学大学院 工学系研究科教授の松尾豊氏、トヨタ自動車らが理事を務める一般社団法人AIロボット協会(AIRoA)と連携し、大規模な事前学習用のデータセット収集と構築、VLAモデルの開発を進め、AIを実装したロボットの実用化を加速する。

関連キーワード

セブン-イレブン / ロボティクス / ヒューマノイド / 小売 / コンビニエンスストア / 店舗 / 業務自動化 / マルチモーダルAI / 松尾研究所 / 早稲田大学 / 東京大学 / 協業・提携 / 産学連携

関連記事

トピックス

[Sponsored]

セブン-イレブン、VLAモデル搭載ヒューマノイド「Astra」を2029年までに店舗に導入へセブン-イレブン・ジャパン(本社:東京都千代田区)は2025年9月30日、マルチモーダルAIモデル「VLA(Vision-Language-Action)」を搭載したヒューマノイド(人型ロボット)を、2029年までにコンビニエンスストア店舗に導入する計画を発表した。ロボット開発メーカーのテレイグジスタンス(TX)と共同で、小売業向けヒューマノイド「Astra」の開発と検証に取り組む。カメラ画像とテキストの指示を基にロボットの行動を制御するVLAモデルを実装する。

PAGE TOP