大日本印刷(DNP)と電気通信大学(UEC)は2017年8月7日、人間の言葉や表情、ジェスチャーに合わせて、自動的にその返答とジェスチャーを生成する「表現AI」の研究を開始したと発表した。
拡大画像表示
研究の成果として、情報デバイス(ロボット、チャットボット、デジタルサイネージなど)がジェスチャー付きで会話を行えるようにする「表現AI」のプロトタイプを、2017年度中に開発する。その後、実際の情報デバイスを利用した自動プレゼンテーションの実証実験を行う予定。今後は、店舗での案内やECサイトなどでの顧客対応といった生活者とのコミュニケーションを支援するサービスへの展開を目指す。
今回DNPとUECは、人間のジェスチャーや表情、言語から相手の状況を自律的に分析して、返答するテキスト情報(言語)やジェスチャーなどを自動的に生成する「表現AI」を開発する。
まず、文章からジェスチャーを自動生成するライブラリを開発する。大量の人間の映像情報から、教師なし学習の手法によって、返答する言葉とジェスチャーを合わせて抽出し、その相関関係を分析したモデルを構築する。次に、生成した「ジェスチャー情報」を、コミュニケーションロボットをはじめとした各種の情報デバイスで再現する。
DNPは2014年から、人間と情報デバイスとの円滑な情報のやり取りを支援する「知能コミュニケーションプラットフォーム」の構築を進めている。情報デバイスが相手の状況を推定して適切なコミュニケーションが行えることを目指しているが、従来のAI技術では言語とジェスチャーの相関関係付けは人間の判断(プログラマーによる設定)が必要になっていたという。
UECは、AIが自律的に概念を学ぶ方法として、周囲の状況を観察・行動しながら異なる相手との相関関係を分析して自律的に成長していく「記号創発ロボティクス」の研究を進めている。人間の発する言葉やジェスチャーなどの意味を機械が理解し、より円滑なコミュニケーションを実現する基盤技術の確立を目指している。