@inproceedings{oai:sucra.repo.nii.ac.jp:00009386, author = {山崎, 千寿 and 久野, 義徳 and 中村, 明生}, book = {画像の認識・理解シンポジウム, Meeting on Image Recognition and Understanding}, month = {}, note = {人間とロボットの円滑なコミュニケーションのためには言語以外の行動による情報の伝達も考える必要がある。ここでは、このような非言語的行動のうち、“顔の向き”の利用について、“受け手”と“話し手”という二つの立場にわけて分析し、その結果に基づくロボットシステムをそれぞれ開発した。“受け手”としてのロボットとしては“指示語による命令を受け、指示された物体を取ってくるロボット”を想定した。指示語の理解のためには、“共同注視(Joint Attention)”の概念を取り入れた。共同注視とは、“相手の視線を辿ることにより、相手が注意を払っている物体に注意を払う”ことを指す。一方、“話し手”としてのロボットとして、“博物館でガイドをするロボット”を想定した。まず人間同士の場合による実験を行った。そして、実験の分析結果から得られた行動パターンを実現するシステムを開発した。 Face direction plays an important role in our daily conversation. This paper addresses the problem of using face direction information in human-robot communication. Conversation needs a talker and a receiver. The receiver can understand the target objects in the talker's utterances by watching the talker's face direction. The talker occasionally turns his/her face toward the receiver to obtain and to keep the receiver's attention. We have developed a robot system to understand the target objects by observing the human's face. We have also developed a museum guide robot that can move its face in accordance with the situation., 総務省戦略的情報通信研究開発推進制度(SCOPE) 特定領域重点型研究開発 次世代ヒューマンインタフェース・コンテンツ技術 視覚情報に基づく人間とロボットの対面およびネットワークコミュニケーション(051303007) 平成17年度〜平成19年度 総務省戦略的情報通信研究開発推進制度(SCOPE) 研究成果報告書(平成20年3月) 研究代表者 久野 義徳(埼玉大学大学院理工学研究科 教授)より転載, text}, publisher = {社団法人情報処理学会}, title = {人間とロボットのコミュニケーションにおける顔の向き情報の利用}, volume = {MIRU2005}, year = {2005}, yomi = {クノ, ヨシノリ} }