WEKO3
アイテム
視覚情報に基づく人間とロボットの対面およびネットワークコミュニケーション[概要・文献リスト]
https://sucra.repo.nii.ac.jp/records/11485
https://sucra.repo.nii.ac.jp/records/11485b072a7e3-99e2-4f1b-a579-1d8a1c013d90
名前 / ファイル | ライセンス | アクション |
---|---|---|
KK000460.pdf (678.5 kB)
|
|
Item type | 研究報告書 / Research Paper(1) | |||||
---|---|---|---|---|---|---|
公開日 | 2008-07-24 | |||||
タイトル | ||||||
タイトル | 視覚情報に基づく人間とロボットの対面およびネットワークコミュニケーション[概要・文献リスト] | |||||
言語 | ||||||
言語 | jpn | |||||
資源タイプ | ||||||
資源タイプ識別子 | http://purl.org/coar/resource_type/c_18ws | |||||
資源タイプ | research report | |||||
タイトル(別言語) | ||||||
その他のタイトル | Human-Robot Communication through Visual Information in Face-to-Face and Network Modes[Summary] | |||||
著者 |
久野, 義徳
× 久野, 義徳× 山崎, 敬一× 小林, 貴訓× 葛岡, 英明× 山崎, 晶子× 山本, 敏雄× 中村, 明生× 川島, 理恵× Matthew, Burdelski× 鶴田, 幸恵× 三橋, 浩次 |
|||||
著者 ローマ字 | ||||||
値 | Kuno, Yoshinori | |||||
著者 ローマ字 | ||||||
値 | Yamazaki, Keiichi | |||||
著者 ローマ字 | ||||||
値 | Kobayashi, Yoshinori | |||||
著者 ローマ字 | ||||||
値 | Kuzuoka, Hideaki | |||||
著者 ローマ字 | ||||||
値 | Yamazaki, Akiko | |||||
著者 ローマ字 | ||||||
値 | Yamamoto, Toshio | |||||
著者 ローマ字 | ||||||
値 | Nakamura, Akio | |||||
著者 ローマ字 | ||||||
値 | Kawashima, Michie | |||||
著者 ローマ字 | ||||||
値 | Burdelski, Matthew | |||||
著者 ローマ字 | ||||||
値 | Tsuruta, Sachi | |||||
著者 ローマ字 | ||||||
値 | Mitsuhashi, Koji | |||||
著者 所属 | ||||||
値 | 埼玉大学大学院理工学研究科数理電子情報部門 | |||||
著者 所属 | ||||||
値 | 埼玉大学教養学部 | |||||
著者 所属 | ||||||
値 | 埼玉大学大学院理工学研究科 | |||||
著者 所属 | ||||||
値 | 筑波大学大学院システム情報工学研究科 | |||||
著者 所属 | ||||||
値 | 公立はこだて未来大学システム情報科学部 | |||||
著者 所属 | ||||||
値 | 公立はこだて未来大学システム情報科学部 | |||||
著者 所属 | ||||||
値 | 東京電機大学未来科学部 | |||||
著者 所属(別言語) | ||||||
値 | Graduate School of Science and Engineering, Saitama University | |||||
著者 所属(別言語) | ||||||
値 | Faculty of Liberal Arts, Saitama University | |||||
著者 所属(別言語) | ||||||
値 | Graduate School of Science and Engineering, Saitama University | |||||
著者 所属(別言語) | ||||||
値 | Graduate School of Systems and Information Engineering, University of Tsukuba | |||||
著者 所属(別言語) | ||||||
値 | School of Systems Information Science, Future University-Hakodate | |||||
著者 所属(別言語) | ||||||
値 | School of Systems Information Science, Future University-Hakodate | |||||
著者 所属(別言語) | ||||||
値 | School of Science and Technology for Future Life, Tokyo Denki University | |||||
著者 役割 | ||||||
値 | 研究代表者 | |||||
著者 役割 | ||||||
値 | 研究分担者 | |||||
著者 役割 | ||||||
値 | 研究分担者 | |||||
著者 役割 | ||||||
値 | 研究分担者 | |||||
著者 役割 | ||||||
値 | 研究分担者 | |||||
著者 役割 | ||||||
値 | 研究協力者 | |||||
著者 役割 | ||||||
値 | 研究協力者 | |||||
著者 役割 | ||||||
値 | 研究員 | |||||
著者 役割 | ||||||
値 | 研究員 | |||||
著者 役割 | ||||||
値 | 研究補助員 | |||||
著者 役割 | ||||||
値 | 研究補助員 | |||||
書誌情報 |
総務省戦略的情報通信研究開発推進制度(SCOPE)特定領域重点型研究開発次世代ヒューマンインタフェース・コンテンツ技術 研究成果報告書 巻 平成17-19年度, 発行日 2008 |
|||||
年月次 | ||||||
値 | 2008-3 | |||||
識別番号 その他 | ||||||
内容記述タイプ | Other | |||||
内容記述 | SCOPE: 051303007 | |||||
抄録 | ||||||
内容記述タイプ | Abstract | |||||
内容記述 | 対面対話では視覚で互いに相手や周囲の状況がわかっているので、簡単な言葉で意思の伝達ができる。本研究ではロボットにこの機能を持たせることを目指して研究を行った。そのために、社会学の会話分析・相互行為分析の手法により人間の会話内容と視覚情報の関係を明らかにし、コミュニケーションに必要な視覚情報の認識と提示について研究した。さらに、この機能をネットワークを通じてロボットと対話したり、ロボットを通じてその周囲の人と対話する場合にも拡張した。具体的には、以下の3項目について研究開発を行った。 1) 対話を通じて物体を認識する方法。(物体認識) 2) 介護場面で人間が依頼をしやすいように行動した上で、依頼をしたい人を見つけ依頼を受け付ける方法。(介護ロボット) 3) 対面コミュニケーション、ネットワークを通じての遠隔地にいる人間とロボットのコミュニエーション、ロボットを媒介にしてネットワークの両側にいる人間同士のコミュニケーションの3つのコミュニケーションのできるミュージアムガイドロボット。(ガイドロボット) In most contexts of face-to-face interaction, humans carry out relatively smooth communication because they have the ability to obtain information on actions and situations based on the visual field. The purpose of this research project is to develop a visual system in robots that can facilitate smooth human-robot communication within a variety of contexts. We have engaged in three main lines of research and development. First, we have employed the methods of conversation/interaction analysis to examine the relationship between the visual field and verbal language in human-human interaction. Second, we have analyzed ways that robots can obtain pertinent information from the visual field, and also how they can display proper actions to humans in face-to-face interaction. Third, we have extended these techniques to network robots in order to allow a specialist to communicate with the robot and users. In particular, our research has developed robot systems that have the potential to do the following: i. Recognize objects through interaction with human users (Object Recognition). ii. Behave in ways that humans can easily make requests for assistance, and respond to such requests through non-verbal actions (Assisted-Care Robot). iii. Communicate in three modes (Guide Robot): 1) autonomous: engage in face-to-face interaction with users, 2) remote-control: in cases when a visitor poses a question, the robot switches to remote-control mode in which an off-site specialist answers the visitor's question(s). The robot communicates with the co-present visitors (via the specialist and network) using verbal language, head, and hand motions, 3) remote-interactive: communicate with a specialist who directs the robot what to do in order to facilitate interaction with users in the robot's vicinity through a network. |
|||||
その他の言語 | ||||||
言語 | eng | |||||
資源タイプ | ||||||
内容記述タイプ | Other | |||||
内容記述 | text | |||||
フォーマット | ||||||
内容記述タイプ | Other | |||||
内容記述 | application/pdf | |||||
アイテムID | ||||||
値 | KK000460 |