公共空間で動作するコミュニケーションロボットでは,動的な会話タスクの生成と,会話相手に違和感や 不快感を与えない会話タスクの切り替えが必要となる.本論文では,ロボットが会話外から割り込まれた場合の会話 タスクのスケジューリング手法として,ロボットが割り込みを受けると,内容に合わせた会話タスクを生成し,会話 の重要度,長さ,会話相手同士の人間関係,会話相手の情動,および現在の会話タスクの隣接ペアの情報に基づいて 会話タスクのスケジューリングを行う CACTS を提案し.偶然ロボットを見ている周囲の人間の立場と,割り込まれ る立場から,常に最新の会話タスクを優先する場合と比較した本手法の印象を評価した.実験の結果,提案手法の有 効性が示された一方,割り込まれた状況に対して一意にスケジューリングを判断することの限界も示された.
DigiFAB環境と連携したデザイン指向STEM教育ロボットキット : 真島大樹, 高汐一紀, 信学技報, vol. 117, no. 198, CNR2017-14, pp. 31-36, 2017年9月.
世界中でSTEM教育が盛んになる中,日本においてもTechnologyやEngineeringの両面からの教育の充実が求められており,センシング,情報処理,アクチュエーションの基礎を学ぶツールとして,ロボットをターゲットとした教育ツールが注目されてきた.一方で,従来の教育用ロボットキットはロボットの製作を目的としたエンジニアリング層からのボトムアップ思考のアプローチが主であり,インタラクションやアニマシーといった,トップダウン型のロボットデザイン分野への適用は難しかった.本稿では,デジタルファブリケーション環境と連携することによりデザイン指向のロボット教育を可能とする,オープンソースSTEM教育向けのロボットキットの開発事例を報告する.
Ex-Amp Robot: Expressive Robotic Avatar with Multimodal Emotion Detection to Enhance Communication of Users with Motor Disabilities : Ai Kashii, Kazunori Takashio and Hideyuki Tokuda, 26th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN 2017), Aug to Sept, 2017.
In current society, there are numerous robots made for various purposes, including manufacturing, cleaning, therapy, and customer service. Other robots are used for enhancing H2H communication. In this research, we proposed a robotic system which detects the user’s emotions and enacts them on a humanoid robot. By using this robotic avatar, users with motor disabilities are able to extend their methods of communication, as a physical form of expression will be added to the conversation.
MoDe:ヒューマノイド型ロボットのためのモーションデフォルメツール : 林亮太(市立浦和), 堀江拓実, 真島大樹, 川那子進太郎, 宮本凜太郎, 高汐一紀, 信学技報, vol. 117, no. 95, CNR2017-8, pp. 41-44, 2017年6月.
ロボットは人間の動きをそのまま再現することは構造上困難であるため,人間の動きを適度にデフォルメすることが必要となる.本論文では,ヒューマノイドロボットのためのモーションデフォルメツールMoDeを提案,そのプロトタイプを紹介するとともに,適用実験を通して,モーションデザインにおける有用性と今後の展望を議論する.本プロトタイプでは,モーションキャプチャによって取得された人間の動作データをデフォルメするパラメータとして,モーションの大きさ(Scale)と分解能(Step)を実装,両パラメータを適正値に設定することで,ヒューマノイド型ロボット向けのキャラクタ付けされたモーションデータをリアルタイム生成することが可能となった.
隣接ペアの連鎖を考慮した対話フローのアトミシティ検出とその効果 : 堀江拓実, 高汐一紀, 信学技報, vol. 117, no. 95, CNR2017-5, pp. 23-28, 2017年6月.
多対多のインタラクションを想定したコミュニケーションロボットでは,動的な対話タスクの生成と,対話相手に違和感や不快感を与えないタイミングでの対話タスクの割り込み制御を行う必要がある.本論文では,隣接ペアとその連鎖を考慮して検出したアトミシティを利用した会話スケジューリングが,本来の会話相手に対して良い印象を与えるかを検証した.実験には,Artificial Intelligence Markup Language (AIML) を拡張し,隣接ペアを表現可能にした対話タスク記述言語 AIML-ap を新たに定義し,用いた.実験の結果,隣接ペアの連鎖を考慮した会話スケジューリングが本来の会話相手に対して良い印象を与える可能性を示した.
Ex-Amp Robot: Physical Avatar for Enhancing Human to Human Communication : Ai Kashii, Kazunori Takashio, Hideyuki Tokuda, International Conference on Human-Agent Interaction 2016 (HAI 2016), Dec, 2016.
Our research focuses on creating a robotic system that aids human-to-human communication. The robot acts as a personal companion that understands the user’s emotions and helps express them alongside the user. First, the user’s facial expression is detected through a connected camera device and relays the retrieved information to a humanoid robot. The humanoid robot then performs physical gestures that match the detected emotion. By using this system, those who are unable to freely move their own bodies can add a physical component to their communication method. In this paper, we have determined the efficacy of translating detected facial expressions into robot movements. Through experiments and surveys, we determined whether our proposed ‘Ex-Amp Robot’ helped enhance the communication of a hypothetically tetraplegic user.
Robot Avatar for Enhancing the Communication of Physically Disabled Humans : Ai Kashii, Kazunori Takashio and Hideyuki Tokuda 25th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN 2016), Aug, 2016
The robot avatar proposed in this paper is a personal companion that captures users’ facial expressions and translates retrieved emotion data into gestures best suited to express the user’s emotion in real-time. This robot allows users to enjoy physical aspects of communication, as well as put an impact on parts of conversations to raise conversation quality. In this research, we have conducted experiments to validate the efficacy of translating facial expressions into robot movements.
Expression Amplifying Robot ~ 会話の中での表現力を増強するロボット ~ : 樫井亜依, 高汐一紀, 徳田英幸, 信学技報, vol. 116, no. 106, CNR2016-3, pp. 11-16, 2016年6月.
現在,様々なタイプのロボットが,あるものはコミュニケーションパートナとして,またあるものは労働力として,我々の日常生活を支えてくれている.コミュニケーションを支援するロボットの種類は多く,アバタ(アイデンティティの象徴)として機能するものもあれば,それ自身が会話相手として振る舞うロボットもある.本稿で我々は,H2Hのコミュニケーションを補助するロボットシステムEx-Ampを提案する.本ロボットシステムは,感情の表現力を増幅するロボットであり,ユーザの感情を理解するパーソナルロボットとして動作し,ユーザの側で,ユーザの代わりとなって感情を身体表現する.感情を身体表現することが困難なユーザも,本パーソナルロボットを使うことで,自身の感情表現の自由度を上げることが可能となる.今回,我々はスマートフォン上での表情検出機構と組み合わせ,検出された表情をロボットの動作トリガとして利用する機構を実装した.さらに,H2Hコミュニケーションにおける表現力向上の効力を,四肢麻痺状況のユーザを想定した評価実験を通して検証した.