HRI(Human-Robot Interaction)でスムーズな会話を行うためには,ロボットにマルチモーダルに人間の会話を解釈し,また言語と動作の両方を適切に人間に解釈してもらうためのシステムが必要である.本研究では,会話において会話参加者が持つ情報のうち,視線行動に着目し,HRIにおける共通基盤構築の補助となるようなロボットの視線行動を考察する.HHI(Human-Human Interaction)を元に視線行動の分析を行い,ロボットに適切な視線行動の仮説を立てて実装し,評価実験を行う.