on
Sep 2nd Journal Club
Themes: HRI, Behavior Explanations
Presenters: JP (Jae Eun Park)
Topic 1: HRI, Behavior Explanations [JP]
선정 이유
사용자가 예상치 못하거나 원하지 않는 행동을 로봇이 했을 때 로봇의 설명을 통해 부정적 효과를 완화할 수 있는지 알아보고자 함
내용 요약
본 실험에서는 desirability가 다른 여러 가지 인간-로봇 상호작용 상황에서 로봇이 자신의 행동에 대한 설명을 제공하는 것이 그 로봇의 행동에 대한 understandability, desirability, justification에 있어 어떠한 영향을 끼치는지, 또한 explanation type에 따라 그 효과가 다른지 알아보고자 하였다. Explanation type에는 (1) needs-based explanations, (2) explanations on the intention formation process, (3) intention-based explanations, (4) explanations on the action selection process, (5) action-based explanations가 있었으며 (2), (4)의 경우 인과관계 구조를 사용하여 구성한 더 복잡한 구성의 설명이었다. 또한 (1), (3)의 경우 행동을 한 원인을 설명하는 반면(why explanation) (5)의 경우 어떤 행동을 했는지 구체적으로 설명하였다 (what explanation). 실험 결과 설명을 제공하는 것이 understandability, desirability를 높였으며 특히 (2), (4)가 (1), (3), (5)보다 더 유의하게 이를 높였다. 그러나 why explanation과 what explanation 간에는 별다른 차이가 없었다.
의의
desirability가 다른 다양한 interaction 상황을 사용하여 예상치 못한 행동에 대한 설명을 제공하는 상황을 잘 구현함
참고 문헌
- Stange, S., & Kopp, S. (2020, March). Effects of a Social Robot’s Self-Explanations on How Humans Understand and Evaluate Its Behavior. In Proceedings of the 2020 ACM/IEEE International Conference on Human-Robot Interaction (pp. 619-627).