on
Aug 26th Journal Club
Themes: Effects of Anthropomorphism on Trust in HRI, On the Opportunities and Risks of Foundation Models
Presenters: HM (Hoyoung Maeng), SB (Seoyeon Bae)
Topic 1: Effects of Anthropomorphism on Trust in HRI [HM]
선정 이유
HRI 분야와 관련된 Nao 로봇 연구를 하면서, Trust를 측정하는 다양한 연구를 학습하고 싶었음.
내용 요약
로봇의 도움을 받아 퀴즈를 푸는 상호작용하는 실험을 실시하였다. 수학적으로 복잡한 문제를 푸는 과정에서 로봇의 외형이 있을때와 없을때, 로봇의 종류가 다를때, 로봇의 행동유형에 따라 로봇에 대한 실험참여자의 trust를 측정하였다. 로봇의 종류는 Pepper, Nao, Kuri, Sawyer 4가지, 로봇의 행동은 Correct, Apologetic, Accountable, Indifferent 4가지 유형이며, Trust를 측정하는 척도는 Perceived Anthropomorphism, User’s automation bias, Inappropriate Compliance and reliance 이다. 결론적으로 Perceived Anthropomorhism과 behavior는 trust에 significant한 영향을 끼치는 factor 였으며, 로봇의 유형과 presence는 유효한 영향을 끼치지 않았다. 반면 Virtual 로봇의 목소리는 모두 같았으나(google TTS), physical 로봇의 목소리는 모두 다르게 하여 실험이 진행된 한계점이 있다.
의의
HRI 연구에서 trust에 끼칠 수 있는 다양한 속성(Robot Type, Behavior, Presence, Coalition building preface)을 비교 연구한 점에 의의가 있음.
참고 문헌
Natarajan, M., & Gombolay, M. (2020). Effects of anthropomorphism and accountability on trust in human robot interaction. ACM/IEEE International Conference on Human-Robot Interaction, 33–42.
Topic 2: On the Opportunities and Risks of Foundation Models [Ch.2] [SB]
선정 이유
OpenAI를 사용해 보기도 했고, 최근 GPT-3에 대해 새롭게 알게된 것들도 있어 기본 개념 또한 익혀보고자 본 논문을 읽어보게 되었다.
내용 요약
-
Languages 자연어를 이해하고 나아가 생성할 수 있는 foundation models의 가장 대표적인 기능을 소개하는 부분으로, NLP 연구에 foundation models가 굉장히 큰 영향을 끼쳤음을 알 수 있다. 그러나 아직 multilingual 시스템을 제공하는 것에는 한계가 있으며 사람이 언어를 습득하는 ‘효율적인’ 과정을 완벽하게 재현하는 것 또한 무리인 것으로 파악된다.
-
Vision 외부 환경으로부터 시각적 raw 데이터를 습득하여 이를 지식으로 이해하는 foundation models의 역할을 설명하며 self-supervision이 방대한 양의 시각적 데이터를 학습하는 데 매우 유용함을 보여준다. 하지만 NLP에 비해 상대적으로 신생 분야인만큼, 아직 부족하고 개선되어야 할 점이 많다.
-
Robotics 자율 주행 자동차, personal assistance 등과 같이 물리적으로 구현된 foundation models를 소개하는 부분으로, robotics 영역에서는 사용자가 무엇을 원하는지를 파악하고 새로운 환경에서 새로운 업무를 수행할 수 있는 능력이 중요함을 설명한다. 이를 위해서는 AI가 학습할 수 있는 데이터가 잘 구축되어 있어야 하며, 여러 환경에서의 안정성과 견고함 또한 중요하다.
-
Reasoning and search AI 역사에서 빼놓을 수 없는 추론에 대해 설명하며 학습된 데이터를 토대로 이외의 다양한 영역들의 정보를 파악하고 이해하는 foundation models의 역할 또한 보여주고 있다. 그러나 한편으로 인간처럼 추론하는 AI model을 개발하기 위해서는 마찬가지로 방대한 양의 데이터가 필요함도 강조한다.
-
Interaction 인간과 AI 간의 상호작용에 대해 설명하는 부분으로, foundation models의 발달 덕에 개발자들은 더 쉽게 개발할 수 있게 되었고, 최종 사용자들은 더 다양한 방식으로 AI를 활용할 수 있게 되었으며, 기술이 더욱 발전한다면 개발자와 최종 사용자 간의 경계도 흐릿해질 것으로 예상함을 역설하고 있다.
-
Philosophy of understanding foundation models가 과연 정말로 인간의 자연어를 이해하게 될 수 있을지를 철학적 관점(internalism, referentialism, pragmatism)에서 답하고자 했다.
장단점
개론 수준의 설명과 내용으로, foundation models의 역할을 쉽게 이해할 수 있었다. 하지만 오히려 단순한 설명으로 인해 피상적인 내용만 있고 심도 있고 전문적인 수준의 내용은 부족한 것이 다소 아쉬웠다.
의의
여러 영역에서 GPT-3를 비롯한 여러 foundation models가 어떤 역할을 하며, 한계점, 앞으로 나아가야 할 방향을 체계적이고 알기 쉽게 정리해 알려주었다는 점에서 의의가 있다.
참고 문헌
Bommasani, R., Hudson, D. A., Adeli, E., Altman, R., Arora, S., von Arx, S., … & Wang, W. (2021). On the Opportunities and Risks of Foundation Models. arXiv preprint arXiv:2108.07258.