Jan 11th Journal Club

Themes: Understanding Human Intelligence through Human Limitations, Human-Robot Relationship, Human-Robot Cooperation, Efficiency and Risk in Machine Behavior 

Presenters: YK (Yoon Kyung Lee), IL (Inju Lee), HM (Hoyoung Maeng)


Topic 1: Understanding Human Intelligence through Human Limitations [YK]

선정 이유
인공지능을 연구함으로써 역으로 사람의 인지 과정과 기제를 이해할 수 있는 접근에 대해 배우고자 선정하였다.

내용 요약
예전부터 학자들은 사람의 지능이 동물보다 얼마나 더 특별한지에 대해 관심이 많았다. 예전에는 그 비교의 대상이 동물이었다면, 이제는 인공지능이 된 것이다. 사람의 마음 기제를 이해함으로써 인공지능의 마음을 이해할 수 있는데, 이때 사람의 인지적인 한계 3가지: 시간적 제한, 계산적 제한, 의사소통 제한에 대한 이해가 뒷받침되어야한다고 저자는 주장한다. 여기서 시간적 제한이란, 제한된 양의 데이터를 배우기에 부족한 시간을 뜻한다. 기계는 예산과 컴퓨터 사양에 의존하여 데이터를 끊임없이 학습 가능하지만, 사람은 불가능하여 제한된 시간 안에 효율적으로 배울 수 있게 자신의 관심이나 필요에 맞는 데이터를 골라야 한다. 계산적 제한은, 계산해야할 데이터의 양 뿐만 아니라 계산할 수 있는 인지적 역량까지 포함한다. 의사소통 제한이란, 인간의 제한된 수명으로 인해 지식의 전달이 단절되는 것을 뜻한다. 계속 이루어질 수 있도록 사람들이 택하는 방식들이 곧 지능이기도 하다 (예: 가르침). 각 한계에 대해 수학적으로 이해할 수 있는 방법/도구도 같이 소개한다. 시간적 제한을 이해하기 위해서는 베이지안 추론을, 계산적 제한은 메타 러닝과 rational 메타 러닝을, 의사소통 제한은 distributed computation방식 (베이지안 posterior estimation)을 알아두어야한다고 소개해준다. 우리가 흔히 인간다운 인공지능을 만들어야한다고 주장하긴 하지만, 구체적으로 어떤 의미의 인간다움이며 그 목적이 무엇인지 구체화할 필요가 종종 있다. 이 논문에서는 의사 결정 상황에서 사람이 겪게 되는 시간 및 역량적 제한으로 인해 결정의 과정과 결과가 달라지기 때문에, 이를 위해 우리가 얼마나 효율적으로 의사결정을 하려고 하는지를 알아야한다고 한다. 사람이 효율적으로 결정하고자 하는 그 기제 (즉, 제한된 시간 안에 어떤 문제를 풀지 고르는 것, 많은 일이 있을때 우선 순위부터 정하는 것, 하나는 포기하고 하나는 고수하는 것 등)에 대한 이해가 메타 러닝과 rational 메타 러닝의 뒷받침이 될 수 있다고 주장한다.

장단점

의의


 Griffiths, T. L. (2020). Understanding Human Intelligence through Human Limitations. Trends in Cognitive Sciences, 24(11), 873-883.


Topic 2: The Benefits and Risks of Human-Robot Relationships [IL]

선정이유
평소 인간과 소셜 로봇의 상호작용에 관심이 있었기 때문에, 이와 관련된 리뷰 논문을 읽어보고 싶어 선정하였다.

내용요약
소셜 로봇의 정의 및 특징, 인간-인간/로봇 관계의 특징, 인간과 소셜 로봇의 관계에서 발생할 수 있는 이익과 위험성에 대하여 정리한 리뷰 논문이다.

로봇은 computational intelligence를 임베드한 물리적 기계를 의미하며, 이중 인간을 사회적으로 도와주는 기능을 하는 로봇이 소셜 로봇이다. 인간과의 원활한 사회적 상호작용을 위해 소셜 로봇은 언어 및 비언어적 의사소통, 장면 분석, 물체 인식 능력 등을 포함한 “cognitive architecture”를 임베드하고 있어야 하며, 감정이 상호작용에 있어 중요한 요소이기 때문에 감정에 잘 반응하여야 한다. 현재 소셜 로봇이 말과 행동을 통해 표현하는 능력은 많이 발전되었지만, 주어진 상황이나 사람의 정신상태를 이해하는 능력은 아직 많이 부족한 실정이다. AI 기술의 발전, cloud computing 등을 통해 개선이 가능할 것이다.

소셜 로봇이 유발할 수 있는 윤리 및 사회적 문제에 대한 논의는 소셜 로봇에 대한 사람의 지각에서 시작한다. 소셜 로봇은 존재론적(ontological) 측면에선 만들어진 기계에 불과하지만, 지금까지 살아있는 것들의 고유한 영역이라고 여겨져 왔던 행동을 할 수 있고 인간이 마치 심리적 능력이 있는 것처럼 이를 대하게 된다는 점에서 차이점이 존재한다. 따라서 소셜 로봇을 새로운 ontological class에 포함시켜야 한다는 의견이 존재한다. 인지과학자 Daniel Dennett (1987)에 따라 소셜 로봇에 대한 인간의 지각을 3가지(physical objects, designed objects, intentional objects)로 구분할 수 있으며, 인간은 주로 로봇을 intentional objects로 지각하는 것으로 보인다. Robbins와 Jack (2006)은 이에 phenomenal view를 추가하였다.

인간은 굉장히 사회적인 동물이며, 같은 인간뿐만 아니라 가축, 스마트폰과 같은 ‘사회적’ 물체, 애장품과도 관계를 형성한다. 관계(relationship)란 개인 또는 독립체가 서로 영향을 줄 수 있는 상황으로 다양한 역동, 사회적 기대, 규범 등의 영향, 관계가 속한 네트워크의 영향 등이 존재한다. 따라서 인간-로봇의 관계는 더 크고 복잡한 사회 및 심리적 맥락 속에서 분석되어야 한다. 또한 Wish 등 (1976)은 인간 간의 관계의 4가지 측면을 정리하였는데, 이는 인간-로봇의 관계를 인간 간 관계와의 유사성과 윤리적 위험 정도의 측면에서 분석할 때 유용하다.

인간-로봇의 사회정서적 관계 구현에 있어 2가지 관점이 존재한다. 첫번째는 철학자 John Danaher의 논의로부터 나온 것이다. Danaher에 따르면 총 3가지 형태의 친구 관계(virtue friend, utility friend, pleasure friend)가 있고, 그 중 virtue friendship이 가장 완벽한 형태이며, 이를 인간-로봇 관계에서 실현할 수 있다고 보았다. 두번째는 불교적 관점으로, 정직성, 관용 등과 같은 친구 관계의 의무에 초점을 두는 견해이다.

소셜 로봇은 다음 다섯가지 측면에서 잠재적 이익을 줄 수 있으며, 이를 뒷받침하는 연구 결과들이 존재한다: 1) physical comfort, 2) emotional comfort, 3) direct social interaction, 4) scaffolding of social interactions with others, 5) behavior modeling.

반면, 로봇을 사회적인 존재로 대하도록 유도하는 것 자체가 윤리적으로 위험하다는 의견이 존재한다. 하지만 다른 기술들 또한 사람들에게 감정 및 사회적 engagement를 이끌어 내지만 이에 대한 지나친 윤리적 우려는 없다는 점, 사람들은 로봇을 의도를 가진 에이전트이며 동시에 인위적으로 만들어진 기계임을 받아들일 수 있다는 점, 이미 어느정도 로봇에게 감정적인 invest를 할 의지가 있다는 점에서 반박될 수 있다.

관계적 접근 관점에선 인간-로봇의 사회적 상호작용의 패턴과 중점을 둔다. 윤리적 위험은 두 객체의 관계 속에서 발생이 된다. 해당 논문에선 사회정서적 요소에 초점을 두어 총 3가지 잠재적 위험을 다루었다: 1) human dignity, 2) the potential for a reduction in human contact, 3) the broader emotional impacts of social robots.

인간의 존엄성의 문제는 인간-로봇과의 관계의 측면에서만 과도하게 다루는 경향이 있으며, 다른 영역과의 균형 잡힌 고려가 필요하며, 소셜 로봇의 개발 단계에 있어 주요 원칙 중 하나로 인간의 존엄성을 고려하고자 하는 움직임들이 존재한다. 두번째 위험성에 있어선 소셜 로봇들이 인간의 사회적 기술 습득을 도와주고, 다른 사람과 관계를 맺는 데에 있어 촉매제 역할을 해주는 등 이에 반하는 연구 결과들이 많이 존재한다. 마지막 위험성 측면에서 인간이 소셜 로봇에 과도하게 사용하여 다른 사회적 관계들이 단절되는 등의 위험성에 대한 논의가 존재한다. 그러나 해당 문제점은 소셜 로봇에 국한된 것이 아니며, 점점 증가하는 digitally-engaged lives의 다른 측면들과도 모두 공유된다. 따라서 새로운 기술이 가져오는 인간의 사회적 연결성의 변화 측면에서 이를 다루어야 한다.

다양한 분야의 전문가들과 이와 관련된 이해당사자들이 모두 참여하여 이를 분석하였을 때 우리는 소셜 로봇의 잠재적 이득과 위험에 대해 더 깊이 이해할 수 있을 것이다.

의의
인간과 소셜 로봇의 관계를 어떻게 바라보고 분석해야 하는지 정리할 수 있는 논문이다.


 Prescott, T. J., & Robillard, J. M. (2020). Are Friends Electric? The Benefits and Risks of Human-Robot Relationships. iScience, 101993.


Topic 3: Confronting barriers to human-robot cooperation: balancing efficiency and risk in machine behavior [HM]

선정이유
인간과 로봇사이에서 의사소통이 가능할 때와 가능하지 않을 때, 발생할 수 있는 공통점과 차이점을 확인 할 수 있는 논문이였다. 의사소통이 가능할 때는 당연히 효율적이고 협력이 잘될 것이라고 예상되지만 어떤 근거하에, 의사소통으로 인하여 협력이 잘되는지 알고 싶었다. 또한 최근 인간을 이해하는 로봇의 중요성이 대두되면서 어떤 측면에서 접근을 해야 되는지 학습하고 싶었다. 동시에 인간은 로봇의 어떠한 면을 이해하는지 알고 싶었다. 이와 같은 이유로 향후 인간과 로봇의 향후 협력을 위해 로봇이 갖추어야 할 방향에 대해 알고 싶어서 해당 논문을 선정하였다.

내용요약
인간과 기계가 위험을 처리하는 방식의 차이는 인간-로봇 간의 협동을 저해한다. 그리고 인간-로봇 사이에서 의사소통 없이는 협동하는 것을 실패했다. 인간의 성향은 효율성보다는 공정성과 위험을 더 중요시하고 로봇은 학습과 솔루션 효율성에 초점을 맞춘다. 이러한 상황 속에서 인간과 기계의 차이를 확인하기 위하여 다음과 같은 4가지 유저 스터디를 진행하였다. 유저 스터디 방법론은 Block 딜레마 상황에서 인간의 선택 행동과 반복되는 게임에서 인간-기계 협력을 유도하는 능력을 입증한 알고리즘인 S# 을 적용한 로봇을 통해 실험이 진행되었다. 유저 스터디는 다음과 같이1) 인간 대 인간 행동, 2) 로봇 대 로봇 행동, 3) 인간 대 로봇 행동, 4) 인간 대 AI의 지시를 따르는 인간 (disguised AI) 행동으로 나누어 진행되었다. 1) 결과 의사소통이 가능할 때 효율적이고 공정하며 더 위험한 솔루션을 선택하였고(Efficient cooperation), 의사소통이 불가능 할 때에는 비효율적이고 공정하며 덜 위험한 솔루션을 선택하였다(Aloof cooperation). 2) 로봇 행동에서는 의사소통이 가능할때 불가능할때 모두Efficient cooperation, 3) 의사소통이 가능할 때는 Efficient cooperation, 불가능할 때는 의견 충돌이 있었다. 4) 상대방이 누군지에 대한 의식보다는 의사소통과 전략의 차이가 더 컸다는 것을 확인 할 수 있었다. 이와 같이 인간과 기계가 위험을 처리하는 방법의 차이는 인간과 기계가 서로 협력하는 능력에 영향을 미칠 수 있다. 따라서 기계 동작의 효율성, 공정성 및 위험을 더 잘 고려하고 균형을 유지하려고 노력할 때, 인간-기계 협력에 대한 중요한 장벽을 극복 할 수 있다.

장단점
장점 : 인간과 로봇이 함께 협력할 수 있는 상황에 대한 경우의 수를 모두 스터디 했던 부분이 논문 구조의 논리성을 높혀주었다. 인간 대 로봇 뿐 아니라, 인간 대 인간, 로봇 대 로봇의 경우까지 함께 스터디 해서 향후 인간과 로봇의 협력에 필요한 자세를 학습 할 수 있었다. 또한 로봇의 전략적인 행동을 위해 선행연구에서 검증된 S# 알고리즘을 적용하여 로봇이 선택하는 행동에 신뢰가 갈 수 있었다.

단점 : 기본적인 죄수의 딜레마 상황에 대해 사전 지식이 필요했다. 왜냐하면 논문에 사용된 Figure를 이해하기 위해서는 기본 도표를 해석할 수 있어야했기 때문이다. 사전에 검증된 알고리즘을 적용하긴 하였지만, 로봇이 사용하는 전략적 특성이 인간-로봇 협동 과정에서 어떠한 영향을 미치는지 추가 연구가 필요할 것으로 생각된다.

의의
나날이 발전하는 인공지능의 성장으로 인하여 인간의 역할과 인공지능 역할 사이에서 여러가지 이슈가 발생하고 있는 현실이다. 이번 논문을 통해서 각각이 위험을 처리하는 방식을 인지함으로써 서로 협력하는 상황에 기여 할 수 있을 것이라고 예상한다. 특히 의사소통의 상황에 따른 인간과 기계의 협력 결과의 차이는 그만큼 의사소통의 중요성을 보여준다고 할 수 있다. 따라서 향후 인간과 기계의 의사소통의 방식에 대한 연구도 강조되어야 할 것이다. 그리고 단일 시나리오에 대하여 이미 검증된 알고리즘 (S#) 이더라도 다양한 형태의 협력 상황에서 필요한 추가 알고리즘 개발의 필요성을 시사하는 점 또한 학술적으로 주목할 만하다고 생각한다.

비고
참고자료 : 게임 이론의 대표라 할 수 있는 ‘죄수의 딜레마’ 상황

죄수의 딜레마 상황에서 만약 두 죄수가 서로 의사소통이 가능하다면 당연히 자백하지 않을 가능성이 크겠지만, 의사소통이 불가능하기 때문에 결정은 더욱 복잡해진다. 자백을 안 하자니 상대방을 믿을 수 없고, 자백을 하자니 자신의 범죄를 인정해 높은 형량을 받게 된다. 이와 같은 상황에서 돈이나 점수를 걸고 게임을 진행하면 피험자들은 대부분 협동보다 경쟁을 선택한다. 이는 단기적 상황으로 보면 더 이익이다. 그러나 협동은 협동을 낳고 경쟁은 경쟁을 유발하기 때문에 경쟁은 결국 손해만 입게 된다. 경쟁이 더 빈번하게 선택되는 원인은 ‘상대가 배신할 지도 모른다’는 위기감 때문이다.

[유저스터디 3에서 인간과 로봇이 의사소통 하는 방법에 대한 비디오] (https://ars.els-cdn.com/content/image/1-s2.0-S2589004220311603-mmc2.mp4)


 Whiting, T., Gautam, A., Tye, J., Simmons, M., Henstrom, J., Oudah, M., & Crandall, J. W. (2020). Confronting barriers to human-robot cooperation: balancing efficiency and risk in machine behavior. Trends in Cognitive in Science, 24(1), 101963.