Aug 3rd Journal Club

Themes: Narrative Flow, NLP, GPT, Backpropagation, Cognitive Bots, Mental Simulation, Decision Making, Compliance in Robot Behavior

Presenters: YK (Yoon Kyung Lee), YW (Yoonwon Jung), JE (Jaeun Park), IJ (Inju Lee), HY (Hoyoung Maeng), WK (Whani Kim), SC (Soomin Cho)


Topic 1: Narrative Flow & Human Memory-Inspired Deep Learninig [YK]

선정 이유: 사람의 기억의 종류와(episodic, semantic memory)의 그 메커니즘에서 착안한 사고의 흐름 과정을 살펴봄. 비슷한 종류의 데이터를 다룰때 참고할 수 있는 평가 방법으로 적당한지도 살펴보고자 함

내용 요약: 본 연구에서는 자연어처리 분석법을 통해 사람의 사고의 흐름이 어떻게 텍스트를 통해 나타나는지 살펴보았다. 연구팀에서는 Hippocorpus라는 이름의 코퍼스를 공개했다. 코퍼스에는 약 5,387명의 참여자가 평균 17문장으로 구성된 7000개의 스토리를 작성했다. 스토리는 3가지 분류로 나뉘었는데, 1) 실제 경험한 일, 2) 상상한 일, 3) 몇달 뒤에 다시 회상해서 기록한 글이었다. 스토리안에 담긴 단어 형태가 의미 기억을 표상하는지 사건 기억을 표상하는지 비교했다. 회상한 스토리와 상상한 스토리의 Flow가 어떻게 변하는지를 negative log likelihood (NLL)를 계산해서 비교했다. 그 결과, 상상한 스토리의 경우 좀 더 commonsense에 가깝게 더 일반적인 내용을 주로 많이 작성했고, 더 감정적이었으며, relis events (사실적 사건)에 대한 묘사가 더 많았다. 회상한 스토리는 작성자 자신에게 더 집중된 표현 (self-focused, “I”)이 많이 보였고 autobiographical한 내용이 주로 많이 나타난 것을 볼 수 있었다. 또한, 회상을 덜 할 수록 더 logical하게 hierarchical하게 이야기가 전개되는 걸 발견했다.

장단점: 기억의 종류에 따라 텍스트 안에 담긴 사고의 흐름이 어떻게 변하는지를 나타내고자 했다. 데이터가 Microsoft에 공개되어있고 자세한 설계 인터페이스와 Instruction이 담겨있다.상상한 스토리와 회상한 스토리가 어떻게 다르게 펼쳐졌는지 내용 자체의 전개의 차이에는 덜 집중되어있다. 성격 등의 개인차를 보는 척도를 사용하긴 했으나 이러한 개인차가 실제 상상력 또는 스토리 제작 능력에 어떤 영향을 주었고, 이런 영향이 연구 결과에 미쳤을 (또는 미치지 않은) 영향에 대한 설명이 부재해서 아쉽다. 또한 회상 능력에 따라 서술된 내용의 퀄리티가 달라질수도 있는데, 이에 대한 고려가 있었는지 궁금하다. 실제 생긴 사건에 대해 묘사할때는 그 당시 겪은 감정에 대해 주의를 덜 주는 것인지, 아니면 스토리를 상상하면서 쓰는 것 자체가 좀 더 감정적인 표현을 쓰게 하는지 궁금하다. 예를 들어서 트라우마틱한 사건에 대해 회상할때는 좀 더 감정적인 표현을 쓸텐데, 논의에 이에 대한 언급이 없어서 아쉽다.

의의: 실제 사건 발생 시점이 기억으로 전환되는 시점에서 narrative하게 묘사하는 시점까지의 시간 간격이 길수록 스토리가 더 일반적이고, 선형적으로 flow하고, 요점이 산만하다는 점을 계산적으로 풀어냈다. Flow의 과정과 다음에 올 컴포넌트에 대한 예측을 위해 고려한 두 모형 (Bag-like, Chain-like)은 신선한 개념이었다.

GPT에 기학습된 지식 (English fiction)이 선형성을 강하게 지니기 때문에 상상한 스토리가 이에 더 가까운 패턴을 보임을 구현했다

참고문헌 Dataset Sap, M., Choi, Y., Smith, N. A., & Pennebaker, J. (2020, July). Recollection versus Imagination: Exploring Human Memory and Cognition via Neural Language Models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (pp. 1970-1978).

Topic 2: Neural Networks, Backpropagation [JP]

선정 이유: backpropagation 이해와 neural network 공부

내용 요약: Computation Graph(계산 그래프)를 통해 backpropagation(역전파)을 효율적으로 적용할 수 있다. Computation graph는 계산과정을 node와 edge를 사용해 표현하며 이를 통해 상위 레이어에서 계산된 derivative를 하위레이어에서 쉽게 재사용할 수 있다.
Neural network 실행에 도움이 되는 여러 방법이 존재한다. Regularization(정규화)는 손실 함수에 추가적인 항을 더함으로써 모델의 overfitting(과적합화)를 피하기 위한 방편이다. Vectorization(벡터화)는 루프를 사용하는 대신 벡터와 행렬을 통해 계산함으로써 계산 속도를 높이는 방법이다. 또한 neural network에서 활성화함수로 sigmoid 함수가 아닌 다른 함수를 사용함으로써 계산의 효율을 높일 수 있다. 사용할 수 있는 활성화함수로 tanh, hard tanh, ReLU, Leaky ReLU, Parametric ReLU 등이 있으며 현재 ReLU가 가장 많이 쓰인다. 또, 파라미터를 적절히 초기화(parameter initialization)하고, optimizer를 사용하며, 적절한 learning rate 선택 후 시간이 지남에 따라 learning rate를 줄여나가는 방법으로 neural network의 성능을 높일 수 있다.

의의: Neural network의 실질적인 적용을 위한 실용적인 팁을 더 배울 수 있었음

참고문헌: Backpropagation and Computation Graphs. (Manning, Stanford CS224N); Derivatives, Backpropagation, and Vectorization (course material)

Topic 3: Cognitive bots, Social intelligence [YW]

선정 이유: 사회인지에 대해 관심을 가지고 있었고, 사회적인 인공지능의 구현에도 관심이 있어 선정하게 되었다.

내용 요약: 사회신경과학과 인공지능 연구 분야에서는 사회적 지능을 연구하기 위한 핵심 프레임워크로 멀티 에이전트 강화학습 MARL(multi-agent reinforcement learning)을 활용하고 있다. 이 모델은 상황에 따라 모델을 재사용할 수 있다는 장점이 있으나 학습의 복잡성이 에이전트의 수(N)만큼 기하급수적으로 늘어나는 계산상(computational)의 어려움(dimensionality problem)이 존재한다. 또한 인간이 학습의 복잡성을 줄이고 학습 결과를 새로운 맥락에 유동적으로 적용하기 위해 추론 편향(inductive bias)을 보임이 밝혀지면서 이를 구현하기 위한 추가적인 모델들이 도입되고 있다. 한편, 최근 공학에서는 전통적인 MARL의 parameterizing과 복잡한 policy들을 학습시킬 수 있는 유동적인 방법으로서의 인공 신경망에 관심을 가지기 시작했다. Hernadez-Leal 연구팀은 다른 에이전트의 존재를 모델링하기 위한 접근법으로 정교화 위계(hierarchy of sophistication)를 제안하였다. 정교화 위계에 따르면, 타 에이전트의 존재를 무시하는 낮은 위계의 접근부터 타 에이전트의 행동 혹은 전략뿐만 아니라 타 에이전트가 스스로를 어떻게 모델링하는지까지 고려하는 높은 위계의 접근까지 다양한 위계의 알고리즘을 구축할 수 있다. MARL에 딥러닝을 적용하는 맥락에서 소개된 두 개의 최근 모델로는 Learning with Opponent-Learning Awareness(LOLA)와 Theory of Mind neural network(ToMnet)이 있다. 마지막으로, 사회신경과학에서는 인간이 어떻게 발달 과정에서 자연적으로 타인의 목표, 의도, 욕구, 신념 등을 고려하여 의사결정을 내릴 수 있는지를 마음이론(Theory of Mind)의 관점에서 연구해왔다. 뇌영상연구에 따르면 우측 측두 두정 접합(rTPJ)과 내측전전두피질(mPFC)이 불공정에 대해 혐오를 느끼거나 공정함에 대한 개념을 생각할 때, 타인의 신념을 추론할 때와 같은 같은 사회적 과제를 수행할 때에 공통적으로 많이 보고되는 부위이다. 이는 사회인지에 특화된 인간 뇌 영역 존재의 가능성을 시사한다. 사회 지능에 대한 연구를 진행해온 사회신경과학이 전통적으로 집중해 온 토픽들은 멀티 에이전트 인공지능 연구의 주류와 거리가 있었지만, 최근 이와 같은 멀티 에이전트 게임에 대한 연구들이 두 영역 간에 다리를 놓고 있다.

장단점: 인간의 사회인지에 대해 진행된 연구와 사회적 인공지능의 구현을 위해 진행된 연구를 함께 리뷰하고, 그것들의 강점과 한계를 분석함과 더불어 두 접근 간의 유사성 또한 분석하여 향후 연구에 대한 제언을 하였다.

의의: 최근 이루어지고 있는 심리학, 뇌과학, 그리고 인공지능 연구의 융합은 앞서 소개한 연구들처럼 사회적 지능에 대한 고전적인 질문들을 다학제적으로 해결할 수 있는 실마리를 제공한다.

참고문헌: McDonald, K. R., & Pearson, J. M. (2019). Cognitive bots and algorithmic humans: toward a shared understanding of social intelligence. Current Opinion in Behavioral Sciences, 29, 55-62.

Topic 4: Mental Simulation, Deep Reinforcement Learning [IJ]

선정 이유: 강화학습을 통해 인공지능에게 mental simulation을 모델링하고 구현하는 과정이 궁금하여 읽어보았다.

내용 요약: mental simulation은 무엇이 발생할 지, 무엇이 가능할 지 상상할 수 있도록 mental model을 구성하는 능력이다. 일종의 알고리즘 모음인 model-based methods를 통해 인공지능이 mental simulation을 하도록 할 수 있다. 대부분의 model-based deep reinforcement learning(MBDRL)의 핵심은 partially-observable Markov decision process(POMDP)이며, POWDP을 통해 다양한 mental simulation을 프레이밍(framing)할 수 있다. 관련 딥러닝 학습 모델은 transition과 recognition function에 초점을 맞추고 있으며, 이와 관련된 학습모델은 4가지가 존재한다: (1) state-transition models, (2) observation-transition models, (3) prior-constrained latent state-transition models, (4) data-constrained state-transition models. 또한 학습한 모델을 통한 prediction을 기반으로 action을 하게 되는 과정에서 planning method를 사용하며, 이 방법은 크게 (1) background planning과 (2) decision-time planning 2가지가 있다. MBDRL은 사람의 mental simulation과 많은 공통점을 공유하고 있기 때문에, mental imagery, learning by thinking, the control of mental simulation에 대한 다양한 인지 모델 개발의 시작점이 될 수 있다. 그러나 인공지능이 강화학습을 통해 사람의 mental simulation의 다양한 측면(e.g., general, flexible, exploratory)을 구현할 수 있기 위해선 아직 많은 연구가 필요하다.

의의: Deep reinforcement learning을 이용하여 인공지능에게 mental simulation을 구현할 수 있는 방법, 앞으로의 전망, 발전시켜나가야 하는 방향에 대하여 체계적으로 리뷰해놓았다.

참고문헌: Hamrick, J. B. (2019). Analogues of mental simulation and imagination in deep learning. Current Opinion in Behavioral Sciences, 29, 8-16.

Topic 5: Decision time, In the background, Theta & SWR Sequences [HY]

선정이유: 인공지능은 인간의 뇌를 모티브하여 만들었는데, 이때, 인간의 뇌가 어떻게 예측하는지에 대한 원리를 이해해보고 싶었음.

내용요약

장단점

의의

참고문헌

Topic 6: HRI,Robot Behavior, Compliance [WK]

선정이유

내용요약

장단점

의의

참고문헌 Maggi, G., Dell’Aquila, E., Cucciniello, I., & Rossi, S. (2020). Cheating with a Socially Assistive Robot? A Matter of Personality. In Companion of the 2020 ACM/IEEE International Conce on Human-Robot Interaction. (pp. 352-354)