on
Sep 13th Journal Club
Themes:Human–AI collaboration, Empathic Conversation, Peer Support
Presenters: MS(Minjung Shin)
Topic 1: Understanding Epistemic Language with a Bayesian Theory of Mind [MS]
선정 이유
이 연구는 언어를 매개로 했을 때 인공지능과 계산 모델이 사람들의 마음이론을 얼만큼 이해할 수 있는가에 관해 이야기 합니다. “LLM이 마음이론을 가지고 있을까?” 혹은 “LLM에 마음이론을 부여할 수 있을까?” 류의 질문이 만연한데 비해 유의미한 실증 연구는 드문 실정입니다. 언어 모델의 성능 지표로 흔히 사용되는 ‘문장 유사도 비교’ 같은 접근으로는 마음이론을 표현하는 언어 속의 ‘믿음’이나 ‘의도’, ‘지식’ 등의 요소들을 파악하고 비교하는 게 어렵기 때문입니다. 이들은 바로 그 점을 해결하기 위해 사람들이 작성한 자연어 진술을 확률적 컴퓨팅이 가능한 형식으로 변환하였습니다. 이것은 ‘느낌적인 느낌’의 막연한 접근도, 모든 스텝이 철저하게 부호화 된 ‘부자연스러운’ 접근도 아니었습니다. (이해히긴 어렵지만) 납득 가능하고 바람직한 접근이라 판단하였고, 이 연구의 내용을 탐색하고 공유하고자 이 논문을 선정하였습니다.
내용 요약
이들은 믿음에 대한 언어를 형식적으로 표현하는 모듈(Epistemic Language of Thought, ELoT)과 행위자의 목표, 믿음, 의도에 대한 베이지안 추론을 수행하는 베이지안 마음 이론(Bayesian Theory of Mind, BToM)을 결합하여, 언어로 표현된 믿음 진술을 해석(이해)하는 인지 모델인 LaBToM(Language-augmented Bayesian Theory of Mind)을 제안하였습니다.
LaBToM은 믿음과 지식상태를 표현하는 종류의 자연어 문장(epistemic language)를 ELoT 표현으로 변환하고 변환된 ELoT 표현을 BToM 모듈에서 계산된 확률과 직접 연결할 수 있습니다. 다시 말하자면 LaBToM은 LLM이 아니고 계산 모델입니다.
이 모델이 정말 마음이론의 예측을 잘 반영하는지 검증하기 위해 사람들을 모집하여 게임 속 에이전트의 행동을 관찰한 후 에이전트의 믿음에 대해 진술하는 문장을 쓰게 했습니다. 그리고 수집된 문장들 안에 담긴 ‘에이전트의 믿음에 대한 추론’이 얼마나 타당한지 평가했습니다.
그리고 LaBToM 과 그 ablation model들, 그리고 최신 멀티모달 LLMs(GPT-4o와 Gemini 1.5 Pro)이 수집된 문장의 타당성을 평가하였고, 그 결과를 사람들의 타당성 평가와 비교하였습니다. LaBToM은 다른 모델들에 비해 월등한 평가 성능을 보여주었습니다.
이 연구에서는 현재 가장 성능이 좋은 LLM 조차도 마음이론을 이해하고 적용하는데 어려움이 있다는 점을 보여주었습니다. 이 결과는 마음이론이 대규모 언어 패턴 인식을 넘어서는 복잡한 과정임을 시사하며, 오히려 인간의 인지 과정을 명시적으로 모델링하는 접근법이 특정 영역에서는 더 효과적일 수 있다는 점을 강조합니다.
한계점(선택)
-
연구 내부의 한계점 이 연구 결과는 특정 게임 환경(Doors, Keys, & Gems)에 국한되어, 제한된 맥락의 수행 결과를 보여주고 있습니다. 더 복잡한 맥락에서 수집된 epistemic sentences에 대해서도 좋은 성능을 나타낼지는 미지수 입니다. 아울러 이 연구는 사람들의 epistemic language를 해석하는데 중점을 두었고, 생성하는 단계 까지 구현한 것은 아닙니다.
-
읽는 입장에서의 한계점 논리적 해석과 베이지안 모델링의 결합으로 마음이론을 형식화 하겠다는 시도는, 달리 말하자면 어려운거 더하기 어려운거 더하기 어려운거이기 때문에 진입 장벽이 높습니다. 완전히 이해하겠다는 욕심을 버리는 마음가짐이 필요할 수 있습니다. ;)
의의
이 연구는 인간의 다른 사람의 믿음에 대한 언어(=마음이론을 통해 추론한 결과을 말로 표현한 것)를 어떻게 이해하고 평가하는지에 대한 계산적 모델을 만들어 제시하고 검증했다는데 가장 큰 의미가 있습니다. 학습 데이터 스케일을 키우는 것으로 해결되지 않는 어떤 지점을 순수하게 cognitive modeling으로 접근했다는 것입니다.
그 과정에서 심리학 실험 기법으로 정교하게 통제된 컨텍스트를 제공한 점, 전문가가 아닌 일반인들의 자연어를 수집하고 논리학의 기술 방식을 빌려 이를 표현한 점, ‘믿음의 업데이트’로 요약되는 베이즈 추론 기법을 통해 인간의 고위 인지기능을 해석했다는 점 등에서 학제적 접근의 아름다움을 엿볼 수 있었습니다.
그에 비하면 이들이 디자인한 모델의 성능이 SOTA LLMs(을 훌쩍 뛰어넘은 결과에는 오히려 별로 눈길이 가지 않네요. :)
비고
- 매력적인 제목을 가진 Lake et al, 의 논문은 그 그룹에서 reverse engineering을 통해 모델링 하려고 노력하는 인지기능들을 소개하면서, 딥러닝 기반 AI 에서 쉽게 구현하기 어려울 것이라는 전망을 내놓고 있습니다. 그 중 하나가 오늘 소개한 내용이고요. LLM의 약진이 두드러지기 전 시점인 2017년에 쓰여진 점을 의식하면서 읽어보는 게 관전 포인트. 대부분 맞는데 틀린 것도 있습니다.
- Goodman et al. 은 도서의 한 챕터인데요. 자연어 분석의 실용적 접근을 꿈꾸는 분들에게 큰 도움이 되는 내용이라고 합니다. 사실은 저도 아직… 조만간… 반드시…
참고 문헌
- [citation] Ying, L., Zhi-Xuan, T., Wong, L., Mansinghka, V., & Tenenbaum, J. B. (2024). Understanding Epistemic Language with a Bayesian Theory of Mind. arXiv preprint arXiv:2408.12022.
- [참고하면 좋을 문헌] Lake, B. M., Ullman, T. D., Tenenbaum, J. B., & Gershman, S. J. (2017). Building machines that learn and think like people. Behavioral and brain sciences, 40, e253.
- [참고하면 좋을 문헌] Goodman, N. D., & Lassiter, D. (2015). Probabilistic semantics and pragmatics uncertainty in language and thought. The handbook of contemporary semantic theory, 655-686.