728x90
반응형
장기기억챗봇
-
[논문리뷰보다는 해석에 가까운] Beyond Goldfish Memory: Long-Term Open-Domain ConversationDeep Learning 2021. 8. 11. 20:54
15-Jul-2021 https://arxiv.org/pdf/2107.07567.pdf Abstract 현재까지의 open domain dialog model들은 2~15 turn, 128 token으로 구성된 짧은 대화와 하나의 대화 세션으로만 이루어진 문맥으로만 훈련되고 평가되었다 (Meena, Blenderbot 1.0) 본 연구에서는 여러 session으로 이루어진 대화들로 구성된 human-human dataset과 해당 dataset은 지난 대화에서 알게 된 내용을 가지고 discussion하고 서로의 관심사를 알아나가는 대화 연구 결과 이전 모델들은 길게 session을 가져가는 대화에서 성능이 굉장히 안 좋은 것으로 확인 되었다. 대화에서 장기 기억을 가져가는 것은 사용자의 관심을 포착함으..