Controllable Multi-Interest Framework for Recommendation, (KDD'20)
Paper Link Official Github Abstract Sequential recommendations (SRs)에서 user의 multiple interests를 capture하여 accuracy와 diversity를 control할 수 있는 re-rank 추천 framework를 제...
Paper Link Official Github Abstract Sequential recommendations (SRs)에서 user의 multiple interests를 capture하여 accuracy와 diversity를 control할 수 있는 re-rank 추천 framework를 제...
임시노트 나중에 정리 예정. Recap 먼저 강의에서 대충 설명한다. 깊게 살펴보지 말고, 그냥 이런 것도 있구나를 알고 가면 될 것 같다. 지난 시간에 이어서 policy-based RL을 살펴본다. Policy-based RL은 주어진 환경에서 좋은 결정을 내리는 parameterized policy를 학습하는 것이다. DNN과 softmax...
Paper Link Abstract Challenges User의 long/short-term interests는 다음 item을 추천하는데 heterogeneous하기 때문에 구분해야 한다. 기존의 방법에서는 short-term interest length를 he...
임시노트 나중에 정리 예정. 이번 강의에서는 policy-based와 Actor-Critic를 살펴본다. 또한 매우 큰 state space에서도 작동할길 원하는 경우에 대해 주로 이야기할 예정이다. Actor-Critiec은 policy와 value function이 explicit하게 parameterize되어 있는 것이다. 특히, va...
임시노트 나중에 정리 예정. Introduction to Policy Search VFA로 state value와 action-state value를 추정하였고, 이를 통해 SARSA나 Q-learning으로 최적의 policy를 찾는다. 그리고 효율을 위해서 optimal policy의 value-function을 찾은 뒤, 그것을 활용해 좋은 ...
임시노트 나중에 정리 예정. RL algorithm에서 해결해야 하는 것은 optimization, delayed consequences, exploration, generalization이 있다. 이전 강의에서 SARSA, Q-learning 등 으로 최적의 policy를 찾는 optimization을 배웠고, VFA로 generalization하...
임시노트 나중에 정리 예정. 5강에서는 linear VFA를 살펴보았다. Linear VFA의 성능은 feature의 quality에 크게 의존한다. 좋은 feature를 얻기 위한 feature engineering에는 많은 시간이 필요하다. 그래서 본 강의에서는 큰 domain에서 의사 결정을 하고, feature를 자동으로 추출하기 위해 DNN...
임시노트 나중에 정리 예정. 이전 강의에선 sequential decision-making의 경우에서 좋은 policy를 학습하였다. Optimization: 최적의 policy 찾기 (MC, SARSA, Q-learning) Delayed consequences: state value/ action-state value function 사...
Paper Link Official Github Abstract Challenges User attribute의 변화(OOD)에 robust한 그리고 빠르게 adaptation이 가능해야 함. FM 계열은 disentangle이 되어 있지 않아 충분하지 ...
Paper Link Official Github Abstract Challenges User의 선호도(low-level)과 의사 결정을 한 의도(high-level) 간의 hierarchical 관계를 유지해야 함. Data가 discrete하고 spar...