Variational Autoencoders for Collaborative Filtering, (WWW'18)
Paper Link Official Github Abstract Challenges 기존의 CF model non-linearity 없음. Ranking과 관련된 metric(mAP, NDCG)를 활용해 직적접으로 optimization하기 어려움. ...
Paper Link Official Github Abstract Challenges 기존의 CF model non-linearity 없음. Ranking과 관련된 metric(mAP, NDCG)를 활용해 직적접으로 optimization하기 어려움. ...
임시 노트 나중에 정리 예정 World에 대한 model(reward/dynamic model of environment)이 없을 때 MDP. 즉 action이 추가됨 -> action decision. Learning from experience. -> learning model. 이전 강의에선 정해진 policy가 얼마나 좋은지 e...
Paper Link Official Github Abstract High-order neighbors를 탐색하는 능력으로 GCNs는 추천에서 중요한 연구 주제로 여겨졌다. 하지만, popularity bias와 noisy interactions가 GCNs에 악영향을 끼친다. Graph contr...
Ⅰ. Overview of RL Reinforcement learning(RL)은 다음의 4가지 요소로 구성된다. Optimization 결정을 내리는 최적의 방법(최적이 아니라도 좋은 전략)을 찾는다. Delayed consequences 현재의 결정에 대한 ...
Discrete 분포에 대해 간략하게 정리하고자 한다. Ⅰ. Bernoulli 두 가지 사건이 있을 때, 각 사건이 일어날 확률을 의미한다. [x \sim \text{Bern}(p) P(x) = p] $x$는 0 또는 1이다. $p$는 $x$가 1일 확률이다. [\begin{split} &\mathbb{E}(x) = p ...
Ⅰ. Generative Model ⅰ. Latnet Variable Model Autoencoder의 목적은 고차원의 data를 저차원의 latent vector로 표현하는 것이다. 즉, encoder를 얻기 위해 decoder를 활용했다. Variational autoencoder(VAE)는 generative model로 encoder와 다르...
GAN을 만든 Ian Goodfellow가 정리한 generative model의 taxonomy(분류)는 다음과 같다. Figure 1: Taxonomy of generative model 출처 이 표를 보면 variational autoencoder(VAE)는 maximum likelihood density estimation(MLE)과 관련...
먼저 information theory의 기본적인 내용을 먼저 살펴보는 것을 추천합니다. Ⅰ. Entropy 확률 분포(probability distribution)의 entropy는 주어진 분포의 random variable $X$와 관련된 불확실성(uncertainty)으로 해석할 수 있다. 이게 무슨 말인지 처음 접하면 와닿지 않을 것이다....
Ⅰ. Information 자신의 생각을 다른 사람에게 전하는 방법으로는 여러 가지가 있다. 제일 기본적인 언어부터 시작해 그림, 조각, 소리, 이메일 등을 예로 들 수 있다. 심지어 동물들도 소리를 통해 communication을 한다. 이것들의 차이점은 무엇일까? 아니 그것보다 더 중요한 것은, 공통점은 무엇일까? 이 모든 것들은 정보 (info...
Paper Link Abstract Metric learning은 data간 관계를 capture하는 distance metrics를 제공한다. 본 논문에서는 users의 선호도뿐만 아니라 user-user, item-item similarity를 encode하는 joint metric space를 학습하...