사장과 복습을 한 번 했더니, 예전에는 정말 약간의 지식밖에 없었다. 이번에 이 논문의 새로운 이해를 기록하는 동시에 약간의 실수가 있을 수 있다.
이 기사에서는 이 모델을 두 단계로 설명합니다. 즉, 기억과 세밀한 배열:
추억:
먼저 특징: 사용자가 본 비디오의 포함, 사용자 검색어 포함, 사용자 지리적 위치 및 연령의 side _ infomation, 설명이 필요한 Example _ age 특징.
그런 다음 모델: 3 층 DNN 이 있습니다.
마지막으로, 교육의 손실: softmax 분류.
요리 방법: 가장 가까운 이웃
이 안에는 사실 많은 의문점이 있다.
1.example_age 란 무엇입니까?
이 칼럼은 훈련 시간-이 샘플을 얻은 시간 (비디오 클릭 시간) 을 말하지만, 나는 이것이' 새 비디오' 라는 개념을 표현하지 못하며, 현재 시간으로 빼는 것이 무슨 뜻인지 알 수 없다고 생각한다. 라벨은 클릭의 순간에 나온 것이지, 훈련할 때가 아니다.
그래서 이 예시의 나이는 클릭 시간-선반 시간이라고 생각하는데, 이는 새로 업로드한 동영상에 대한 사용자의 선호도를 보여준다. 이 특성은이 선호도를 캡처하는 데 사용되며, 요리를 제공 할 때 0 으로 설정할 수 있으므로이 선호도를 제거 할 수 있습니다. 결국 이것은 추억의 단계이기 때문에 기억할 수 있는 것이 더 많다. (이것은 새로운 비디오에 대한 사용자의 선호도를 없애기 위한 것입니까? ) 을 참조하십시오
2. 왜 예측 점수 대신 여러 분류를 해야 합니까? 다중 분류 비디오가 많은 경우 성능을 어떻게 보장할 수 있습니까?
나는 왜 샘플을 인터넷 점수에 포함시키는 대신 여러 분류를 해야 하는지 정말 모르겠다.
Sampled softmax 는 /p/34990807 1 을 참조하여 대용량 비디오의 다중 분류 성능을 향상시키는 데 사용됩니다. 일반적으로 Q(y|x) 를 사용하여 하위 세트를 샘플링하고 해당 하위 세트에 대해 logit 을 계산한 다음 원본 데이터 세트의 logit 을 계산 결과 F(x, y)-log(Q(y|x)) 로 나타낼 수 있습니다.
3. 왜 3. 서브단계에서 다분류를 하지 않고 가장 가까운 이웃이 되는 거야?
여기서는 먼저 서비스 단계의 사용자 임베딩과 비디오 임베딩이 무엇인지 이해해야 합니다. User_embedding 은 d 차원 벡터와 같은 마지막 레벨 relu 이후의 결과입니다. 그런 다음 수백만 차원의 벡터 (d_N 으로 표시) 를 얻으려면 각 열이 비디오 포함인 d*d_N 차원의 행렬을 통과해야 합니다. 훈련을 거쳐 요리의 단계가 여전히 각 열에 곱하고 softmax 를 계산하면 분모가 동일하기 때문에 지수를 취하는 작업도 동일하므로 직접 약간의 곱을 만드는 것이 좋습니다.
정렬:
먼저 특징: 현재 랭킹된 비디오의 임베딩, 사용자가 보는 비디오의 임베딩, 사용자와 비디오의 언어 임베딩, 마지막으로 본 시간은 같은 채널 비디오를 본 시간이며, 이전 인상은 동영상이 사용자에 의해 노출된 횟수 (여기에 부정적인 피드백이 도입됨) 입니다.
그런 다음 모델: 3 층 DNN 이 있습니다.
마지막으로, 교육의 손실: 가중치 논리.
서브 방법: e (wx+b)
몇 가지 의혹도 있습니다.
1.training 의 가중치 logistic 은 무엇이며 서브는 왜 E (WX+B) 를 사용합니까?
이것은 내가 다시 읽을 때 가장 이해하지 못하는 것이다. 제가 먼저 써보겠습니다. 우선, 우선 가중치 논리 스티치가 무엇인지 분명히 합시다. LR 공식의 유래 log (odds) = w * x 를 살펴 보겠습니다. * x;; Odds=p/( 1-p) 여기서 양수 샘플의 확률/음수 샘플의 확률을 나타냅니다. 가중치 LR 에서 이 배상률은 W*p/( 1-p) 가 됩니다. 여기서 W 는 양성 샘플에 가중치를 부여하는 것입니다. 왜 그런지, 긍정적이고 부정적인 샘플 비율로 설명되는 해석이 있는데, 나는 합리적이지 않다고 생각한다./P/4359122165438; 하지만 우리가 이 odd 를 받아들일 수 있다면, log(odds) = w*x * x 는 odds = e^(wx) 를 얻을 수 있습니다. 이것이 서브의 목표입니다.
먼저 W*p/( 1-p) 가 무엇인지 말씀드리겠습니다. 여기서 w 가중치는 이 비디오의 길이 t 이고, sum(Ti*pi) 은 E(T) 실시간 기대치이고 e (t)/(
10 대 공사 문제 칼럼을 많이 보고, 예를 들어 사용자당 같은 양의 훈련 샘플을 채취하고, 많은 롱테일 비디오의 임베딩을 0 으로 설정하는 것이 좋습니다.