Chargement...
 
Tao

FG RecSys data 2016-07-07

3 pistes :
  • intéractions de type "-1" : ami ou ennemi ?
  • architecture
  • fonction perte


Notations :
u = utilisateur
i = item
D = domaine commun de représentation
dL = distance de mahalanobis (de paramètre L) dans D


Intéractions -1


  • Matrice de confusion des erreurs de prédiction : où sont-elles situées ?
  • Apprentissage avec uniquement deux groupes : 1-2-3 (bons) / 0 (mauvais) pas d'amélioration notable
  • Apprendre sans les -1 puis les prédire. Distribution des -1 vs. distance à l'utilisateur (normaliser par la distance moyenne au groupe 1-2-3). Deux bosses ?
  • t-SNE : choisir un u et ses i positives et représenter dans t-SNE(D)


Architecture & fonction perte


Remplacer la fonction perte par une fonction plus grossière, on affinera ensuite.

On veut i~u. Actuellement il y a des îlots de i et d'autres de u dans D.
  • laisser le séparateur comme avant si appris seul, le séparateur oscille autour de 50% de bonne prédiction sans se stabiliser. Pas du gradient trop élevé ?
  • rajouter un AutoE ? (pour éviter que u et i soient projetés sur 0)
  • rapprocher u et i si intéraction positive. Ne pas les éloigner sinon (pourquoi ?)
  • les parties u vers D et i vers D pourraient avoir des vitesses d'apprentissage différentes.


Ensuite

Affiner : 0 << 1<2<3
Utiliser les -1 ? Comment ?

Collaborateur(s) de cette page: francoisg .
Page dernièrement modifiée le Mercredi 13 juillet 2016 10:31:36 CEST par francoisg.