RecSys 2021 Day1 - 09.27

勉強不足を痛感する時期がやってまいりました。まずはメモです。

Keynote 1 :Graph Neural Networks for Knowledge Representation and Recommendation

Graph Neural Net の実応用と RecSys との関係。 f:id:ayakobaba:20210929223421p:plain f:id:ayakobaba:20210929223436p:plainf:id:ayakobaba:20210929223539p:plain

Symmetries と Equivariance という考え方にそって、GNNのいろいろなアルゴリズムや応用事例を紹介していました。 「CNNもTransfomerもGNN だ」と主張していました。グラフ構造は柔軟なので世界をモデリングするのに腹落ちしやすい構造にできるんじゃないか、と感じましたが、学習は大変そうだなあ。

Session 1: Echo Chambers and Filter Bubbles

An Audit of Misinformation Filter Bubbles on YouTube: Bubble Bursting and Recent Behavior Changes

Filter Bubble をつくった(できてしまった)場合に意図的に壊すことができるのか、エージェントを利用して検証した話。

f:id:ayakobaba:20210929223553p:plainf:id:ayakobaba:20210929223605p:plain f:id:ayakobaba:20210929223614p:plain

The Dual Echo Chamber: Modeling Social Media Polarization for Interventional Recommending

Echo Chamber には2つのタイプがあるという話。ふたつのタイプごとに情報の接し方が異なるので特徴を見極めよう

  • イデオロギータイプは対立する情報をあえて収集し攻撃する
  • 認知タイプは好む情報のみ収集するため対立する情報が目に入らなくなる

f:id:ayakobaba:20210929223623p:plain

I Want to Break Free! Recommending Friends from Outside the Echo Chamber

エコーチェンバー現象によって「知っている人」しか推薦されなくなったSNSにおいて「知らない人」を推薦する推薦システムを構築した話。 diversity と novelty が評価の指標に。

f:id:ayakobaba:20211009142120p:plain

Session 2: Theory and Practice

理論と実装

Negative Interactions for Improved Collaborative Filtering: Don’t go Deeper, go Higher

ネガティブなインタラクション情報を協調フィルタリングの改善に適用する。Deep に適用せず、線形モデルで、高次元のデータを扱うことにチャレンジした話。Netflix

f:id:ayakobaba:20211009142815p:plain

Exploration in Recommender Systems

Google の話。推薦システムでは、LTVをあげるためにdiversity もあげることが課題だが、そのためには「探索」をしなくてはならない。ただ、ちょっと外れたものを推薦する「探索」のプロセスは、そこでユーザ体験を阻害する危険があり、慎重に行う必要がある。その反面、探索の手法についてはあまり言及されてきていない。 Google では探索を3つのタイプ(System/ User/ Online ) に分類している。それぞれの役割について説明する。

f:id:ayakobaba:20211009143608p:plain

ためになる

Black-Box Attacks on Sequential Recommenders via Data-Free Model Extraction

シーケンシャルな推薦システム、対象の推薦システムの「正しい」挙動を学習データやモデルそのものを知らない状態で、特定のアイテムのみ高頻度で表示させることができるのか?ブラックボックスなモデルを推論することにより検証してみた。 機械学習システムへの攻撃検知はどうしたら。

f:id:ayakobaba:20211009144410p:plain

Matrix Factorization for Collaborative Filtering Is Just Solving an Adjoint Latent Dirichlet Allocation Model After All

MFって結局なんだったんだろう。というところから、MF = LDA4Rec でした、という話。トピックモデル!

f:id:ayakobaba:20211009144730p:plainf:id:ayakobaba:20211009144735p:plain

Jointly Optimize Capacity, Latency and Engagement in Large-scale Recommendation Systems

巨大な推薦システムで、キャッシュを有効に使い、計算資源を有効に使い、Latency を短縮、推薦の質も担保した、という話。Facebook

f:id:ayakobaba:20211009144853p:plain

Pessimistic Reward Models for Off-Policy Learning in Recommendation

強化学習のオフライン学習では、過去のデータを活用するため、オンラインと一致しない。オフポリシー学習では「悲観的」に実施するのがよい。

f:id:ayakobaba:20211009145306p:plain

Session 3: Metrics and Evaluation

Towards Unified Metrics for Accuracy and Diversity for Recommender Systems

推薦システムは長らく精度のみで評価していたが、昨今は serendipity 、novelty、diversity も エンゲージメントを高めるために重要。これらを総合的に評価できる metrics を提案する。ピンクのおさるさんかわいい。

f:id:ayakobaba:20211009151635p:plain

Values of User Exploration in Recommender Systems

Google の論文。前のセッションで3つのExplorationについて話したが、ここでは User Exploration = 未知のユーザの嗜好やユーザの未知の嗜好を探索する手法を説明する。さまざまな検証の結果、効率的にユーザ探索を行うことにより、長期のUXが改善することがわかった。モチベーションと結論はクリア。「効率的な探索」のところがまだ消化できていないのでもう一回読む。

f:id:ayakobaba:20211009152334p:plainf:id:ayakobaba:20211009152342p:plain f:id:ayakobaba:20211009152357p:plain

Online Evaluation Methods for the Causal Effect of Recommendations

毎年因果関係系で発表されている佐藤さんの今年の発表。今年は評価に関するものでした。 f:id:ayakobaba:20211009152854p:plain

Reenvisioning the comparison between Neural Collaborative Filtering and Matrix Factorization

Neural Collaborative Filtering と Matrix Factorization を比較する。ロングテールにあるアイテムを推薦するなら MFの方が優れている。accuracy 以外のmetrics で従来の手法を評価しなおす試み

f:id:ayakobaba:20211009154611p:plain

Accordion: A Trainable Simulator forLong-Term Interactive Systems

Netflix 。長期間のインタラクションをシミュレーションするアコーディオンの紹介。

f:id:ayakobaba:20211009154821p:plain

Evaluating the Robustness of Off-Policy Evaluation

半熟仮想さんの発表。RLをオフラインデータで学習した場合、どれくらいロバストなのか評価する。

f:id:ayakobaba:20211009155122p:plain

感想

1日目。セッションが増えているような気がする。 もう少し、強化学習 とOff-Policy Evaluationあたりの考えを身につけなければいけない。

diversity と serendipity