RecSys 2021 Abstract を眺める .... Mon Sept 27
さて、ざっとみていきます。意訳です。
Session1 : Echo Chambers and Filter Bubbles
エコーチェンバー現象とは
閉鎖的空間内でのコミュニケーションが繰り返されることにより、特定の信念が増幅または強化されてしまう状況の比喩
An Audit of Misinformation Filter Bubbles on YouTube: Bubble Bursting and Recent Behavior Changes
推薦システムで誤った選択をすると、嗜好と異なるフィルターバブルにのっかてしまうことがある。これを意図的に壊すことができるのか、YouTube ユーザのように振る舞うプログラムを作成し実験をし、「フィルターバブルは壊せる」ことがわかった
The Dual Echo Chamber: Modeling Social Media Polarization for Interventional Recommending
認知的なエコーチェンバーは構造に根付いているのに対し、イデオロギー的なエコーチェンバーは意図的にそれ以外の情報を排除する。 エコーチェンバーを防ぐために、推薦に多様性を持たせるという対策をとる。これらをモデリングしてみたところ、エコーチェンバーのタイプにより有効な多様性アプローチが異なることがわかった
I Want to Break Free! Recommending Friends from Outside the Echo Chamber
推薦システムが既に好きなもの、知っている人しか推薦せず、多様性がもたらされないという課題は、推薦システムの構造に根付くものである。ここで、ユーザとそのエコーチェンバーをモデリングすることにより、エコチェンバーの外の友人を推薦するシステムを構築した
Monday Poster & Coffee Break Session
いっぱいあるけど一個だけ
Generic Automated Lead Ranking in Dynamics CRM
Microsoft Israel の Lead Scoring システムについての発表。異なる組織やデータへリードスコアを付与した場合でのロバストになるような取り組みを紹介。"Human in the Loop" (人間を介在させる)な手法でもある。
Session 2: Theory and Practice
Negative Interactions for Improved Collaborative Filtering: Don’t go Deeper, go Higher
Netflix. Deep Learning をつかわずに、高次元な相互作用(higher-order interactions ) を協調フィルタリングに使うことにより精度がよくなった話。
Exploration in Recommender Systems
GoogleのIndustrial Session. 推薦システムが長期のユーザー体験の向上を目指すようになってきたため、強化学習、特に「探索」フェーズは重要になっている。ここでは3つの観点 1) システム探索 2) ユーザ嗜好の探索 3) オンライン探索(フィードバックをもらう) で探索を論じる
Black-Box Attacks on Sequential Recommenders via Data-Free Model Extraction
画像分類などの機械学習モデルに対する攻撃と同様、シーケンシャルな推薦システムも攻撃にさらされる危険性がある。そのような脆弱性に対抗するための"Data-Free Model 抽出" を提案する
Matrix Factorization for Collaborative Filtering Is Just Solving an Adjoint Latent Dirichlet Allocation Model After All
Matrix Factorization は強力だが、作成されるユーザ - アイテムの 潜在表現の解釈がしづらいという課題がある。これを LDA から想起した手法により解決したので紹介
Jointly Optimize Capacity, Latency and Engagement in Large-scale Recommendation Systems
FacebookのIndustrial Session. 実世界の推薦ではパフォーマンスも重要。システムではキャッシュを使うのが定石だが、単純に使うと顧客の心が離れる。良いバランスでキャッシュを更新しつつ、コンピューターリソースを節約し、レイテンシーを下げる方法を紹介する。
Pessimistic Reward Models for Off-Policy Learning in Recommendation
推薦システムで、例えば「クリックされたものがよいアイテム」とした場合、推薦システムが表示するアイテムに影響をうけるためサンプルバイアスが発生し、適切に検証できていない可能性がある。そのため「ポリシーを変更した場合のモデルを、ポリシー変更前のシステムで学習する」 = Off-Policy Learning が難しい。これを解消するための"Pessimistic Reward Models” を提案する。
Session 3: Metrics and Evaluation
Towards Unified Metrics for Accuracy and Diversity for Recommender Systems
昨今の推薦システムでは、精度も多様性も大事。両方の性能を同時に測定可能なメトリクスを定義し、オフラインのデータで検証してみた。
Values of User Exploration in Recommender Systems
Google. ユーザが新しい好きなものに出会うための「探索」体験の提供について検証する。 探索体験を増やし、accuracy, diversity, novelty,serendipity の4つの観点で推薦システムを評価、オフライン検証やユーザインタビューを通し、UX全体における探索の影響を測定した
Online Evaluation Methods for the Causal Effect of Recommendations
毎年 Causal Effect で論文を出している 佐藤さん。ハイコストなA/B テストをせずに、inverse propensity scoresによりCausal Effect のオフライン検証を行った話
Reenvisioning the comparison between Neural Collaborative Filtering and Matrix Factorization
ANN と MF を、accuracy だけでなく、diversity やnovelty などさまざまな観点で比較した論文。それぞれの特徴があった。 Github で公開中:GitHub - sisinflab/Reenvisioning-the-comparison-between-Neural-Collaborative-Filtering-and-Matrix-Factorization
Accordion: A Trainable Simulator forLong-Term Interactive Systems
Netflix. 複雑化する推薦システムを開発する上で、シミュレーションするのは有効。Accordion という ユーザの複雑なインタラクションをシミュレートするシステムを開発し、検証の結果よいパフォーマンスが得られた。
Evaluating the Robustness of Off-Policy Evaluation
半熟仮想とソニーの共著。モデルを真の意味で評価するにはオンラインで検証するしかないが、事業的には評価時に機会損失になる。そのため、オフライン評価が有効だが、その評価手法が本当にオンライン評価に近いものかどうか、判断できない。ここでは、採用したオフライン評価がロバストかどうか判断するための指標を提案する。
感想
いまさらですが、強化学習あたりの基礎知識、ベースの学力をあげないといけない。