二日目。とにかく頭の外に出す。
Regulating Recommenders
推薦システムと世の規約の話。AI や ML などは我々をエンパワメントする存在だが、同時にFake News や エコーチェンバーなどにより社会に悪影響を及ぼすことがある。そのため、現在特にEUでつよく推薦システムに対する規制が検討されている。ただし、規制 = Innovation の阻害ではない。倫理的でSocial Goodなシステムをつくるために、規制の意図を十分理解しよう
Session 4: Users in Focus
“Serving Each User”: Supporting Different Eating Goals Through a Multi-List Recommender Interface
推薦システムは表示して選んでもらうインタラクティブなインタフェース。リストが複数あった場合はどういうふうに表示したらいい?それはリストが一つの場合とどう違う?という課題に取り組んだ発表。分野は「食べ物の推薦」。PC と スマホでもちがいそう。
Building Public Service Recommenders: Logbook of a Journey
BBC で 記事推薦システムを構築する話。Industrial SessionがRecSysの醍醐味だと思います。
BBC はみなさんよく知るイギリスのラジオ・テレビ局。このコンテンツのデジタライゼーションを支えるのが推薦システム。どのようにパーソナライゼーションを実現するのか?
チャレンジは3つ。文化 、組織、基盤。
組織
- データドリブンなソリューションがBBC の編集基準を満たすよう保守するにはどうしたら?
- 公共サービスとしての価値を定量的なメトリクスにどう落とし込む?
- 大規模リコメンドにどのように品質管理ツールを適用するのか?
そのために、編集ガイドラインを最適化
データサイエンスと編集の協調ループをつくる
編集が推薦システムにフィードバックする。専門のツールを用意した。 これが本気ですごかった。
学んだこと。Fast Iteration が大事。よい。
チームの可能性と自信をつくることにフォーカス
人が一番のアセット。
ひとりの突出人ではなくチーム力を信じる
データ + 編集
編集をできるだけ早い段階で巻き込む
どろくさくてよい。
User Bias in Beyond-Accuracy Measurement of Recommendation Algorithms
推薦システムにはいろいろなバイアスがあるが、ここではユーザの年齢と好奇心の強さでグループわけし、それが推薦システムにどれほど影響するか検証した。
Session 5: Language and Knowledge
Transformers4Rec: Bridging the Gap between NLP and Sequential / Session-Based Recommendation
NVIDIA。このアイテムの次はこのアイテム、とうような、連続して推薦するセッションベースのシステムにTransformer を利用するものを開発したよ。という話。NVIDIA(2回目)。スライドはTransformer 感あるものを。
Sparse Feature Factorization for Recommender Systems with Knowledge Graphs
Sparse Feature Factorization をナレッジグラフを用いて実施するKGFlex という手法の提案。グラフだぞー
ProtoCF: Prototypical Collaborative Filtering for Few-shot Recommendation
他ドメインのデータで「プロトタイプ的な」協調フィルタリングモデルをつくることにより、Few-shot な場合の推薦を実現する話。メタナレッジトランスファー。Few-shot という単語が今年やたら聞かれるようになった。Sparse ではなく Few-shot。
Towards Source-Aligned Variational Models for Cross-Domain Recommendation
クロスドメインの推薦(映画の嗜好から書籍を推薦する)のための、ふたつの手法、Rigidly Aligned VAE と Softly Aligned VAE の紹介。VAE もマスターしなくてはいけない。雰囲気だけでも。
Together is Better: Hybrid Recommendations Combining Graph Embeddings and Contextualized Word Representations
グラフ埋め込みとBERTのようなコンテキストを考慮した単語表現を組み合わせてリッチな推薦システムをつくった話。
Information Interactions in Outcome Prediction: Quantification and Interpretation using Stochastic Block Models
予測したいのは「retweet するか」など。ただ、一般的に tweet1 → リツイートした、tweet2 →リツイートしたとしても tweet1 + tweet2 →リツイートするとは限らない。この複数の条件を、学習データとして tweet のペア → 結果の形でつくってモデルにし、評価した。 このようなインタラクションを利用することにより推薦を最適化することはできたが、インタラクションのアウトカムへの影響は小さいことがわかった。
Session 6: Interactive Recommendation
Fast Multi-Step Critiquing for VAE-based Recommender Systems
Learning a Voice-based Conversational Recommender using Offline Policy Optimization
Alexaの話。今聞きたい音楽はなに?を対話で探す。ルールベースではなく、Offline Plicy Optimization で「次の質問」を最適化する強化学習モデルをつくる話。ユーザに「朝はNirvana の気分じゃない」と拒否られるAlexa。かわいい。
なかなかの結果
Large-scale Interactive Conversational Recommendation System using Actor-Critic Framework
インタラクティブな推薦システム。会話のポリシーと推薦モデルを同時に学習し、question のvalue を評価 、 大量データでも対応できるような手法を提案する。モデルにはRL をつかうが、State は質問と会話。 Action は 質問するか、アイテムを推薦するかのどちらか。 このAction Space が広大だったが、Actor Critic frameworkを利用した。
Reward の構造はこんな感じ
States 間のTrasitionを定義し、Amazon product dataset を利用して検証。
Generation-based vs. Retrieval-based Conversational Recommendation: A User-Centric Comparison
chatbotsが商品を推薦する話。
生成モデルをつかう場合、会話がおかしかったり、抽象的すぎだったりする場合がある。
先行研究はユーザの評価を無視している。対して、retrieval-based (人があらかじめ作成した文を返す)な手法は生成モデルより自然な会話をできる可能性がある。 AlliMe, Xiaoice
なので、Generative Model と Retrieval Model を評価してみた。評価システムをつくって、3つの手法で生成した質問を表示。被験者にchatbotの応答を評価してもらった。
応答の自然さではRule Based の評価は高かったが、推薦したものの評価はNN の方が高かった(=精度が良いと言われている)
推薦のユーザ体験大事。
The role of preference consistency, defaults and musical expertise in users’ exploration behavior in a genre exploration recommender
音楽の推薦の話。新しい音楽のジャンルの探索。
音楽のエキスパート具合と嗜好との関係を分析。
嗜好の継続性、エキスパートの方が好みが変わらない
ジャンル選択行動はほとんど変わらないので、探索の推薦で行動を変えることができる?
Slider インタフェースをつかって実験。
結論:エキスパートほど保守的。
質疑応答で、音楽のエキスパートの標準的な指標があるとのこと。
Partially Observable Reinforcement Learning for Dialog-based Interactive Recommendation
対話中のユーザの反応から、ユーザの嗜好を学習するRL 、EGE モデルを提案する。
検証にはユーザシミュレーターをつかっていた。
感想
1sesion、まるまるインタラクティブな推薦だなんて。chatbot とVoiceUI がめちゃくちゃ進化したことを感じました。 そして、もはや強化学習しかない。