ちょっと英語やRecSysに飽きて、時間が空いてました:p
この間、RecSys 2019 の申し込みをし、飛行機もとっちまったし、仕事もひと段落したので、息を潜めて勉強しようと思っています。
2019年、RecSys 2018の論文をひたすら読みます。ルール。
- 1日ひとつ
- 読み終わらなくてもOK
- 理解と疑問点を毎日まとめる
あと、20くらいですかね。全部読んでから考える。今回は、Understanding User Interactions with Podcast Recommendations Delivered Via Voice。
Abstract:
- スマートスピーカーは podcast などの音声コンテンツ推薦の新しい機会を提供してくれた
- 声ベースのレコメンドとユーザがどうインタラクションするかはまだ研究がない
- 調査をしたところ、今後よりよい声ベースのレコメンドの設計を示唆する明確な特徴を観測できた
ざっくり
- ヴィジュアルのUI と Alexa などの 声でのUIだとUX が全然違うよね
- 同じPodcast を推薦するシステムで Visual UI と Voice UI でどんな違いがでたのか調べた
- 結果、Voice UI の方が推薦する量、候補になる量が圧倒的に少なくなることがわかった
- なので、Visual UI のRecSys をそのままVoice UI に実装するんじゃだめだね
- 質問1「満足度のアンケートをとってたけどその結果は?」回答「統計的に差がなかった」
- 質問2「ユーザの属性(性別や教育レベル)が大きく影響しそうだが」回答「次の課題」
感想
- んー当たり前の結果かな、、と
- Voice UI のRecSys がどうあるべきか、問題提起したことそのものが評価されたのかも