RecSys 2018のペーパーを読んでいく(23)... 声ベースの推薦システムに人がどう反応するか調査した話

ちょっと英語やRecSysに飽きて、時間が空いてました:p

 この間、RecSys 2019 の申し込みをし、飛行機もとっちまったし、仕事もひと段落したので、息を潜めて勉強しようと思っています。

2019年、RecSys 2018の論文をひたすら読みます。ルール。

  • 1日ひとつ
  • 読み終わらなくてもOK
  • 理解と疑問点を毎日まとめる

あと、20くらいですかね。全部読んでから考える。今回は、Understanding User Interactions with Podcast Recommendations Delivered Via Voice

Abstract:

  • スマートスピーカーpodcast などの音声コンテンツ推薦の新しい機会を提供してくれた
  • 声ベースのレコメンドとユーザがどうインタラクションするかはまだ研究がない
  • 調査をしたところ、今後よりよい声ベースのレコメンドの設計を示唆する明確な特徴を観測できた

 

ざっくり

  • ヴィジュアルのUI と Alexa などの 声でのUIだとUX が全然違うよね
  • 同じPodcast を推薦するシステムで Visual UI と Voice UI でどんな違いがでたのか調べた
  • 結果、Voice UI の方が推薦する量、候補になる量が圧倒的に少なくなることがわかった
  • なので、Visual UI のRecSys をそのままVoice UI に実装するんじゃだめだね
  • 質問1「満足度のアンケートをとってたけどその結果は?」回答「統計的に差がなかった」
  • 質問2「ユーザの属性(性別や教育レベル)が大きく影響しそうだが」回答「次の課題」

感想

  • んー当たり前の結果かな、、と
  • Voice UI のRecSys がどうあるべきか、問題提起したことそのものが評価されたのかも