Exploring Skips and Long-Term Preferences in Session-based Music Recommendation
Authors
Vergerakis, Peter ; Yde, Joachim Valdemar
Term
4. term
Education
Publication year
2020
Submitted on
2020-06-10
Pages
22
Abstract
Dette speciale undersøger session-baserede næste-track anbefalinger i musik ved at udvide og evaluere den opmærksomhedsbaserede STABR-arkitektur. Vi udforsker to veje til forbedring: (1) at indarbejde kortsigtede præferencer gennem implicit feedback i form af skips ved at gøre både STABR’s GRU-enheder og en enkel session-baseret k-nærmeste nabo-metode bevidste om skips; og (2) at modellere langsigtede præferencer ved at bruge repræsentationer af en brugers tidligere sessioner enten direkte i opmærhedsmekanismen eller som initial skjult tilstand for de bidirektionelle GRU’er. Modellerne anvender Last.fm-lyttehændelser og spor-kendetegn (community-tags) og sammenlignes med baselines fra neurale netværk, matrixfaktorisation og k-nærmeste naboer. Resultaterne viser, at skips i de undersøgte datasæt ikke er en god prædiktor og typisk forringer ydeevnen, både for STABR og kNN. Derimod ses en lille, men lovende forbedring ved at indarbejde langsigtede præferencer som initial skjult tilstand, mens direkte brug i opmærhedsmekanismen ikke forbedrer præstationen. Arbejdet peger også på, at komplekse neurale modeller ikke konsekvent overgår enklere tilgange, og at valg af metode afhænger af data og det praktiske mål (fx om man optimerer for hit rate eller MRR).
This thesis investigates session-based next-track music recommendation by extending and evaluating the attention-based STABR architecture. We explore two directions for improvement: (1) incorporating short-term preferences via implicit feedback in the form of skips by making both STABR’s GRU units and a simple session-based k-nearest neighbour approach skip-aware; and (2) modelling long-term preferences by using representations of a user’s prior sessions either directly in the attention mechanism or as the initial hidden state for the bidirectional GRUs. The models use Last.fm listening events and track features (community tags) and are compared against baselines from neural networks, matrix factorisation, and k-nearest neighbours. Results indicate that skip signals in the studied datasets are not a good predictor and tend to degrade performance for both STABR and kNN. In contrast, incorporating long-term preferences as an initial hidden state yields a small but promising improvement, while using them directly in attention does not help. The study also suggests that complex neural models do not consistently outperform simpler methods, and that the best approach depends on the data and practical objectives (e.g., optimising for hit rate versus MRR).
[This summary has been generated with the help of AI directly from the project (PDF)]
Documents
