GSRec: A Hybrid Sequential Recommendation Model Combining GRU and SASRec
Author
Eres, Matej
Term
4. term
Education
Publication year
2025
Submitted on
2025-06-05
Pages
44
Abstract
Recommender systems improve by learning from the order of a user’s actions to predict what comes next (sequential recommendation). Two main techniques dominate today: neural networks and transformers. We introduce GSRec, a hybrid model that combines SASRec (a transformer-based model) and a GRU (a type of recurrent neural network). We run them in sequence to capture both short- and long-term preferences: SASRec first uses an attention mechanism to focus on recent patterns, followed by a GRU that models longer-term dependencies and habits. We evaluate GSRec on the Amazon Beauty and MovieLens 1M datasets and compare it with POP, GRU4Rec, SASRec, and BERT4Rec. In our tests, BERT4Rec performs best on dense datasets (many interactions per user), while GSRec is more robust when data are sparse (few interactions per user).
Anbefalingssystemer kan blive bedre ved at lære af rækkefølgen af en brugers handlinger og forudsige, hvad der er relevant næste gang (sekventiel anbefaling). I dag dominerer to tilgange: neurale netværk og transformers. Vi præsenterer GSRec, en hybridmodel der kombinerer SASRec (en transformerbaseret model) og GRU (en type rekurrent neuralt netværk). De køres i en sekventiel pipeline for at fange både kortsigtede og langsigtede præferencer: først anvender SASRec en opmærksomhedsmekanisme til at fokusere på nylige mønstre, derefter bruger vi GRU til at modellere længerevarende sammenhænge og vaner. Vi evaluerer GSRec på datasættene Amazon Beauty og MovieLens 1M og sammenligner med POP, GRU4Rec, SASRec og BERT4Rec. I vores forsøg klarer BERT4Rec sig bedst på tætte datasæt (mange interaktioner pr. bruger), mens GSRec viser robusthed i sparsomme miljøer (få interaktioner pr. bruger).
[This apstract has been rewritten with the help of AI based on the project's original abstract]
Keywords
