Pendant la dernière décennie nous avons vu une transformation incroyable du monde de la musique qui est passé des cassettes et disques compacts à la musique numérique en ligne. Avec l'explosion de la musique numérique, nous avons besoin de systèmes de recommandation de musique pour choisir les chansons susceptibles d’être appréciés à partir de ces énormes bases de données en ligne ou personnelles. Actuellement, la plupart des systèmes de recommandation de musique utilisent l’algorithme de filtrage collaboratif ou celui du filtrage à base de contenu. Dans ce mémoire, nous proposons un algorithme hybride et original qui combine le filtrage collaboratif avec le filtrage basé sur étiquetage, amélioré par la technique de filtrage basée sur le contexte d’utilisation afin de produire de meilleures recommandations. Notre approche suppose que les préférences de l'utilisateur changent selon le contexte d'utilisation. Par exemple, un utilisateur écoute un genre de musique en conduisant vers son travail, un autre type en voyageant avec la famille en vacances, un autre pendant une soirée romantique ou aux fêtes. De plus, si la sélection a été générée pour plus d'un utilisateur (voyage en famille, fête) le système proposera des chansons en fonction des préférences de tous ces utilisateurs. L'objectif principal de notre système est de recommander à l'utilisateur de la musique à partir de sa collection personnelle ou à partir de la collection du système, les nouveautés et les prochains concerts. Un autre objectif de notre système sera de collecter des données provenant de sources extérieures, en s'appuyant sur des techniques de crawling et sur les flux RSS pour offrir des informations reliées à la musique tels que: les nouveautés, les prochains concerts, les paroles et les artistes similaires. Nous essayerons d’unifier des ensembles de données disponibles gratuitement sur le Web tels que les habitudes d’écoute de Last.fm, la base de données de la musique de MusicBrainz et les étiquettes des MusicStrands afin d'obtenir des identificateurs uniques pour les chansons, les albums et les artistes. / In the last decade we have seen an incredible transformation of the world of music, from cassette tapes and compact discs to online digital music. With the explosion of the digital music we need music recommender systems to select those probably preferred songs from these huge online or personal databases. Currently, most music recommender systems use either collaborative (social) filtering or content-based algorithms. In this work we propose an original hybrid collaborative and tag-based algorithm improved by the context-of-use filtering technique in order to generate better playlists. Our approach assumes that user preferences change depending on the context of use. For example, a user listen one kind of music while driving to work, another type while traveling with the family on vacation, another one in a romantic evening or at parties. Additionally, if the playlist was generated for more than one user (family trip, party) the system will propose songs depending on the preferences of all these users. The main goal of our system is to recommend music to the user from the personal music collection or new music from system music collection, new releases and incoming concerts. Another goal of our system it will be to gather data from external sources based on crawling techniques and RSS Feeds to provide music related content like: new releases, incoming concerts, lyrics, similar artists. We’ll try to interlink some free available datasets on the web like listening habits from Last.fm, music database from MusicBrainz and tags from MusicStrands in order to obtain unique identifiers for songs, albums and artists.
Identifer | oai:union.ndltd.org:umontreal.ca/oai:papyrus.bib.umontreal.ca:1866/8961 |
Date | 11 1900 |
Creators | Arnautu, Octavian Rolland |
Contributors | Aïmeur, Esma |
Source Sets | Université de Montréal |
Language | French |
Detected Language | French |
Type | Thèse ou Mémoire numérique / Electronic Thesis or Dissertation |
Page generated in 0.0022 seconds