Skip to main content

Le service de streaming a développé un système d’IA capable d’associer certaines chansons à des humeurs et des intensités.

A l’abri des regards, le service de streaming musical Deezer teste l’utilisation du deep learning et de la détection de l’ambiance d’une chanson, à la fois sur les paroles et sur les réglages instrumentaux.

Cela n’est peut-être pas encore disponible pour aider Deezer à créer des playlists et des chansons pour les utilisateurs, mais les recherches du service visant à permettre à la technologie de déterminer ce qui fait une chanson heureuse et triste sont néanmoins intéressantes.

Les ingénieurs de Deezer forment l’IA pour qu’elle surveille à la fois la manière dont les paroles et les instruments constituent une chanson. L’équipe déclare avoir développé un système de machine learning qui traite l’intégralité de la chanson (pas seulement un refrain joyeux) et mesure l’émotion de la chanson en analysant différentes données. L’IA utilise des signaux audio bruts, des modèles de reconstruction de contexte linguistique et l’ensemble de données Million Song Dataset, qui alimente Last.fm, en assignant des mots-clés liés à l’humeur aux chansons, et qui regroupe les métadonnées de plus d’un million de chansons.

Les chercheurs ont pu extraire certains mots des paroles en mappant cet ensemble de données de millions de morceaux sur leur propre bibliothèque à l’aide de métadonnées, créant ainsi une base de données de plus de 18,5 millions de morceaux à expérimenter.

Deezer a bien précisé qu’il s’agissait d’un travail actuellement en cours. Les chercheurs affirment que même si cela est déjà mieux que les techniques de détection de l’humeur utilisées dans le passé, il reste encore du travail à faire pour améliorer le système. La prochaine étape consiste à mettre au point divers modèles de formation et à créer un système capable de traiter des chansons sans surveillance et de manière critique, sans mots-clés.

C’est loin d’être la première fois que Deezer tente d’utiliser l’IA pour trier la musique. L’année dernière, il a fallu relever le défi du festival Sónar pour répondre à la question suivante: «Quand un utilisateur est chez lui, comment détecter le contexte dans lequel il écoute de la musique et recommander la musique en conséquence ? » .