Lorsque vous écoutez une chanson et que vous ne connaissez pas le nom du chanteur ou bien de la chanson, vous devez être comme moi et avoir le réflexe d’utiliser Shazam ! Mais le problème c’est que par moment on a une chanson en tête, mais impossible de la retrouver… et si une intelligence artificielle le faisait pour vous ?  L’une d’entre elles a été capable de créer une chanson alors pourquoi ne pas s’introduire dans votre tête et savoir quelle chanson s’y trouve !

C’est en tout cas ce que le chercheur Brian Pasley et ses collègues ont essayé de faire en 2014,  grâce à un algorithme de deep-learning. Ils ont réussi à analyser l’activité cérébrale et plus précisément les ondes cérébrales d’une personne pendant qu’elle parlait grâce à des électrodes pour transformer les pensées de cette personne en un « discours synthétisé numériquement. »

Aujourd’hui l’équipe est capable de bien mieux ! L’algorithme a été capable de prédire avec précision les notes auxquels pensait un pianiste, en se basant sur son activité cérébrale. Concrètement, l’activité cérébrale du pianiste a été enregistrée pendant qu’il jouait sur un clavier électrique. L’expérience a ensuite été renouvelée, mais en désactivant le son du clavier et en demandant au pianiste d’imaginer au fur et à mesure les notes.

Brian Pasley a ainsi déclaré : « pendant la perception auditive, lorsque vous écoutez des sons tels que la parole ou la musique, nous savons  que certaines parties du cortex auditif décomposent ces sons en fréquences acoustiques – par exemple, des tons bas ou élevés. […] Nous avons testé si ces mêmes zones cérébrales traitaient aussi des sons imaginés de la même manière que vous verbalisiez intérieurement le son de votre propre voix, ou imaginiez le son de la musique classique dans une pièce silencieuse. Nous avons constaté qu’il y avait un grand chevauchement, mais aussi des différences distinctes dans la façon dont le cerveau représente le son de la musique imaginaire. En construisant un modèle d’apprentissage automatique de la représentation neuronale du son imaginé, nous avons utilisé le modèle pour deviner avec une précision raisonnable quel son était imaginé à chaque instant. »

À terme, l’objectif est de développer des algorithmes pour des appareils prothétiques vocaux afin de permettre aux personnes qui sont incapables de parler de rétablir une communication.

Source.