Apple entraîne une IA à lire les ondes cérébrales avec les AirPods en ligne de mire
Apple réfléchit à des moyens d’utiliser le machine learning pour lire les signaux du cerveau. Un groupe de chercheurs de Cupertino a récemment publié un long papier présentant une méthode permettant à un modèle d'IA d'apprendre un aspect de la structure de l'activité électrique du cerveau sans aucune donnée annotée. Si tout est encore très théorique, tout cela pourrait bien finir par être intégré à de futurs appareils, comme une révision des AirPods. AirPods Pro 3. Image Apple Les travaux portent sur l’électroencéphalographie (EEG), ces signaux électriques captés par des électrodes posées sur le crâne. Ils sont précieux pour analyser le sommeil, détecter des crises d’épilepsie ou explorer l’état cognitif d’un patient, mais restent difficiles à exploiter à grande échelle : les enregistrements sont longs, massifs, et doivent être minutieusement annotés par des spécialistes. Dans ce nouveau papier, les chercheurs introduisent une méthode baptisée PARS, pour « PAirwise Relative Shift »....
Espace publicitaire · 300×250