jeudi, 25 avril 2024

Les recherches du MIT qui utilisent l’IA pour la reconnaissance des émotions faciales indiquent les avantages potentiels de la réalité augmentée pour les personnes autistes

Des chercheurs du MIT ont récemment annoncé qu’ils avaient formé un réseau de neurones artificiels pour traiter les détails de la reconnaissance des émotions faciales, afin d’aider les personnes atteintes d’autisme à mieux reconnaître les émotions exprimées sur les visages.

Pour beaucoup de gens, il est simple de reconnaître les sentiments révélés sur le visage des autres. Un sourire peut signifier de la joie, tandis qu’un froncement de sourcils peut suggérer de la colère. Les personnes autistes, en revanche, peuvent souvent avoir plus de mal à faire ce travail. On ne sait pas pourquoi, mais une toute nouvelle recherche, publiée le 15 juin dans The Journal of Neuroscience, met en lumière le fonctionnement interne du cerveau pour recommander une réponse, et elle le fait en utilisant un système expert (IA) pour modéliser le calcul dans notre têtes.

Le chercheur du MIT Kohitij Kar, qui travaille dans le laboratoire du professeur du MIT James DiCarlo, a l’intention de se concentrer sur la réponse. (DiCarlo, l’enseignant Peter de Florez au Département des sciences cérébrales et cognitives, appartient à l’étude de l’Institut McGovern pour la recherche sur le cerveau et directeur de la mission pour l’intelligence du MIT.)

Kar a commencé par examiner les informations fournies par deux autres scientifiques : Shuo Wang de l’Université de Washington à St. Louis et Ralph Adolphs de Caltech. Dans une expérience, ils ont montré des images de visages à des adultes autistes et à des témoins neurotypiques. Les images avaient en fait été générées par un logiciel pour différer sur un spectre allant de la peur à la joie, et les individus jugeaient, rapidement, si les visages représentaient le bonheur. Par rapport aux témoins, les adultes autistes avaient besoin de niveaux de bonheur plus élevés sur les visages pour les déclarer heureux.

Kar, qui est également membre du Center for Brains, Minds and Devices, a formé un réseau de neurones synthétiques, une fonction mathématique complexe influencée par l’architecture du cerveau, pour effectuer cette même tâche consistant à déterminer si les images des visages sont plus qu’heureuses. L’étude de recherche de Kar a suggéré que les connexions neuronales sensorielles chez les adultes autistes pourraient être « bruyantes » ou inefficaces. Pour une ventilation plus approfondie de la nature des recherches de Kar, lisez l’article complet du MIT ici.

Alors, où quelque chose comme la vérité augmentée (RA) est-il lié à tout cela ? Eh bien, sur la base de l’étude de recherche de Kar, il pense que ces modèles informatiques de traitement visuel pourraient avoir plusieurs utilisations à l’avenir.

« Je pense que la reconnaissance des émotions faciales n’est que la pointe de l’iceberg », a déclaré Kar, qui pense que ces modèles de traitement visuel pourraient également être utilisés pour choisir ou peut-être générer du matériel de diagnostic. L’intelligence synthétique pourrait être utilisée pour générer du contenu (tel que des films et du matériel pédagogique) qui engage efficacement les enfants et les adultes autistes.

Sur la base de la recherche, ces modèles informatiques pourraient potentiellement être utilisés pour aider à modifier le visage et d’autres éléments appropriés. pixels dans les lunettes de vérité augmentée afin de changer ce que les personnes autistes voient, peut-être en mettant trop l’accent sur les niveaux de joie (ou d’autres sentiments) sur les visages des individus afin d’aider les personnes autistes à mieux reconnaître les sentiments. Selon le MIT, le travail autour d’une vérité accrue est quelque chose que Kar prévoit de poursuivre à l’avenir.

Même dans un format plus simpliste, les lunettes AR avec un logiciel de reconnaissance des sensations faciales pourraient être en mesure d’identifier les émotions des gens et des déclencheurs de texte superposés pour aider les personnes autistes portant les lunettes, afin de fournir des descriptions de l’émotion la plus probable des personnes avec lesquelles ils se connectent. Finalement, le travail aide à valider l’efficacité des modèles informatiques, en particulier les réseaux de neurones de traitement d’images, selon Kar.

Pour lire l’article complet du MIT, cliquez sur ce lien.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

xnxx sex download russianporntrends.com hardxxxpics saboten campus freehentai4u.com read manga porn rakhi sex photo ganstagirls.com nani sex video xxx indian girl video download elporno.mobi tamilauntycom bf hd video bf hd video porn555.me anyporn hd tamil beach sex erolenta.com xxx sex boy to boy bustyboobs pakistanixxxx.com nude sexy videos desi sex xvideos.com tubaka.mobi justdesi in free naked dance vegasmpegs.mobi eva grover desi ass lick eroanal.net 69 xvideo 4k xnxx thefuckingtube.com xxii roman numerals translation tamil nayanthara sex sexozavr.com indian porn videos tumblr كلبات سكس porn-arab.net نيك ف الكس y3df comics popsexy.net akhil wife hentai ahri wowhentai.net the sarashina bloodline