Tech

Découvrez la stupidité de la reconnaissance des émotions de l’IA avec ce jeu de mini-navigateur

Les entreprises technologiques ne veulent pas seulement vous identifier grâce à la reconnaissance faciale, elles veulent également lire vos sentiments à l’aide de l’IA. Pour de nombreux scientifiques, les affirmations sur la capacité des ordinateurs à comprendre les émotions sont Fondamentalement défectueux, Et un petit jeu Web intégré au navigateur conçu par des chercheurs de l’Université de Cambridge vise à expliquer pourquoi.

Rendez-vous emojify.infoEt vous pouvez voir comment l’ordinateur «lit» vos émotions via votre webcam. Le jeu vous mettra au défi de produire six émotions différentes (bonheur, tristesse, peur, surprise, dégoût et colère), que l’IA tentera d’identifier. Cependant, vous constaterez peut-être que les lectures du programme sont loin d’être exactes et que vous interprétez souvent même les expressions exagérées comme «neutres». Et même si vous souriez un sourire qui convainc votre ordinateur que vous êtes heureux, vous saurez que vous le faites semblant.

C’est le but du site, déclare la créatrice Alexa Hagerty, chercheuse au Center for the Future of Intelligence de l’Université Cambridge Leverholm et au Center for the Study of Existential Risk: démontrer que le principe de base de nombreuses techniques de reconnaissance des émotions, les mouvements du visage sont intrinsèquement liés à des changements de sentiment et sont imparfaits.

«La base de ces technologies est que nos visages intérieurs et nos sentiments sont interconnectés de manière très prévisible», déclare Haggerty. le bord. « Si vous souriez, je suis heureux. Si vous froncez les sourcils, je suis énervé. Mais l’APA l’a fait. » Examen des grandes preuves في عام 2019 ، ووجدوا أن المساحة العاطفية للناس لا يمكن استنتاجها بسهولة من حركات وجوههم « . يقول هاجرتي: في اللعبة ، « لديك فرصة لتحريك وجهك بسرعة لانتحال ستة مشاعر مختلفة ، لكن النقطة المهمة هي أنك لم تشعر داخليًا بستة أشياء مختلفة ، واحدًا تلو الآخر successivement. »

Il y a un deuxième mini-jeu sur le site qui ramène le point à la maison en demandant aux utilisateurs de repérer la différence entre un clin d’œil et un clignotement – ce que les machines ne peuvent pas faire. «Vous pouvez fermer les yeux, et cela peut être un acte involontaire ou un geste significatif», dit Haggerty.

Malgré ces problèmes, la technologie de reconnaissance des émotions prend rapidement de l’ampleur, car les entreprises promettent que de tels systèmes peuvent être utilisés pour sélectionner les candidats à un poste (ce qui leur donne)Degré d’emploi« ), Endroit Terroristes potentielsOu évaluez si les chauffeurs commerciaux sont Somnolent ou somnolent. (Même Amazon est en plein essor Technologie similaire Dans ses propres camions).

Bien sûr, les humains font également des erreurs lorsque nous lisons les émotions sur les visages des gens, mais confier ce travail à des machines présente des inconvénients spécifiques. Par exemple, les machines ne peuvent pas lire d’autres indices sociaux comme les humains (comme c’est le cas avec le dualisme clignotement / clignotement). Les machines prennent souvent des décisions machine que les humains ne peuvent pas remettre en question et peuvent effectuer des observations à grande échelle sans que nous en soyons conscients. De plus, comme pour les systèmes de reconnaissance faciale, c’est souvent l’IA pour détecter les émotions Particulièrement racialementLes visages noirs sont souvent évalués comme montrant des émotions négatives, par exemple. Tous ces facteurs rendent la détection des émotions par l’IA beaucoup plus ennuyeuse que la capacité des humains à lire les émotions des autres.

«Les dangers sont multiples», dit Hagerty. « Avec l’incompréhension humaine, nous avons de nombreuses options pour corriger cela. Mais une fois que quelque chose est automatisé ou que la lecture est faite à votre insu ou à votre insu, ces options disparaissent. »

Cunégonde Lestrange

"Gourou de Twitter. Écrivain en herbe. Fauteur de troubles typique. Entrepreneur. Étudiant hipster."

Articles similaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Bouton retour en haut de la page
Fermer
Fermer