La technologie conçue pour identifier les émotions humaines à l’aide d’algorithmes d’apprentissage automatique est une énorme industrie, et ses partisans affirment qu’elle a une grande valeur, du maintien de la sécurité routière à l’analyse des études de marché.
Mais les critiques disent que la technologie soulève non seulement des problèmes de confidentialité, mais qu’elle est imprécise et raciste. Lire aussiL’astuce derrière Google Maps gratuit: pourquoi serait-il préférable de le remplacer?Le début est de pirater les algorithmes de la voiture Tesla. Le monde est-il témoin d’une guerre mondiale pour l’intelligence artificielle?Applications du scanner. Quels sont les avantages et les inconvénients?Les martyrs parlent … les Algériens honorent leur révolution en utilisant l’intelligence artificielle
Un rapport du Guardian a déclaré qu’une équipe de chercheurs a développé un site Web appelé emojify.info où le public peut essayer les systèmes de reconnaissance des émotions grâce à leurs caméras informatiques.
Un jeu vise à attirer les visages pour tromper la technologie, tandis qu’un autre explore comment ces systèmes peuvent avoir du mal à lire les expressions faciales afin qu’elles soient cohérentes avec certaines situations.
Les chercheurs affirment que leur espoir est de faire connaître la technologie et de favoriser les conversations sur son utilisation.
«C’est une forme de reconnaissance faciale, mais cela va plus loin car au lieu de simplement identifier les gens, il prétend lire nos émotions et nos sentiments intérieurs sur nos visages», a déclaré le Dr Alexa Hagerty, chef de projet et chercheur à l’Université de Cambridge Leverholm.
La technologie de reconnaissance faciale, souvent utilisée pour identifier les personnes, a fait l’objet d’un examen minutieux ces dernières années. L’année dernière, la Commission pour l’égalité et les droits de l’homme a déclaré qu’elle devrait arrêter son utilisation pour le dépistage de masse, affirmant que cela pourrait accroître la discrimination policière et porter atteinte à la liberté d’expression.
Mais Hagerty a déclaré que de nombreuses personnes ne savaient pas à quel point les systèmes de reconnaissance des émotions étaient courants, notant qu’ils travaillaient dans des situations allant de l’aide à l’emploi, à la visite de clients, à l’aide aux opérations de sécurité dans les aéroports et même à l’enseignement pour voir si les étudiants participaient ou le faisaient. Leurs devoirs. Publicité
Elle a déclaré que la technologie était utilisée partout dans le monde, de l’Europe aux États-Unis et en Chine.https://imasdk.googleapis.com/js/core/bridge3.450.0_en.html#goog_430928567
Craintes
Taigusys, une entreprise spécialisée dans les systèmes de reconnaissance des émotions dont le siège social est à Shenzhen, en Chine, dit qu’elle l’a utilisée dans des endroits allant des maisons de retraite aux prisons, tandis que selon des rapports plus tôt cette année, Lucknow prévoit que l’Inde utilise la technologie pour découvrir la détresse que subissent les femmes en raison du harcèlement, une mesure qui a suscité des critiques de la part des organisations de défense des droits numériques et d’autres.
Bien que Hagerty ait déclaré que la technologie de reconnaissance des émotions pouvait avoir des avantages potentiels, cela doit être contrebalancé par des préoccupations concernant l’exactitude et les préjugés raciaux, ainsi que la question de savoir si la technologie est le bon outil pour un travail particulier.
“Nous devons avoir une conversation publique plus large et une délibération sur ces technologies”, a-t-elle ajouté.
Le nouveau projet permet aux utilisateurs d’essayer la technologie de reconnaissance des émotions. Le site note qu ‘”aucune donnée personnelle n’est collectée et toutes les images sont stockées sur votre appareil”.
Dans un jeu, les utilisateurs sont invités à extraire une série de visages pour simuler une émotion et voir si le système a été trompé.
“Les gens qui développent cette technologie disent qu’elle lit les émotions … mais le système lisait en fait le mouvement du visage, puis combinait cela avec l’hypothèse que ces mouvements sont liés aux émotions, par exemple un sourire signifie que quelqu’un est heureux”, Haggerty mentionné.
Elle ajoute que la question est plus compliquée que cela, car l’expérience humaine a montré qu’il est possible de truquer un sourire. “C’est ce que le jeu que nous avons créé essaie de prouver, pour vous montrer que vous n’avez pas changé votre état intérieur et vos sentiments 6 fois, juste changé votre apparence et les traits de votre visage.”
Vidushi Marda, directeur des programmes de l’organisation des droits de l’homme, a déclaré qu’une pression était nécessaire pour endiguer le marché croissant des systèmes de reconnaissance des émotions.
Il a ajouté: “L’utilisation de techniques de reconnaissance des émotions est extrêmement préoccupante car ces systèmes ne sont pas seulement basés sur une science discriminatoire et discréditée, mais leur utilisation est fondamentalement incompatible avec les droits de l’homme.”