Home tech Biais racial: correction du code de reconnaissance faciale

Biais racial: correction du code de reconnaissance faciale

56
0
Biais racial: correction du code de reconnaissance faciale

Publié le: Modifié:

Dans cette édition, alors qu'un concours de reconnaissance faciale défectueux mène à l'arrestation d'un homme innocent dans l'État américain du Michigan, nous examinons les préjugés raciaux et de genre sous-jacents de la technologie. Nous examinons de plus près le sujet avec Joy Buolamwini du MIT, fondateur de l'Algorithmic Justice League, qui aide à corriger le code.

Joy Buolamwini est une chercheuse diplômée du MIT qui se décrit comme une poète du code. Elle a aidé à découvrir les préjugés raciaux et sexistes dans les services d'IA d'entreprises telles que Microsoft, IBM et Amazon.

Le sujet a fait les gros titres lorsqu'un homme innocent a été arrêté au Michigan et détenu pendant 30 heures sur la base d'un jeu de reconnaissance faciale défectueux. Les villes de San Francisco et Boston ont déjà décidé d'interdire l'utilisation de la technologie, car elle semble désormais largement inexacte, en particulier pour les personnes de couleur. Nous avons parlé à Buolamwini pour plus d'informations.

Mais d'abord, les entreprises technologiques françaises, comme leurs homologues américaines dans la Silicon Valley, cherchent des moyens de se diversifier. Depuis 2017, l'industrie travaille avec le gouvernement pour y parvenir. Un certain nombre d'organisations à but non lucratif se sont également jointes à la lutte pour progresser dans ce qui semble être un processus long et difficile.

Enfin, dans Test 24, Dhananjay Khadilkar essaie le Sero TV de Samsung, qui pivote entre les orientations paysage et portrait en fonction du type de contenu que vous regardez.

LEAVE A REPLY

Please enter your comment!
Please enter your name here