On ne s’attendait pas à voir un géant comme Amazon reculer, même d’un pas, sur la reconnaissance faciale. Pourtant, la pression monte, et les lignes bougent, lentement mais sûrement.
Amazon s’est retrouvé dans la tourmente l’an passé après avoir fourni sa technologie de reconnaissance faciale aux autorités américaines. Très vite, la polémique a enflé : des tests ont révélé que sa version cloud manifestait des biais, discriminant notamment selon la couleur de peau.
L’ACLU, l’Union américaine pour les libertés civiles, a mis le doigt là où ça fait mal. Selon leur enquête, le logiciel d’Amazon a confondu plusieurs membres du Congrès américain avec des personnes figurant dans une base de données policière. Le fait marquant ? Une majorité de ces erreurs concernaient des élus à la peau foncée.
Michael Punke, vice-président chargé de la politique mondiale chez Amazon, s’est exprimé sur le sujet. Il affirme que la technologie est fiable, tout en reconnaissant la nécessité de garde-fous. Dans ses mots, il appelle à l’adoption de règles nationales qui protègent les droits de chacun, tout en imposant de la transparence aux administrations utilisant la reconnaissance faciale.
Amazon ne s’arrête pas là. L’entreprise plaide pour des tests uniformisés dans le secteur et estime que l’usage de la reconnaissance faciale ne devrait être envisagé que si le taux de précision atteint les 99 %.
La reconnaissance faciale cristallise de nombreux débats. Cette branche de l’intelligence artificielle inquiète, surtout en matière de vie privée. Les adversaires de ce type de surveillance dénoncent les dérives potentielles, tandis que certains acteurs majeurs, à l’image de Google, ont choisi de ne pas déployer la technologie tant qu’un cadre réglementaire solide n’aura pas été établi. Les questions relatives aux algorithmes biaisés et à la protection des données personnelles occupent le devant de la scène.
Pour mieux comprendre les différences entre intelligence artificielle, machine learning et deep learning, il existe des ressources utiles à consulter. 
Les dérapages de la technologie ne se résument pas à des craintes théoriques. En 2015, Microsoft s’est retrouvé au cœur d’un tollé après que sa reconnaissance faciale a associé des personnes à la peau foncée à des animaux, révélant au grand jour l’ampleur des biais algorithmiques.
La Chine, de son côté, a pris une direction radicale. Depuis 2015, le ministère de la Sécurité publique travaille à identifier chaque citoyen grâce à la reconnaissance faciale. Une démarche qui relance le débat sur la surveillance et la protection de la vie privée.
Face à ces dérives et à ces expérimentations, la question demeure : jusqu’où irons-nous dans l’utilisation de l’intelligence artificielle pour surveiller, classer, et parfois, exclure ? Le futur de la reconnaissance faciale se joue aujourd’hui, dans les laboratoires, les parlements et, surtout, dans l’opinion publique.

