Une start-up prétend pouvoir identifier les terroristes par reconnaissance faciale

Faception, une start-up israélienne, associe aux traits d'un visage des caractéristiques comportementales, et affirme pouvoir ainsi repérer les pédophiles et terroristes. Sa méthode est toutefois contestée. Joueurs de poker professionnels, individus au QI élevé, mais aussi pédophiles et terroristes... Autant de catégories de personnes déterminées arbitrairement par Faception et auxquelles la start-up a respectivement associé des traits caractéristiques. Dépeinte par un article du Washington Post, elle a suscité de vives polémiques dans les médias internationaux.

 

Grâce à une technologie fondée sur la reconnaissance faciale, il lui serait possible de reconnaître une quinzaine de catégories d'individus dans 80% des cas, à partir de l'analyse de flux vidéo ou de simples photographies. Faception se targue également d'avoir réussi à identifier les meilleurs joueurs d'un tournoi de poker, organisé par l'un de ses partenaires: sur les cinquante participants de la compétition, deux des quatre joueurs désignés se sont effectivement rendus en finale. Sur la base de ses résultats, elle aurait d'ores et déjà conclu un contrat avec un organisme de sécurité pour identifier de potentiels terroristes

A chaque catégorie d'individus, son visage type. Via faception.com

Ni le Washington Post, ni le site Web de l'entreprise ne fournissent néanmoins d'indications quant au contenu et aux méthodes d'élaboration des bases de données utilisées. Seul le postulat de base de l'entreprise est clairement évoqué par Shai Gilboa, son directeur général: «Notre personnalité est déterminée par notre ADN et se laisse deviner sur notre visage. Il faut y voir une forme de signal».

«Il s'agit là d'une version moderne et teintée de technologie de thèses du XIXe siècle», note Jean-Gabriel Ganascia, professeur au laboratoire d'informatique de Pierre-et-Marie-Curie, à Paris, et auteur de L'intelligence artificielle (Ed. Le Cavalier Bleu, 2007). «L'une d'entre elles, la physiognomonie partait du principe selon lequel l'observation physique d'une personne pouvait en dire long sur son caractère. Mais il a été montré que ce postulat conduisait à de nombreux abus et ne reposait sur aucun fondement sérieux».

Une idéologie derrière les algorithmes

 

En matière de traitement automatique des informations par les algorithmes, les biais restent encore nombreux. Ils résultent de la nécessaire intervention humaine dans leur élaboration. Une analyse menée par ProPublica révélait ainsi le 23 mai qu'un algorithme destiné à prédire les récidives, et très utilisé dans l'univers carcéral américain, avait tendance à léser les Noirs. Jugés davantage susceptibles de récidiver - alors que 44,9 % des Afro-américains classés dans cette catégorie n'avaient pas commis d'autres crimes, contre 23,5 % de personnes blanches - ils auraient également deux fois plus de chances d'être considérés comme potentiels récidivistes violents, sans que cela soit non plus suivi de faits.

LIRE LA SUITE

 http://www.lefigaro.fr/secteur/high-tech/2016/05/26/32001-20160526ARTFIG00009-une-start-up-pretend-pouvoir-identifier-les-terroristes-et-pedophiles-par-reconnaissance-faciale.php