Royaume-Uni : l'utilisation de la reconnaissance faciale par la police jugée illégale

Les juges ont considéré qu'il n'existait pas d'indications claires sur les endroits où cette technologie pouvait être utilisée.

Une caméra de surveillance à Tokyo, au Japon, le 26 juillet 2020 (image d\'illustration).
Une caméra de surveillance à Tokyo, au Japon, le 26 juillet 2020 (image d'illustration). (YOKO MIWA / YOMIURI / AFP)

La justice britannique a jugé illégal l'emploi fait par la police de la reconnaissance faciale, l'estimant en contradiction avec le respect de la vie privée, mardi 11 août. La cour d'appel de Londres s'est prononcée sur la plainte du militant pour les droits civiques Ed Bridges, qui reproche à la police galloise d'utiliser depuis 2017 une technologie de reconnaissance faciale selon lui discriminatoire et contraire aux lois sur la protection de la vie privée.

L'homme de 37 ans s'était vu scanner le visage à Cardiff à deux reprises – lorsqu'il faisait ses courses de Noël en 2017 puis lors d'une manifestation en 2018 – par la technologie de reconnaissance faciale automatique AFR Locate. Grâce à des caméras de surveillance signalées, ce système scanne les visages dans la foule et les compare avec les photos d'une "liste de surveillance", qui peut inclure suspects, personnes disparues ou présentant un intérêt.

La police galloise ne fera pas appel

Après avoir été débouté plusieurs fois, le plaignant a obtenu gain de cause mardi, les juges estimant que l'utilisation de la reconnaissance faciale n'était pas suffisamment encadrée, sans remettre en cause en soi le recours à la technologie. "Trop [de choses] sont laissées à l'appréciation de chaque officier de police", ont considéré les juges, soulignant qu'il n'existait pas d'indications claires sur les endroits où cette technologie pouvait être utilisée par la police et sur qui pouvait être mis sur la "liste de surveillance".

Ils ont reproché à la police galloise de ne pas avoir fait tout son possible pour vérifier que le logiciel ne présentait pas de biais racistes ou sexistes, et de ne pas avoir correctement évalué l'impact de cette technologie sur la protection des données. La police galloise a fait savoir qu'elle ne ferait pas appel.