Peut-on vraiment faire confiance à la technologie de reconnaissance faciale pour protéger notre sécurité en ligne? Meta semble penser que oui. Face aux nombreuses escroqueries utilisant l’image de célébrités pour appâter les utilisateurs, le géant des réseaux sociaux teste maintenant des mesures basées sur la reconnaissance faciale. Mais dans quelle mesure ces mesures protégeront-elles réellement les utilisateurs? Et cela ne soulève-t-il pas de nouvelles questions sur la vie privée?
Dans un récent billet de blog publié par Monika Bickert, vice-présidente de la politique de contenu chez Meta, l’entreprise dévoile ses nouveaux tests pour contrer les publicités frauduleuses. Elle décrit comment les fraudeurs utilisent souvent des images de figures publiques pour inciter les internautes à cliquer sur des publicités menant à des sites web douteux. Ces pratiques dénommées « celeb-bait » sont une menace pour les utilisateurs. Alors, comment Meta peut-elle s’assurer que seuls les véritables publicités des célébrités soient diffusées sur ses plateformes?
Comme solution, Meta envisage d’utiliser la reconnaissance faciale pour vérifier les publicités suspectes arborant l’image d’une célébrité. En comparant les visages des publicités avec les photos de profils Facebook et Instagram des personnalités publiques, Meta espère filtrer les publicités frauduleuses.
Un tel déploiement soulève toutefois d’importantes questions éthiques et légales concernant l’utilisation des données biométriques.
La société assure que toute donnée faciale générée lors de ces tests est immédiatement supprimée après la comparaison. Mais cela suffira-t-il à apaiser les inquiétudes des utilisateurs en matière de protection de la vie privée? Meta a déjà essuyé des critiques sévères pour sa gestion des données personnelles et son utilisation de la reconnaissance faciale pourrait raviver la polémique.
De plus, ces tests ne concernent pour l’instant ni le Royaume-Uni ni l’Union Européenne, où les régulations sur la protection des données sont plus strictes. Meta semble éviter ces régions, mais peut-elle ignorer indéfiniment les règles du RGPD, qui exigent un consentement explicite pour l’utilisation de biométrie?
La reconnaissance faciale constitue-t-elle la meilleure voie pour démasquer les imposteurs? Meta estime qu’elle pourrait être efficace contre les publicités de deepfake, où l’IA générative crée des images de célébrités. Toutefois, quelles seront les éventuelles implications pour l’écosystème publicitaire et la confiance des utilisateurs?
Alors que Meta continue de recueillir et d’analyser ces données critiques au niveau mondial, quel sera l’impact à long terme de telles technologies sur la protection de la vie privée et l’innovation dans le secteur technologique? Les résultats prometteurs de ces tests suffiront-ils à convaincre les sceptiques ou renforceront-ils simplement les appels à une réglementation plus stricte?
Source : Techcrunch