#ReconnaissanceFaciale par l’intelligence artificielle : des risques de dérives qui interrogent 📹 💽 🕹

Lors de mon travail parlementaire sur la rédaction de la note scientifique sur les objets connectés, j’ai pu mettre en avant la nécessité de s’interroger sur la masse d’informations collectées pour ces nouvelles technologies et le danger potentiel pour nos libertés individuelles. Plusieurs articles récents de France Info et Numerama et TV5 Monde soulignent mon engagement sur le sujet et les questions que soulèvent le futur de la reconnaissance faciale.

La reconnaissance faciale va au-delà de simplement détecter les visages sur une image puisque désormais un traitement de ce visage par l’intelligence artificielle est possible. Cette technique permet à partir des traits de visage d’identifier ou d’authentifier une personne. 

  • Identifier une personne : fait de retrouver une personne au sein d’un groupe d’individus, dans un lieu, une image ou une base de données. Le système vérifie si le visage présenté correspond à un modèle dans la base de données.
  • Authentifier une personne : fait de vérifier qu’une personne est bien celle qu’elle prétend être dans le cadre d’un contrôle. Le système vérifie si l’identité prétendue est bien la bonne en comparant le visage présenté au modèle enregistré dans la base de données.

Ce processus se déroule en deux phases : 

  1. A partir d’une image, un modèle ou un gabarit, les caractéristiques de ce visage sont informatisées et sont alors constitués des données biométriques.
  2. La reconnaissance a lieu par la suite par la comparaison de ces modèles réalisés au préalable avec les modèles calculés en direct sur des visages présents sur une image ou une vidéo.

Une technologie qui soulève de nombreux enjeux 

Une possible atteinte à la vie privée

La matière première dont se nourrit l’intelligence artificielle dans le processus étant nos visages, nous pouvons nous demander si elle constitue une donnée comme les autres. Il y a en effet un enjeu de perte totale d’anonymat dans l’espace public et un enjeu de consentement. Cela peut être perçu comme une réduction de sa liberté personnelle au profit de la sécurité d’un lieu, d’une ville, d’un pays… La reconnaissance faciale rentre dans le cadre des données biométriques, donc couverte au titre de la RGPD. Lorsqu’on utilise des données biométriques et quu’il est identifié un possible impact sur la vie privée, il est nécessaire de demander une autorisation préalable à la CNIL (Ce sont des demandes d’avis pour les secteurs police/justice, et demande d’autorisation pour certains traitements de données de santé ou des études d’impact, ndlr). Autoriser une expérimentation (le cas des portiques des 2 lycées pilotes pour la ville de Nice) c’est une chose, mais il faut que celle-ci serve un objectif beaucoup plus général et donc forcément à une régulation. Quel est l’impact sur la société que cette technologie implique ? Il est donc nécessaire qu’un office scientifique parlementaire comme l’OPECST puisse se pencher en terme de prospective sur ces sujets en interrogeant des scientifiques, des industriels avant d’aller vers un texte de loi.

Un possible contrôle de la population 

Il ne s’agit pas simplement d’une amélioration des systèmes d’identification, la reconnaissance faciale permet l’émergence de nouvelles formes de contrôle en cas d’usage autoritaire. Due à l’asymétrie d’information qu’implique cette technologique, les possibilités d’influences et de coercition des autorités publiques ou économiques s’accroit. Non sans aller jusqu’au Big Brother imaginé par G.Orwell dans son livre 1984, il me semble important de poser les bases d’une réflexion approfondie pour un futur un cadre réglementaire.

Un besoin de clarification 

Dans ce cadre de réflexion, j’ai posé une question écrite au secrétaire d’Etat chargé du numérique pour lui demander la position du Gouvernement sur ce sujet et suggèrer de confier à l’OPECST une analyse scientifique approfondie : 

  • comment prévenir l’utilisation de ces technologies à des fins malhonnêtes ?
  • comment garantir que l’utilisation soit encadrée et contrôlée par des humains sans pour autant freiner l’innovation ?
les enjeux scientifiques et technlogiques sont travaillés à l’Assemblée Nationale via l’Office des Sciences et Technologies OPECST

Un commentaire

  1. elie 12 septembre 2019 à 13:47- Répondre

    « Non sans aller jusqu’au Big Brother imaginé par G.Orwell dans son livre 1984 » > Sauf qu’au vu de l’exploitation des données des européens faites par les GAFA, on est déjà dans une situation de Big Brother. L’Etat Français a failli à nous protéger contre l’espionnage d’un allié qu’était les USA, et on sait qu’on est dans la même situation pour les technologies chinoises. Est-ce que les applications disponibles sur Android, même étrangères, demandent toutes une autorisation à la CNIL avant de récupérer nos photos? On sait que non ( https://www.lemonde.fr/pixels/article/2019/07/17/tout-savoir-avant-d-installer-faceapp-et-appliquer-son-filtre-a-selfie-pour-se-voir-vieux_5490548_4408996.html ). De fait ce règlement qui n’est appliqué qu’aux entreprises françaises/européennes les désavantage face aux entreprises étrangères (qui ne font pas ces procédures) et n’empêche pas la récolte des données des français sans autorisation.
    Heureusement sur les GAFA certaines procédures judiciaires ont lieux mais ça ne couvre pas les français contre les nouveaux acteurs qui n’ont peu ou pas d’attaches en France.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

%d blogueurs aiment cette page :