Système de reconnaissance faciale utilisant des systèmes de vidéosurveillance. Algorithme de recherche de visage. La technologie de reconnaissance faciale arrivera dans les villes russes

Le système de reconnaissance faciale biométrique devrait être inclus dans la norme « ville intelligente » pour les villes russes, que le ministère de la Construction a commencé à développer. Le chef adjoint du département, Andrei Chibis, en a parlé aux Izvestia. Il a noté qu'une telle technologie serait pratique à utiliser dans les transports publics : un passager monte dans le bus, le programme le reconnaît et débite l'argent du voyage sur son compte bancaire. Le ministère entend se familiariser avec l'expérience des villes chinoises et diffuser des technologies similaires en Russie.

Le ministère envisage d'attirer Entreprises chinoises, dont Huawei, pour mettre en œuvre, en collaboration avec Rostelecom, la technologie biométrique et l'analyse des événements dans les villes russes. Le vice-ministre de la Construction, du Logement et des Services communaux, Andrei Chibis, en a parlé aux Izvestia. Selon lui, en cas de succès, ce système constituera la base du standard « ville intelligente » - ensemble minimum des solutions pour améliorer le confort des villes. Le ministère a déjà commencé à élaborer la norme.

Des représentants du ministère prévoient de se rendre en Chine pour évaluer comment technologies modernes, y compris la biométrie, y travaillent.

Autant que je sache, il y a actuellement un débat sur l'introduction d'une telle technologie à Moscou. Évidemment, en raison de la nécessité d'utiliser des cartes, l'heure d'embarquement des passagers est retardée. Et l'algorithme de reconnaissance faciale fonctionne comme ceci : un passager entre dans le métro ou le bus, le programme le reconnaît et débite l'argent du voyage sur son compte bancaire, Andrei Chibis a donné un exemple.

Un nombre important de caméras ont déjà été installées dans de nombreuses villes, c'est-à-dire que l'infrastructure dans son ensemble a été créée, a souligné le responsable. La question concerne la réglementation réglementaire et la mise en œuvre de projets pilotes - s'ils réussissent poursuite du processus sera rapide : « de même que nous avons rapidement échappé aux jetons dans le métro, de même nous pouvons nous éloigner des tourniquets. »

Le service de presse de Rostelecom a noté que l'identification des passagers des transports publics, y compris pour payer le voyage, est l'une des possibilités les plus évidentes d'utilisation du système.

Le monde a exemples réels, et en Russie, la création de telles solutions est attendue dans un avenir proche, a confirmé la société aux Izvestia.

Le projet Smart City, dans le cadre duquel il est prévu de développer nouvelle technologie, conçu pour six ans. Selon Andrei Chibis, personne ne dit que pendant cette période, un système de reconnaissance faciale apparaîtra nécessairement partout, mais nous devons aller dans cette direction. « Ce n’est pas seulement une question de sécurité, mais aussi de confort. Nous étudierons cette technologie et, dans un avenir proche, nous déciderons de la possibilité de la mettre en œuvre - bien sûr, avant tout en termes de coût", a-t-il indiqué.

Alexander Khanin, PDG de VisionLabs, une société spécialisée dans la vision par ordinateur, note que le processus d'installation de caméras et de serveurs est techniquement simple, de sorte que dans un avenir proche, de tels systèmes pourront être mis en œuvre partout. Ils peuvent également être utilisés pour rechercher des personnes disparues, estime-t-il. Le coût de connexion à chaque caméra dépend du scénario d'utilisation et du type de caméra : de 200 roubles à plusieurs milliers.

Alexandre Bakhtine, chef du département des systèmes de télécommunications à l'Institut de technologie électronique de Moscou, a noté que les réseaux urbains sont prêts à transmettre de telles données. Cependant, au stade initial de l’introduction de nouvelles technologies, il existe toujours un risque de violation de la vie privée. Il existe de nombreux points où des informations peuvent être interceptées. Mais après les tests, le système est construit et fonctionne efficacement.

Un tomographe dans une clinique génère beaucoup Plus d'information qu'un flux vidéo provenant d'un bus. La question est de savoir qui l’analyse et à quelles fins. Je voudrais que la législation nous protège des employés qui utilisent des données personnelles de manière non autorisée », a déclaré Alexandre Bakhtine aux Izvestia.

Rostelecom admet que la circulation de ces données est un sujet très sensible. C'est pourquoi, comme dans d'autres pays, en Russie, un système biométrique unifié est en cours de création sous le contrôle de l'État. Dans un premier temps, en coopération avec la Banque centrale, il est mis en œuvre dans l'intérêt du secteur bancaire. Des expériences ont déjà été menées sur la reconnaissance faciale pour l'entrée sans contact dans les musées, et le système sera développé à l'avenir, est confiante l'entreprise.

En septembre 2017, les autorités de Moscou ont annoncé la mise en place d'un système de vidéosurveillance doté d'une fonction de reconnaissance faciale. Il a été rapporté que le réseau de la capitale comprend 160 000 caméras vidéo et couvre 95 % des entrées des immeubles résidentiels. Les visages sur les enregistrements sont numérisés afin que, si nécessaire, les données puissent être comparées aux informations de diverses bases de données - par exemple, les forces de l'ordre, lorsqu'il s'agit de rechercher un délinquant, indiquées sur le portail du maire de Moscou. Le système est capable d'identifier la personne dans la vidéo, son sexe et son âge.

La société d'État Rostec a utilisé la technologie de reconnaissance faciale lors de la Coupe du monde 2018. Grâce à son aide, il a par exemple été possible d'identifier un supporter à qui, par décision de justice, il était interdit d'assister à des événements sportifs. L'algorithme vous permet de reconnaître les visages avec une précision allant jusqu'à 99 %. La société d'État a noté que la recherche personne spécifique parmi un milliard de visages, cela prend moins d’une demi-seconde.

Contractez un emprunt, demandez un visa et démarrez simplement un smartphone Dernier modèle— tout cela est impossible aujourd'hui sans la participation des algorithmes de reconnaissance faciale. Ils aident les policiers dans les enquêtes, les musiciens sur scène, mais peu à peu ils se transforment en un œil qui voit tout qui surveille toutes nos actions en ligne et hors ligne.

Algorithmes (technologies)

Identifier une personne à partir d’une photo du point de vue d’un ordinateur implique deux différentes tâches: d'une part, trouvez le visage dans l'image (s'il est là), d'autre part, isolez de l'image les caractéristiques qui distinguent cette personne des autres personnes de la base de données.

1. Trouver

Des tentatives visant à apprendre à un ordinateur à trouver un visage sur des photographies ont été faites depuis le début des années 1970. De nombreuses approches ont été essayées, mais la percée la plus importante est survenue bien plus tard - avec la création en 2001 par Paul Viola et Michael Jones de la méthode du boosting en cascade, c'est-à-dire une chaîne de classificateurs faibles. Bien qu’il existe désormais des algorithmes plus sophistiqués, vous pouvez être sûr que cela existe également dans le vôtre. téléphone portable, et c’est la bonne vieille Viola-Jones qui travaille à la caméra. Il s'agit d'une vitesse et d'une fiabilité remarquables : même en 2001, un ordinateur moyen pouvait traiter 15 images par seconde en utilisant cette méthode. Aujourd’hui, l’efficacité de l’algorithme satisfait à toutes les exigences raisonnables. La principale chose que vous devez savoir sur cette méthode est qu’elle est étonnamment simple. Vous ne croirez même pas à quel point.

  1. Étape 1. Nous supprimons la couleur et transformons l'image en une matrice de luminosité.
  2. Étape 2. Placez l'un des masques carrés dessus - ils sont appelés fonctionnalités Haar. Nous parcourons toute l'image avec, en changeant la position et la taille.
  3. Étape 3. Nous additionnons les valeurs de luminosité numérique des cellules matricielles qui relèvent de la partie blanche du masque et soustrayons d'elles les valeurs qui relèvent de la partie noire. Si dans au moins un des cas la différence entre les zones blanches et noires est supérieure à un certain seuil, nous prenons cette zone de l'image pour un travail ultérieur. Sinon, oubliez-la, il n'y a pas de visage ici.
  4. Étape 4. Répétez à partir de l'étape 2 avec un nouveau masque - mais uniquement dans la zone de l'image qui a réussi le premier test.

Pourquoi est-ce que ça marche ? Regardez le panneau. Sur presque toutes les photographies, la zone des yeux est toujours légèrement plus sombre que la zone située immédiatement en dessous. Regardez le panneau : la zone claire au milieu correspond à l'arête du nez, située entre les yeux foncés. À première vue, les masques noirs et blancs ne ressemblent pas du tout à des visages, mais malgré leur primitivité, ils ont un grand pouvoir généralisateur.

Pourquoi si vite? Dans l'algorithme décrit, on n'est pas marqué point important. Pour soustraire la luminosité d’une partie de l’image d’une autre, vous devrez ajouter la luminosité de chaque pixel, et il peut y en avoir plusieurs. Par conséquent, en effet, avant d'appliquer le masque, la matrice est convertie en une représentation intégrale : les valeurs de la matrice de luminosité sont ajoutées à l'avance de telle sorte que la luminosité intégrale du rectangle puisse être obtenue en ajoutant simplement quatre nombres.

Comment assembler une cascade ? Bien que chaque étape de masquage génère une erreur très importante (la précision réelle ne dépasse pas 50 %), la force de l’algorithme réside dans l’organisation en cascade du processus. Cela vous permet d'exclure rapidement de l'analyse les zones où il n'y a définitivement aucun visage et de consacrer vos efforts uniquement aux zones qui peuvent produire des résultats. Ce principe d'assemblage de classificateurs faibles dans une séquence est appelé boosting (vous pouvez en savoir plus à ce sujet dans le numéro d'octobre de PM ou). Principe général comme ceci : même les grosses erreurs, multipliées les unes par les autres, deviendront petites.

2. Simplifiez

Trouver des traits du visage qui permettraient d'identifier son propriétaire, c'est réduire la réalité à une formule. Nous parlons d’une simplification, et très radicale. Par exemple, il peut y avoir un grand nombre de combinaisons différentes de pixels même dans une photo miniature de 64 x 64 pixels - (2 8) 64 x 64 = 2 32768 pièces. De plus, pour numéroter chacune des 7,6 milliards d’habitants de la Terre, seuls 33 bits suffiraient. Pour passer d'un numéro à un autre, il faut tout jeter bruit étranger, mais conservent les caractéristiques individuelles les plus importantes. Les statisticiens familiers avec ces problèmes ont développé de nombreux outils de simplification des données. Par exemple, la méthode des composantes principales, qui a jeté les bases de l’identification des visages. Cependant, dans Dernièrement Les réseaux de neurones convolutifs ont laissé les anciennes méthodes loin derrière. Leur structure est assez particulière, mais, par essence, il s'agit aussi d'une méthode de simplification : sa tâche est de réduire une image spécifique à un ensemble de caractéristiques.


Nous appliquons un masque de taille fixe à l'image (correctement appelé noyau de convolution) et multiplions la luminosité de chaque pixel de l'image par les valeurs de luminosité du masque. Nous trouvons la valeur moyenne de tous les pixels de la « fenêtre » et l'écrivons dans une cellule du niveau suivant.


Nous décalons le masque d'un pas fixe, multiplions encore et écrivons à nouveau la moyenne dans la carte des caractéristiques.


Après avoir parcouru toute l'image avec un masque, nous répétons avec l'autre - nous obtenons nouvelle carte panneaux.


Nous réduisons la taille de nos cartes : nous prenons plusieurs pixels voisins (par exemple un carré 2x2 ou 3x3) et ne transférons qu'une seule valeur maximale au niveau suivant. Nous faisons de même pour les cartes reçues avec tous les autres masques.


Par souci d'hygiène mathématique, nous remplaçons toutes les valeurs négatives par des zéros. Nous répétons l'étape 2 autant de fois que nous le souhaitons pour obtenir des couches dans le réseau neuronal.


Depuis dernière carte Nous assemblons non pas un réseau neuronal convolutif, mais un réseau neuronal entièrement connecté : nous transformons toutes les cellules du dernier niveau en neurones qui, avec un certain poids, influencent les neurones de la couche suivante. Dernière étape. Dans les réseaux entraînés à classer les objets (pour distinguer les chats des chiens sur les photos, etc.), voici la couche de sortie, c'est-à-dire une liste de probabilités de détecter une réponse particulière. Dans le cas des visages, au lieu d’une réponse spécifique, nous obtenons un bref ensemble des caractéristiques les plus importantes du visage. Par exemple, dans Google FaceNet, il s'agit de 128 paramètres numériques abstraits.

3. Identifiez

La toute dernière étape, l’identification proprement dite, est l’étape la plus simple, voire triviale. Cela revient à évaluer la similarité de la liste de fonctionnalités résultante avec celles déjà présentes dans la base de données. Dans le jargon mathématique, cela signifie trouver dans l'espace des caractéristiques la distance entre un vecteur donné et la zone la plus proche de visages connus. De la même manière, vous pouvez résoudre un autre problème : trouver des personnes qui se ressemblent.

Pourquoi est-ce que ça marche ? Le réseau neuronal convolutif est « aiguisé » pour en tirer le meilleur parti traits de caractère, et faites-le automatiquement et sur différents niveaux abstractions. Si les premiers niveaux répondent généralement à des modèles simples comme l'ombrage, le dégradé, les limites claires, etc., alors à chaque nouveau niveau, la complexité des fonctionnalités augmente. Masques que le réseau neuronal essaie niveaux élevés, ressemblent souvent réellement à des visages humains ou à des fragments de ceux-ci. De plus, contrairement à l’analyse en composantes principales, les réseaux de neurones combinent des fonctionnalités de manière non linéaire (et inattendue).

D'où viennent les masques ? Contrairement aux masques utilisés dans l'algorithme de Viola-Jones, les réseaux de neurones se passent de l'aide humaine et trouvent des masques au cours du processus d'apprentissage. Pour ce faire, vous devez disposer d'un large échantillon de formation, qui contiendrait des images d'une grande variété de visages dans la vie réelle. différents arriere plan. Quant à l’ensemble résultant de caractéristiques produites par le réseau neuronal, il est formé à l’aide de la méthode des triplets. Les triples sont des ensembles d'images dans lesquels les deux premières sont une photographie de la même personne et la troisième est une photographie d'une autre. Le réseau neuronal apprend à trouver des caractéristiques qui rapprochent le plus possible les premières images les unes des autres tout en excluant la troisième.

Quel réseau neuronal est le meilleur ? L’identification faciale a depuis longtemps quitté l’académie et fait son entrée dans les grandes entreprises. Et ici, comme dans toute entreprise, les fabricants s'efforcent de prouver que leurs algorithmes sont meilleurs, même s'ils ne fournissent pas toujours des données issues de tests ouverts. Par exemple, selon le concours MegaFace, l'algorithme russe deepVo V3 de Vocord affiche actuellement la meilleure précision avec un résultat de 92 %. FaceNet v8 de Google dans le même concours n'en affiche que 70 %, et DeepFace de Facebook, avec une précision déclarée de 97 %, n'a pas du tout participé au concours. De tels chiffres doivent être interprétés avec prudence, mais il est déjà clair que meilleurs algorithmes ont presque atteint la précision de la reconnaissance des visages humains.

Maquillage en direct (art)

À l'hiver 2016, lors de la 58e cérémonie des Grammy Awards, Lady Gaga a rendu un hommage à David Bowie, récemment décédé. Pendant la représentation, de la lave vivante s'est répandue sur son visage, laissant une marque reconnaissable par tous les fans de Bowie sur son front et sa joue : un éclair orange. L’effet de maquillage en mouvement a été créé par projection vidéo : l’ordinateur suivait les mouvements de la chanteuse en temps réel et projetait des images sur son visage en tenant compte de sa forme et de sa position. Il est facile de trouver sur Internet une vidéo dans laquelle on remarque que la projection est encore imparfaite et légèrement retardée lors de mouvements brusques.


Nobumichi Asai développe la technologie de mappage vidéo Omote pour les visages depuis 2014 et en fait des démonstrations actives dans le monde entier depuis 2015, récoltant une liste décente de récompenses. L'entreprise qu'il a fondée, WOW Inc. est devenu partenaire d'Intel et a reçu une bonne incitation au développement, et la coopération avec Ishikawa Watanabe de l'Université de Tokyo nous a permis d'accélérer la projection. Cependant, l'essentiel se passe sur l'ordinateur, et des solutions similaires sont utilisées par de nombreux développeurs d'applications qui permettent de mettre des masques sur votre visage, qu'il s'agisse d'un casque de soldat de l'Empire ou de maquillage « David Bowie ».

Alexander Khanin, fondateur et PDG de VisionLabs

« Un tel système n’a pas besoin ordinateur puissant, les masques peuvent être appliqués même sur appareils mobiles. Le système peut fonctionner directement sur un smartphone, sans envoyer de données vers le cloud ou le serveur.

« Cette tâche s’appelle le suivi des points du visage. Il y a beaucoup de décisions similaires et dans le domaine public, mais les projets professionnels se distinguent par leur rapidité et leur photoréalisme », nous a expliqué Alexander Khanin, directeur de VisionLabs. "Le plus difficile dans ce cas est de déterminer la position des points, en tenant compte des expressions faciales et de la forme individuelle du visage ou dans des conditions extrêmes : avec de forts tours de tête, un éclairage insuffisant et une exposition élevée." Pour apprendre au système à trouver des points, réseau neuronal Ils enseignent - d'abord manuellement, en marquant méticuleusement photo après photo. "L'entrée est une image et la sortie est un ensemble marqué de points", explique Alexander. «Ensuite, le détecteur est lancé, le visage est déterminé, un modèle tridimensionnel est construit, sur lequel un masque est appliqué. Les marqueurs sont appliqués à chaque image du flux en temps réel.


C'est à peu près ainsi que fonctionne l'invention de Nobumichi Asai. Auparavant, l'ingénieur japonais scannait la tête de ses modèles, obtenant des prototypes tridimensionnels précis et préparant une séquence vidéo prenant en compte la forme du visage. La tâche est également facilitée par des petits marqueurs réfléchissants qui sont collés sur l'interprète avant de monter sur scène. Cinq caméras infrarouges surveillent leurs mouvements et transmettent les données de suivi à un ordinateur. Puis tout se passe comme nous l’a dit VisionLabs : le visage est détecté, un modèle tridimensionnel est construit et le projecteur d’Ishikawa Watanabe entre en jeu.

Le dispositif DynaFlash a été introduit par lui en 2015 : il s'agit d'un projecteur à grande vitesse capable de suivre et de compenser les mouvements de l'avion sur lequel l'image est affichée. L'écran peut être incliné, mais l'image ne sera pas déformée et sera diffusée à une fréquence allant jusqu'à mille images de 8 bits par seconde : le délai ne dépasse pas trois millisecondes invisibles. Pour Asai, un tel projecteur s'est avéré être une aubaine : le maquillage en direct a commencé à fonctionner véritablement en temps réel. Dans la vidéo enregistrée en 2017 pour le populaire duo japonais Inori, le décalage n'est plus du tout visible. Les visages des danseurs se transforment soit en crânes vivants, soit en masques qui pleurent. Elle a l'air fraîche et attire l'attention - mais la technologie devient rapidement à la mode. Bientôt, un papillon se posant sur la joue d'un météorologue ou des artistes changeant d'apparence à chaque fois sur scène deviendront probablement la chose la plus courante.


Face hacking (activisme)

La mécanique enseigne que chaque action crée une réaction, et le développement rapide des systèmes de surveillance et d’identification personnelle ne fait pas exception. Aujourd'hui, les réseaux de neurones permettent de comparer une photo floue prise au hasard, prise dans la rue, avec des images téléchargées sur des comptes. réseaux sociaux et découvrez l'identité d'un passant en quelques secondes. Dans le même temps, des artistes, des activistes et des spécialistes de la vision par ordinateur créent des outils capables de redonner aux gens leur intimité, leur espace personnel qui se rétrécit à un rythme vertigineux.

L’identification peut être contrecarrée à différentes étapes des algorithmes. En règle générale, les premières étapes du processus de reconnaissance sont attaquées : la détection des personnages et des visages dans l'image. Tout comme le camouflage militaire trompe notre vision, cachant un objet, violant ses proportions géométriques et sa silhouette, de même ils tentent de confondre la vision industrielle avec des taches contrastées colorées qui déforment des paramètres importants pour elle : l'ovale du visage, l'emplacement des yeux, la bouche. , etc. Heureusement, la vision par ordinateur n'est pas encore aussi parfaite que la nôtre, ce qui laisse une grande liberté dans le choix des couleurs et des formes d'un tel « camouflage ».


Rose et violet, jaune et tons bleus dominent la ligne de vêtements HyperFace, dont les premiers échantillons ont été présentés par le designer Adam Harvey et la startup Hyphen Labs en janvier 2017. Les modèles de pixels fournissent à la vision industrielle une image idéale, de son point de vue. visage humain, sur lequel l'ordinateur est capté, comme fausse cible. Quelques mois plus tard, le programmeur moscovite Grigory Bakunov et ses collègues ont même développé application spéciale, qui génère des variations de composition qui interfèrent avec les systèmes d'identification. Et bien que les auteurs, après réflexion, aient décidé de ne pas publier le programme dans accès libre, le même Adam Harvey propose plusieurs options toutes faites.


Une personne portant un masque ou ayant un maquillage étrange sur le visage peut ne pas être remarquée. systèmes informatiques, mais d'autres personnes y prêteront probablement attention. Cependant, il existe des moyens de faire le contraire. En effet, du point de vue du réseau de neurones, l'image ne contient pas d'images au sens habituel pour nous ; pour elle, une image est un ensemble de nombres et de coefficients. Par conséquent, des objets complètement différents peuvent lui ressembler beaucoup. Connaissant ces nuances de l'IA, vous pouvez mener une attaque plus subtile et corriger l'image seulement légèrement - de sorte que les changements seront presque imperceptibles pour une personne, mais que la vision industrielle sera complètement trompée. En novembre 2017, des chercheurs ont montré comment de petits changements dans la couleur d'une tortue ou d'une balle de baseball provoquaient Système Google InceptionV3 est confiant de voir à la place une arme à feu ou une tasse d'espresso. Et Mahmoud Sharif et ses collègues de l'Université Carnegie Mellon ont conçu un motif tacheté pour la monture des lunettes : il n'a presque aucun effet sur la perception du visage par les autres, mais l'identification informatique utilisant Face++ le confond avec confiance avec le visage de la personne « pour qui » le motif sur le cadre a été conçu.

    Que dire si, rien qu'à Moscou, il existe déjà un réseau de plus de 150 000 caméras de vidéosurveillance extérieures. On ne peut pas se cacher d’eux, et cela fait réfléchir, mais l’ampleur de la « surveillance » n’est pas si grande. Utilisations du réseau système puissant reconnaissance faciale, mais son fonctionnement nécessite beaucoup d'énergie, donc seules 2 à 4 000 caméras fonctionnent en temps réel. La surveillance massive de la population n'est encore qu'effrayante, il vaut donc la peine de se concentrer sur les réels avantages de cette technologie. Mais tout d’abord.

    Comment fonctionne le système de reconnaissance faciale ?

    Avez-vous déjà réfléchi à la façon dont vous reconnaissez vous-même un visage et le reconnaissez ? Comment un ordinateur fait-il cela ? Bien entendu, les visages humains possèdent certaines propriétés faciles à décrire. La distance entre les yeux, la position et la largeur du nez, la forme des arcades sourcilières et du menton : vous remarquez tous ces détails inconsciemment lorsque vous regardez une autre personne. L'ordinateur fait tout cela avec une certaine efficacité et précision, car en combinant toutes ces mesures, il obtient formule mathématique visage humain.

    Alors, dans quelle mesure la reconnaissance faciale fonctionne-t-elle actuellement ? Plutôt bien, mais parfois il fait des erreurs. Si vous avez déjà rencontré un logiciel de reconnaissance faciale sur Facebook ou une autre plateforme, vous avez probablement remarqué qu'il existe autant de résultats amusants que précis. Pourtant, même si la technologie ne fonctionne pas avec une précision à 100 %, elle est suffisamment performante pour être largement utilisée. Et même vous rendre nerveux.

    Paul Howie de NEC affirme que leur système de reconnaissance faciale scanne les visages à la recherche d'identifiants individuels :

    « Par exemple, beaucoup de gens considèrent la distance entre les yeux comme une caractéristique unique. Ou cela pourrait être la distance entre le menton et le front et d’autres composants. En particulier, nous prenons en compte 15 à 20 facteurs considérés comme importants, ainsi que d'autres facteurs qui ne le sont plus. Une image 3D de la tête de la personne est créée, de sorte que même si elle est partiellement recouverte, nous pouvons toujours obtenir une correspondance exacte. Le système prend ensuite la signature faciale et la transmet à la base de données.

    Faut-il s’inquiéter des logiciels de reconnaissance faciale ?

    Tout d’abord, la reconnaissance faciale est une donnée. Les données peuvent être collectées et stockées, souvent sans autorisation. Une fois les informations collectées et stockées, elles sont ouvertes au piratage. Les plateformes logicielles de reconnaissance faciale n’ont pas encore subi de piratage majeur, mais à mesure que la technologie se propage, vos données biométriques sont entre les mains de tous. plus de personnes.

    Il y a aussi des problèmes de propriété. La plupart des gens ne savent pas que lorsqu’ils s’inscrivent sur des plateformes de médias sociaux comme Facebook, leurs données appartiennent désormais à Facebook. Avec un nombre croissant d'entreprises utilisant la reconnaissance faciale, vous n'aurez bientôt même plus besoin de télécharger vos propres photos sur Internet pour vous retrouver compromis. Ils y sont déjà stockés, et ce depuis longtemps.

    En parlant de logiciels, ils fonctionnent tous différemment, mais ils utilisent fondamentalement des méthodes et des réseaux de neurones similaires. Chaque visage possède de nombreux traits distinctifs (il est impossible de trouver deux visages identiques dans le monde, mais il y en a eu tellement tout au long de l’histoire de l’humanité !). Par exemple, le logiciel FaceIt définit ces fonctionnalités comme des nœuds. Chaque visage contient environ 80 points nodaux, semblables à ceux que nous avons évoqués précédemment : la distance entre les yeux, la largeur du nez, la profondeur des orbites, la forme du menton, la longueur de la mâchoire. Ces points sont mesurés et créent un code numérique – une « empreinte faciale » – qui est ensuite entré dans une base de données.

    Dans le passé, la reconnaissance faciale reposait sur des images 2D pour comparer ou identifier d'autres images 2D à partir d'une base de données. Pour une efficacité et une précision maximales, l'image devait être celle d'un visage regardant directement la caméra, avec peu de dispersion lumineuse et aucune expression faciale particulière. Bien sûr, cela a très mal fonctionné.

    Dans la plupart des cas, les images n’ont pas été créées dans un environnement adapté. Même un léger jeu de lumière pourrait réduire l’efficacité du système, entraînant des taux de défaillance élevés.

    La 2D a été remplacée par la reconnaissance 3D. Cette tendance logicielle récente utilise un modèle 3D pour fournir haute précision reconnaissance de visage. En capturant une image 3D de la surface du visage d'une personne en temps réel, le logiciel met en évidence caractéristiques distinctives- là où les tissus durs et les os sont les plus visibles, comme les courbes de l'orbite, du nez et du menton - pour identifier le sujet. Ces zones sont uniques et ne changent pas avec le temps.

    Grâce à la profondeur et à l'axe de mesure qui ne sont pas affectés par l'éclairage, le système de reconnaissance faciale 3D peut même être utilisé dans l'obscurité et reconnaître les objets sous différents angles(même de profil). Un tel logiciel passe par plusieurs étapes pour identifier une personne :

  • Détection: prendre une photo à l'aide de la numérisation numérique photo existante(2D) ou vidéo pour obtenir une image en direct du sujet (3D).
  • Alignement: Après avoir identifié un visage, le système note la position, la taille et la pose de la tête.
  • La mesure: Le système mesure les courbes du visage avec une précision millimétrique et crée un modèle.
  • Représentation: Le système traduit le modèle en un code unique. Ce code donne à chaque modèle un ensemble de nombres représentant les caractéristiques et les traits du visage.
  • Comparaison: Si l'image est en 3D et que la base de données contient des images 3D, la comparaison se poursuivra sans modifier l'image. Mais si la base de données est constituée d’images bidimensionnelles, l’image tridimensionnelle est décomposée en différents composants (comme des photographies bidimensionnelles des mêmes traits du visage prises sous différents angles) et converties en images 2D. Et puis la correspondance est trouvée dans la base de données.
  • Vérification ou identification: Lors du processus de vérification, l'image est comparée à une seule image de la base de données (1:1). Si l'objectif est l'identification, l'image est comparée à toutes les images de la base de données, ce qui donne un certain nombre de correspondances possibles (1:N). Une méthode ou une autre est utilisée selon les besoins.

Où sont utilisés les systèmes de reconnaissance faciale ?

Dans le passé, les systèmes de reconnaissance faciale étaient principalement utilisés par les forces de l'ordre, car les autorités les utilisaient pour rechercher des visages aléatoires dans la foule. Certaines agences gouvernementales ont également utilisé des systèmes similaires pour assurer la sécurité et éliminer la fraude électorale.

Cependant, il existe de nombreuses autres situations dans lesquelles de tels logiciels deviennent populaires. Les systèmes deviennent moins chers et leur distribution augmente. Ils sont désormais compatibles avec les caméras et les ordinateurs utilisés par les banques et les aéroports. Les agences de voyages travaillent sur un programme « voyageurs chevronnés » pour fournir un contrôle de sécurité rapide aux passagers qui fournissent volontairement des informations. Les files d'attente dans les aéroports évolueront plus rapidement si les gens passent par un système de reconnaissance faciale qui compare les visages à une base de données interne.

D'autres applications potentielles incluent les guichets automatiques et les distributeurs automatiques de billets. Logiciel peut vérifier rapidement le visage du client. Après autorisation du client, le guichet automatique ou le terminal prend une photo du visage. Le logiciel crée une empreinte faciale qui protège le client contre l'usurpation d'identité et les transactions frauduleuses : le guichet automatique ne donnera tout simplement pas d'argent à une personne ayant un visage différent. Vous n'avez même pas besoin d'un code PIN.

La magie? Les technologies!

Le développement de la technologie de reconnaissance faciale dans le domaine des virements bancaires pourrait être particulièrement important et intéressant. L'autre jour, la banque russe Otkrytie a présenté sa propre solution unique, développée sous la marque technologique Open Garage : transférer de l'argent à l'aide d'une photo. Au lieu de saisir une carte ou un numéro de téléphone, il vous suffit de prendre une photo de la personne à qui vous devez effectuer un virement. Le système de reconnaissance faciale comparera la photo avec celle de référence (effectuée lorsque la banque émet la carte) et demandera le prénom et le nom. Il vous suffit de sélectionner une carte et de saisir le montant. Ce qui est particulièrement important, c'est que les clients de banques tierces peuvent également utiliser cette fonction pour effectuer des virements vers les clients d'Otkrytie - l'expéditeur des virements peut utiliser une carte de n'importe quelle banque russe.

"Utiliser la photo d'un client au lieu d'un numéro carte bancaire est une approche fondamentalement nouvelle des transferts en ligne, basée sur l'utilisation d'un système de reconnaissance faciale par réseau neuronal, qui permet haut degré identifier avec précision un client sur la base de ses données biométriques », explique Alexey Matveev, chef du département de développement des systèmes de partenariat d'Otkritie Bank. - Le service ouvre des scénarios de vie complètement nouveaux que les utilisateurs peuvent réaliser transferts d'argent. Actuellement, aucun acteur des marchés financiers dans le monde n’offre un tel service à ses clients.»

Application mobile"Ouverture. Des traductions" sont possibles.

A ouvert une nouvelle ère. La technologie de reconnaissance faciale est sa principale caractéristique. Et personne ne doute que cette méthode de déverrouillage sera implémentée dans de nombreux autres smartphones.

Dans les années 1960, des expériences spéciales ont été menées au cours desquelles un ordinateur devait apprendre à reconnaître le visage d’une personne. Ensuite, cela n’a abouti à rien, puisque toute émotion conduit à un échec. De plus, le système inventé craignait les conditions d'éclairage changeantes.

Ce n’est qu’à la toute fin du XXe siècle qu’apparaissent des systèmes qui apprennent à identifier les visages des gens à partir de photographies et à s’en souvenir. En même temps, ils n'échouent plus lorsqu'une moustache, une barbe, des lunettes et autres « interférences » apparaissent. De tels systèmes ont commencé à être mis en œuvre plus activement dans les appareils photo numériques. Ils ont également trouvé leur place dans le secteur de la sécurité.

Pour les systèmes de reconnaissance faciale pendant longtempsétait seul inconvénient majeur. Ils dépendaient fortement de l’éclairage et de l’angle. Cependant, ce problème n’était pas visible dans les scanners de sécurité. Le visage était pressé presque contre eux, puis éclairé par des lampes. L’introduction de la photographie stéréoscopique a contribué à éliminer l’inconvénient mentionné ci-dessus. Deux caméras comprennent la profondeur de la scène et la précision des lectures augmente donc plusieurs fois.

Comment fonctionne la technologie de reconnaissance faciale ?

Progressivement nouvelle fonctionnalité a commencé à apparaître dans les smartphones. Ici, l'identification biométrique de l'utilisateur est mise en œuvre afin qu'une personne non autorisée ne puisse pas déverrouiller l'appareil. Idéalement, accéder informations personnelles peut-être seulement un jumeau. Il n'y a pas lieu de s'inquiéter à ce sujet. Il est peu probable que quiconque cache sérieusement quelque chose à son frère ou à sa sœur. Et personne ne vous dérange pour définir un mot de passe supplémentaire pour lire certaines données particulièrement secrètes.

Le fonctionnement du système de reconnaissance faciale dans les smartphones peut être divisé en quatre étapes :

  1. Numérisation du visage. Elle est réalisée à l'aide caméra frontale ou, comme dans le cas de iPhone X, capteur spécial. Le scan est en 3D, donc l'astuce photo ne fonctionnera pas.
  2. Extrayez des données uniques. Le système se concentre sur un ensemble de caractéristiques du visage numérisé. Il s'agit le plus souvent du contour des orbites, de la forme des pommettes et de la largeur du nez. Dans les systèmes avancés, des cicatrices peuvent également être visibles.
  3. Récupération d'un modèle avec des données précédemment reçues de la mémoire.
  4. Recherchez des correspondances. La dernière étape au cours de laquelle le système décide de déverrouiller ou non l'écran. Pouvoir processeurs modernes vous permettent de consacrer seulement une fraction de seconde à « réfléchir ».

La fonction de reconnaissance faciale peut être mise en œuvre même à l'aide de la caméra frontale, à condition qu'elle dispose de deux objectifs. Cependant, dans ce cas, le fonctionnement de cette fonction sera instable. Le fait est que seuls des capteurs spéciaux assureront la numérisation du visage même dans l'obscurité, tandis que la caméra frontale nécessite un éclairage vif. De plus, des capteurs spéciaux sont affichés virtuellement sur le visage grande quantité points, ils fonctionnent donc même lorsqu'une barbe, des lunettes et d'autres interférences apparaissent. En un mot, dans certains DOOGÉE Le système Mix 2 fonctionnera certainement nettement moins bien que celui de l'iPhone X. Une autre chose est que le produit anniversaire d'Apple coûte beaucoup plus cher que tous les autres smartphones dotés de reconnaissance faciale.

La technologie est-elle l’avenir ?

Les capteurs nécessaires au scanning du visage nécessitent une installation parfaite. Un décalage de centièmes de millimètre entraînera le fait que le fonctionnement de la fonction ne sera plus idéal. Par conséquent, lors de la production d'un smartphone, une augmentation du nombre de défauts peut être observée, ce qui entraînera une augmentation de son coût. Et les capteurs eux-mêmes sont très chers, ce n'est pas pour rien que seuls entreprise Apple, même si elle n'a aucun brevet pour eux.

En un mot, pour l'instant, les constructeurs Android mettront en œuvre la fonction de reconnaissance faciale à l'aide de la caméra frontale. Vous pouvez déjà la retrouver dans Samsung Galaxy S8 et Note 8. Mais les propriétaires de ces appareils vous confirmeront que cela ne fonctionne pas de la meilleure façon possible- plus facile à utiliser Scanner d'empreintes digitales. On ne peut donc encore rien dire sur l’avenir de la fonction. Il faut attendre de voir si Apple implémentera davantage les capteurs correspondants smartphones abordables, et s'ils apparaîtront sur les appareils Android.

Conclusion

Vous n'avez pas à vous soucier de la sauvegarde de vos données d'identification. Le modèle créé lors de la numérisation d'un visage se trouve dans une section de mémoire distincte - ce secteur est lu par un ordinateur ou programmes tiers impossible. Toutefois, cela s’applique également aux empreintes digitales. C'est à vous de décider quel type d'identification est le plus pratique à utiliser.

Avez-vous déjà tenu un smartphone capable de reconnaître votre visage ? Et vous attendez-vous à une mise en œuvre massive de cette fonctionnalité ? Partagez votre avis dans les commentaires, nous en serons ravis !