Il y a quelque temps, un groupe d’ingénieurs de l’université de KU Leuven en Belgique ont réalisé des expériences prouvant qu’il est possible de tromper les systèmes de reconnaissance faciale basée sur l’intelligence artificielle. Les chercheurs ont remarqué que de simples motifs imprimés peuvent être utilisés pour éviter qu’un système d’IA ne puisse identifier une personne dans des images. Les ingénieurs ont également conçu des patchs spéciaux qui, une fois suspendus au cou, embrouillerait les systèmes de reconnaissance faciale.
Les chercheurs ont déclaré que cette faille pourrait être exploitée en créant des vêtements sophistiqués qui vont permettre de rendre une personne pratiquement invisible pour les caméras de surveillance automatique. Ce phénomène est surtout connu en tant qu’exemples contradictoires dans le monde de l’IA. Dans le passé, ils ont été utilisés pour tromper les systèmes de reconnaissances faciales. De nombreux chercheurs ont déjà montré leurs inquiétudes concernant les exemples contradictoires, car ils pourraient par exemple être utilisés pour tromper des voitures autonomes en leur faisant lire un panneau d’arrêt. Ce dysfonctionnement pourrait également fausser les systèmes de vision médicaux conçus pour détecter les maladies. Malgré le fait que les résultats de recherche des chercheurs belges aient créé une polémique, l’un des chercheurs de Google a déclaré que le patch qu’ils ont développé ne peut tromper qu’un algorithme spécifique appelé YOLOv2. Ces patchs en questions ne fonctionneraient pas avec les systèmes de visions par ordinateur standard développé par Google ou d’autres sociétés de technologie.