mardi, 16 avril 2024

Un appel Zoom qui a coûté 25 millions de dollars

Par

Henry Patishman, vice-président exécutif des solutions de confirmation d’identité chez Regula

Dans la cybersécurité, où La lutte entre défenseurs et ennemis est incessante, et l’émergence de la technologie deepfake a en fait marqué le début d’une toute nouvelle ère de tromperie et d’élégance. Le récent cambriolage de 25 millions de dollars ciblant un spécialiste financier d’une société internationale à Hong Kong est une suggestion effrayante de la menace croissante que la tromperie générée par l’intelligence artificielle fait peser sur les organisations du monde entier.

Dévoilé par la police de Hong Kong, cet événement époustouflant a mis en lumière les subtilités d’un stratagème utilisant la technologie deepfake pour gérer un groupe multi-personnes. vidéoconférence, où chaque participant, à l’exception du membre du personnel victime sans méfiance, existe exclusivement comme un mirage soigneusement conçu par des individus authentiques.

Vigilance spécifique

La question se pose : y avait-il une chance pour que le spécialiste du financement à Hong Kong reconnaisse qu’il s’agissait d’une fraude ? Je dirais que s’ils n’étaient pas formés, les chances étaient minimes, en particulier compte tenu du type de deepfake inclus : fabriquer simultanément des personnalités divisées est une nouveauté.

Néanmoins, le rôle de la vigilance individuelle est primordial. Les gens doivent faire preuve de prudence lorsqu’ils partagent des informations sensibles, en particulier en ligne, et confirmer l’authenticité de toute demande d’informations ou de paiement. Une bonne dose d’incertitude à l’égard des messages suspects ou non sollicités est essentielle, ce qui incite à un examen plus approfondi avant d’entreprendre toute action.

Rester informé des tendances et innovations actuelles en matière de deepfake n’est pas simplement une recommandation mais plutôt une nécessité. Il est essentiel d’être attentif au suivi des détails individuels pour détecter des indices de fraude dans un monde où des actions apparemment innocentes peuvent entraîner des conséquences indésirables.

Le risque de deepfake : un point de vue international

Comme l’accès à l’innovation de l’IA pour créer des deepfakes augmente, la menace que les personnes et les organisations, quelle que soit leur taille, succombent à ces pratiques trompeuses augmente.

Les résultats de l’enquête menée par Regula en 2023 dressent un tableau inquiétant. : un tiers des entreprises dans le monde ont déjà succombé à une fraude deepfake. Les escroqueries vocales Deepfake, un type incluant l’utilisation de l’IA pour développer de faux enregistrements vocaux convaincants, ont touché 37 % de toutes les organisations dans le monde, près de la moitié des organisations aux États-Unis et aux Émirats arabes unis étant confrontées à cette forme de fraude. Les deepfakes vidéo ont touché 40 % des entreprises américaines, un chiffre dépassant la moyenne internationale.

Le secteur bancaire apparaît comme le plus vulnérable. Huit chefs d’entreprise sur dix dans ce secteur considèrent les escroqueries vocales (83 %) et les deepfakes vidéo (81 %) comme de véritables risques pour leur entreprise, et les attentes concernant ces dangers vont augmenter dans un avenir proche. Dans le même temps, la fréquence des fraudes vidéo deepfake n’est pas propre aux grandes entreprises ; près d’un tiers de toutes les petites et moyennes entreprises ont actuellement subi son impact destructeur.

Les entreprises à l’ère du deepfake

Dans le passé, les méthodes traditionnelles de vol d’identité incluaient l’utilisation d’outils comme Photoshop pour modifier les identifiants afin de contrôler les informations pendant les processus de vérification. Néanmoins, l’introduction de la technologie deepfake introduit des méthodes beaucoup plus sophistiquées, exploitant les capacités de l’IA pour surpasser les contrôles d’authentification.

Les fraudeurs utilisent désormais l’IA pour développer des deepfakes en exploitant un logiciel sophistiqué qui contrôle l’audio et la vidéo pour imiter la réalité. les regards et les voix des individus. Ce processus consiste à fournir au système d’IA une grande quantité d’informations sur la cible, telles que des photos, des vidéos et des enregistrements vocaux, afin de reproduire correctement ses caprices et ses modèles de discours. En conséquence, ces deepfakes peuvent être extrêmement convaincants, fonctionnant comme des « selfies » persuasifs pour contourner les contrôles de coordination des visages. Cela constitue un obstacle substantiel pour les organisations qui dépendent des techniques de confirmation d’identité à distance et de prévention des escroqueries qui reposent généralement sur des analyses de fichiers et des informations biométriques.

Pour répondre à ce paysage en évolution, les entreprises doivent adopter de toutes nouvelles technologies et méthodes pour valider l’identité et détecter la fraude.

Étapes pour lutter contre la fraude deepfake : une approche approfondie

Capacité à se protéger contre divers types d’attaques par discussion telles que l’utilisation de gadgets électroniques, d’images imprimées, Les rediffusions vidéo, les injections vidéo ou les masques intelligents plutôt que ceux d’un véritable individu peuvent changer la donne. Je voudrais souligner trois procédures essentielles que les entreprises devraient exiger pour se protéger contre la fraude par deepfake.

Confirmation centrée sur l’activité

La méthode standard consistant simplement à demander une image d’une pièce d’identité n’est plus efficace. . Les entreprises doivent passer à une approche centrée sur la vivacité, en validant les objets physiques tels que les visages et les documents, ainsi que leurs qualités dynamiques. Cette relocalisation est essentielle car les images générées par l’IA sont souvent parfaites et peuvent empêcher la détection par les êtres humains et la technologie. Confirmer la vie et l’authenticité du document et de la personne qui a soumis le fichier offre un service de confirmation plus robuste.

Contrôler les documents pour un processus d’authentification est considérablement plus difficile que d’échanger un visage au cours d’une session d’activité. Le problème vient du fait que les criminels entraînent leurs systèmes d’IA principalement sur des analyses d’identités, qui sont unidimensionnelles. Le fait de devoir déplacer ou retourner des documents actifs lors de l’authentification augmente la probabilité de détecter des anomalies. De plus, les cartes d’identité contemporaines intègrent généralement des fonctions de sécurité dynamiques visibles uniquement lors du mouvement, présentant une couche de défense supplémentaire. L’innovation constante de l’industrie dans ce domaine rend presque difficile le développement de faux fichiers pratiques lors d’une session de capture avec reconnaissance de l’activité.

Confirmation automatique de l’identité

Au lieu de compter sur l’expérience humaine, les réseaux de neurones agissent avec succès pour confirmer et valider les identités. Plus l’ensemble d’informations est large, plus un service IDV est avantageux pour éviter la fraude. Les principaux contrôles de crédibilité automatisés soutenus par des systèmes de vérification doivent être formés pour identifier même les manipulations les plus subtiles de la vidéo ou de l’image. Cela commence par la détection automatique du type de fichier et sa détection d’activité, ne laissant aucune place à la falsification dès le début. Par exemple, cela peut être difficile à discerner pour l’œil humain, mais des solutions judicieuses de vérification d’identité peuvent découvrir des changements dans le mouvement ou dans l’image elle-même, indiquant les efforts des fraudeurs. En ce qui concerne les contrôles biométriques, les réseaux de neurones peuvent évaluer les expressions faciales, car il est très important pour l’évaluation biométrique faciale de vérifier que le visage est neutre et qu’il n’a pas les yeux anormalement grands ouverts. Étant donné que de nombreux outils d’IA utilisés par les fraudeurs sont formés sur des images de visage statiques, ils ont du mal à produire des résultats réalistes dans les sessions vidéo en direct où une personne doit effectuer des actions spécifiquement demandées, comme tourner la tête.

Confirmation à plusieurs niveaux

Se fier à une seule technique de confirmation d’identité est inadéquat. Seule la combinaison de contrôles de crédibilité, de prise en charge de la vérification des documents électroniques, de validation croisée des données personnelles et de possibilité de revérifier les données côté serveur peut vous protéger contre la fraude et résoudre les problèmes de confiance zéro envers les appareils mobiles.

Une telle technique à plusieurs niveaux est essentielle, intégrant une confirmation approfondie des documents avec des contrôles biométriques complets.

Horizons futurs

Le braquage de 25 millions de dollars suggère clairement que la lutte contre les escroqueries deepfake sont en cours. Alors que les organisations, les individus et les fournisseurs d’innovation affrontent cette réalité complexe, l’avancement des mesures antifraude jouera un rôle essentiel pour garder une longueur d’avance sur le risque de deepfake. Néanmoins, le problème des deepfakes n’est pas simplement un obstacle technologique ; il s’agit d’une menace complexe qui nécessite une action approfondie et collaborative.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici