vendredi, 29 mars 2024

Votre voix pourrait être votre plus grande vulnérabilité

La technologie d’intelligence artificielle alimente une augmentation des fraudes vocales en ligne, avec seulement 3 secondes d’audio nécessaires pour cloner la voix d’un individu, selon McAfee.

McAfee interrogé 7 054 personnes de sept pays et ont découvert qu’un quart des adultes avaient déjà subi une sorte d’arnaque vocale de l’IA, avec 1 sur 10 ciblé personnellement et 15% déclarant que cela s’était produit à quelqu’un qu’ils connaissaient. 77 % des victimes ont déclaré avoir perdu de l’argent en conséquence.

De plus, les chercheurs en sécurité de McAfee Labs ont révélé leurs idées et leurs analyses à partir d’une étude approfondie sur la technologie de clonage de voix basée sur l’IA et l’utilisation par les cybercriminels.

Les fraudeurs utilisent la technologie de l’IA pour cloner les voix

La voix de chacun est spéciale, l’équivalent parlé d’une empreinte digitale biométrique, c’est pourquoi entendre quelqu’un parler est un moyen si largement accepté d’établir confiance.

Cependant, avec 53 % des adultes partageant leurs données vocales en ligne au moins une fois par semaine (via les réseaux sociaux, les notes vocales, etc.) et 49 % le faisant jusqu’à 10 fois par semaine, cloner le son de quelqu’un est désormais un outil puissant dans la boîte à outils d’un cybercriminel.

Avec la popularité croissante et l’adoption d’outils de système expert, il est plus simple que jamais de manipuler des images, des vidéos et, peut-être la plupart troublant, les voix des membres de la famille et des amis.

L’étude de recherche de McAfee révèle que les fraudeurs utilisent la technologie de l’IA pour cloner des voix et ensuite envoyer un faux message vocal ou appeler les contacts de la victime en faisant semblant d’être en détresse – et avec 70 % des adultes qui ne sont pas sûrs qu’ils pourraient déterminer la variation clonée de la chose authentique, il n’est pas surprenant que cette méthode gagne du terrain.

45 % des personnes interrogées ont déclaré qu’elles répondraient à un message vocal ou à une note vocale prétendant provenir d’un ami ou d’un être cher en demande d’argent, en particulier s’ils pensaient que la demande provenait en réalité de leur partenaire ou conjoint (40 %), de leurs parents (31 %) ou de leur enfant (20 %).

Le coût de succomber à une arnaque vocale IA

Pour les mamans et les papas âgés de 50 ans ou plus, ce groupe est le plus susceptible de réagir à un enfant à 41 %. Les messages les plus susceptibles de susciter une action étaient ceux déclarant que l’expéditeur avait été associé à un accident automobile (48 %), avait été victime d’un vol (47 %), avait perdu son téléphone ou son portefeuille (43 %) ou avait eu besoin d’aide lors d’un voyage à l’étranger ( 41 %).

Cependant, le coût de succomber à une arnaque vocale basée sur l’IA peut être considérable, avec plus d’un tiers des personnes qui ont perdu de l’argent en disant que cela leur a coûté plus de 1 000 $, tandis que 7 % ont été dupés entre 5 000 $ et 15 000 $.

L’enquête a également révélé que la montée des deepfakes et de la désinformation a en fait amené les gens à se méfier davantage de ce qu’ils voient en ligne, 32 % des adultes déclarant qu’ils sont maintenant moins confiance dans les médias sociaux que jamais dans le passé.

« Un système expert offre des chances incroyables, mais avec toute innovation, il y a constamment la possibilité qu’il soit utilisé de manière malveillante entre de mauvaises mains. C’est ce que nous que nous constatons aujourd’hui avec l’accès et la facilité d’utilisation des outils d’intelligence artificielle qui aident les cybercriminels à intensifier leurs efforts en adoptant des méthodes de plus en plus persuasives », a déclaré Steve Grobman, directeur technique de McAfee.

Le clonage vocal simplifié

Dans le cadre de l’examen et de l’évaluation par McAfee de ce nouveau modèle, les scientifiques de McAfee ont passé trois semaines à étudier la disponibilité, la facilité d’utilisation et l’efficacité du clonage vocal IA outils, le groupe en a trouvé plus d’une douzaine proposés gratuitement sur le Web.

Des outils gratuits et payants sont proposés, dont beaucoup ne nécessitent qu’un niveau d’expérience et de connaissances de base pour être utilisés. Dans un cas, 3 secondes d’audio suffisaient pour produire une correspondance à 85 %, mais avec plus d’investissement et d’efforts, il est possible d’augmenter la précision.

En formant les conceptions de données, les scientifiques de McAfee ont pu obtenir une correspondance vocale à 95 % sur la base d’un petit nombre de fichiers audio.

Plus le clone est précis, plus le cybercriminel a de chances de tromper quelqu’un pour qu’il lui remette son argent ou qu’il prenne d’autres mesures. Avec ces canulars basés sur l’exploitation des vulnérabilités émotionnelles fondamentales dans les relations étroites, un fraudeur pourrait gagner d’innombrables dollars en quelques heures seulement.

L’évolution de la technologie de clonage de la voix

« L’intelligence artificielle avancée sont en train de modifier le jeu vidéo pour les cybercriminels. Désormais, avec très peu d’efforts, ils peuvent cloner la voix d’une personne et inciter un contact proche à envoyer de l’argent », a déclaré Grobman.

« Il est nécessaire de rester vigilant et de prendre des mesures proactives pour assurer votre sécurité et celle de vos proches. Si vous recevez un appel de votre conjoint ou d’un membre de votre famille en détresse et demandant de l’argent, confirmez l’appelant – utiliser un mot de passe précédemment convenu ou poser une question qu’ils sauraient. Les services de protection de l’identité et de la vie privée contribueront également à limiter l’empreinte numérique des informations personnelles qu’un malfaiteur peut utiliser pour établir un récit engageant lors de la production d’un clone de voix », a conclu Grobman.

En utilisant les outils de clonage qu’ils ont découverts, Les scientifiques de McAfee ont découvert qu’ils n’avaient aucun problème à reproduire les accents du monde entier, qu’ils soient des États-Unis, du Royaume-Uni, d’Inde ou d’Australie, mais les voix plus uniques étaient plus difficiles à copier.

Par exemple, la voix d’un individu qui parle à un rythme, un rythme ou une conception inhabituels nécessite plus d’efforts pour être cloné avec précision et est moins susceptible d’être ciblé comme résultat.

La sensation dominante parmi le groupe d’étude de recherche, cependant, était que l’intelligence artificielle a actuellement changé la donne pour les cybercriminels. La barrière à l’entrée n’a en fait jamais été aussi basse, ce qui indique qu’il n’a jamais été aussi facile de commettre des cybercrimes.

Défense contre le clonage de voix par IA

  • Définissez un « mot de passe » parlé avec les enfants, les membres de la famille ou des amis de confiance qu’eux seuls peuvent comprendre. Prévoyez de toujours le demander s’ils appellent, envoient un SMS ou un e-mail pour demander de l’aide, en particulier s’ils sont plus âgés ou plus vulnérables.
  • Interrogez constamment la source . S’il s’agit d’un appel, d’un SMS ou d’un e-mail d’un expéditeur inconnu, ou peut-être d’un numéro que vous reconnaissez, arrêtez-vous, arrêtez-vous brièvement et réfléchissez. Cela leur ressemble-t-il vraiment? Est-ce qu’ils te demanderaient ça ? Raccrochez et appelez directement la personne ou essayez de valider l’information avant de réagir et surtout avant d’envoyer de l’argent.
  • Réfléchissez avant de cliquer et de partager. Qui est dans votre réseau de réseaux sociaux ? Les comprenez-vous vraiment et leur faites-vous confiance ? Réfléchissez aux bons amis et aux relations que vous avez en ligne. Plus vos connexions sont larges et plus vous partagez, plus vous courez le risque de voir votre identité clonée pour des fonctions nuisibles.
  • Les services de suivi d’identité peuvent aider à garantir que votre des informations personnellement reconnaissables ne sont pas disponibles ou vous informent si vos informations privées arrivent sur le Dark Web. Prenez le contrôle de vos données individuelles pour éviter qu’un cybercriminel puisse se faire passer pour vous.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici