mercredi, 29 mai 2024

Les deepfakes sur la guerre en Ukraine sèment la méfiance et dénaturent la réalité

Une nouvelle étude sur les vidéos deepfake sur l’intrusion russe en Ukraine a en fait montré qu’elles déforment la perception de la réalité par les individus, créant une atmosphère dangereuse dans laquelle de nombreux utilisateurs ne font confiance aux médias qu’ils voient. Alimentées par cette profonde méfiance, les théories du complot et la peur peuvent prospérer.

Les images contrôlées dans la propagande politique n’ont absolument rien de nouveau. Parmi les exemples les plus connus de l’histoire, citons une photographie de 1937 de Joseph Staline se promenant le long du canal de Moscou avec Nikolai Yezhov, l’ancien chef puissant de la police secrète soviétique qui a organisé « l’Excellente Purge ». En 1940, Yezhov fut victime du sinistre système qu’il avait lui-même créé et fut joué. L’image originale a été falsifiée pour l’éliminer de l’image et remplacer sa silhouette par un décor d’arrière-plan.

Ad

Les nouvelles innovations ont renouvelé ces anciennes techniques. À l’ère des réseaux sociaux et des systèmes experts (IA), les images créées sont devenues d’autant plus réalistes – et d’autant plus dangereuses.

Dans une toute nouvelle étude, des scientifiques de l’University College Cork en Irlande ont examiné de près la manière dont les individus de la plateforme de réseaux sociaux X (anciennement Twitter) ont réagi aux contenus deepfakes tout au long de la guerre russo-ukrainienne en cours. Le principal point à retenir est que beaucoup de gens ont perdu confiance dans l’exactitude des médias en temps de guerre à cause des deepfakes, pratiquement au point qu’on ne peut plus compter sur rien.

Histoires connexes

Un type a oublié son mot de passe pour accéder à plus de 200 $ d’innombrables Bitcoins, mais les pirates ont une option
Environ 10 % du Web est crypté via des lampes à lave
Les métaux des terres rares pourraient rendre l’extraction d’uranium dans les océans plus simple et moins coûteuse

« Les scientifiques et les commentateurs craignent depuis longtemps que les deepfakes aient le potentiel d’affaiblir les faits et de les propager. « De fausses informations et saper la confiance dans la précision des médias d’information. Les vidéos Deepfake pourraient saper ce que nous considérons comme vrai lorsque de fausses vidéos sont considérées comme authentiques et vice versa », Dr Conor Linehan, auteur de l’étude de l’école de psychologie appliquée de l’University College Cork. , a déclaré dans une déclaration.

Les deepfakes sont des médias audiovisuels, souvent de personnes, qui ont été contrôlés à l’aide de l’IA pour créer une fausse impression. Une technique courante consiste à « coller » l’image du visage de quelqu’un (disons un homme politique bien connu) sur la vidéo du corps de quelqu’un d’autre. Cela permet au producteur de développer l’impression que le leader politique dit ou fait ce qu’il veut, comme une marionnette virtuelle hyperréaliste. ⓘ IFLScience

n’est pas responsable du contenu partagé à partir de sites externes. Les chercheurs ont découvert que de fausses vidéos synthétiques sur le conflit actuel en Ukraine provenaient de tous les angles. Début mars 2022, un deepfake du président russe Vladimir Poutine est apparu, le montrant annonçant la paix avec l’Ukraine. De fausses vidéos similaires, montrant le président ukrainien Volodymyr Zelenskyy disant à ses soldats de déposer les armes, ont également été largement partagées. Dans un autre exemple de désinformation, le ministère ukrainien de la Défense a tweeté une vidéo qui, selon lui, montrait un légendaire pilote d’avion de chasse appelé « Le Fantôme de Kiev », quelques jours seulement après le début de l’invasion en février 2022. n’était qu’une séquence vidéo tirée du jeu vidéo Digital Fight Simulator. Une préoccupation majeure identifiée par les chercheurs était que la plupart des exemples de leur ensemble de données impliquaient des médias qualifiant à tort des médias légitimes de deepfakes. Et c’est là que réside le problème : les deepfakes ont ébranlé la confiance des utilisateurs dans l’authenticité de la vidéo, à tel point

substantiellement

qu’ils ont en fait perdu confiance. sur toutes les images provenant du conflit. Personne ne peut plus distinguer ce qui est authentique de ce qui est faux, même les sources d’information autrefois fiables. Les scientifiques ont découvert que cette profonde appréhension quant à l’exactitude des médias était nourrie d’une croyance anti-médias, qui, selon eux, était « utilisée pour valider une pensée conspiratrice et un suspect dans des sources d’information dignes de confiance ». Un nombre important d’utilisateurs sur X ont fait des commentaires tels que comme : « Aucune des vidéos issues de cette guerre n’est digne de confiance. Dans les prochaines années, les médias utiliseront des logiciels deepfake sophistiqués. Si vous pensez que nous avons un problème maintenant, attendez que nous commencions à voir des vidéos entièrement fabriquées. de leurs mensonges actuels ». Une autre remarque dit : « Il s’agit d’un deepfake médiatique occidental. Ces journalistes sont sous la coupe des mondialistes. » pourrait avoir été endommagé

. L’étude

suggère également que les efforts de sensibilisation aux deepfakes peuvent semer la méfiance à l’égard des vidéos authentiques. Les sociétés de presse et les gouvernements doivent être extrêmement prudents dans la façon dont ils abordent le problème des médias contrôlés, car ils courent le risque d’affaiblir complètement la confiance. et quelles sont leurs capacités actuelles et comment elles se développeront dans les années à venir », a ajouté John Twomey, auteur principal de l’étude à la School of Applied Psychology de l’University College Cork. L’étude de recherche est publiée dans la revue PLOS ONE.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

xnxx sex download russianporntrends.com hardxxxpics saboten campus freehentai4u.com read manga porn rakhi sex photo ganstagirls.com nani sex video xxx indian girl video download elporno.mobi tamilauntycom bf hd video bf hd video porn555.me anyporn hd tamil beach sex erolenta.com xxx sex boy to boy bustyboobs pakistanixxxx.com nude sexy videos desi sex xvideos.com tubaka.mobi justdesi in free naked dance vegasmpegs.mobi eva grover desi ass lick eroanal.net 69 xvideo 4k xnxx thefuckingtube.com xxii roman numerals translation tamil nayanthara sex sexozavr.com indian porn videos tumblr كلبات سكس porn-arab.net نيك ف الكس y3df comics popsexy.net akhil wife hentai ahri wowhentai.net the sarashina bloodline