dimanche, 21 avril 2024

La révolution technologique de l’IA dans la protection pratique des données dans la finance

Fournir ce qui était autrefois considéré comme des informations extrêmement personnelles et délicates fait maintenant partie de notre vie quotidienne. De plus en plus de personnes vont en ligne pour faire leurs achats, gérer leurs finances et effectuer des paiements numériques. Cependant, les clients étant très inquiets de ce qui pourrait arriver à leurs informations une fois la transaction terminée, les sociétés monétaires étudient de nouvelles et meilleures stratégies pour assurer la sécurité des informations individuelles.

Les intérêts du grand public en matière de protection de la vie privée sont fortement soutenu par la législation. En 2015, un total de 1,2 milliard de dollars d’amendes ont été imposées par l’UE à ceux qui avaient enfreint sa politique générale de protection des données (RGPD) depuis le 28 janvier 2021 – une augmentation de 180 millions de dollars ou sept fois par rapport aux chiffres de 2020, selon un rapport actuel du cabinet d’avocats DLA Piper.

Protection des données personnelles

Comme les effets des violations de la vie privée des informations vont au-delà de la perte de confiance des clients et touchent durement les résultats, les techniques de sécurisation des informations évoluent également. Lorsqu’une personne partage des photos des dommages causés à sa propriété sur une application d’assurance, elle comprend que les informations doivent être traitées et comparées à une base de données pertinente pour lui permettre de régler ses réclamations.

Partager ce type de détails reconnaissables soulève des problèmes de confidentialité. Et il peut être raisonnablement mineur de rassembler les détails. Ce fut le cas en 1997 lorsqu’un étudiant diplômé a réussi à anonymiser le gouverneur du Massachusetts des dossiers de santé publiés par un groupe d’assurance.

Malgré le fait que les dossiers ne contenaient pas d’informations individuelles évidentes comme des noms et adresses, le stagiaire a réussi à déterminer le guv en recoupant les dossiers de santé anonymisés avec d’autres sources de détails, la liste électorale publique dans ce cas.

Cette tactique, appelée l’attaque par liaison, a également réussi à déterminer les utilisateurs de Netflix en fonction de leur historique de visionnage, même si la société de streaming d’adhésion avait en fait assuré que tous les détails personnellement reconnaissables (PII) avaient été supprimés lors du lancement de l’ensemble de données pour sa difficulté de récompense Netflix 2006.

Étant donné depuis 2006, et certainement depuis 1997, la quantité d’informations envoyées numériquement a en fait augmenté d’un facteur significatif. Cela a suscité des inquiétudes quant à la facilité des attaques par liaison et à l’exigence d’informations anonymisées à grande échelle.

Confidentialité personnelle différentielle

L’anonymisation des informations à elle seule est insuffisante. Il doit y avoir un moyen d’empêcher de lier un ensemble de données à un autre, en découvrant l’entreprise spécifique ou individuelle. C’est là que la confidentialité différentielle (DP) est disponible.

Cette stratégie avancée d’IA protège les informations en incluant le « bruit » numérique pour brouiller toute connexion à une source de données d’origine, tout en conservant tous les détails nécessaires pour accélérer les utilisations réelles . Atteindre cela sur de grands ensembles de données est trop coûteux en termes de calcul en utilisant des approches informatiques traditionnelles d’IA basées sur des GPU et des CPU. Auparavant.

Les scientifiques de l’Université de Stanford ont en fait découvert qu’ils pouvaient accélérer la formation à l’IA avec une confidentialité différentielle de plus de 10 fois en utilisant les IPU (Intelligence Processing Units) de Graphcore.

Gradient stochastique de la confidentialité personnelle différentielle stratégie de descente (DPSGD)

Le groupe de Stanford a effectué la première analyse en utilisant le matériel IPU pour s’entraîner sur un ensemble de données contenant 1,3 million d’images, en tirant parti de la stratégie différentielle de descente de gradient stochastique de confidentialité personnelle (DPSGD). DPSGD protège les données délicates en garantissant que les données d’un individu ne peuvent pas être présumées ou restaurées à partir de l’ensemble de données initial. Auparavant, le DPSGD ne pouvait être fait, financièrement, que sur de petits sous-ensembles tels que des informations reconnues comme particulièrement sensibles.

Avec Graphcore IPU, les chercheurs de Stanford pourraient désormais faire ce qui prenait des jours sur les GPU en quelques heures, soit 8 à 11 fois plus rapidement. Cela signifie que DPSGD pourrait enfin être suffisamment rentable pour devenir un service pratique dans le monde réel. Le secret derrière cette augmentation de l’efficacité est l’architecture MIMD (nombreuses directives, nombreuses données) de l’IPU qui permet une plus grande efficacité de traitement.

La surcharge de calcul des opérations supplémentaires nécessaires pour DPSGD n’était que de 10 % plutôt d’un 50% à 90% prévu. De plus, l’IA formée par DPSGD a atteint une précision de 71 % tout au long de l’analyse, 5 % en dessous de la ligne de base non privée, ce qui était meilleur que prévu à condition que le son inclus. La recherche indique de nombreuses possibilités futures intéressantes pour renforcer la protection des informations à grande échelle, permettant potentiellement d’anonymiser les ensembles de données volumineuses.

Équilibre entre précision et confidentialité

La stabilisation de l’exactitude et de la confidentialité est importante pour une défense fiable des informations. Le doux domaine où la confidentialité est assurée tandis que des informations précieuses peuvent être extraites des données n’a pas encore été établi, mais les ingénieurs en intelligence artificielle continuent de faire des progrès algorithmiques. Il est maintenant temps d’investir dans l’innovation qui peut utiliser de nouvelles avancées en matière de protection de la vie privée, telles que DPSGD, avant qu’elles ne finissent par faire partie intégrante des opérations de toute entreprise.

Graphcore IPU est développé pour l’IA

Le Graphcore IPU est conçu pour l’IA à partir de zéro. Il s’agit du processeur le plus compliqué au monde, mais il est simple à lancer car il peut être traité via des langages d’affichage standard et est livré avec le logiciel Poplar de l’entreprise.

L’entreprise britannique de semi-conducteurs a lancé le 2e génération de ses systèmes pour l’IA et l’apprentissage automatique, basée sur la puce IPU Colossus ™ MK2 GC200, qui enregistre une augmentation de 8 fois des performances réelles par rapport à l’IPU Colossus ™ MK1 – le premier système de traitement du renseignement au monde.

En plus d’améliorer le délai de calcul et l’évolutivité, il offre également de meilleures performances par dollar que ses concurrents.

C’est une excellente nouvelle pour les consommateurs et les organisations. La technologie permettant de mettre en œuvre une confidentialité personnelle différentielle et d’autres moyens de réduire les infractions à la vie privée finit par être plus facilement accessible au marché de masse.

Cliquez ici pour plus de détails sur l’efficacité avancée du traitement du langage naturel, la vision du système informatique, confidentialité des informations et intelligence artificielle accélérée.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici