vendredi, 29 mars 2024

Pourquoi la diversité devrait avoir un impact critique sur la confidentialité des données

La California Personal Privacy Rights Act (CPRA), la Virginia Customer Data Security Act (VCDPA), la Customer Personal privacy Protection Act (CPPA) du Canada et bien d’autres politiques mondiales marquent toutes des améliorations considérables qui ont été apportées dans le domaine de la confidentialité des informations au cours des dernières années. En vertu de ces lois, les entreprises pourraient subir de graves conséquences en cas de mauvaise gestion des données des consommateurs.

Par exemple, en plus des effets réglementaires d’une violation d’informations, des lois telles que le CCPA permettent aux consommateurs de tenir les entreprises directement responsables des violations de données en vertu d’un droit d’action privé.

Bien que ces politiques renforcent certainement les répercussions entourant l’utilisation abusive des informations des consommateurs, elles sont encore inadéquates – et ne seront peut-être jamais suffisantes – pour protéger communautés marginalisées. Pratiquement les trois quarts des foyers en ligne craignent pour leur sécurité numérique et leur confidentialité, la plupart des problèmes concernant les populations mal desservies.

Les groupes marginalisés sont souvent impactés négativement par l’innovation et peuvent faire face à un terrible danger lorsque des outils décisionnels automatisés comme l’intelligence artificielle (IA) et l’intelligence artificielle (ML) positionnent des préjugés contre eux ou lorsque leurs données sont utilisées à mauvais escient. Il a même été démontré que les innovations de l’IA perpétuent la discrimination dans la sélection des occupants, le financement financier, le travail avec les processus et plus encore.

La prédisposition du groupe dans les outils d’IA et de ML est assez courante, car les processus de révision de style manquent considérablement de variété humaine pour garantir leurs modèles sont inclusifs pour tout le monde. Les entreprises innovantes doivent développer leurs approches actuelles d’utilisation de l’IA et du ML pour garantir qu’elles n’affectent pas négativement les communautés mal desservies. Ce court article examinera pourquoi la diversité devrait jouer un rôle important dans la confidentialité des données et comment les entreprises peuvent produire des technologies plus inclusives et éthiques.

Les dangers auxquels sont confrontés les groupes marginalisés

Les communautés mal desservies sont sont exposés à des dangers importants lors du partage de leurs données en ligne et, malheureusement, les lois sur la confidentialité des données ne peuvent pas les protéger contre une discrimination manifeste. Même si les politiques existantes étaient aussi inclusives que possible, il existe de nombreuses façons de nuire à ces populations. Par exemple, les courtiers en informations peuvent toujours collecter et vendre la géolocalisation d’une personne à des groupes ciblant des manifestants. Les informations sur la participation d’une personne à un rassemblement ou à une manifestation peuvent être utilisées de plusieurs manières intrusives, contraires à l’éthique et potentiellement illégales.

Bien que ce scénario ne soit que théorique, il y a eu de nombreux cas réels où des circonstances comparables se sont produites. Un rapport d’étude de recherche de 2020 a détaillé les risques pour la sécurité des données et la confidentialité auxquels les personnes LGBTQ sont exposées sur les applications de rencontres. Les risques signalés consistaient en la sécurité flagrante de l’État, en gardant un œil sur la reconnaissance faciale et les informations sur les applications partagées avec les annonceurs et les courtiers en données. Les groupes minoritaires ont toujours été exposés à de tels risques, mais les entreprises qui apportent des modifications proactives peuvent aider à les réduire.

L’absence de diversité dans les outils automatisés

Il y a en fait eu un développement progressif dans diversifiant le marché de la technologie au cours des dernières années, un changement fondamental est nécessaire pour réduire la prédisposition perpétuelle des algorithmes d’IA et de ML. 66,1 % des chercheurs en information seraient blancs et près de 80 % seraient des hommes, ce qui met en évidence une grave absence de variété parmi les équipes d’IA. En conséquence, les algorithmes d’IA sont formés en fonction des points de vue et de la compréhension des équipes qui les construisent.

Les algorithmes d’IA qui ne sont pas formés pour reconnaître des groupes particuliers d’individus peuvent causer des dommages considérables. L’American Civil Liberties Union (ACLU) a publié des recherches en 2018 montrant que l’application logicielle de reconnaissance faciale « Rekognition » d’Amazon correspondait à tort à 28 membres du Congrès américain avec des mugshots. 40% des fausses correspondances étaient des individus de couleur, malgré le fait qu’ils ne représentaient que 20% du Congrès. Pour éviter de futurs cas de prédisposition à l’IA, les entreprises doivent repenser leurs procédures d’examen de la conception afin de s’assurer qu’elles sont inclusives pour tout le monde.

Un processus d’évaluation de la conception inclusif

Il se peut qu’il n’y ait pas un seul source de réalité pour atténuer les préjugés, mais il existe de nombreuses façons pour les organisations d’améliorer leur processus d’évaluation de style. Voici 4 méthodes simples que les entreprises technologiques peuvent réduire les préjugés dans leurs produits.

1. Posez des questions difficiles

L’élaboration d’une liste de questions à poser et auxquelles réagir tout au long de la procédure d’évaluation de style est l’une des techniques les plus efficaces pour créer un prototype plus inclusif. Ces questions peuvent aider les groupes d’IA à déterminer les problèmes qu’ils n’avaient pas pris en compte auparavant.

Les préoccupations essentielles consistent à savoir si les ensembles de données qu’ils utilisent contiennent suffisamment d’informations pour prévenir des types spécifiques de prédisposition ou s’ils ont administré des tests pour identifier la qualité des informations qu’ils utilisent. Poser des questions et y répondre peut permettre aux scientifiques des données d’améliorer leur prototype en déterminant s’ils doivent examiner des données supplémentaires ou s’ils doivent faire appel à un expert tiers dans le processus d’évaluation de la conception.

2. Employez un expert en confidentialité personnelle

Comparable à tout autre professionnel lié à la conformité, les professionnels de la confidentialité personnelle étaient initialement considérés comme des goulots d’étranglement du développement. Cependant, comme un nombre croissant de lignes directrices sur l’information ont été présentées ces dernières années, les principaux responsables de la protection de la vie privée sont en fait devenus un élément central de la suite C.

Les professionnels internes de la protection de la vie privée jouent un rôle important en tant que spécialistes du processus d’examen de la conception. Les professionnels de la confidentialité peuvent fournir un point de vue objectif sur le prototype, aider à introduire des préoccupations difficiles auxquelles les scientifiques de l’information n’avaient pas pensé dans le passé et aider à créer des éléments inclusifs, sûrs et protégés.

3. Utiliser des voix diverses

Les organisations peuvent apporter des voix et des perspectives variées à la table en élargissant leurs efforts de recrutement pour inclure des candidats issus de groupes démographiques et d’horizons divers. Ces efforts devraient s’étendre à la suite C et au conseil d’administration, car ils peuvent servir d’agents pour les membres du personnel et les clients qui pourraient ne pas avoir voix au chapitre.

Augmenter la diversité et l’inclusivité au sein de la main-d’œuvre laissera plus de place au développement et à la créativité. Les recherches montrent que les entreprises multiraciales ont 35 % de chances supplémentaires de surpasser leurs rivales, tandis que les entreprises dotées d’équipes de direction très diversifiées en termes de genre réalisent un bénéfice supérieur de 21 % à celui de leurs concurrents.

4. Exécuter une formation sur la diversité, l’équité et l’addition (DE&I)

Au cœur de chaque entreprise diversifiée et inclusive se trouve un solide programme DE&I. Organiser des ateliers qui informent les travailleurs sur la confidentialité, les préjugés et les principes de l’IA peut les aider à comprendre pourquoi ils doivent apprécier les efforts de DE&I. Actuellement, seulement 32 % des entreprises appliquent un programme de formation DE&I pour les employés. Il est évident que les initiatives DE&I doivent finir par être une priorité plus élevée pour que de réelles modifications soient apportées au sein d’une organisation, ainsi que de ses produits.

L’avenir des outils d’IA éthiques

Alors que certains les entreprises sont sur la bonne voie pour produire des outils plus sûrs et plus sûrs et sécurisés, d’autres doivent encore apporter de grandes améliorations pour développer des articles totalement sans biais. En incorporant les suggestions ci-dessus dans leur procédure d’évaluation de style, ils seront non seulement quelques actions plus efficaces pour produire des articles inclusifs et éthiques, mais ils auront également la possibilité d’augmenter leurs efforts d’innovation et d’amélioration numérique. La technologie peut bénéficier de manière significative à la société, mais il incombera à chaque entreprise d’en faire une vérité.

.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici