lundi, 22 avril 2024

Comment les entreprises peuvent pratiquer une IA éthique

L’intelligence artificielle (IA) est une technologie en constante évolution. Plus de neuf sur 10 des principales entreprises du pays ont des investissements financiers continus dans des produits ou services activés par l’IA. À mesure que l’attrait de cette innovation sophistiquée augmente et que de plus en plus de services l’adoptent, l’utilisation responsable de l’IA, généralement décrite comme « l’IA éthique », devient un facteur important pour les services et leurs consommateurs.

Qu’est-ce que l’IA éthique ?

L’IA présente une variété de risques pour les personnes et les services. Au niveau individuel, cette technologie de pointe peut mettre en danger la sécurité, la sécurité, les antécédents, la liberté et l’égalité d’un individu ; elle peut aussi victimiser des groupes particuliers d’individus. À un niveau plus élevé, il peut poser des menaces à la sécurité nationale, telles que l’instabilité politique, les variations économiques et les conflits militaires. Au niveau de l’entreprise, il peut présenter des menaces monétaires, fonctionnelles, de réputation et de conformité.

L’IA éthique peut protéger les individus et les organisations contre des menaces comme celles-ci et bien d’autres qui peuvent résulter d’abus. Par exemple, les scanners TSA dans les aéroports ont été conçus pour nous fournir à tous un vol beaucoup plus sûr et ont la capacité de reconnaître les éléments que les détecteurs de métaux normaux pourraient manquer. Ensuite, nous avons découvert que quelques « mauvaises stars » utilisaient cette technologie et partageaient des images de silhouettes nues d’invités. Cela a été couvert et corrigé, mais néanmoins, c’est un bel exemple de la façon dont une mauvaise utilisation peut briser la confiance des gens.

Lorsqu’un tel abus de l’innovation basée sur l’IA se produit, les entreprises ayant une politique d’IA responsable et/ou groupe sera mieux équipé pour atténuer le problème.

Mettre en œuvre une politique d’IA éthique

Une politique d’IA responsable peut être une première étape formidable pour garantir que votre service est sécurisé en cas d’utilisation abusive . Avant de mettre en place une politique de ce type, les entreprises doivent procéder à une évaluation des menaces liées à l’IA pour identifier les éléments suivants : Où l’IA est-elle utilisée dans l’entreprise ? Qui utilise l’innovation ? Quels types de menaces peuvent résulter de cette utilisation de l’IA ? Quand les menaces peuvent-elles survenir ?

Votre service utilise-t-il l’IA dans un entrepôt auquel des partenaires tiers ont accès pendant la saison des vacances ? Comment mon service peut-il éviter et/ou répondre aux abus ?

Dès que les employeurs ont examiné en détail l’utilisation de l’IA dans l’ensemble de leur entreprise, ils peuvent commencer à établir une politique qui sécurisera leur activité en tant que un tout composé de travailleurs, de clients et de partenaires. Pour minimiser les risques encourus, les entreprises doivent tenir compte notamment des facteurs essentiels à prendre en compte. Ils devraient garantir que les systèmes d’IA sont conçus pour améliorer les compétences cognitives, sociales et culturelles ; valider que les systèmes sont équitables ; intégrer la transparence dans toutes les parties du développement ; et tenir les partenaires pour responsables.

En outre, les entreprises doivent tenir compte des 3 éléments essentiels suivants d’une politique d’IA responsable et fiable :

  • IA légale : les systèmes d’IA ne opèrent dans un monde sans loi. Une variété de règles juridiquement contraignantes aux niveaux national et mondial s’appliquent déjà ou sont pertinentes pour l’avancement, la publication et l’utilisation de ces systèmes aujourd’hui. Les services doivent s’assurer que les innovations basées sur l’IA qu’ils utilisent respectent les lois locales, nationales ou internationales de leur région.
  • IA éthique : pour un usage responsable, un positionnement avec des normes éthiques est nécessaire. 4 concepts éthiques, ancrés dans les droits essentiels, doivent être respectés pour garantir que les systèmes d’IA sont développés, diffusés et utilisés correctement : respect de l’autonomie humaine, prévention des dommages, équité et explicabilité.
  • IA robuste : les systèmes d’IA doivent fonctionner de manière sûre, protégée et fiable, et des mesures de protection doivent être prises pour éviter tout effet indésirable involontaire. Les systèmes doivent être robustes, tant d’un point de vue technique (en s’assurant que la robustesse technique du système est appropriée dans un contexte donné, tel que le domaine d’application ou la phase du cycle de vie), que d’un point de vue social (en tenant compte du contexte et de l’environnement dans lequel le système fonctionne).

Il est important de noter que différentes organisations peuvent avoir besoin de politiques différentes en fonction des innovations basées sur l’IA qu’elles utilisent. Ces lignes directrices peuvent aider d’un point de vue plus large.

Développer un groupe d’IA responsable

Dès qu’une politique reste en place et que les travailleurs, les partenaires et les parties prenantes ont été informés, il est essentiel de s’assurer qu’une entreprise dispose d’une équipe sur place pour appliquez-le et tenez les utilisateurs malveillants responsables des abus.

Le groupe peut être personnalisé en fonction des besoins de l’entreprise, mais voici un exemple de base d’un groupe robuste pour les entreprises qui utilisent la technologie basée sur l’IA :

  • Directeur des principes : souvent appelé responsable principal de la conformité, ce rôle est chargé d’identifier les données à collecter et la manière dont elles doivent être utilisées ; gérer l’utilisation abusive de l’IA dans toute l’entreprise ; déterminer les mesures disciplinaires éventuelles en réponse à une utilisation abusive ; et garantir que les groupes forment leurs employés à la politique.
  • Comité responsable de l’IA : cette fonction, exercée par une personne/une équipe indépendante, gestion en examinant l’efficacité d’une technologie basée sur l’IA avec divers ensembles de données, ainsi que la structure juridique et les implications éthiques. Une fois qu’un examinateur a approuvé l’innovation, l’option peut être mise en œuvre ou communiquée aux clients. Ce comité peut inclure des départements pour l’éthique, la conformité, la protection des données, le juridique, le développement, l’innovation et la sécurité de l’information.
  • Service des achats : cette fonction garantit que la politique est maintenue par d’autres équipes/services lorsqu’ils acquièrent de toutes nouvelles innovations basées sur l’IA.

En fin de compte, une équipe d’IA efficace et responsable peut aider à garantir que votre entreprise tient responsable toute personne qui utilise l’IA à mauvais escient dans l’ensemble de l’organisation. Les mesures disciplinaires peuvent varier de l’intervention des RH à la suspension. Pour les partenaires, il peut être essentiel de cesser d’utiliser leurs produits immédiatement après avoir découvert tout abus.

Alors que les employeurs continuent d’adopter de nouvelles innovations basées sur l’IA, ils doivent fortement réfléchir à la mise en place d’une politique d’IA responsable et se grouper pour atténuer efficacement les abus. En utilisant le cadre ci-dessus, vous pouvez protéger vos travailleurs, partenaires et parties prenantes.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici