samedi, 20 avril 2024

Alors que l’IA est en plein essor, il est indispensable de réduire les risques des systèmes algorithmiques, selon une nouvelle note d’ACM

L’IA est peut-être en plein essor, mais un tout nouveau dossier du Conseil mondial de la politique technologique de l’Association for Computing Equipment (ACM), qui sera publié demain, garde à l’esprit que l’universalité des systèmes algorithmiques « produit de sérieuses menaces qui ne sont pas pris en charge efficacement. »

Selon le court métrage ACM, qui, selon l’organisation, est le premier d’une série sur les systèmes et la confiance, des systèmes algorithmiques parfaitement sûrs ne sont pas possibles. Des actions réalisables peuvent être prises pour les rendre beaucoup plus sûres et devraient être une étude de recherche élevée et une priorité politique des gouvernements et de toutes les parties prenantes.

La clé rapide conclusions :

  • Pour promouvoir des systèmes algorithmiques beaucoup plus sûrs, des recherches sont nécessaires sur les approches de développement d’applications logicielles centrées sur l’humain et techniques, l’amélioration du filtrage, des pistes d’audit et des systèmes de surveillance, en plus de la formation et de la gouvernance .
  • La structure des cultures de sécurité organisationnelles nécessite le leadership de la direction, l’accent mis sur l’embauche et la formation, l’adoption de pratiques liées à la sécurité et une attention continue.
  • Des mécanismes de surveillance internes et indépendants centrés sur l’humain, à la fois au sein du gouvernement et des entreprises, sont nécessaires pour promouvoir des systèmes algorithmiques beaucoup plus sûrs.

Les systèmes d’IA ont besoin de garanties et d’un examen rigoureux

Le chercheur en systèmes informatiques Ben Shneiderman, professeur émérite à l’Université du Maryland et auteur de, était l’auteur principal du court métrage, qui est la dernière d’une série de brèves publications techniques sur les effets et les implications politiques d’avancées technologiques spécifiques.

Alors que les systèmes algorithmiques – qui dépassent la technologie de l’IA et du ML et incluent les personnes, les entreprises et les structures de gestion – ont en fait amélioré une immense variété de produits et de processus, a-t-il noté, les systèmes à risque peuvent causer des dommages considérables (pensez aux voitures autonomes ou à la reconnaissance faciale).

Les gouvernements et les parties prenantes, a-t-il expliqué, doivent établir des priorités et mettre en œuvre des mesures de protection exactement de la même manière qu’un tout nouveau produit alimentaire ou pharmaceutique doit passer par une procédure d’évaluation approfondie avant d’être mis à la disposition du public.

Comparaison de l’IA à la conception de l’aviation civile

Shneiderman a comparé la production de systèmes algorithmiques beaucoup plus sûrs au transport aérien civil, qui présente toujours des menaces mais est généralement reconnu comme sûr.

« C’est ce que nous voulons pour l’IA », a-t-il expliqué dans une interview avec VentureBeat. « C’est difficile à faire. Cela prend du temps à arriver. Cela demande des ressources, des efforts et de la concentration, mais c’est ce qui va rendre l’entreprise des individus compétitive et les rendre résilients. Sinon, ils subiront un échec qui menacera peut-être leur présence. »

L’effort vers des systèmes algorithmiques beaucoup plus sûrs est un changement par rapport à l’éthique de l’IA, a-t-il ajouté.

« Les principes, c’est bien, nous les voulons tous comme une excellente base, mais le changement est vers ce que nous faisons ? » il a déclaré. « Comment rendons-nous ces choses pratiques ? »

Ceci est particulièrement important lorsqu’il s’agit d’applications d’IA qui ne sont pas légères, c’est-à-dire des décisions consécutives telles que des échanges monétaires, des problèmes juridiques, des embauches et des fusillades, ainsi que des problèmes médicaux vitaux, des transports ou applications militaires.

« Nous souhaitons empêcher le Tchernobyl d’AI, ou l’île de 3 Mile d’AI », a déclaré Shneiderman. Le degré d’effort que nous déployons en matière de sécurité doit augmenter à mesure que les dangers augmentent. qui englobe l’ingénierie des éléments humains « – c’est-à-dire comment les systèmes fonctionnent dans la pratique réelle, avec des humains aux commandes – qui doivent être  » tissés  » dans un style de système algorithmique.

Le court a également noté que les approches qui se sont avérés être une cybersécurité fiable – consistant en des tests « d’équipe rouge » contradictoires dans lesquels des utilisateurs spécialisés tentent de casser le système et distribuent des « bounties » aux utilisateurs qui signalent des omissions et des erreurs efficaces pour entraîner des échecs importants – pourraient être utiles pour rendre les systèmes algorithmiques plus sûrs.

De nombreux gouvernements travaillent actuellement sur ces préoccupations, comme le Blueprint for an AI Bill of Rights des États-Unis et la loi européenne sur l’IA. Mais pour les services aux entreprises, ces efforts pourrait offrir un avantage concurrentiel, a souligné Shneiderman .

« Ce ne sont pas simplement des trucs de bons gars », a-t-il déclaré. « C’est une excellente décision pour vous en matière de service et une excellente décision pour vous d’investir dans la notion de sécurité et la notion plus large d’une culture de sécurité. »

L’objectif de VentureBeat est d’être une place publique numérique permettant aux décideurs techniques de comprendre l’innovation et les transactions d’entreprise transformatrices. Découvrez nos Instructions.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici