Viser l’or : la Grande-Bretagne peut établir la norme en matière d’IA éthique

Une étude menée par BCS, le Chartered Institute for IT, a découvert que le Royaume-Uni peut établir la « norme d’or » en matière d’intelligence artificielle éthique.

Le Royaume-Uni – le siège d’entreprises telles que DeepMind, Graphcore , Oxbotica, Darktrace, BenevolentAI, et d’autres, est le leader européen de l’IA. La nation est incapable d’égaler le financement et l’assistance disponibles pour des équivalents vivant dans des pays comme les et la Chine.

De nombreux spécialistes ont en fait plutôt recommandé que le Royaume-Uni puise ses atouts dans les grandes universités et organisations, la diplomatie, et les valeurs démocratiques pour devenir un leader mondial dans la production d’IA qui se soucie de l’humanité.

Le Dr Costs Mitchell OBE, directeur des politiques chez BCS, The Chartered Institute for IT et auteur principal du rapport, a déclaré :

Les biais actuels dans de nombreux systèmes d’IA pourraient entraîner une augmentation des problèmes de société existants consistant en l’écart de richesse et la discrimination fondée sur la race, le sexe, les préférences sexuelles, l’âge, etc.

« Il s’agit de développer une main-d’œuvre hautement qualifiée, éthique et variée – et une classe politique – qui comprend suffisamment l’IA pour offrir les bonnes options à la société », explique Mitchell.

« Cela nécessitera un leadership fort de la part du gouvernement et un accès à la formation aux compétences numériques dans l’ensemble du conseil. »

La dépendance du public à l’IA a en fait été compromise par de mauvaises actions très médiatisées telles que la crise de l’été dernier lorsqu’un algorithme a été utilisé pour estimer les notes des étudiants. Une enquête de suivi de YouGov – commandée par BCS – a révélé que 53 pour cent des adultes britanniques n’avaient aucune confiance en aucune organisation pour porter des jugements à leur sujet.

(Crédit : BCS)

En mai 2015, la presse nationale a rapporté que le code écrit par l’enseignant Neil Ferguson et son équipe de l’Imperial College de Londres qui informait le choix d’entrer dans un verrouillage était « totalement peu fiable » et endommageait également le public. Depuis lors, des articles dans la revue scientifique Nature ont prouvé que le code du système informatique épidémiologique du professeur Ferguson était adapté à cet usage. Avec le recul, les individus doivent maintenant le savoir. Cependant, la majorité des gens ne lisent pas Nature et croient toujours les rapports de la presse nationale selon lesquels le code était défectueux.

Le rapport a découvert une grande variation dans le les compétences et les pratiques éthiques des organisations utilisant l’IA. L’une des suggestions du rapport est que le gouvernement fédéral crée une structure de normes à satisfaire pour l’adoption de l’IA dans le grand public et les secteurs économiques.

Dans la stratégie nationale des données du gouvernement britannique, il précise : « Malheureusement utilisées, les informations peuvent nuire aux personnes ou aux communautés, ou voir leurs avantages frustrants éclipsés par le scepticisme du public. »

Le rapport de BCS, Priorities For The National AI Method, développe le travail du Conseil de l’IA Feuille de route et technique des données nationales. Il a en fait été publié pour compléter la dernière version de la stratégie du gouvernement fédéral britannique, qui devrait être lancée dans une dernière variante plus tard cette année.

(Photo d’Ethan Wilkinson sur Unsplash)

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici