jeudi, 6 octobre 2022

Construire une IA responsable : 5 piliers pour un avenir éthique

Tant qu’il y a eu des progrès technologiques, on s’est inquiété de ses implications. Le projet Manhattan, quand des scientifiques aux prises avec leur rôle dans la libération d’une énergie nucléaire aussi innovante, mais destructrice, en est un excellent exemple. Lord Solomon « Solly » Zuckerman était un conseiller scientifique des Alliés pendant la Seconde Guerre mondiale, puis un éminent défenseur de la non-prolifération nucléaire. Il a été cité dans les années 1960 avec une idée prémonitoire qui sonne encore vrai aujourd’hui : « La science crée l’avenir sans savoir ce que sera l’avenir. »

L’intelligence artificielle (IA), désormais un terme fourre-tout pour tout logiciel d’apprentissage automatique (ML) conçu pour effectuer des tâches complexes qui nécessitent généralement l’intelligence humaine, est destinée à jouer un rôle démesuré dans notre société future. Sa récente prolifération a conduit à une explosion de l’intérêt, ainsi qu’à une surveillance accrue de la manière dont l’IA est développée et de qui fait le développement, mettant en lumière l’impact des préjugés sur la conception et le fonctionnement. L’UE prévoit une nouvelle législation visant à atténuer les dommages potentiels que l’IA peut causer et une IA responsable sera exigée par la loi.

Il est facile de comprendre pourquoi de tels garde-fous sont nécessaires. Les humains construisent des systèmes d’IA, ils apportent donc inévitablement leur propre vision de l’éthique dans la conception, souvent pour le pire. Certains exemples troublants ont déjà émergé – l’algorithme pour le Carte Apple et recrutement chez Amazon ont chacun fait l’objet d’une enquête sur les préjugés sexistes, et Google [abonnement requis] devait rééquiper son service photo après un marquage raciste. Chaque entreprise a depuis résolu les problèmes, mais la technologie évolue rapidement, ce qui souligne la leçon selon laquelle développer une technologie supérieure sans tenir compte des risques revient à courir les yeux bandés.

Construire une IA responsable

Melvin Greer, scientifique en chef des données chez Intel, a souligné dans VentureBeat que « … les experts dans le domaine de l’IA responsable veulent vraiment se concentrer sur la gestion réussie des risques de biais de l’IA, afin que nous créions non seulement un système qui fonctionne quelque chose qui est revendiqué, mais faire quelque chose dans le contexte d’une perspective plus large qui reconnaît les normes sociétales et la morale.

En d’autres termes, ceux qui conçoivent des systèmes d’IA doivent être responsables de leurs choix et essentiellement « faire ce qu’il faut » lorsqu’il s’agit de mettre en œuvre des logiciels.

Si votre entreprise ou votre équipe envisage de créer ou d’intégrer un système d’IA, voici cinq piliers qui devraient constituer votre base :

1. Responsabilité 

On pourrait penser que les humains seraient pris en compte dans la conception de l’IA dès le début, mais malheureusement, ce n’est pas toujours le cas. Les ingénieurs et les développeurs peuvent facilement se perdre dans le code. Mais la grande question qui se pose lorsque les humains sont mis dans la boucle est souvent : « Quelle confiance accordez-vous au système ML pour commencer à prendre des décisions ? »

L’exemple le plus évident de cette importance est celui des voitures autonomes, où nous « confions » au véhicule de « savoir » quelle devrait être la bonne décision pour le conducteur humain. Mais même dans d’autres scénarios comme les décisions de prêt, les concepteurs doivent tenir compte des mesures d’équité et de biais associées au modèle ML. Une bonne pratique intelligente à mettre en œuvre consisterait à créer un comité permanent d’éthique de l’IA pour aider à superviser ces décisions politiques, et à encourager les audits et les examens pour vous assurer que vous suivez le rythme des normes sociétales modernes.

2. Réplicabilité  

La plupart des organisations utilisent des données provenant d’un certain nombre de sources (entrepôts de données, fournisseurs de stockage dans le cloud, etc.), mais si ces données ne sont pas uniformes (c’est-à-dire 1:1), cela peut entraîner des problèmes plus tard lorsque vous êtes essayer de glaner des idées pour résoudre des problèmes ou mettre à jour des fonctions. Il est important pour les entreprises développant des systèmes d’IA de standardiser leurs pipelines ML afin d’établir des catalogues complets de données et de modèles. Cela aidera à rationaliser les tests et la validation, ainsi qu’à améliorer la capacité à produire des tableaux de bord et des visualisations précis.

3. Transparence

Comme pour la plupart des choses, la transparence est la meilleure politique. En ce qui concerne les modèles ML, la transparence équivaut à l’interprétabilité (c’est-à-dire garantir que le modèle ML peut être expliqué). Ceci est particulièrement important dans des secteurs comme la et la santé, où vous devez être en mesure d’expliquer et de justifier aux clients pourquoi vous construisez ces modèles spécifiques pour garantir l’équité contre les biais indésirables. Cela signifie que si un ingénieur ne peut pas justifier pourquoi une certaine fonctionnalité ML existe au profit du client, elle ne devrait pas être là. C’est là que la surveillance et les métriques jouent un rôle important, et il est essentiel de garder un œil sur les performances statistiques pour garantir l’efficacité à long terme du système d’IA.

4. Sécurité

Dans le cas de l’IA, la sécurité concerne davantage la façon dont une entreprise doit protéger son modèle de ML, et inclut généralement des technologies telles que l’informatique cryptée et les tests contradictoires, car un système d’IA ne peut pas être responsable s’il est susceptible d’être attaqué. Considérez ce scénario réel : il y avait un modèle de vision par ordinateur conçu pour détecter les panneaux d’arrêt, mais lorsque quelqu’un a mis un petit autocollant sur le panneau d’arrêt (même pas reconnaissable à l’œil humain), le système a été trompé. Des exemples comme celui-ci peuvent avoir d’énormes implications en matière de sécurité, vous devez donc être constamment vigilant avec la sécurité pour éviter de telles failles.

5. Confidentialité 

Ce dernier pilier est toujours un sujet brûlant, surtout avec tant de scandales Facebook en cours impliquant des données client. L’IA collecte d’énormes quantités de données, et il doit y avoir des directives très claires sur son utilisation. (Think GDPR en Europe.) Mis à part la réglementation gouvernementale, chaque entreprise qui conçoit l’IA doit faire de la confidentialité une préoccupation primordiale et généraliser ses données afin de ne pas stocker ses données individuelles. Ceci est particulièrement important dans les soins de santé ou dans toute industrie avec des données sensibles sur les patients. Pour plus d’informations, consultez des technologies telles que apprentissage fédéré et confidentialité différentielle.

IA responsable : la voie à suivre

Même après avoir pris en compte ces cinq piliers, la responsabilité dans l’IA peut ressembler beaucoup à une situation de taupe : juste au moment où vous pensez que la technologie fonctionne de manière éthique, une autre nuance émerge. Ce n’est qu’une partie du processus d’endoctrinement d’une nouvelle technologie passionnante dans le monde et, à l’instar d’Internet, nous n’arrêterons probablement jamais de débattre, de bricoler et d’améliorer les fonctionnalités de l’IA.

Ne vous méprenez pas, cependant ; les implications de l’IA sont énormes et auront un impact durable sur de multiples industries. Une bonne façon de commencer à vous préparer maintenant est de vous concentrer sur la constitution d’une équipe diversifiée au sein de votre organisation. Faire venir des personnes de races, de sexes, d’origines et de cultures différentes réduira vos risques de préjugés avant même de regarder la technologie. En incluant plus de personnes dans le processus et en pratiquant une surveillance continue, nous nous assurerons que l’IA est plus efficace, éthique et responsable.

.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici