vendredi, 29 mars 2024

Ce qui m’inquiète? Les entreprises ignorent l’importance de l’éthique dans le développement de l’IA

Presque toutes les personnes impliquées dans la recherche sur l’IA se disent au moins du bout des lèvres du besoin critique d’une programmation éthique et responsable.

Pas vraiment un cri de victoire, mais c’est encourageant. Cette déclaration n’aurait pas pu être faite avec un visage impassible il y a presque trois ans. Mais il ne peut pas être généralement appliqué aujourd’hui aux entreprises qui investissent dans l’IA pour des produits ou des opérations.

Le scoreur de crédit FICO a publié un rapport qu’il a compilé avec la société d’analyse de marché Corinium qui trouve un angle mort béant pour les dirigeants en matière d’IA responsable. Une grande majorité des répondants à une enquête figurant dans le rapport semblent ne pas s’en soucier.

Si les conclusions peuvent être extrapolées à la fois au niveau mondial et au fil du temps, l’industrie pourrait se saboter elle-même – ainsi que les économies et la vie des individus – comme de nombreuses industries l’ont fait en ne prenant pas la menace de la cybercriminalité et -le terrorisme assez sérieusement.

Le chiffre d’affaires mondial des logiciels, du matériel et des services d’IA devrait augmenter de 16,4% d’une année sur l’autre en 2021, pour atteindre 327,5 milliards de dollars, selon l’analyste du secteur International Data Corp., chiffres qui sont mis en lumière dans le rapport de FICO.

/ p>

Il y a ceux , en particulier dans la communauté des chercheurs, qui approfondissent la question de la confiance. Cependant, il n’est pas clair à la lecture du rapport du FICO de savoir quand et si la dynamique du secteur privé prendra le dessus. (Le document peut être téléchargé ici .)

Soixante-treize pour cent des personnes ayant répondu à l’enquête ont déclaré avoir «eu du mal» à amener les dirigeants à donner la priorité à des pratiques d’IA éthiques et responsables.

Les recherches et les premières expériences montrent aux développeurs et aux chercheurs que les consommateurs résisteront aux produits et services liés à l’IA s’ils ne font pas confiance aux algorithmes, aux fournisseurs ou aux régulateurs gouvernementaux. Dans le cas de la biométrie faciale, cette résistance s’étend même aux législateurs.

Une partie de la création de la confiance consiste à pouvoir expliquer le fonctionnement des algorithmes, mais 65% des entreprises interrogées sont incapables de dire comment les décisions et les prédictions spécifiques aux modèles sont prises.

Et dans l’une des conclusions les plus accablantes, la deuxième enquête annuelle du FICO indique que seule une entreprise sur cinq «surveille activement leurs modèles en production pour des raisons d’équité et d’éthique».

Cela ne veut pas dire que l’idée d’efforts crédibles est étrangère aux chefs d’entreprise. Quatre-vingt pour cent des «dirigeants axés sur l’IA disent avoir du mal à établir des processus qui garantissent une utilisation responsable de l’IA.

Mais 43% des personnes interrogées «affirment n’avoir aucune responsabilité au-delà de la conformité réglementaire» lorsqu’il s’agit d’exploiter des systèmes d’IA qui prennent des décisions susceptibles d’avoir un impact «indirect» sur les moyens de subsistance.

Il existe un courant de pensée sous-jacent dans l’industrie de l’IA qui, jusqu’à ce rapport, offrait de l’espoir aux partisans du déploiement sans entraves de l’IA.

L’idée est que les inquiétudes concernant toutes les variétés de biais dans les algorithmes, par exemple, sont exagérées parce que les entreprises sont aussi motivées que n’importe quel acteur de la société à voir créer des logiciels scrupuleusement justes et précis.

Le rapport du FICO semble illustrer un secteur privé qui clique sur des cases au lieu d’assumer la responsabilité des actions de logiciels qui ont un pouvoir sans précédent et croissant sur l’activité économique et les opérations gouvernementales.

Peut-être à la recherche d’une note optimiste au milieu de la passation et de la poursuite de l’argent, les auteurs du rapport ont constaté que 63% des personnes interrogées «pensent que l’éthique de l’IA et l’IA responsable deviendront un élément central de la stratégie de leur organisation d’ici deux ans.

Cela semble supposer que quelque chose de chanceux se produira dans un avenir immédiat, comme peut-être l’écriture de l’IA qui écrit l’éthique de l’IA dans d’autres systèmes d’IA.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici