vendredi, 26 avril 2024

Nous devons créer un meilleur biais dans l’IA

Au mieux, les systèmes d’IA étendent et augmentent le travail que nous faisons, aidant nous pour atteindre nos objectifs. Au pire, ils les minent. Nous avons tous entendu parler d’exemples très médiatisés de biais d’IA, comme le moteur de recrutement d’apprentissage automatique (ML) d’Amazon qui discrimine les femmes ou les résultats racistes des données de Google Vision. Ces cas ne font pas que nuire aux individus; ils vont à l’encontre des intentions originales de leurs créateurs. À juste titre, ces exemples ont suscité un tollé public et, par conséquent, ont transformé la perception des biais de l’IA en quelque chose de catégoriquement mauvais et que nous devons éliminer.

Bien que la plupart des gens s’accordent sur la nécessité de créer des systèmes d’IA fiables et équitables, il est irréaliste d’éliminer tous les préjugés de l’IA. En fait, alors que la nouvelle vague de modèles ML va au-delà du déterminisme, ils sont activement conçus avec un certain niveau de subjectivité intégré. Les systèmes les plus sophistiqués d’aujourd’hui synthétisent les entrées, contextualisent le contenu et interprètent les résultats. Plutôt que d’essayer d’éliminer complètement les préjugés, les organisations devraient chercher à mieux comprendre et mesurer la subjectivité.

En faveur de la subjectivité

Alors que les systèmes de ML deviennent plus sophistiqués et que nos objectifs deviennent plus ambitieux, les organisations exigent ouvertement qu’ils soient subjectifs, bien que d’une manière qui s’aligne sur l’intention et les objectifs généraux du projet.

Nous le voyons clairement dans le domaine de l’IA conversationnelle, par exemple. Les systèmes de synthèse vocale capables de transcrire une vidéo ou un appel sont désormais courants. En comparaison, la vague émergente de solutions ne se contente pas de rapporter le discours, mais aussi de l’interpréter et de le résumer. Ainsi, plutôt qu’une simple transcription, ces systèmes fonctionnent aux côtés des humains pour étendre la façon dont ils fonctionnent déjà, par exemple, en résumant une réunion, puis en créant une liste d’actions qui en découlent.

Dans ces exemples, comme dans de nombreux autres cas d’utilisation de l’IA, le système doit comprendre le contexte et interpréter ce qui est important et ce qui peut être ignoré. En d’autres termes, nous construisons des systèmes d’IA pour agir comme des humains, et la subjectivité fait partie intégrante de l’ensemble.

Le business du biais

Même le saut technologique qui nous a fait passer de la synthèse vocale à l’intelligence conversationnelle en quelques années seulement est faible par rapport au potentiel futur de cette branche de l’IA.

Considérez ceci : la conversation est, pour la plupart, transmise par des signaux et un ton non verbaux, selon Professeur Albert Mehrabian dans son travail fondateur, . Moins de dix pour cent sont dus aux mots eux-mêmes. Pourtant, la grande majorité des solutions d’intelligence conversationnelle s’appuient fortement sur l’interprétation de texte, ignorant largement (pour l’instant) les indices contextuels.

Alors que ces systèmes de renseignement commencent à interpréter ce que nous pourrions appeler les métadonnées de la conversation humaine. Autrement dit, le ton, les pauses, le contexte, les expressions faciales, etc., les préjugés – ou la subjectivité intentionnelle et guidée – ne sont pas seulement une exigence, c’est la proposition de valeur.

L’intelligence conversationnelle n’est que l’un des nombreux domaines de l’apprentissage automatique. Certaines des applications les plus intéressantes et potentiellement les plus rentables de l’IA ne consistent pas à reproduire fidèlement ce qui existe déjà, mais plutôt à l’interpréter.

Avec la première vague de systèmes d’IA il y a environ 30 ans, les biais étaient naturellement considérés comme mauvais, car il s’agissait de modèles déterministes destinés à être rapides, précis et neutres. Cependant, nous sommes à un point avec l’IA où nous sommes subjectifs parce que les systèmes peuvent correspondre et même imiter ce que font les humains. En bref, nous devons mettre à jour nos attentes en matière d’IA en fonction de l’évolution de celle-ci au cours d’une génération.

Déraciner les mauvais biais

Alors que l’adoption de l’IA augmente et que ces modèles influencent la prise de décision et les processus de la vie quotidienne, la question de la responsabilité devient essentielle.

Lorsqu’une faille de ML apparaît, il est facile d’en blâmer l’algorithme ou l’ensemble de données. Même un simple coup d’œil sur les résultats de la communauté de recherche sur le ML montre à quel point les projets dépendent de bibliothèques, de protocoles et d’ensembles de données « plug and play » facilement accessibles.

Cependant, les sources de données problématiques ne sont pas la seule vulnérabilité potentielle. Des biais indésirables peuvent tout aussi facilement s’insinuer dans la façon dont nous testons et mesurons les modèles. Les modèles ML sont, après tout, construits par des humains. Nous choisissons les données que nous les alimentons, comment nous validons les premiers résultats et comment nous continuons à utiliser les résultats. Les résultats biaisés qui reflètent des biais indésirables et involontaires peuvent être atténués dans une certaine mesure en ayant des équipes diversifiées et une culture de travail collaborative dans laquelle les membres de l’équipe partagent librement leurs idées et leurs contributions.

Responsabilité dans l’IA

La création d’un meilleur parti pris commence par la création d’équipes d’IA/ML plus diversifiées. Les recherches démontrent constamment que des équipes plus diversifiées entraînent une augmentation des performances et de la rentabilité, mais le changement a été d’une lenteur exaspérante. C’est particulièrement vrai en IA.

Bien que nous devions continuer à faire pression pour un changement de culture, ce n’est qu’un aspect du débat sur les préjugés. Les réglementations régissant le biais du système d’IA sont une autre voie importante pour créer des modèles fiables.

Les entreprises doivent s’attendre à un examen beaucoup plus minutieux de leurs algorithmes d’IA. Aux États-Unis, la Algorithmic Fairness Act a été introduit en 2020 dans le but de protéger les intérêts des citoyens contre les dommages que des systèmes d’IA injustes peuvent causer. De même, la proposition de l’UE La réglementation sur l’IA interdira l’utilisation de l’IA dans certaines circonstances et réglementera fortement son utilisation dans les situations à « haut risque ». Et à partir de New York en janvier 2023, les entreprises devront effectuer AI audits qui évaluer les préjugés raciaux et sexistes.

Construire des systèmes d’IA auxquels nous pouvons faire confiance

Lorsque les organisations envisagent de réévaluer un système d’IA, d’éliminer les biais indésirables ou de créer un nouveau modèle, elles doivent bien sûr réfléchir attentivement à l’algorithme lui-même et aux ensembles de données qu’il alimente. Mais ils doivent aller plus loin pour s’assurer que des conséquences imprévues ne se manifestent pas aux étapes ultérieures, telles que les tests et les mesures, l’interprétation des résultats ou, tout aussi important, au moment où les employés sont formés à leur utilisation.

Alors que le domaine de l’IA est de plus en plus réglementé, les entreprises doivent être beaucoup plus transparentes dans la manière dont elles appliquent les algorithmes à leurs opérations commerciales. D’une part, ils auront besoin d’un cadre solide qui reconnaît, comprend et régit les biais implicites et explicites.

Cependant, il est peu probable qu’ils atteignent leurs objectifs liés aux préjugés sans changement de culture. Non seulement les équipes d’IA doivent de toute urgence se diversifier, mais en même temps, la conversation sur les préjugés doit s’étendre pour suivre la génération émergente de systèmes d’IA. Alors que les machines d’IA sont de plus en plus conçues pour augmenter ce dont nous sommes capables en contextualisant le contenu et en déduisant le sens, les gouvernements, les organisations et les citoyens devront être en mesure de mesurer tous les biais auxquels nos systèmes sont soumis.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

xnxx sex download russianporntrends.com hardxxxpics saboten campus freehentai4u.com read manga porn rakhi sex photo ganstagirls.com nani sex video xxx indian girl video download elporno.mobi tamilauntycom bf hd video bf hd video porn555.me anyporn hd tamil beach sex erolenta.com xxx sex boy to boy bustyboobs pakistanixxxx.com nude sexy videos desi sex xvideos.com tubaka.mobi justdesi in free naked dance vegasmpegs.mobi eva grover desi ass lick eroanal.net 69 xvideo 4k xnxx thefuckingtube.com xxii roman numerals translation tamil nayanthara sex sexozavr.com indian porn videos tumblr كلبات سكس porn-arab.net نيك ف الكس y3df comics popsexy.net akhil wife hentai ahri wowhentai.net the sarashina bloodline