samedi, 27 avril 2024

Ignorer la race dans les soins de santé AI ne résout rien. Il y a une meilleure option

Parlez d’

une position à contre-courant. Un groupe de statistiques et d’analyse de RAND Corp. déclare que prédire la race et l’origine ethnique d’un patient peut conduire à de meilleurs algorithmes de soins de santé.

Cela peut également aider les cliniciens à réduire la prédisposition dans leurs pratiques.

Dans de nombreux autres éléments de l’organisation, l’ordre des choses est d’ignorer la race, donc le commentaire de Rand attire l’attention.

Le poste était composé de 4 statisticiens : Cheryl Damberg, Marc Elliott, Irineo Cabreros et Denis Agniel ; et le chercheur comportemental Steven Martino. Tous ont un bios plus profond que cela. Damberg est directeur du Center of Quality on Health System Performance de la RAND. Elliott occupe la chaire éminente de l’entreprise en matière de statistiques.

Ils ont examiné une facette extrêmement spécifique des soins de santé : les clients qui ne se reconnaissent pas sur le plan racial ou ethnique lors de leur inscription aux soins.

Algorithmes largement utilisé dans les soins de santé peut entraîner des résultats biaisés sur le plan racial, explique Elliott dans un résumé des travaux, ce qui conduit certains à exiger l’élimination des algorithmes. Il soutient que c’est jeter l’excellent que l’IA a continué à fournir des soins de santé.

Ce serait un peu comme jeter un coup d’œil aux conséquences d’un pont défaillant et décider que la seule façon dont les gens peuvent être en sécurité est de démonter tous les ponts.

Les codes d’aujourd’hui identifient correctement les lésions cutanées malignes plus régulièrement que les évaluations médicales, selon RAND. Et pourtant, il est tout aussi vrai que les algorithmes populaires de santé cardiaque sous-estiment le risque auquel les clients noirs sont confrontés avec une insuffisance cardiaque.

Oui, la prise de décision peut être entièrement rendue aux humains, mais cela ne supprime pas la prédisposition, conscient ou non.

Une autre alternative serait d’éliminer toute considération de race et d’origine ethnique dans l’avancement de l’algorithme, créant un état d’esprit pieux – l’équité par l’inconscience.

En même temps , la faible efficacité des algorithmes d’analyse faciale pour les femmes et les personnes à la peau plus foncée observée par le chercheur en vision des systèmes informatiques Pleasure Buolamwini a été régulièrement citée comme preuve de biais dans la biométrie faciale.

Il existe une autre alternative, selon la RAND équipe. Utilisez des outils de disparité en matière de santé, dont RAND en fait quelques-uns. Il est possible de déterminer ces inégalités de codage même si les clients n’ont en fait pas déclaré leur identité complète.

« L’imputation d’informations manquantes ou non fiables sur la race et l’ethnicité facilite l’identification de la prédisposition algorithmique et explique les mesures correctives nécessaires » pour réduire les biais dans les choix de traitement. Le groupe cite en exemple la méthode d’imputation Bayesian Improved Surname Geocoding.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

xnxx sex download russianporntrends.com hardxxxpics saboten campus freehentai4u.com read manga porn rakhi sex photo ganstagirls.com nani sex video xxx indian girl video download elporno.mobi tamilauntycom bf hd video bf hd video porn555.me anyporn hd tamil beach sex erolenta.com xxx sex boy to boy bustyboobs pakistanixxxx.com nude sexy videos desi sex xvideos.com tubaka.mobi justdesi in free naked dance vegasmpegs.mobi eva grover desi ass lick eroanal.net 69 xvideo 4k xnxx thefuckingtube.com xxii roman numerals translation tamil nayanthara sex sexozavr.com indian porn videos tumblr كلبات سكس porn-arab.net نيك ف الكس y3df comics popsexy.net akhil wife hentai ahri wowhentai.net the sarashina bloodline