jeudi, 25 avril 2024

L’IA responsable dans les soins de santé : lutter contre les préjugés et obtenir des résultats équitables

Avec le développement rapide de l’IA dans le domaine de la santé, les algorithmes sont généralement négligés lorsqu’il s’agit d’offrir des soins raisonnables et équitables aux clients. J’ai récemment assisté à la Conférence sur l’IA appliquée (CAAI) : IA responsable dans les soins de santé, organisée par la Booth School of Business de l’Université de Chicago. La conférence a réuni des leaders des soins de santé sur de nombreux aspects du service dans le but de discuter et de découvrir des méthodes efficaces pour réduire la prédisposition algorithmique dans les soins de santé. Il faut un groupe diversifié de parties prenantes pour reconnaître la prédisposition à l’IA et avoir un impact sur la garantie de résultats équitables.

Si vous lisez ceci, il est fort probable que vous reconnaissiez actuellement une prédisposition à l’IA, ce qui est un pas en avant favorable. Si vous avez déjà vu des films comme The Social Predicament ou Coded Predisposition, vous êtes sur la bonne voie. Si vous avez réellement lu des articles et des documents tels que Racial Bias in Health care Algorithms du Dr Ziad Obermeyer, c’est encore mieux. Ce que ces ressources expliquent, c’est que les algorithmes jouent un rôle important en suggérant les films que nous apprécions, les messages sociaux que nous voyons et les services de soins de santé conseillés, pour ne citer que quelques interactions numériques quotidiennes. Ces algorithmes incluent généralement des biais liés à la race, au sexe, à la situation socio-économique, à la préférence sexuelle, à la démographie, etc. Il y a en fait eu une augmentation significative de l’intérêt associé au biais de l’IA. Le nombre de documents de science des données sur le site Web d’arXiv soulignant les préjugés raciaux a en fait doublé entre 2019 et 2021.

Nous avons constaté l’intérêt des chercheurs et des médias, mais que pouvons-nous vraiment y faire dans le domaine de la santé ? Comment mettre ces principes en action ?

Avant de mettre ces concepts en pratique, examinons ce qui se passera si nous ne le faisons pas.

L’impact des préjugés sur la santé soins

Prenons, par exemple, un client qui gère différents problèmes de santé depuis un certain temps. Leur système de soins de santé a un programme spécial conçu pour intervenir tôt pour les personnes qui présentent un risque élevé de problèmes cardiovasculaires. Le programme a en fait révélé des résultats fantastiques pour les personnes inscrites. Cependant, le patient n’en a pas entendu parler. D’une certaine manière, ils n’étaient pas inclus dans la liste d’approche, malgré le fait que d’autres clients malades aient été notifiés et inscrits. Finalement, ils se rendent à la clinique d’urgence et leur état cardiaque a en fait beaucoup plus avancé qu’il ne l’aurait fait autrement.

C’est l’expérience d’être une minorité mal desservie et indétectable quelle que soit l’approche utilisée par un système de santé. Il n’est même pas nécessaire que ce soit l’IA. Une méthode courante de sensibilisation cardiovasculaire consiste à se composer uniquement d’hommes âgés de 45 ans et de femmes âgées de 55 ans. Si vous avez été exclu parce que vous êtes une femme qui n’a pas atteint la limite d’âge, le résultat est exactement le même.

Comment allons-nous y remédier ?

Chris Bevolo’s Joe Public 2030 est un regard sur 10 ans sur l’avenir des soins de santé, notifié par les dirigeants de la Mayo Clinic, Geisinger, Johns Hopkins Medication et bien plus encore. Cela ne semble pas garanti pour faire face aux disparités en matière de soins de santé. Pour environ 40% des procédures de qualité, les Noirs et les Autochtones ont reçu des soins encore pires que les Blancs. Les personnes non assurées avaient encore pire pris en charge 62 % des mesures de qualité, et l’accès à l’assurance était beaucoup plus faible parmi les personnes hispaniques et noires.

« Nous sommes toujours confrontés à quelques-uns des mêmes problèmes que nous » Nous avons géré depuis les années 80, et nous ne pouvons pas les comprendre », a déclaré Adam Brase, directeur exécutif du renseignement tactique à la Mayo Clinic. « Au cours des 10 dernières années, ces problèmes se sont multipliés, ce qui est très inquiétant. »

Pourquoi les données n’ont pas résolu le problème des biais dans l’IA

Aucun développement depuis la années 80 ? Les choses ont tellement changé depuis lors. Nous recueillons des quantités d’informations. Et nous savons que l’information ne ment jamais, n’est-ce pas ? Non, pas assez vrai. N’oublions pas que l’information n’est pas simplement quelque chose sur une feuille de calcul. Il s’agit d’une liste d’exemples de la façon dont les individus ont tenté de résoudre leur douleur ou d’améliorer leurs soins.

Alors que nous enchevêtrons et abusons des feuilles de calcul, les informations font ce que nous leur demandons. Le problème est de savoir ce que nous demandons aux données de faire. Nous pouvons demander ces informations pour augmenter le volume, développer les services ou réduire les coûts. À moins que nous ne lui demandions explicitement d’aborder les variations dans les soins, il ne le fera pas.

Participer à la conférence a changé ma façon de voir la prédisposition dans l’IA, et c’est ainsi.

Il est inadéquat de s’occuper des biais dans les algorithmes et l’IA. Pour résoudre les problèmes de santé, nous devons nous consacrer au plus haut niveau. La conférence a réuni technologues, stratèges, juristes et autres. Il ne s’agit pas de technologie. C’est donc un appel à lutter contre les prédispositions dans les soins de santé, et à s’appuyer fortement sur les algorithmes pour aider ! Alors, à quoi cela ressemble-t-il ?

Un appel à combattre la prédisposition à l’aide d’algorithmes

Commençons par discuter du moment où l’IA cesse de fonctionner et du moment où l’IA prospère dans les organisations en général. Le MIT et le Boston Consulting Group ont interrogé 2 500 cadres qui avaient travaillé sur des tâches d’IA. En général, 70 % de ces cadres ont déclaré que leur emploi avait cessé de fonctionner. Quelle était la différence la plus significative entre les 70 % qui ont arrêté de travailler et les 30 % qui ont réussi ?

Il s’agit de savoir si le travail d’IA soutenait un objectif organisationnel. Pour aider à clarifier cela davantage, voici quelques concepts de travail et s’ils réussissent ou cessent de fonctionner.

  • Achetez la solution de traitement du langage naturel la plus puissante.

Échec. Le traitement du langage naturel peut être exceptionnellement efficace, mais cet objectif n’a pas de contexte sur la manière dont il aidera l’entreprise.

  • Augmenter notre volume de soins médicaux en désignant intelligemment les patients à risque.

Passez. Il y a un objectif qui a besoin d’innovation, mais cet objectif est lié à un objectif commercial général.

Nous comprenons l’importance de spécifier les objectifs de service d’un travail, mais que manquaient ces deux objectifs ? Il leur manque toute mention de la résolution des prédispositions, des variations et des inégalités sociales. En tant que leaders des soins de santé, nos objectifs généraux sont là où nous devons commencer.

N’oubliez pas que des emplois efficaces commencent par des objectifs organisationnels et recherchez des solutions d’IA pour les soutenir. Cela vous offre un emplacement pour commencer en tant que leader de la santé. Les KPI que vous spécifiez pour vos départements pourraient très bien inclure des objectifs particuliers concernant l’augmentation de l’accès aux personnes mal desservies. « Augmenter le volume de x % », par exemple, peut consister en fait à : « Augmenter le volume des groupes minoritaires sous-représentés de y % ».

Comment obtenir de bons indicateurs à cibler ? Cela commence par poser les questions difficiles sur votre clientèle. Quelle est la répartition par race et par sexe par rapport à vos communautés environnantes ? Il s’agit d’une méthode fantastique pour attribuer un nombre et une taille à l’espace de soins de santé qui doit être résolu.

Cette approche descendante doit conduire à des actions telles que la responsabilité des fournisseurs et des experts en algorithmique pour aider à résoudre ces problèmes. cibles. Ce que nous devons aborder ici, cependant, c’est à qui tout cela est destiné. Le patient, votre quartier, vos consommateurs sont ceux qui risquent le plus d’y perdre.

Innover à la vitesse de la confiance

Lors de la conférence, l’ancien directeur de l’innovation de Barack Obama , Aneesh Chopra, a résolu cette ligne droite : « Le développement ne peut se produire qu’à la vitesse de la confiance. » C’est une énorme déclaration. La majorité d’entre nous dans le domaine de la santé demandent déjà des informations sur la race et l’origine ethnique. Beaucoup d’entre nous demandent maintenant des détails sur les préférences sexuelles et l’identité de genre.

Sans ces points de données, résoudre la prédisposition est incroyablement difficile. Malheureusement, de nombreuses personnes appartenant à des groupes mal desservis ne font pas suffisamment confiance aux soins de santé pour fournir ces informations. Je serai sincère, pour la majorité de ma vie, cela m’a inclus. Je n’avais aucune idée de la raison pour laquelle on me demandait cette information, de ce qui en serait fait, ou même si elle pouvait être utilisée pour me discriminer. J’ai diminué d’adresse. Je n’étais pas seul dans ce cas. Nous examinons la variété de personnes qui ont reconnu leur race et leur origine ethnique dans un centre de santé. Généralement, une personne sur 4 ne le fait pas.

J’ai consulté la chercheuse comportementale Becca Nissan d’Ideas42, et il s’avère qu’il n’y a pas beaucoup de littérature scientifique sur la façon d’aborder ce problème. C’est mon plaidoyer individuel : associez-vous à vos patients. Si quelqu’un a réellement subi des préjugés, il est difficile de voir un avantage à fournir les informations que les individus ont utilisées pour vous victimiser.

Une collaboration est une relation basée sur la confiance. Cela implique quelques étapes :

  • Mérite un partenariat avec. Il doit y avoir un réel engagement à lutter contre les préjugés et à individualiser les soins de santé, sinon demander des données ne vaut rien.
  • Informez-nous de ce que vous ferez. Les consommateurs sont fatigués des pièges et des spams résultant du partage de leurs informations. Niveau avec eux. Soyez transparent sur la façon dont vous utilisez les données. S’il s’agit de personnaliser l’expérience ou de mieux répondre aux préoccupations en matière de soins de santé, assumez-le. Nous en avons assez d’être choqués par les algorithmes.
  • Suivez jusqu’au bout. La confiance n’est pas vraiment acquise tant que le suivi n’a pas eu lieu. Ne nous laissez pas tomber.

Conclusion

Si vous construisez, lancez ou utilisez une IA responsable, il est nécessaire d’être entouré d’autres personnes qui font exactement ce qu’il faut même. Voici quelques bonnes pratiques pour les projets ou les projets qui ont un effet humain :

  • Ayez un groupe diversifié. Les groupes qui manquent de variété ont tendance à ne pas se demander si une conception est partial.
  • Collectez les données idéales. Sans valeurs reconnues pour la race et la culture ethnique, le sexe, le revenu, le sexe, la préférence sexuelle et d’autres facteurs sociaux de santé, il n’y a pas d’autre moyen de tester et de contrôler l’équité.
  • Pensez à la façon dont certaines mesures peuvent apporter une prédisposition cachée. Le concept de dépenses de santé de l’étude de 2019 montre à quel point cette mesure peut être gênante pour certaines populations.
  • Mesurez le potentiel de la variable cible à introduire un biais. Avec n’importe quelle métrique, étiquette ou variable, il est crucial d’inspecter son effet et sa distribution selon la race, le sexe, le sexe et d’autres facteurs.
  • Garantir que les techniques utilisées ne produisent pas de biais pour les autres populations. Les équipes doivent concevoir des mesures d’équité applicables à tous les groupes et les tester en permanence.
  • Définissez des critères et suivez le développement. Une fois que la conception a été lancée et reste en cours d’utilisation, suivez en permanence les modifications.
  • Gestion Support. Vous avez besoin de votre leadership pour adhérer, il ne peut pas s’agir simplement de quelqu’un ou d’un groupe.
  • « L’IA responsable » n’est pas la fin, elle ne fait pratiquement rien algorithmes raisonnables. Cela doit appartenir à un engagement organisationnel plus complet pour lutter contre la prédisposition totale.
  • Partenariat avec les clients. Nous devrions approfondir la manière dont nous collaborons avec les clients et les impliquons dans le processus. Que peuvent-ils nous dire sur la manière dont ils souhaitent que leurs données soient utilisées ?

En tant que personne qui aime le domaine des sciences de l’information, je suis extrêmement optimiste quant à l’avenir et à la possibilité d’avoir un impact réel sur les clients du secteur de la santé. Nous avons beaucoup de travail devant nous pour nous assurer que l’impact est impartial et accessible à tous, mais je pense qu’en ayant simplement ces conversations, nous sommes sur la meilleure voie.

.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

xnxx sex download russianporntrends.com hardxxxpics saboten campus freehentai4u.com read manga porn rakhi sex photo ganstagirls.com nani sex video xxx indian girl video download elporno.mobi tamilauntycom bf hd video bf hd video porn555.me anyporn hd tamil beach sex erolenta.com xxx sex boy to boy bustyboobs pakistanixxxx.com nude sexy videos desi sex xvideos.com tubaka.mobi justdesi in free naked dance vegasmpegs.mobi eva grover desi ass lick eroanal.net 69 xvideo 4k xnxx thefuckingtube.com xxii roman numerals translation tamil nayanthara sex sexozavr.com indian porn videos tumblr كلبات سكس porn-arab.net نيك ف الكس y3df comics popsexy.net akhil wife hentai ahri wowhentai.net the sarashina bloodline