mardi, 16 avril 2024

Un médecin entre dans un bar : lutter contre le biais de génération d’images avec l’IA responsable

Un médecin entre dans un bar…

Qu’est-ce que la configuration d’une mauvaise blague a à voir avec le biais d’image dans DALL-E ?

DALL-E est un programme d’intelligence artificielle développé par OpenAI qui crée des images à partir de descriptions textuelles. Il utilise une version à 12 milliards de paramètres du modèle GPT-3 Transformer pour interpréter les entrées en langage naturel et générer les images correspondantes. DALL-E peut générer des images réalistes et est l’un des meilleurs modèles multimodaux disponibles aujourd’hui.

Son fonctionnement interne et sa source ne sont pas accessibles au public, mais nous pouvons l’invoquer via une couche API en transmettant une invite de texte avec la description de l’image à générer. C’est un excellent exemple d’un modèle populaire appelé « modèle en tant que service ». Naturellement, pour un modèle aussi incroyable, il y a eu une longue attente, et quand j’ai enfin eu accès, j’ai voulu essayer toutes sortes de combinaisons.

Une chose que je voulais découvrir était les éventuels biais inhérents que le modèle présenterait. J’ai donc saisi deux invites distinctes et vous pouvez voir les résultats associés à chacune dans l’illustration ci-dessus.

À partir de l’invite de texte « Le médecin entre dans un bar », le modèle n’a produit que des hommes médecins dans un bar. Il place intelligemment le médecin, vêtu d’un costume avec un stéthoscope et une fiche médicale, à l’intérieur d’un bar, auquel il donne un décor sombre. Cependant, lorsque j’ai entré l’invite « L’infirmière entre dans un bar », les résultats étaient exclusivement féminins et plus caricaturaux, mettant davantage en évidence le bar comme une salle de jeux pour enfants. Outre le biais masculin et féminin pour les termes « médecin » et « infirmière », vous pouvez également voir le changement dans la façon dont la barre a été rendue en fonction du sexe de la personne.

Comment l’IA responsable peut aider à lutter contre les biais dans les modèles d’apprentissage automatique

OpenAI a été extrêmement rapide à remarquer ce biais et a apporté des modifications au modèle pour essayer de l’atténuer. Ils ont testé le modèle sur des populations sous-représentées dans leurs ensembles de formation – un infirmier, une femme PDG, etc. Il s’agit d’une approche active pour rechercher les biais, les mesurer et les atténuer en ajoutant davantage d’échantillons d’apprentissage dans les catégories biaisées.

Bien que cette activité ait du sens pour un modèle très populaire comme DALL-E, elle peut ne pas être implémentée dans de nombreux modèles d’entreprise, sauf demande spécifique. Par exemple, il faudrait beaucoup d’efforts supplémentaires aux banques pour rechercher les biais et travailler activement à les atténuer dans leurs modèles d’approbation de lignes de crédit.

Une discipline qui aide à organiser cet effort et à faire de cette étude une partie intégrante du développement du modèle est appelée IA responsable.

Tout comme DevOps et MLOps se concentrent sur l’agilité, la collaboration et l’automatisation du développement, l’IA responsable se concentre sur les problèmes d’éthique et de partialité du ML et aide à résoudre activement ces problèmes dans tous les aspects du cycle de vie du développement de ML. Travailler tôt sur les biais peut aider à économiser l’effort exponentiel requis pour chasser les biais comme OpenAI a dû le faire après la sortie de DALL-E. De plus, une stratégie d’IA responsable donne aux clients beaucoup plus confiance dans les normes éthiques d’une organisation.

Une stratégie d’IA responsable

Chaque entreprise développant l’IA aujourd’hui a besoin d’une stratégie d’IA responsable. Il doit couvrir tous les aspects, y compris :

  • Vérifier les biais des données d’entraînement
  • Évaluer les algorithmes pour les niveaux d’interprétabilité
  • Construire des explications pour les modèles de ML
  • Examiner la stratégie de déploiement des modèles
  • Surveillance de la dérive des données et des concepts

L’attention portée à ces aspects garantira que les systèmes d’IA développés sont construits avec reproductibilité, transparence et responsabilité. Même si tous les problèmes ne peuvent pas être atténués, une carte modèle doit être publiée pour documenter les limites de l’IA. Mon expérimentation avec DALL-E a montré un exemple apparemment bénin. Cependant, un biais d’image non contrôlé dans les modèles ML appliqué pratiquement dans une variété d’industries peut avoir des conséquences négatives importantes. Atténuer ces risques n’est certainement pas une blague.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici