Les photos des dossiers médicaux sont privées, mais cela ne les empêchera peut-être pas d’apparaître dans les ensembles de données utilisés pour former l’intelligence artificielle (IA) et les systèmes biométriques, selon un article sur Ars Technica.
Un artiste californien qui travaille avec l’IA a été choqué de découvrir que LAION-5B , un ensemble de données extrait d’images accessibles au public sur le Web, contenait deux photos médicales postopératoires d’elle prises il y a près de dix ans. L’artiste, qui se fait appeler Lapine, a déclaré que les photos avaient été prises à la suite de procédures visant à traiter la dyskératose congénitale, une maladie génétique qui inhibe la production de cellules sanguines dans la moelle osseuse.
Une décharge signée Lapine postée sur Twitter montre clairement qu’elle n’a pas consenti aux photos être utilisé n’importe où en dehors de son dossier médical. Le chirurgien qui a pris les photos est décédé en 2018. Personne ne sait comment ils sont entrés dans LAION-5B. Mais une chose est sûre : ce ne sont pas les seules données biométriques sensibles qui s’y trouvent. Ars Technica a mené une recherche pour confirmer que les photos de Lapine étaient bien présentes dans LAION-5B, et a découvert « des milliers de photos de dossiers médicaux de patients similaires dans l’ensemble de données, chacune pouvant avoir un statut éthique ou juridique douteux similaire ». En outre, bon nombre d’entre eux ont peut-être déjà été intégrés dans des services commerciaux de synthèse d’images d’IA et utilisés pour entraîner des algorithmes de reconnaissance faciale.
LAION est une organisation à but non lucratif « visant à mettre à la disposition du grand public des modèles de machine learning à grande échelle, des ensembles de données et le code associé ». En d’autres termes, ses ensembles de données sont composés de listes d’URL vers des images originales. Ainsi, alors que son site Web contient de brèves instructions sur la façon dont les citoyens de l’UE peuvent demander des retraits dans des cas spécifiques scénarios (par exemple, lorsque l’image et le nom sont liés), LAION n’héberge pas réellement les images dans ses jeux de données. Lorsque Lapine a posté une question sur son problème sur le serveur Discord de LAION, un ingénieur de l’organisation lui a suggéré de demander qu’elle soit retirée à la source – c’est-à-dire que ce n’était pas la faute de LAION si sa photo était là pour être supprimée.
Lapine, pour sa part, veut toujours que ses photos soient retirées du LAION 5-B et a suspendu son travail avec l’IA, pour l’instant, invoquant des préoccupations éthiques sur ce qui – ou qui – pourrait s’y retrouver. « Ce n’est pas parce qu’ils l’ont extrait du Web que c’était censé être une information publique », dit-elle. « Ou même sur le Web. »
La découverte intervient des semaines après qu’AlgorithmWatch a découvert qu’un ensemble de données de reconnaissance faciale de personnes trans est resté disponible en ligne pendant plusieurs années après la controverse initiale sur son existence.
Toute l’actualité en temps réel, est sur L’Entrepreneur