dimanche, 4 juin 2023

Microsoft décrit son approche pour réglementer les risques de sa technologie biométrique

Microsoft

a mis en évidence certaines des menaces liées à l’adoption non surveillée de la biométrie, en passant en revue certaines des stratégies qu’il utilise pour gérer les risques dans son propre logiciel de reconnaissance faciale et vocale.

Son rapport sur l’IA le plus récent décrit ce que l’entreprise appelle des « utilisations délicates » de l’IA, des cas où les dirigeants estiment qu’ils nécessitent une vérification plus approfondie. Les auteurs définissent également une surveillance supplémentaire que l’entreprise déclare accorder à ces technologies.

Microsoft affirme qu’un programme d’évaluation fournit une surveillance supplémentaire pour les groupes travaillant sur des cas d’utilisation à haut risque de ses systèmes d’IA, qui incluent des procédures pratiques et responsables d’évaluation et de consultation de projets d’IA via son lieu de travail des utilisations sensibles de l’IA responsable.

L’entreprise déclare avoir diminué pour construire et déployer des applications d’IA particulières, après avoir conclu « que les emplois n’étaient pas suffisamment alignés sur notre norme et nos concepts d’IA responsable ».

Cela comprenait le veto d’une police régionale de Californie le département demande une reconnaissance faciale en temps réel au moyen de caméras électroniques portées sur le corps et de webcams rapides dans des circonstances de patrouille, qualifiant cette utilisation de « prématurée ».

La procédure d’évaluation des utilisations délicates a contribué à former l’opinion interne selon laquelle il « nécessitait une discussion sociale autour de l’utilisation de la reconnaissance faciale et que des lois devaient être établies. »

Le rapport décrit également sa politique d’accès restreint à la politique, en vertu de laquelle Microsoft demande parfois aux consommateurs potentiels de postuler utiliser et « divulguer leur utilisation prévue » pour s’assurer « qu’il remplit l’un de nos cas d’utilisation acceptables prédéfinis ».

Microsoft a également décrit comment il gère l’application de voix neurale sur mesure d’Azure AI, qui est utilisée par AT&T.

La société déclare dans ce cas qu’elle « a un accès minimal du consommateur au service, s’est assurée que des cas d’utilisation acceptables ont été définis et communiqués via une application, a exécuté des mécanismes d’approbation des intervenants, a créé des conditions d’utilisation spécifiques, a publié une documentation de transparence détaillant les risques et les contraintes, et mis en place des garde-fous techniques pour aider à garantir la participation active de l’orateur lors de la création d’une voix artificielle. »

La Maison Blanche a dévoilé aujourd’hui ses propres plans pour protéger les gens contre les menaces de l’IA.

Les stratégies indiquent que Microsoft, en plus d’Anthropic, Google, Hugging Face, Nvidia, OpenAI et Stability AI ouvrent les systèmes d’IA à l’examen du gouvernement fédéral.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici