vendredi, 26 avril 2024

Microsoft décrit son approche pour réglementer les risques de sa technologie biométrique

Microsoft

a mis en évidence certaines des menaces liées à l’adoption non surveillée de la biométrie, en passant en revue certaines des stratégies qu’il utilise pour gérer les risques dans son propre logiciel de reconnaissance faciale et vocale.

Son rapport sur l’IA le plus récent décrit ce que l’entreprise appelle des « utilisations délicates » de l’IA, des cas où les dirigeants estiment qu’ils nécessitent une vérification plus approfondie. Les auteurs définissent également une surveillance supplémentaire que l’entreprise déclare accorder à ces technologies.

Microsoft affirme qu’un programme d’évaluation fournit une surveillance supplémentaire pour les groupes travaillant sur des cas d’utilisation à haut risque de ses systèmes d’IA, qui incluent des procédures pratiques et responsables d’évaluation et de consultation de projets d’IA via son lieu de travail des utilisations sensibles de l’IA responsable.

L’entreprise déclare avoir diminué pour construire et déployer des applications d’IA particulières, après avoir conclu « que les emplois n’étaient pas suffisamment alignés sur notre norme et nos concepts d’IA responsable ».

Cela comprenait le veto d’une police régionale de Californie le département demande une reconnaissance faciale en temps réel au moyen de caméras électroniques portées sur le corps et de webcams rapides dans des circonstances de patrouille, qualifiant cette utilisation de « prématurée ».

La procédure d’évaluation des utilisations délicates a contribué à former l’opinion interne selon laquelle il « nécessitait une discussion sociale autour de l’utilisation de la reconnaissance faciale et que des lois devaient être établies. »

Le rapport décrit également sa politique d’accès restreint à la politique, en vertu de laquelle Microsoft demande parfois aux consommateurs potentiels de postuler utiliser et « divulguer leur utilisation prévue » pour s’assurer « qu’il remplit l’un de nos cas d’utilisation acceptables prédéfinis ».

Microsoft a également décrit comment il gère l’application de voix neurale sur mesure d’Azure AI, qui est utilisée par AT&T.

La société déclare dans ce cas qu’elle « a un accès minimal du consommateur au service, s’est assurée que des cas d’utilisation acceptables ont été définis et communiqués via une application, a exécuté des mécanismes d’approbation des intervenants, a créé des conditions d’utilisation spécifiques, a publié une documentation de transparence détaillant les risques et les contraintes, et mis en place des garde-fous techniques pour aider à garantir la participation active de l’orateur lors de la création d’une voix artificielle. »

La Maison Blanche a dévoilé aujourd’hui ses propres plans pour protéger les gens contre les menaces de l’IA.

Les stratégies indiquent que Microsoft, en plus d’Anthropic, Google, Hugging Face, Nvidia, OpenAI et Stability AI ouvrent les systèmes d’IA à l’examen du gouvernement fédéral.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

xnxx sex download russianporntrends.com hardxxxpics saboten campus freehentai4u.com read manga porn rakhi sex photo ganstagirls.com nani sex video xxx indian girl video download elporno.mobi tamilauntycom bf hd video bf hd video porn555.me anyporn hd tamil beach sex erolenta.com xxx sex boy to boy bustyboobs pakistanixxxx.com nude sexy videos desi sex xvideos.com tubaka.mobi justdesi in free naked dance vegasmpegs.mobi eva grover desi ass lick eroanal.net 69 xvideo 4k xnxx thefuckingtube.com xxii roman numerals translation tamil nayanthara sex sexozavr.com indian porn videos tumblr كلبات سكس porn-arab.net نيك ف الكس y3df comics popsexy.net akhil wife hentai ahri wowhentai.net the sarashina bloodline