vendredi, 29 mars 2024

Microsoft restreint les services de reconnaissance faciale et annule l’analyse faciale

Microsoft a lancé son Accountable AI Requirement, une structure pour aider l’entreprise à fonctionner dans l’intelligence artificielle. Appelant cela « une étape importante dans notre cheminement vers le développement d’une IA meilleure et plus fiable », Natasha Crampton, responsable de l’IA chez Microsoft, a déclaré que la structure place les personnes au centre des choix de conception du système et a l’intention de les guider vers une IA bien meilleure et plus juste. résultats. Dans un article sur le site de Microsoft, Crampton a déclaré que l’avancement de l’IA doit respecter des valeurs telles que la vie privée, l’inclusivité et la responsabilité.

À cette fin, Microsoft a annoncé qu’il se retirerait de son logiciel d’analyse faciale Azure Face Recognition Service conçu pour reconnaître l’âge, le sexe, les émotions et d’autres qualités, en citant les problèmes de partialité et d’inexactitude.

Dit Crampton, « les experts à l’intérieur et à l’extérieur de l’entreprise ont en fait souligné l’absence d’accord clinique sur la signification des » émotions « , les difficultés dans la façon dont les inférences se généralisent à travers les cas d’utilisation, les domaines et les données démographiques, et les problèmes accrus de confidentialité personnelle autour de ce type de capacité. »

Des modifications supplémentaires seront apportées aux systèmes biométriques plus conventionnels de l’entreprise, consistant en la reconnaissance faciale, qui seront désormais limités aux services gérés clients et partenaires, et limités aux cas d’utilisation qui ont en fait été prédéfinis comme acceptables le. Les utilisateurs devront adhérer à un code de conduite et suivre des garde-fous pour éviter les abus.

Dans sa publication, Microsoft a souligné la conviction croissante parmi les observateurs de l’IA qu’au niveau international, les lois visant à réglementer les utilisations de l’IA nécessitent de suivre avec le progrès technologique. Crampton a déclaré que l’entreprise reconnaissait son obligation d’agir. « Notre entreprise pense que nous devons nous efforcer de garantir que les systèmes d’IA sont responsables par style. »

Le géant américain de la technologie s’est également engagé avec d’autres pour arrêter les ventes de reconnaissance faciale à la police en 2020 en l’absence de politique fédérale.

Les risques possibles liés à l’IA sont restés dans les rubriques tout récemment, après que Blake Lemoine, un ingénieur en IA de Google, a été mis en congé pour avoir affirmé que l’IA de l’entreprise système de modélisation du langage, LaMDA, avait en fait fini par être sensible.

Un document avec les normes générales de l’exigence d’IA responsable peut être consulté ici.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici