vendredi, 26 avril 2024

Un conseiller de Paravision appelle à une nouvelle perspective pour une IA responsable

Les communautés ont atteint le stade où elles résistent à l’idée que le scénario actuel autour des principes et des préjugés dans le système expert n’est pas assez bon, et tout le monde peut commencer à découvrir et à promouvoir un système expert responsable, déclare Elizabeth M. Adams, consultante principale en principes d’IA pour Paravision et PDG de la société de conseil EMA Advisory Services. Pendant ce temps, Amazon accorde à une équipe de scientifiques de l’IA de l’Université de l’Iowa et de la Louisiana State University 800 000 USD pour réduire la discrimination dans les algorithmes d’IA.

L’IA responsable doit être prise aussi au sérieux que la cybersécurité

« Nous devons penser à l’IA responsable comme nous pensons à la cybersécurité », a déclaré Elizabeth M. Adams lors d’une discussion sur la gestion de la prédisposition historique continue de l’IA pour l’Opus College of Company de l’Université de St. Thomas, Minnesota.

Après des années de développement rapide et d’application dans le monde réel, les innovations de l’IA traitent de quelque chose de un contrecoup : « ce qui se passe lorsque nos mondes technologiques et nos mondes sociaux s’affrontent », a déclaré Adams, qui se décrit comme une adepte de la technologie et une futuriste enthousiaste.

Adams, elle-même poursuivant un doctorat à Pepperdine en biais dans l’IA, décrit le nombre de personnes entrant en contact avec les technologies en cours d’implantation, au-delà du personnel technique. De l’autorisation du plan budgétaire, à la nomination des groupes, en passant par la production du marketing, la formation et le service client, de nombreux départements sont inclus.

C’est une bonne idée pour augmenter le nombre d’yeux sur les avancées, la variété de celles incluses et la variété des chances pour quelqu’un de repousser ou de remettre en question une technologie tout au long du cycle de vie de l’avancement de l’article.

« Il est extrêmement essentiel d’avoir les personnes idéales, les voix idéales à la table lorsque vous développez votre technologie,  » a déclaré Adams. Tout le monde vient d’un quartier et a un récit, qui peuvent tous être réunis pour améliorer les devoirs autour de l’intelligence artificielle.

L’IA responsable n’est pas quelque chose de simple à définir et se résume à une sorte de prise de conscience. Une prise de conscience des préjugés perpétués dans le système expert, des menaces potentielles des méthodes pour l’IA telles que le grattage d’Internet et des réseaux sociaux pour les bases de données de formation, une prise de conscience des dommages.

Adams et sa société de conseil demandent conseil aux organisations sur la gestion autour de l’IA responsable. Cependant, elle pense que c’est quelque chose pour tout le monde à tous les niveaux pour plus d’informations et aider les autres à découvrir.

Il y a quelques années, Adams a cofondé la coalition grand public Oversight of Monitoring Technology and Military Devices dans le Ville de Minneapolis. Il ne s’agissait pas d’interdire des choses, a déclaré Adams, mais d’une réaction à une augmentation de l’utilisation de l’IA en ville, dans le domaine de la technologie civique, qui couvre la reconnaissance faciale, les drones et la biométrie de la marche.

Quand un logiciel fournisseur qui ne se souciait pas des principes de l’IA était utilisé dans la ville, Adams a reconnu « c’est pourquoi nous avons besoin d’une réglementation, car si nous la laissons aux spécialistes du marché ou aux fournisseurs de technologie, nous risquons de ne pas obtenir d’innovation sûre ou d’innovation objective. »

Adams espère insuffler un sens des responsabilités dans l’IA au-delà des mondes des affaires et de la technologie. « Si vous aimez l’art, suivez votre intérêt pour l’IA dans l’art », a-t-elle déclaré, pour aider les individus à trouver leur place dans les innovations qui changent actuellement nos vies pour toujours.

Amazon, National Science Foundation, attribuent 800 $ Subvention K pour réduire la prédisposition à l’IA

Une subvention de 800 000 $ sur trois ans est répartie entre des scientifiques de l’Université de l’Iowa et de l’Université d’État de Louisiane pour trouver des moyens de réduire la possibilité de discrimination par le biais d’algorithmes d’intelligence artificielle, rapporte le Daily Iowan.

Le financement provient de la National Science Foundation et d’Amazon, qui fait actuellement face à de nombreux procès concernant des problèmes de confidentialité des informations et a récemment été critiqué pour avoir utilisé des taux d’erreurs déséquilibrés pour tester son logiciel biométrique Rekognition.

Un chercheur de l’Université de l’Iowa déclare que le groupe entend rendre les conceptions d’intelligence artificielle plus justes sans sacrifier la précision des algorithmes. Les chercheurs examineront l’application logicielle utilisée par les tribunaux pour prévoir la récidive, la façon dont les ressources médicales sont allouées aux communautés et traiteront avec Netflix pour travailler sur l’équité dans la suggestion de contenu.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

xnxx sex download russianporntrends.com hardxxxpics saboten campus freehentai4u.com read manga porn rakhi sex photo ganstagirls.com nani sex video xxx indian girl video download elporno.mobi tamilauntycom bf hd video bf hd video porn555.me anyporn hd tamil beach sex erolenta.com xxx sex boy to boy bustyboobs pakistanixxxx.com nude sexy videos desi sex xvideos.com tubaka.mobi justdesi in free naked dance vegasmpegs.mobi eva grover desi ass lick eroanal.net 69 xvideo 4k xnxx thefuckingtube.com xxii roman numerals translation tamil nayanthara sex sexozavr.com indian porn videos tumblr كلبات سكس porn-arab.net نيك ف الكس y3df comics popsexy.net akhil wife hentai ahri wowhentai.net the sarashina bloodline