mercredi, 24 avril 2024

Intégration de l’intelligence de sécurité dans le cerveau de l’IA des robots

La sécurité, comme toute autre aptitude, doit être construite et formée dans le système expert qui anime l’intelligence robotique. Personne ne supportera la robotique qui heurte régulièrement les gens, met en danger les passagers qui roulent dans des camions autonomes ou commande des articles en ligne sans l’autorisation de leurs propriétaires.

L’expérimentation contrôlée est la façon dont la plupart de la robotique, de l’informatique de pointe et de l’autonomie Les options de véhicules de conduite acquerront et développeront leur intelligence d’IA. En tant que cerveau derrière les appareils autonomes, l’IA peut aider la robotique à maîtriser si bien ses tâches désignées et à les exécuter si discrètement que nous ne faisons jamais de doute.

Google Cloud AI éclaire l’apprentissage automatique | Microsoft Azure AI et L’apprentissage automatique est au service de l’entreprise | L’IA AWS et l’intelligence artificielle se cumulent et se multiplient ]

La formation de l’IA robotique pour un fonctionnement en toute sécurité n’est pas une jolie procédure. Lorsqu’un robot recherche la séquence optimale d’actions pour atteindre le résultat souhaité, il devra nécessairement prendre plus d’actions contre-productives que de trajectoires optimales. En tirant parti du RL (apprentissage par renforcement) en tant qu’approche de formation essentielle à l’IA, les robots peuvent trouver quelles actions automatisées pourraient sécuriser les êtres humains et lesquelles peuvent les éliminer, les rendre malades ou les menacer d’une autre manière.

Ce que la robotique a besoin pour apprendre

Les concepteurs doivent intégrer les circonstances suivantes dans leurs procédures RL avant de lancer leur robotique alimentée par l’IA dans le monde plus large:

Conscience géospatiale : les environnements d’exploitation du monde réel peuvent être vraiment difficile pour la robotique à usage général de naviguer avec succès. Le RL idéal aurait pu aider les algorithmes d’IA de ce robot de sécurité à apprendre la série de difficultés de mobilité dans les environnements intérieurs et extérieurs pour lesquels il a été développé pour patrouiller. Équiper le robot d’une caméra intégrée et d’une imagerie thermique ne suffisait pas. Aucune IA expérimentée ne peut la restaurer après qu’elle soit effectivement retournée dans une fontaine publique.

Évitement des accidents : la robotique peut être un danger autant qu’un assistant dans de nombreux domaines réels. environnements mondiaux. Cela est évident avec les camions autonomes, mais c’est tout simplement aussi approprié pour la vente au détail, le lieu de travail, le domicile et d’autres environnements où les individus pourraient baisser la garde. Il y a toutes les raisons pour que la société anticipe que les garanties basées sur l’IA seront intégrées dans les robots de tous les jours afin que les jeunes enfants, les handicapés et le reste d’entre nous n’aient pas à craindre qu’ils nous percutent quand nous nous y attendons le moins. L’évitement des accidents – un défi majeur pour la RL – doit être une exigence, un algorithme extrêmement précis dans chaque robot. Il est fort probable que les lois et les régulateurs l’exigeront éventuellement dans de nombreuses juridictions.

Les catégories algorithmiques compteront sur une connexion en temps réel de données 3D provenant de diverses caméras et unités de détection, et conduiront à des atténuations automatiques des menaces telles que l’arrêt l’équipement ou le ralentir afin que les employés humains ne soient pas endommagés. Compte tenu de la série presque infinie de circonstances combinatoires autour desquelles le contrôle robotique industriel devra être formé, et de la vaste série correspondante d’accidents potentiels, l’IA nécessaire fonctionnera sur des RL entraînées sur des données collectées à la fois à partir d’opérations en direct et à partir de simulations de laboratoire extrêmement sensibles.

Évitement de l’automutilation : la robotique ne sera presque jamais programmée pour se ruiner et / ou détruire son environnement. Néanmoins, la robotique formée par RL peut vérifier un large éventail de comportements facultatifs, dont certains peuvent provoquer des automutilations. En tant qu’extension de sa formation de base, une méthode appelée «RL récurrente» pourrait être utilisée pour empêcher un robot de vérifier les habitudes d’autodestruction ou de déstabilisation de l’environnement pendant le processus de formation. L’utilisation de cette procédure de formation autoprotégée peut devenir courante alors que la robotique devient si flexible dans la saisie et le contrôle de leur environnement – consistant à s’engager avec des opérateurs humains – qu’ils commencent à se mettre eux-mêmes et les autres en danger à moins d’être formés à ne pas le faire.

mentionnés ici doivent avoir été formés pour éviter de passer des commandes non approuvées. Ils ont mal suivi une demande d’achat activée par la voix provenant d’un enfant sans autorisation parentale. Bien que cela aurait pu être traité par une authentification multifactorielle plutôt que par une formation algorithmique, il est clair que la robotique activée par la voix dans de nombreuses situations environnementales peut nécessiter de passer par des algorithmes complexes pour décider des méthodes multifactorielles à utiliser pour une authentification forte et une autorisation de confiance. Eventuellement, RL peut être utilisé pour aider la robotique à identifier plus rapidement les procédures d’authentification, d’autorisation et de délégation les plus appropriées à utiliser dans des environnements où elles agissent en tant que représentants de nombreuses personnes essayant d’accomplir une gamme variée et dynamique de tâches.

Manœuvres de protection : la robotique est un élément qui doit résister à des attaques à la fois délibérées et inattendues que d’autres entités, telles que les humains, peuvent provoquer. Les algorithmes d’IA de cette navette sans conducteur auraient dû être formés pour prendre une sorte d’action évasive – comme le détournement de quelques mètres dans la direction opposée – pour empêcher le semi-conducteur qui y recule par inadvertance. Les manœuvres de protection deviendront vitales pour les robots qui sont libérés dans les transports, la sécurité publique et les fonctions militaires. C’est aussi une capacité importante pour les gadgets robotiques de conjurer les méfaits et le vandalisme général, ils attireront certainement n’importe où ils seront libérés.

Orchestration collective : la robotique est déployée de manière significative comme gérée des ensembles plutôt que des assistants isolés. Les algorithmes d’IA dans les robots des installations de stockage doivent être formés pour fonctionner harmonieusement les uns avec les autres et avec les nombreuses personnes utilisées dans ces environnements. Compte tenu de la grande variété de situations d’interaction potentielles, il s’agit d’une difficulté difficile pour RL. La société exigera cette capacité essentielle des appareils de toutes sortes, y compris les drones qui patrouillent dans nos cieux, livrent nos produits et explorent des environnements trop dangereux pour les gens.

Niveau culturel de sensibilité : les robots doivent apprécier les individus conformément aux normes de la société civilisée. Cela consiste à s’assurer que les algorithmes de reconnaissance faciale des robots ne font pas de raisonnements préjugés, dégradants ou autrement insensibles sur les humains qu’ils rencontrent. Cela deviendra beaucoup plus important à mesure que nous introduirons la robotique dans des contextes hautement sociaux où ils devraient être formés pour ne pas déranger les individus, par exemple, en utilisant une salutation sexiste incorrecte à une personne transgenre. Ces types de distinctions peuvent être extrêmement difficiles à faire pour de vrais êtres humains à la volée, mais cela ne fait qu’augmenter l’exigence pour RL de former des entités basées sur l’IA pour éviter de dédier un faux pas automatisé.

Exigences de sécurité de l’IA . Vous devrez peut-être également montrer votre conformité avec les pratiques de RL contraintes pour garantir que vos robots utilisent une «exploration sûre», conformément aux conversations de ce document de session OpenAI 2019 ou de cette étude de recherche du MIT 2020.

Formation d’un robot courir en toute sécurité peut être un processus long, frustrant et fastidieux. Les développeurs devront peut-être faire progresser leurs pratiques de RL grâce à des efforts minutieux jusqu’à ce que leur robotique puisse fonctionner d’une manière qui puisse être généralisée à divers scénarios de sécurité.

Au cours des deux prochaines années, ces pratiques pourraient très bien se terminer étant nécessaire pour les spécialistes de l’IA qui déploient la robotique dans des applications qui mettent la vie des gens en danger.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici