lundi, 26 février 2024

Meta publie des outils open source pour la sécurité de l’IA

Crédit : Meta

Meta a présenté Purple Llama, un travail consacré à la production d’open- des outils sources permettant aux développeurs d’évaluer et d’améliorer la crédibilité et la sécurité des modèles d’IA génératifs avant qu’ils ne soient utilisés ouvertement.

Meta a souligné la nécessité d’efforts de collaboration pour garantir la sécurité de l’IA, mentionnant que les difficultés de l’IA ne peuvent pas être résolues. avec en isolement. La société a déclaré que l’objectif de Purple Llama est d’établir une structure partagée pour développer une genAI beaucoup plus sûre alors que les problèmes se multiplient concernant les grandes conceptions de langages et d’autres technologies d’IA.

« Les personnes qui développent des systèmes d’IA ne peuvent pas s’occuper du problème. obstacles de l’IA dans le vide, c’est pourquoi nous voulons uniformiser les règles du jeu et créer un centre de gravité pour une confiance et une sécurité ouvertes », a écrit Meta dans un article.

Gareth Lindahl-Wise, responsable des détails de la société de cybersécurité Ontinue, a qualifié Purple Llama de « action favorable et proactive » vers une IA plus sécurisée.

« Il y aura certainement des allégations de vertu ou d’arrière-pensées dans le regroupement des développements sur une plate-forme – mais en vérité, une meilleure défense « prêt à l’emploi » au niveau du consommateur sera avantageuse », a-t-il ajouté. « Les entités ayant des obligations internes, de consommation ou réglementaires strictes devront naturellement toujours se soumettre à des examens rigoureux, incontestablement au-delà de l’offre de Meta, mais tout ce qui peut aider à régner dans le futur Far West est bon pour l’écosystème. » /p>

Le projet comprend des partenariats avec des développeurs d’IA ; des services cloud comme AWS et Cloud ; des sociétés de semi-conducteurs telles qu’Intel, AMD et Nvidia ; et des sociétés d’applications logicielles, dont Microsoft. La coopération vise à produire des outils destinés à la fois aux études de recherche et aux entreprises pour évaluer les capacités des modèles d’IA et reconnaître les menaces de sécurité.

Le tout premier ensemble d’outils lancés par Purple Llama comprend CyberSecEval, qui évalue les menaces de cybersécurité dans l’IA. -logiciel généré. Il comprend une conception linguistique qui identifie les textes inappropriés ou préjudiciables, y compris les conversations violentes ou les activités illégales. Les développeurs peuvent utiliser CyberSecEval pour vérifier si leurs conceptions d’IA sont vulnérables à la production de code non sécurisé ou à la participation à des cyberattaques. Les recherches de Meta ont révélé que les conceptions de langages volumineux recommandent souvent du code sensible, soulignant l’importance d’un contrôle et d’une amélioration continus pour la sécurité de l’IA.

Llama Guard est un autre outil de cette suite, un modèle de langage étendu formé pour identifier les éléments potentiellement dommageables. ou un langage offensant. Les concepteurs peuvent utiliser Llama Guard pour évaluer si leurs conceptions produisent ou acceptent des matières dangereuses, aidant ainsi à filtrer les déclencheurs pouvant conduire à des résultats inappropriés.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici