vendredi, 19 avril 2024

Trouver des bogues dans les modèles d’IA à DEF CON 31

Le village de l’IA de DEF CON accueillera la première évaluation publique des grands modèles de langage (LLM) lors de la 31e édition de la convention des hackers en août, axée sur la découverte de bogues et la découverte du potentiel d’abus des modèles d’IA.

Les possibilités et les contraintes des LLM

Les LLM offrent de nombreuses méthodes pour aider la créativité des utilisateurs, mais présentent également des difficultés, notamment en termes de sécurité et vie privée.

Cette occasion pourrait clarifier les implications de l’utilisation de l’IA générative, une innovation qui a de nombreuses applications potentielles mais aussi des conséquences potentielles que nous ne comprenons pas encore totalement.

Au cours de la conférence, les groupes rouges mettront à l’épreuve les LLM de quelques-uns des principaux fournisseurs, tels que Anthropic, Google, Hugging Face, NVIDIA, OpenAI, Stability et Microsoft. Ils le feront sur une plate-forme d’examen établie par Scale AI.

« Généralement, les entreprises ont résolu ce problème avec des équipes rouges spécialisées. Ce travail s’est principalement produit en personnel. Les problèmes variés avec ces conceptions ne seront pas résolu jusqu’à ce que davantage de personnes sachent comment se regrouper et les évaluer », a déclaré Sven Cattell, créateur d’AI Village.

« Les primes de bogue, les événements de piratage en direct et d’autres engagements de quartier standard en matière de sécurité peuvent être modifiés pour la machine des systèmes basés sur la conception d’apprentissage. Ceux-ci comblent 2 besoins avec un seul acte, traitant les méfaits et élargissant le voisinage des chercheurs qui savent comment aider. »

Le but de cet exercice est de découvrir à la fois les possibilités et les limites des LLM. En vérifiant ces modèles, les groupes rouges souhaitent révéler toute vulnérabilité potentielle et évaluer dans quelle mesure les LLM peuvent être manipulés.

Les résultats de cet entraînement en équipe rouge seront publiés, permettant à chacun de profiter des informations collectés.

Soutien de la Maison Blanche

L’assistance de la Maison Blanche, de la Direction de l’informatique et de la science des détails (CISE) de la Structure nationale des sciences et du Caucus de l’IA du Congrès pour la La prochaine séance d’entraînement de l’équipe rouge est un signe clair de l’importance qu’ils accordent à l’utilisation des LLM. Il met également en évidence les menaces potentielles liées à cette technologie.

Le plan Biden-Harris pour un coût des droits de l’IA et la structure de gestion des dangers de l’IA du NIST sont deux efforts importants visant à promouvoir l’utilisation responsable des innovations de l’IA. Cet exercice d’équipe rouge s’aligne sur ces initiatives.

« Cet exercice indépendant offrira des informations vitales aux scientifiques et au grand public sur les effets de ces modèles, et permettra aux entreprises et aux développeurs d’IA de prendre des mesures pour réparer problèmes rencontrés dans ces conceptions. Le test des conceptions d’IA indépendamment du gouvernement fédéral ou des entreprises qui les ont réellement établies est un élément essentiel de leur évaluation efficace », a déclaré la Maison Blanche.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici