LLM Guard est une boîte à outils développée pour renforcer la sécurité des Large Language Designs (LLM). Il est développé pour une intégration et une publication simples dans des environnements de production.
Il présente des critiques substantielles à la fois pour les entrées et les sorties des LLM, en assurant la désinfection, la détection du langage préjudiciable et des fuites d’informations, et prévention contre les attaques par injection opportune et par jailbreak.
LLM Guard a été développé pour une fonction simple : quelle que soit la capacité des LLM à améliorer l’efficacité des employés, l’adoption par les entreprises a été réticente. Cette hésitation provient des risques de sécurité considérables et de l’absence de contrôle et d’observabilité de la mise en œuvre de ces technologies.
« Nous voulons que cela finisse par devenir la boîte à outils de sécurité open source choisie par le marché, rationalisant l’adoption protégée de Des LLM pour les entreprises en fournissant tous les outils essentiels dès la sortie de l’emballage », a déclaré Oleksandr Yaremchuk, l’un des créateurs de LLM Guard, à Help Net Security.
» LLM Guard a traversé des mises à jour étonnantes, que nous déployons bientôt, comprenant une meilleure paperasse pour la communauté, une assistance pour l’inférence GPU et notre zone LLM Guard Play récemment publiée sur HuggingFace. Au cours du mois à venir, nous lancerons notre API de sécurité (version cloud de LLM Guard), en se concentrant sur la garantie de l’efficacité avec une faible latence et le renforcement de l’évaluation/hallucination des résultats », a ajouté Yaremchuk.
La boîte à outils est proposée totalement gratuitement sur GitHub. Que vous utilisiez ChatGPT, Claude, Bard ou toute autre conception de structure, vous pouvez désormais renforcer votre LLM.
Toute l’actualité en temps réel, est sur L’Entrepreneur