mercredi, 17 avril 2024

Hacker démontre des failles de sécurité dans GPT-4 juste un jour après le lancement

Le tout nouveau modèle de langage puissant d’OpenAI, GPT-4, était à peine sorti des expulsions lorsqu’un stagiaire a exposé des vulnérabilités qui pourraient être utilisées à des fins destructrices. Cette découverte est un aperçu des risques de sécurité qui accompagnent les systèmes d’IA à capacité progressive.

Récemment, OpenAI a publié GPT-4, un système « multimodal » qui atteint des performances de niveau humain sur les travaux linguistiques. Mais en quelques jours, Alex Albert, un étudiant en technologie informatique de l’Université de Washington, a découvert une méthode pour contourner ses mécanismes de sécurité. Dans une démonstration publiée sur Twitter, Albert a démontré comment un utilisateur pouvait inciter GPT-4 à produire des directives pour pirater un ordinateur, en utilisant des vulnérabilités dans la façon dont il interprète et réagit au texte.

Alors qu’Albert déclare qu’il ne fera pas la promotion de l’utilisation du GPT-4 pour des fonctions nuisibles, son travail met en évidence la menace que représentent les conceptions innovantes de l’IA entre de mauvaises mains. Alors que les entreprises lancent rapidement des systèmes toujours plus performants, pouvons-nous nous assurer qu’ils sont rigoureusement sécurisés ? Quelles sont les implications des conceptions d’IA qui peuvent créer un texte à consonance humaine selon les besoins ?

VentureBeat s’est entretenu avec Albert par le biais de messages directs sur Twitter pour comprendre ses motivations, examiner les dangers des grandes conceptions de langage et explorer comment cultiver une large discussion sur l’engagement et les dangers de l’IA avancée. (Note de l’éditeur : cette interview a en fait été modifiée pour plus de longueur et de clarté.)

Événement

Transform 2023

Rejoignez-nous à San Francisco le 11 juillet- 12, où les cadres supérieurs partageront comment ils ont intégré et amélioré les investissements financiers de l’IA pour réussir et éviter les erreurs typiques.

Inscrivez-vous maintenant VentureBeat : Quoi

vous a amené au jailbreak et

pourquoi cassez-vous activement ChatGPT ? Alex Albert : Je me suis lancé dans le jailbreaking parce que c’est une chose agréable à faire et c’est

fascinant de tester ces modèles avec des méthodes spéciales et uniques. Je jailbreake activement pour trois facteurs principaux que j’ai exposés dans la toute première section de ma newsletter. En résumé : je produis des jailbreaks pour motiver les autres à faire des jailbreaks. J’essaie d’exposer les biais du modèle affiné

  1. par le modèle de base efficace. J’essaie d’ouvrir la discussion sur l’IA. de vues en dehors de la bulle – les jailbreaks ne sont qu’une méthode pour finir dans ce cas VB : Avez-vous une structure pour contourner les directives configurées dans GPT-4 ? Albert : [Je] n’ai pas

    de cadre en soi, mais il faut plus d’idées et d’efforts pour naviguer dans les filtres

    . Des méthodes spécifiques se sont révélées efficaces, comme l’injection opportune en divisant les déclencheurs contradictoires en morceaux, et des simulations compliquées qui vont à plusieurs niveaux. VB : À quelle vitesse les jailbreaks sont-ils corrigés ? Albert : Les jailbreaks ne sont pas corrigés aussi rapidement, normalement. Je ne souhaite pas faire d’hypothèse sur ce qui se passe dans les coulisses

    avec ChatGPT puisque je ne le sais pas, mais les éléments importants qui éliminent la plupart des jailbreaks sont des réglages supplémentaires ou une conception améliorée. VB : Pourquoi continuez-vous à développer des jailbreaks si OpenAI continue à « réparer » les exploits ? Albert : Puisqu’il en existe d’autres qui attendent d’être trouvés. VB : Pouvez-vous me parler un peu de votre parcours ? Comment vous êtes-vous

    démarré dans l’ingénierie rapide ? Albert : Je viens de terminer mon trimestre à l’Université

    de Washington à Seattle, et je termine avec un diplôme en informatique. J’ai fini par me familiariser avec

    l’ingénierie rapide l’été dernier après avoir trafiqué le GPT-3. Depuis, j’ai vraiment accepté la vague de l’IA et j’ai en fait essayé

    de recueillir autant d’informations que possible à son sujet. VB : Combien de personnes s’inscrivent à votre newsletter ? Albert : Actuellement, j’ai un peu plus de 2,5 000 abonnés en un peu moins d’un mois. VB : Comment est née l’idée de la newsletter ? Albert : Le concept de la newsletter a commencé après la création de mon site jailbreakchat.com. Je voulais un endroit pour bloguer sur mon travail de jailbreak et partager mon analyse des occasions et des modèles actuels dans le monde de l’IA. VB : Quelles ont été quelques-unes des difficultés les plus importantes

    que vous avez rencontrées lors du développement du jailbreak ? Albert : J’étais motivé pour développer le tout premier jailbreak pour

    GPT-4 après avoir réalisé que seulement environ

    Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici