dimanche, 4 juin 2023

Les experts en cybersécurité affirment que suspendre le développement du GPT-4 est inutile

Plus tôt aujourd’hui, un groupe de plus de 1 800 leaders et technologues en systèmes experts (IA), allant d’ à Steve Wozniak, a publié une lettre ouverte contactant tous les laboratoires d’IA pour arrêter immédiatement brièvement l’avancement pendant 6 mois. Les systèmes d’IA sont plus efficaces que GPT-4 en raison de « menaces profondes pour la société et l’humanité ».

Bien qu’un temps d’arrêt puisse aider à mieux comprendre et gérer les dangers sociétaux créés par l’IA générative, certains affirment que c’est également un effort pour les concurrents à la traîne de rattraper leur retard sur l’étude de recherche sur l’IA avec des leaders dans le domaine comme OpenAI.

Selon l’éminent analyste VP de Gartner, Avivah Litan, qui s’est entretenu avec VentureBeat à propos de la question, « La pause de six mois est un plaidoyer pour arrêter la formation de modèles plus puissants que GPT-4. GPT 4.5 sera rapidement suivi par GPT-5, qui devrait atteindre AGI (intelligence artificielle de base). Une fois AGI arrivé, il sera probablement beaucoup trop tard pour mettre en place des contrôles de sécurité qui protègent efficacement l’utilisation humaine de ces systèmes. »

Événement

Change 2023

Rejoignez-nous à San Francisco les 11 et 12 juillet, où les cadres supérieurs partageront comment ils ont intégré et amélioré les investissements en IA pour réussir et éviter les erreurs typiques.

Inscrivez-vous maintenant Malgré les problèmes concernant

dangers sociétaux

posturés par l’IA générative, de nombreux spécialistes de la cybersécurité doutent qu’une pause dans l’avancement de l’IA soit d’une quelconque utilité. Au lieu de cela, ils soutiennent qu’une telle pause ne fournirait qu’un sursis de courte durée aux groupes de sécurité pour développer leurs défenses et se préparer à répondre à une augmentation de l’ingénierie sociale, du phishing et de la génération de code malveillant. Pourquoi une pause dans le développement de l’IA générative n’est

pas possible L’un des arguments les plus convaincants contre une étude de recherche

sur l’IA du point de vue de la cybersécurité est qu’elle n’affecte que les fournisseurs, et non les acteurs de menaces nuisibles. Les cybercriminels auraient toujours la capacité d’établir de tout nouveaux vecteurs d’attaque et de développer leurs méthodes d’attaque. « Arrêter brièvement le développement de la prochaine génération d’IA

n’empêchera pas les stars trompeuses de continuer à prendre l’innovation dans des conditions dangereuses. instructions, « Steve Grobman, CTO de McAfee, a informé VentureBeat. » Lorsque vous avez des développements technologiques, avoir des organisations et des entreprises avec une éthique et des exigences qui continuent de faire progresser la technologie est essentiel pour garantir que la technologie est utilisée de la manière la plus responsable possible. « Dans le même temps, l’exécution d’une interdiction de former des systèmes d’IA pourrait être

considérée comme un excès de réglementation. « L’IA est utilisée en mathématiques, et nous ne pouvons pas légiférer, réglementer ou empêcher

les gens de faire des maths. Nous devons plutôt la comprendre, informer nos dirigeants pour qu’ils l’utilisent correctement dans les meilleurs endroits et reconnaître que nos adversaires chercheront à l’exploiter « , a déclaré Grobman. Alors que faire ? Si un temps d’arrêt complet sur le développement de l’IA générative n’est pas pratique, les régulateurs et les organisations personnelles

doivent plutôt envisager de développer un accord concernant les spécifications de l’avancement de l’IA, le niveau de sécurités intégrées que des outils comme GPT -4 exigent d’avoir et les procédures que les entreprises peuvent utiliser pour atténuer les risques associés. »La politique d’IA est une discussion essentielle et continue, et la législation sur l’utilisation morale et sûre de ces technologies

reste une difficulté urgente pour les législateurs avec le secteur- connaissances spécifiques, étant donné que la gamme de cas d’utilisation est en partie illimitée, des soins de santé à l’aérospatiale », a déclaré Justin Fier, vice-président directeur des opérations de l’équipe rouge, Darktrace, à VentureBeat. « Parvenir à un consensus national ou mondial sur qui devrait être tenu responsable des mauvaises applications de tous les types d’IA et d’automatisation, et pas seulement de l’IA de génération, est un défi crucial qu’une brève pause sur l’avancement de la conception de l’IA de génération en particulier n’est pas susceptible de résoudre, » Fier a dit. Au lieu d’un temps d’arrêt, le quartier de la cybersécurité serait bien mieux servi en se concentrant sur l’accélération de la conversation sur la façon de gérer les menaces associées à l’utilisation destructrice de l’IA générative, et en conseillant aux fournisseurs d’IA d’être plus transparents sur les garde-corps exécutés pour éviter nouvelles menaces. Comment regagner la confiance dans les options d’IA Pour Litan de Gartner, les avancées existantes en matière de conception de grands langages (LLM) nécessitent que les utilisateurs fassent confiance aux capacités d’équipe rouge d’un fournisseur

. Des organisations comme OpenAI sont opaques dans la façon dont elles gèrent les dangers en interne et offrent aux utilisateurs peu de capacités pour surveiller l’efficacité de ces protections intégrées. En conséquence, les entreprises ont besoin de nouveaux outils et de nouvelles structures pour gérer les cyber-risques présentés par l’IA générative. « Nous avons besoin d’une toute nouvelle classe d’outils de confiance

, de gestion des dangers et de la sécurité [TRiSM] qui gèrent les informations et les flux de processus entre les utilisateurs

et les entreprises hébergeant des modèles de base LLM. Ceux-ci seraient [cloud gain access to security broker] de type CASB dans leurs configurations techniques mais, contrairement aux fonctions CASB, ils seraient formés pour réduire le risques et accroître la confiance dans l’utilisation de modèles d’IA de structure basés sur le cloud », a déclaré Litan. Dans le cadre d’une architecture AI TRiSM, les utilisateurs doivent anticiper les fournisseurs hébergeant ou proposant ces conceptions pour leur fournir les outils permettant d’identifier les anomalies de données et de contenu, ainsi que des capacités supplémentaires de protection des informations et de garantie de la vie privée, telles que le masquage. Contrairement aux outils existants tels que ModelOps et la résistance aux attaques adverses, qui ne peuvent être exécutés que par un propriétaire et un opérateur de modèle, AI TRiSM permet aux utilisateurs de jouer un rôle plus important dans la définition du niveau de risque fourni par des outils

comme GPT- 4. La préparation est cruciale Finalement, au lieu d’essayer de supprimer les progrès de l’IA générative, les entreprises devraient rechercher des méthodes qu’elles peuvent préparer pour faire face aux risques fournis par l’IA générative. Une façon d’y parvenir est de trouver de toutes nouvelles façons de combattre l’IA par l’IA, et de suivre l’exemple de

entreprises comme Microsoft, Orca Security, ARMO et Sophos, qui ont déjà développé une toute nouvelle utilisation protectrice cas pour l’IA générative. Microsoft Security Copilot

utilise un mélange de GPT-4 et de ses propres données propriétaires pour traiter les notifications créées par les outils de sécurité, et les traduit en une explication en langage naturel des événements de sécurité. Cela fournit aux utilisateurs humains un récit à décrire pour réagir

aux violations plus efficacement. Ce n’est qu’un exemple de la façon dont GPT-4 peut être utilisé de manière défensive. L’IA générative étant facilement proposée et disponible à l’état sauvage, il appartient aux équipes de sécurité de découvrir comment elles peuvent tirer parti de ces outils en tant que multiplicateur incorrect pour protéger leurs organisations. « Cette innovation arrive… et rapidement », Jeff Pollard, Forrester

L’expert principal du vice-président, a déclaré à VentureBeat. « La seule méthode pour que la cybersécurité soit prête est de commencer à s’en occuper maintenant. Faire semblant qu’il ne vient pas – ou prétendre qu’un temps d’arrêt aidera – coûtera juste groupes de cybersécurité à long terme.

Les équipes doivent commencer à étudier et à apprendre dès maintenant comment ces technologies vont transformer leur façon de faire leur travail. « L’objectif de VentureBeat est d’être une place publique numérique où les décideurs techniques peuvent comprendre l’innovation d’entreprise transformatrice et négocier. Découvrez nos Briefings..

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici