mercredi, 21 février 2024

Bloquer l’accès à ChatGPT est une solution à court terme pour atténuer les risques

Pour 10 000 utilisateurs d’entreprise, une entreprise connaît environ 183 incidents de publication de données sensibles sur ChatGPT par mois, selon Netskope.

Le code source représente la plus grande part des données sensibles exposées.

Sur la base de données provenant de millions d’utilisateurs d’entreprise dans le monde, les chercheurs ont découvert que l’utilisation des applications d’IA générative augmentait rapidement, en hausse de 22,5 % au cours des deux derniers mois, ce qui amplifiait les risques que les utilisateurs exposent des données sensibles.

ChatGPT domine le marché de l’IA générative

Les chercheurs ont découvert que les organisations de 10 000 utilisateurs ou plus utilisent en moyenne 5 applications d’IA par jour. ChatGPT voit plus de 8 fois plus d’utilisateurs actifs quotidiens que toute autre application d’IA générative. Au rythme de croissance actuel, le nombre d’utilisateurs accédant aux applications d’IA devrait doubler au cours des sept prochains mois.

Au cours des deux derniers mois, Google a été l’application d’IA qui a connu la croissance la plus rapide. Bard, qui ajoute actuellement des utilisateurs à 7,1 % par semaine, contre 1,6 % pour ChatGPT. Aux taux actuels, Bard n’est pas sur le point de rattraper ChatGPT avant plus d’un an, bien que l’espace des applications d’IA génératives devrait évoluer de manière significative d’ici là, avec de nombreuses autres applications en développement.

ChatGPT est le plus susceptible d’être exposé au code source

Netskope a constaté que le code source est publié sur ChatGPT plus que tout autre type de données sensibles, à un taux de 158 incidents pour 10 000 utilisateurs par mois. Les autres données sensibles partagées dans ChatGPT incluent les données réglementées – y compris les données financières et de santé, les informations personnellement identifiables – ainsi que la propriété intellectuelle à l’exclusion du code source et, plus préoccupant encore, les mots de passe et les clés, généralement intégrés dans le code source.

« Il est inévitable que certains utilisateurs téléchargent du code source propriétaire ou du texte contenant des données sensibles vers des outils d’IA qui promettent d’aider à la programmation ou à l’écriture », a déclaré Ray Canzanese, directeur de recherche sur les menaces, Netskope Threat Labs. « Par conséquent, il est impératif que les organisations mettent en place des contrôles autour de l’IA pour éviter les fuites de données sensibles. L’objectif ultime est d’avoir des contrôles qui permettent aux utilisateurs de profiter des avantages de l’IA, de rationaliser les opérations et d’améliorer l’efficacité, tout en atténuant les risques. Les contrôles les plus efficaces que nous voyons sont une combinaison de DLP et de coaching utilisateur interactif. »

Adoption en toute sécurité des applications d’IA

Netskope Threat Labs suit actuellement les proxies ChatGPT et plus de 1 000 URL et domaines malveillants d’attaquants opportunistes cherchant à tirer parti du battage publicitaire de l’IA, y compris plusieurs campagnes de phishing, des campagnes de distribution de logiciels malveillants et des sites Web de spam et de fraude.

Bloquer l’accès au contenu lié à l’IA et aux applications d’IA est une solution à court terme pour atténuer les risques, mais se fait au détriment des avantages potentiels qu’offrent les applications d’IA pour compléter l’innovation de l’entreprise et la productivité des employés. Les données montrent que dans les services financiers et les soins de santé, deux secteurs hautement réglementés, près d’une organisation sur cinq a mis en place une interdiction générale de l’utilisation de ChatGPT par ses employés, tandis que dans le secteur de la technologie, seule une organisation sur 20 a fait de même.

« En tant que leaders de la sécurité, nous ne pouvons pas simplement décider d’interdire des applications sans affecter l’expérience utilisateur et la productivité », a déclaré James Robinson, CISO adjoint chez Netskope. « Les organisations doivent se concentrer sur l’évolution de la sensibilisation de leurs effectifs et de leurs politiques de données pour répondre aux besoins des employés qui utilisent les produits d’IA de manière productive. Il existe une bonne voie vers une activation sûre de l’IA générative avec les bons outils et le bon état d’esprit. »

Pour que les organisations puissent adopter les applications d’IA en toute sécurité, elles doivent axer leur approche sur l’identification des applications autorisées et la mise en place de contrôles permettant aux utilisateurs de les utiliser au maximum de leur potentiel, tout en protégeant l’organisation des risques. Une telle approche devrait inclure le filtrage de domaine, le filtrage d’URL et l’inspection du contenu pour se protéger contre les attaques. Voici d’autres étapes pour protéger les données et utiliser les outils d’IA en toute sécurité :

  • Bloquer l’accès aux applications qui ne servent aucun objectif commercial légitime ou qui présentent un risque disproportionné pour l’organisation.
  • Employez le coaching des utilisateurs pour rappeler aux utilisateurs la politique de l’entreprise concernant l’utilisation des applications d’IA.
  • Utilisez les technologies modernes de protection contre la perte de données (DLP) pour détecter les publications contenant des informations potentiellement sensibles.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici