mercredi, 11 décembre 2024

Microsoft annonce un copilote de sécurité IA génératif

Microsoft a annoncé son AI Security Copilot, une implémentation GPT-4 qui apporte des capacités d’IA génératives à sa sécurité interne suite, et comprend une foule de toutes nouvelles fonctions de visualisation et d’analyse.

L’interface de base d’AI Security Copilot est similaire à la performance du chatbot familière aux utilisateurs d’IA génératifs. Il peut être utilisé exactement de la même manière, pour répondre aux problèmes de sécurité de manière naturelle, mais les fonctionnalités les plus excellentes proviennent de sa combinaison étroite avec les produits de sécurité existants de Microsoft, comprenant Protector, Sentinel, Entra, Province, Priva et Intune. .

Copilot peut analyser les données de tous ces produits de sécurité et fournir des explications détaillées et automatisées (y compris des visualisations), ainsi que des solutions recommandées.

Le système aura la capacité de prendre des mesures contre certains types de menaces, par exemple en effaçant les e-mails contenant du contenu destructeur déterminé par une analyse précédente.

Microsoft a déclaré avoir des stratégies pour élargir les alternatives de connexion de Security Copilot au-delà des propres produits de l’entreprise, mais n’a fourni aucune autre information dans un livestream et un article principal détaillant l’élément.

Microsoft a noté qu’en tant que produit d’IA générative, Security Copilot ne fournira pas de réponses correctes 100 % du temps, ce qui nécessitera une formation supplémentaire et la contribution des premiers utilisateurs pour atteindre son plein potentiel.

Automatisation un avantage d’AI Security Copilot, mais les défis restent

Selon les spécialistes de l’IA, c’est un système efficace, même s’il n’est pas aussi unique que Microsoft l’a présenté. Avivah Litan, éminente vice-présidente et analyste chez Gartner, a déclaré qu’IBM disposait de capacités comparables grâce à son IA Watson depuis de nombreuses années.

« L’IA ici est plus rapide et meilleure, mais la fonctionnalité est la même », a-t-elle déclaré. déclaré. « C’est une offre intéressante, mais elle ne résout pas les problèmes rencontrés par les utilisateurs avec l’IA générative. »

Indépendamment de ces problèmes, le plus important est l’incapacité reconnue de Security Copilot à fournir des informations précises dans tous cas– les avantages possibles du système sont encore en suspens, selon Chris Kissel, vice-président de la recherche d’IDC.

« La grande récompense ici est que beaucoup plus de choses pourraient être automatisées », a-t-il déclaré. « L’idée que vous ayez un ChatGPT écrivant quelque chose de manière dynamique et les analyses pour l’évaluer en contexte, dans la même couche, est engageante. »

Les deux analystes, cependant, étaient légèrement sceptiques quant à la politique proclamée de Microsoft sur partage d’informations – essentiellement, que les données personnelles ne seront pas utilisées pour former les conceptions fondamentales de l’IA et que tous les détails de l’utilisateur resteront sous le contrôle de l’utilisateur.

La préoccupation, ont-ils déclaré, était que les informations sur les incidents sont essentielles pour former des conceptions d’IA comme celle utilisée pour Security Copilot, et que l’entreprise n’avait pas fourni beaucoup d’informations sur la manière exacte dont ces données seraient être manipulé.

« C’est un problème », a déclaré Kissel. « Si vous essayez de faire quelque chose impliquant, déclarez, un élément spécifique du droit d’auteur, peut-il y avoir des garanties qui maintiennent les données en place ? »

« Comment savons-nous que les informations sont réellement sécurisées si elles le font n’offre pas les outils pour l’examiner ? » a déclaré Litan.

Microsoft n’a pas révélé de date de disponibilité pour Security Copilot aujourd’hui, mais a déclaré que « nous anticipons avec impatience de partager plus bientôt. »

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici