Dans cette interview d’Aid Net Security, Ryan Woodley, PDG de Netcraft, parle de l’importance de la surveillance, de la collecte et de l’analyse des informations Web pour acquérir une compréhension approfondie du Web. Cette information joue un rôle crucial dans la protection et l’autonomisation des clients.
Netcraft surveille le Web depuis 1995 et comprend différents éléments du marché. Comment collectez-vous et examinez-vous les informations sur les serveurs Web, les systèmes en cours d’exécution, les fournisseurs d’hébergement et d’autres domaines associés ?
Netcraft a cartographié les progrès d’Internet depuis ses débuts en 1995. Notre méthode consiste à effectuer des études Web mensuelles approfondies pour visiter et vérifier autant de sites Web nouveaux et existants que possible. L’objectif est de générer un immense et riche pool d’informations, qui sont traitées à l’aide d’algorithmes innovants et de méthodes d’enrichissement de l’information. Les résultats peuvent être contrôlés et visualisés à travers différentes lentilles.
Nos résultats fournissent une vue à multiples facettes du paysage Web, classées selon de nombreux paramètres clés tels que les serveurs Web, les systèmes en cours d’exécution, les fournisseurs d’hébergement, etc. Nous avons également intégré ces informations à notre service de détection et de perturbation de la cybercriminalité, lancé en 2005. Les données et les informations des deux se complètent et fournissent une compréhension approfondie d’Internet.
Intégrées à notre expérience, les données alimentent notre connaissance approfondie d’Internet, à la fois ses aspects visibles et cachés, pour protéger et responsabiliser nos consommateurs. Cette double technique fournit un point de vue holistique, robuste et dynamique sur le Web, ce qui en fait une ressource puissante pour les services, les professionnels de la cybersécurité et les scientifiques.
Les données de Netcraft montrent de nombreux sites, domaines et ordinateurs connectés au Web. Comment Netcraft s’assure-t-il de la précision et de la fiabilité de ses processus de collecte et d’analyse de données ? Existe-t-il des contraintes ou des obstacles possibles à la collecte de données aussi complètes ?
Notre objectif principal chez Netcraft est de rendre compte d’Internet tel qu’il est déployé, et, par exemple, dans nos informations Secure Sockets Layer (SSL) et Transport Layer Security (TLS), nous signalons le certificat utilisé lors de la connexion à un site. même lorsqu’il existe de nombreux certificats fournis qui se chevauchent dans les journaux de transparence des certificats.
De même, nous visons à nous assurer que nos données sur la cybercriminalité sont aussi complètes que possible en générant des rapports via notre communauté anti-cybercriminalité, nos propres recherches et les flux de données de nos partenaires. Par exemple, en consommant des fichiers de zone des principaux TLD et en accédant à du matériel potentiellement malveillant à partir d’un réseau d’apport géo-distribué pour contourner la tentative d’un agresseur d’échapper à la détection.
Notre approche a en fait été d’automatiser ce processus de détection comme autant que possible, lui permettant de fonctionner à grande échelle, offrant une vigilance 24 heures sur 24. Il existe des difficultés fondamentales à traiter une telle quantité d’informations, mais nos systèmes et traitements avancés garantissent une précision et une fiabilité élevées.
Quels modèles ou technologies émergents notables sur le marché des serveurs Web avez-vous observés tout au long de votre étude récente ? Quel est l’impact de ces tendances sur l’ensemble du paysage et à quoi pouvons-nous nous attendre dans un avenir proche ?
Dans l’ensemble du marché des serveurs Web, une tendance cruciale que nous avons observée consiste à utiliser les réseaux de diffusion de matériel (CDN), qui ont en fait fait une marque populaire à la fois dans nos données de serveur Web et dans le monde de la cybercriminalité où il s’agit d’un catalyseur important de contenu authentique et non valide.
Tout comme de nombreuses technologies, les contrevenants sont souvent des pionniers, adoptant de tout nouveaux produits ou services tout en répondant à des besoins nouveaux et existants. Avec un œil attentif sur ces tendances et modèles, nous pouvons doter nos clients des connaissances nécessaires pour se prémunir contre les dangers potentiels et mieux comprendre le paysage en mutation. Au fur et à mesure que les CDN et les innovations comparables se développent, nous prévoyons une adaptation continue de la façon dont les organisations et les cybercriminels fonctionnent en ligne.
En pensant à l’augmentation des cybermenaces et à l’importance de la cybersécurité, quelles recommandations feriez-vous aux RSSI qui souhaitent garder leurs sites et leurs consommateurs sûr?
Face aux cyberrisques constants et omniprésents, il existe quelques pratiques de base que les RSSI doivent prioriser. L’essentiel est constamment important : maintenir à jour les correctifs de sécurité, modifier les mots de passe par défaut et administrateur, et simplement exposer l’ensemble minimal de services désignés sur le Web. C’est simplement le point de départ. Pour les grandes entreprises, il est nécessaire de surveiller en permanence leur surface d’attaque ainsi que celle des ennemis potentiels.
Les grandes organisations et leurs RSSI peuvent utiliser divers outils et plates-formes, y compris le suivi de leur propre surface d’attaque exposée et celle de leurs agresseurs potentiels qui cherchent à usurper l’identité de la marque pour exploiter ses consommateurs. Les deux éléments peuvent se connecter les uns aux autres de manière intrigante – par exemple, le suivi des informations HTTP Referer sur leur site authentique peut aider à déterminer les sites clonés et les sites de phishing conçus pour imiter la marque. En tirant parti de ces informations, les organisations peuvent adopter une méthode plus proactive et détaillée en matière de cybersécurité, en gardant une longueur d’avance sur les risques potentiels.
.
Toute l’actualité en temps réel, est sur L’Entrepreneur