samedi, 20 avril 2024

L’ère de l’intelligence continue

La principale difficulté (et chance) des données se présentant à de nombreuses organisations, qu’il s’agisse d’entreprises, d’établissements universitaires ou d’organismes du secteur public, n’est pas une question de volume, mais de vitesse.

Cela ne veut pas dire que la gestion de volumes toujours croissants de données n’est pas essentielle. Le Big Data pose toujours une difficulté, mais les outils, processus et compétences nécessaires pour surmonter cet obstacle sont généralement connus et communément adoptés. Les mégadonnées ont peut-être été apprivoisées; L’information rapide est désormais, pour de nombreuses entreprises, le Saint Graal.

Chaque événement qui se produit au sein d’une organisation peut être capturé et devenir un point d’information; une lecture de température d’une unité de détection dans un équipement, des données de télémétrie d’une camionnette de livraison, des appels téléphoniques dans un centre de contact, des visiteurs d’un site. Chaque événement a une valeur, dont la valeur peut se dégrader en fonction du temps nécessaire pour attraper, traiter, évaluer et agir. Fréquemment encadrée en quelques nanosecondes, cette «  fenêtre d’opportunité  » finit par devenir une métrique essentielle pour la différenciation concurrentielle des entreprises dans des secteurs aussi variés que les services financiers, l’exploration spatiale, les réseaux de télécommunications et les entreprises d’énergie domestique.

Il Il est essentiel de garder à l’esprit que lorsque vous discutez de l’analyse d’informations en temps réel, sa valeur augmente considérablement lorsque vous pouvez les associer à des informations historiques pour les intégrer, les comparer et les contraster «sur le moment».

exemple d’informations de température provenant d’une unité de détection intégrée dans un fabricant. Comprendre ces données en temps réel est utile pour vérifier que le fabricant fonctionne efficacement ou qu’une limite de niveau de température n’a pas été atteinte, mais lorsque vous les incluez dans des données historiques, cartographiées sur de nombreux jours et mois, vous n’obtenez pas simplement une meilleure compréhension de la façon dont une machine fonctionne, mais vous pouvez également construire des modèles prédictifs basés sur d’autres profils d’efficacité de la machine pour comprendre quand les problèmes sont les plus susceptibles de se produire et agir à l’avance.

Vous pouvez théoriser cet exemple pour tous les scénarios utilisateurs et marchés; suivre les informations des voitures NASCAR alertant les ingénieurs des irrégularités du moteur, les questions de recherche des acheteurs de maison informant Google ou Microsoft de la publicité à diffuser lorsque les résultats apparaissent, les données de localisation des unités de détection sur les voitures autonomes ou les drones avertissant des obstructions. La liste est presque illimitée

Chez Kx, nous appelons cela l’ère de «l’intelligence continue», c’est-à-dire la capacité des entreprises à prendre des décisions plus intelligentes à partir des informations obtenues à partir de l’analyse d’informations – que ce soit en temps réel, historique ou les deux dans un laps de temps aussi court que possible. Des fabricants de fabrication de précision qui ont besoin d’améliorer le rendement et de réduire les déchets, aux appareils de suivi dans des endroits éloignés, à l’amélioration des réseaux 4G et 5G en temps réel, ou peut-être à l’amélioration de l’efficacité des voitures pour les groupes de course de F1, les informations historiques doivent pouvoir notifier et forment de gros volumes de données entrantes – au fur et à mesure que ces données sont développées – afin que les informations en temps réel soient immédiatement placées dans le contexte de ce qu’une entreprise comprend déjà. Cela permet une prise de décision plus rapide et plus intelligente et nous propulse au-delà de l’ère de la gestion de l’information et dans la période de l’intelligence continue.

Le défi pour de nombreuses organisations est néanmoins de savoir comment fournir une intelligence continue lors de la gestion et de l’analyse de l’information les piles de logiciels sont généralement cloisonnées et fortement fragmentées.

Pour gérer la forte augmentation des volumes de données constatée au cours des dernières années – et pour essayer d’en optimiser la valeur fondamentale – les organisations ont investi dans des informations à grande échelle services d’installations. Des bases de données de classe entreprise qui se nourrissent d’installations de stockage d’informations et de lacs de données, tous assemblés avec des systèmes de combinaison et de gouvernance. En conséquence, nombreux sont ceux qui se sont retrouvés avec une pile d’applications logicielles complexes avec plusieurs applications de divers fournisseurs couvrant le stockage, l’analyse, la visualisation et plus encore.

Bien que quelques-unes de cette complexité soient à la fois délibérées et compréhensibles – juridique et les exigences contractuelles, le contrôle de la confidentialité personnelle et les méthodes de confidentialité par exemple – cela pose cependant des difficultés lorsque l’on cherche à exécuter une technologie. Bien que ces énormes options d’information soient relativement habiles à gérer de grands volumes de données historiques, où la vitesse de capture et d’analyse ne sont pas des exigences critiques, elles ne sont pas bien adaptées pour fournir des informations en temps réel à partir d’informations capturées «  à la minute  ». Des insuffisances existent en termes de performances et d’augmentation du coût total de possession, ainsi que les risques liés à la duplication des données en raison de nombreuses applications utilisant les mêmes ensembles de données.

Alors que les données finissent par être de plus en plus riches, beaucoup plus rapides et exponentiellement plus élevée en vitesse et en volume, la méthode cloisonnée de gestion des données n’est pas bien adaptée à l’ère de l’intelligence continue. Cependant, il existe facilement des technologies et des plates-formes qui utilisent l’interopérabilité et l’intelligence pour combiner et obtenir rapidement des données à partir de silos et permettre une analyse et une visualisation à la minute près. Le nom cumulatif de ces innovations est le temps réel ou l’analyse en continu et pour les entreprises qui souhaitent mettre en œuvre un tel service, il y a quelques facteurs à prendre en compte et les meilleures pratiques à garder à l’esprit.

Pensez à la façon dont l’analyse en continu peut s’insérer dans l’environnement de gestion des données existant. La réalité est que de nombreuses organisations ont déjà beaucoup investi dans les options de stockage et de gestion des informations, il est donc impossible de supposer qu’elles ne feraient que déchirer et changer. De préférence, les solutions d’analyse en continu doivent être compatibles avec les principales plates-formes cloud et architectures de calcul, interopérables avec les langages populaires des émissions et polyvalentes en ce qui concerne l’approche de déploiement – en fonction des préférences pour une exécution sur site, dans le cloud ou dans une conception hybride.

De plus, comme pour toute nouvelle version d’option, les entreprises doivent tenir compte du TCO et de l’effet qu’un déploiement d’analyse en continu pourrait avoir sur les coûts. Avoir une faible empreinte mémoire et une capacité à travailler sur du matériel de base sont des considérations importantes, en particulier pour l’IoT et d’autres circonstances où l’analyse à la périphérie ou à proximité nécessite un logiciel pour fonctionner sur des appareils qui ne disposeront probablement pas d’une puissance de calcul considérable.

L’entretien continu et les dépenses opérationnelles sont d’autres éléments à représenter, ainsi que le niveau de services professionnels disponibles pour soutenir l’analyse, la correction et la migration de l’information. Les entreprises peuvent également souhaiter examiner l’expérience qui existe au sein de l’entreprise, pour voir si les capacités appropriées existent ou si les politiques de formation et de recrutement doivent être mises à jour.

De manière critique, toute solution doit avoir à la fois l’interopérabilité et l’intelligence pour combiner et obtenir des données à la demande quels que soient l’emplacement, le format et la taille.

L’ouverture de l’intelligence constante nécessite une refonte des environnements d’information – abandonnant les services cloisonnés et vers une approche de plate-forme horizontale qui offre l’efficacité et l’échelle nécessaire pour satisfaire les besoins d’une entreprise contemporaine. En adoptant une stratégie qui va au-delà de la gestion des informations de base pour joindre des données en temps réel et historiques pour une analyse à la minute près, les entreprises de tous les marchés auront la capacité de gérer le déluge d’informations tout en extrayant des informations de grande valeur qui les propulseront mieux vers de nouvelles hauteurs, changeant matériellement le jeu vidéo en termes de développement, d’efficacité ou de succès.

James Corcoran est le vice-président principal de l’ingénierie chez Kx, dirigeant la plate-forme, l’avancement des produits et la recherche groupes dans le cloud et l’informatique de pointe. Il est responsable de tous les aspects de la feuille de route de l’innovation, des opérations d’ingénierie et du portefeuille d’applications de l’entreprise Kx. Il s’est inscrit chez Kx en 2009 en tant qu’ingénieur d’application logicielle et a investi plusieurs années dans le développement de plates-formes commerciales dans des banques d’investissement financières mondiales avant d’être sélectionné à un certain nombre de postes de direction en ingénierie couvrant la prévente, l’ingénierie de solutions et les applications client. Il est titulaire d’une maîtrise en financement quantitatif de l’University College Dublin.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici