mercredi, 24 avril 2024

Les applications basées sur les données doivent être optimisées pour la périphérie

Alors que les données de l’organisation sont produites et absorbées de manière significative au-delà des limites traditionnelles du cloud et des centres de données, les entreprises doivent reconsidérer la manière dont leurs données sont traitées dans une empreinte distribuée qui comprend plusieurs environnements hybrides et multicloud et des emplacements périphériques.

Les affaires finissent de plus en plus par être décentralisées. Les informations sont désormais produites, traitées et récupérées dans le monde entier, des systèmes de points de vente à distance et des smartphones aux camions connectés et aux planchers d’usine. Cette tendance, ainsi que l’augmentation de l’Internet des objets (IoT), une augmentation stable de la puissance de calcul des gadgets de périphérie et une meilleure connexion réseau, stimulent l’essor du paradigme de l’informatique de périphérie.

IDC prévoit que d’ici 2023, plus de 50 % des infrastructures informatiques flambant neuves seront lancées en périphérie. Et Gartner a prévu que d’ici 2025, 75 % des informations d’entreprise seront traitées au-delà d’un centre d’informations ou d’un cloud standard.

Un meilleur traitement des informations là où elles sont produites et peut-être consommées offre des avantages apparents, comme la réduction des coûts de réseau et la réduction de la latence pour offrir une expérience fluide. S’il n’est pas déployé efficacement, l’informatique de périphérie peut également créer des points difficiles, tels que des temps d’arrêt imprévus, une incapacité à évoluer suffisamment rapidement pour répondre à la demande et des vulnérabilités exploitées par les cyberattaques.

Les applications de périphérie avec état qui capturent, stockent et utilisent des informations ont besoin d’une toute nouvelle architecture d’informations qui tient compte de la planification, de l’évolutivité, de la latence et des besoins de sécurité des applications. Les organisations qui exploitent une empreinte d’installations géographiquement dispersées au cœur et à la périphérie doivent être conscientes de nombreux principes de conception de données importants, en plus de la façon dont elles peuvent résoudre les problèmes susceptibles de survenir.

Cartographier les données cycle de vie

Les organisations axées sur les données doivent commencer par comprendre l’histoire de leurs données : où elles sont produites, ce qu’il faut en finir et où elles sont finalement consommées. Les données sont-elles produites en périphérie ou dans une application s’exécutant dans le cloud ? L’information nécessite-t-elle d’être stockée à long terme, ou sauvegardée et transmise rapidement ? Avez-vous besoin d’exécuter des analyses lourdes sur les informations pour former des modèles d’apprentissage automatique (ML) ou d’exécuter un traitement rapide en temps réel ?

Envisagez d’abord les flux de données et les magasins d’informations. Les emplacements périphériques ont une puissance de calcul de taille inférieure à celle du cloud et peuvent donc ne pas être adaptés aux analyses de longue durée et à l’IA/ML. Dans le même temps, le déplacement des données de plusieurs emplacements périphériques vers le cloud pour traitement entraîne une latence et des dépenses de réseau plus élevées.

Très souvent, les informations sont dupliquées entre le cloud et les emplacements périphériques, ou entre différents emplacements périphériques. . Les topologies de mise en œuvre typiques incluent :

  • Hub and spoke, où les données sont générées et conservées à la périphérie, avec un cluster cloud principal qui regroupe les données à partir de là. Ceci est courant dans les environnements de vente au détail et les cas d’utilisation de l’IoT.
  • Configurationn, où les informations sont enregistrées dans le cloud et des répliques en lecture sont produites à un ou plusieurs endroits périphériques. Les paramètres de configuration des appareils sont des exemples courants.
  • Edge-to-edge, un modèle très typique, où les informations sont répliquées ou séparées de manière synchrone ou asynchrone au sein d’un niveau. Les voitures se déplaçant entre les zones périphériques, les utilisateurs mobiles errants et les utilisateurs se déplaçant entre les pays et concluant des accords financiers sont normaux dans ce schéma.

Comprendre à l’avance ce qui doit être terminé avec les données recueillies permet aux organisations pour libérer des installations de données optimales en tant que structure pour les applications avec état. Il est également essentiel de choisir une base de données qui offre des capacités de réplication de données intégrées polyvalentes qui aident dans ces zones géographiques.

Identifier le travail de l’application

Main dans la main avec le cycle de vie des informations, il est nécessaire de prendre un aperçu du paysage du travail d’application qui produit, traite ou absorbe des données. Les charges de travail fournies par les applications avec état diffèrent en termes de débit, de réactivité, d’échelle et d’exigences d’agrégation de données. Par exemple, un service qui évalue les données de transaction de toutes les zones de magasin d’un marchand aura besoin que les données soient agrégées des magasins privés vers le cloud.

Ces charges de travail peuvent être classées en 7 types.

  • Diffusion de données, telles que les données des appareils et des utilisateurs, ainsi que la télémétrie automobile, les informations de localisation et d’autres « choses » dans l’IoT. Les données en continu nécessitent un débit élevé et une interrogation rapide, et peuvent nécessiter d’être nettoyées avant utilisation.
  • Analyses sur flux sata, comme lorsque l’analyse en temps réel est appliquée aux informations en continu pour produire des alertes. Il doit être pris en charge soit nativement par la base de données, soit en utilisant Spark ou Presto.
  • Informations sur les événements, consistant en des occasions calculées sur des flux bruts stockés dans la base de données avec atomicité, cohérence, assurances d’isolement et de résilience (ACID) de la crédibilité des données.
  • Ensembles d’informations de plus petite taille avec de lourdes requêtes en lecture seule, y compris les charges de travail de configuration et de métadonnées qui sont parfois modifiées mais nécessitent d’être vérifié très rapidement.
  • Travail transactionnel, relationnel, tel que ceux impliquant l’identité, le contrôle d’accès, la sécurité et la confidentialité.
  • Complet- l’analyse d’informations à part entière, lorsque certaines applications nécessitent d’examiner des données agrégées dans différents domaines (comme l’exemple de vente au détail ci-dessus).
  • Les charges de travail nécessitant une conservation des informations à long terme, composé de ceux utilisés pour les comparaisons historiques ou pour une utilisation dans l’audit et rapports de conformité.

Tenez compte des besoins de latence et de débit

La gestion des données à faible latence et à haut débit sont généralement des priorités élevées pour les applications en périphérie. L’architecture de données d’une entreprise à la périphérie nécessite de prendre en compte des facteurs tels que la quantité d’informations à traiter, si elles apparaissent sous forme de points d’information uniques ou en rafales d’activité et la rapidité avec laquelle les informations doivent être facilement disponibles pour les utilisateurs et applications.

La télémétrie des véhicules liés, la détection de fraude par carte de crédit et d’autres applications en temps réel ne devraient pas subir la latence d’être renvoyées vers un cloud pour analyse. Ils nécessitent l’application d’analyses en temps réel à la périphérie. Les bases de données publiées à la périphérie doivent être en mesure de fournir une faible latence et/ou un débit de données élevé.

Préparez-vous pour les partitions réseau

La probabilité de pannes d’infrastructure et de partitions réseau augmente au fur et à mesure que vous avancez du cloud à la périphérie. Lors de la conception d’une architecture de périphérie, vous devez tenir compte du niveau de préparation de vos applications et bases de données pour gérer les partitions réseau. Une partition de réseau est une circonstance où l’empreinte de votre infrastructure se divise en deux ou plusieurs îles qui ne peuvent pas communiquer entre elles. Les partitions peuvent se produire dans 3 modes de fonctionnement fondamentaux entre le cloud et la périphérie.

Les environnements principalement connectés permettent aux applications de se connecter à des emplacements distants pour effectuer un appel d’API le plus souvent, mais pas tous — du temps. Dans ce cas, les partitions peuvent durer de quelques secondes à plusieurs heures.

Lorsque les réseaux sont semi-connectés, les partitions étendues peuvent durer des heures, ce qui oblige les applications à déterminer les changements qui se produisent dans toute la partition et intègrent leur état aux applications distantes une fois la partition réparée.

Dans un environnement déconnecté, qui est le mode de fonctionnement le plus courant à la périphérie, les applications s’exécutent indépendamment. Dans de rares cas, ils peuvent être liés à un serveur, mais la grande majorité du temps, ils ne dépendent pas d’un site Web externe.

En règle générale, les applications et les bases de données à l’extrémité doivent être prêtes à fonctionner en mode déconnecté ou semi-connecté. Des applications proches de la périphérie doivent être développées pour des opérations semi-connectées ou principalement liées. Le cloud lui-même fonctionne en mode principalement lié, ce qui est nécessaire pour les opérations du cloud, mais c’est aussi la raison pour laquelle une défaillance du cloud public peut avoir un effet aussi étendu et durable.

Assurez-vous de l’agilité de la pile d’applications logicielles

Les entreprises utilisent des suites d’applications et doivent mettre l’accent sur l’agilité et la capacité de développer un modèle d’applications rapide. Les frameworks qui améliorent les performances des concepteurs, tels que Spring et GraphQL, prennent en charge le style agile, tout comme les bases de données open source telles que PostgreSQL et YugabyteDB.

Donnez la priorité à la sécurité

Le calcul en périphérie se développera de manière inhérente la surface d’attaque, tout comme le déplacement des opérations dans le cloud.

Il est nécessaire que les organisations adoptent des stratégies de sécurité basées sur les identités plutôt que sur les défenses frontalières à l’ancienne. L’exécution de politiques de moindre privilège, une architecture de confiance zéro et un provisionnement sans contact sont essentiels pour les services et les parties du réseau d’une organisation.

Vous devez également réfléchir sérieusement au chiffrement des fichiers, à la fois en transit et au repos, prise en charge multi-tenant au niveau de la couche de base de données et chiffrement des fichiers pour chaque occupant. L’ajout de la localité locale des données peut garantir la conformité et permettre l’application rapide de tous les contrôles d’accès géographiques nécessaires.

La périphérie est significativement là où l’informatique et les transactions ont lieu. La création d’applications d’information qui optimisent la vitesse, les performances, l’évolutivité et la sécurité permettront aux organisations de tirer le meilleur parti de cet environnement informatique.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici