Dans l’environnement financier actuel, les dollars de R&D doivent augmenter encore plus que jamais. Les entreprises désapprouvent les investissements financiers dans les grandes technologies et infrastructures nouvelles, tandis que le danger d’échec exerce une pression considérable sur les acteurs de l’emploi.
Cependant, cela ne signifie pas que l’innovation doit s’arrêter et même diminuer. Pour les start-ups comme pour les grandes entreprises, travailler sur des innovations inédites et transformatrices est essentiel pour garantir la compétitivité actuelle et future. Le système expert (IA) utilise diverses options dans un éventail croissant d’industries.
Au cours des dernières années, l’IA a en fait joué un rôle important dans le déverrouillage une toute nouvelle classe d’opportunités de revenus. De la compréhension et de la prédiction du comportement des utilisateurs à l’aide à la génération de code et de contenu, la transformation de l’IA et de l’intelligence artificielle (ML) s’est parfois multipliée par rapport à la valeur que les consommateurs reçoivent de leurs applications, sites et services en ligne.
Cette révolution s’est largement limitée au cloud, où le stockage et le calcul pratiquement illimités, ainsi que l’abstraction matérielle pratique fournie par les principaux fournisseurs de services de cloud public, facilitent raisonnablement le développement. modèles de pratique pour chaque application AI/ML que vous pouvez imaginer.
Événement
Change 2023
Rejoignez-nous à San Francisco les 11 et 12 juillet, où les magnats partageront comment ils ont intégré et optimisé les investissements en IA pour réussir et prévenir les risques typiques.
Inscrivez-vous maintenant AI
: Transfert vers la périphérie
Le traitement de l’IA se produisant principalement dans le cloud, la transformation AI/ML est restée principalement hors de portée des gadgets de périphérie. Ce sont les processeurs de plus petite taille et de faible puissance que l’on trouve sur le sol de l’usine, sur le chantier de construction et de construction, dans le laboratoire d’étude de recherche, dans la réserve naturelle, sur les accessoires et les vêtements que nous portons, à l’intérieur des colis que nous livrons et dans n’importe quel autre contexte où la connectivité, le stockage, le calcul et l’énergie sont limités ou ne peuvent être considérés comme acquis. Dans leurs environnements, les cycles de calcul et les architectures matérielles sont importants, et les plans budgétaires ne sont pas mesurés en variété de connexions de points de terminaison ou de socket, mais en watts et en nanosecondes. Les directeurs techniques, les responsables de l’ingénierie, de l’information et du ML et les
équipes de produits qui cherchent à franchir la prochaine barrière de l’innovation en matière d’IA/ML doivent regarder vers la périphérie. Edge AI et edge ML présentent des défis particuliers et complexes qui nécessitent l’orchestration prudente et la participation de nombreuses parties prenantes avec un large éventail de compétences allant de l’intégration de systèmes, du style, des opérations et de la logistique à l’ingénierie embarquée, des données, de l’informatique et du ML. Edge AI implique que les algorithmes doivent s’exécuter dans
un type de matériel spécifique allant des passerelles ou des serveurs sur site haut de gamme aux capteurs de récupération d’énergie et aux microcontrôleurs bas de gamme. Pour garantir le succès de ces éléments et applications, les équipes d’information et de ML doivent travailler en étroite collaboration avec les groupes d’éléments et de matériel pour comprendre et prendre en compte les besoins, les restrictions et les exigences de chacun. Bien que les obstacles au développement d’un service d’IA de pointe sur mesure ne soient pas insurmontables, il existe des plates-formes de développement d’algorithmes d’IA de pointe qui peuvent aider à combler l’espace entre les équipes nécessaires, garantir des niveaux de réussite plus élevés dans un délai plus court et valider les investissements supplémentaires. être fait. Vous trouverez ci-dessous des considérations supplémentaires. Vérifier le matériel tout en développant des algorithmes Il n’est ni efficace ni toujours possible que des algorithmes soient établis par des équipes de science des données et de ML, puis transmis aux ingénieurs du micrologiciel pour les adapter au gadget. Le dépistage et la mise en œuvre du matériel dans la boucle devraient être un élément fondamental de tout pipeline de développement de l’IA de pointe. Il est difficile de visualiser les restrictions de mémoire, d’efficacité et de latence qui peuvent se développer lors du développement d’un algorithme d’IA de pointe sans disposer simultanément d’une méthode pour exécuter et tester l’algorithme sur le matériel. Certaines architectures de conception basées sur le cloud ne sont pas non plus censées fonctionner sur n’importe quel type d’appareil contraint ou périphérique, et s’attendre à cela à l’avance peut épargner des mois d’inconfort aux équipes de micrologiciels et de ML. Les données IoT ne sont pas synonymes de données volumineuses Les données volumineuses décrivent de grands ensembles de données qui peuvent être analysés pour exposer des modèles ou des tendances. Cependant, les données Web of Things (IoT) ne concernent pas toujours la quantité, mais la qualité de l’information. De plus, ces informations peuvent être des capteurs de séries chronologiques ou des informations audio
ou des images, et un prétraitement peut être nécessaire. L’intégration de méthodes de traitement de données de capteur standard telles que le traitement du signal numérique (DSP) avec l’IA/ML peut produire de tout nouveaux algorithmes d’IA de pointe qui fournissent des informations précises qui n’étaient pas possibles avec les méthodes précédentes. Les données IoT ne sont pas des données énormes, et donc la quantité et l’analyse de ces ensembles de données pour l’avancement de l’IA de pointe seront différentes. Explorer rapidement la taille et la qualité des ensembles de données par rapport à la précision et à l’efficacité de la conception qui en résultent est une action cruciale sur la voie des algorithmes déployables en production. Le développement de matériel est suffisamment difficile Structurer le matériel est un défi, sans la variable supplémentaire de comprendre si le matériel sélectionné peut exécuter des charges de travail logicielles d’IA de pointe. Il est important de commencer à évaluer le matériel avant même que les dépenses en matériaux aient été déterminées. Pour le matériel existant, les restrictions concernant la mémoire offerte sur l’appareil peuvent être encore plus importantes. Même avec les premiers
petits ensembles de données, les plates-formes avancées d’IA de pointe peuvent commencer à offrir des estimations de performances et de mémoire du type de matériel requis pour exécuter le travail d’IA. Disposer d’une procédure permettant d’évaluer la sélection et l’analyse comparative des gadgets par rapport à une variante précoce du modèle d’IA de pointe peut garantir que l’assistance matérielle reste en place pour les modèles de micrologiciel et d’IA préférés
qui s’exécuteront sur l’appareil. Développer, valider et mettre en production de nouveaux logiciels d’intelligence artificielle de pointe Lors de la sélection d’une plate-forme d’avancement, il convient également de prendre en compte le support technique fourni par
divers fournisseurs. Edge AI englobe la science des données, le ML, les micrologiciels et le matériel, et il est nécessaire que les fournisseurs offrent des conseils dans les endroits où les groupes d’avancement internes pourraient avoir besoin d’un peu de soutien supplémentaire. Parfois, il s’agit moins du modèle réel qui sera développé que de la préparation qui entre dans une circulation de conception au niveau du système intégrant les installations de données, les outils de développement ML, les tests, les environnements de publication et l’intégration continue, la publication continue (CI/CD ) canalisations. Enfin, il est très important que les outils de développement d’intelligence artificielle en périphérie s’adaptent à divers utilisateurs au sein d’une équipe, des ingénieurs ML aux concepteurs de micrologiciels.
L’interface low code/no code est un moyen fantastique de prototyper et de développer rapidement de nouvelles applications, tandis que les API et les SDK peuvent être bénéfiques pour les concepteurs de ML plus expérimentés qui peuvent travailler mieux et plus rapidement en Python à partir des notebooks Jupyter. Les plates-formes offrent l’avantage d’une polyvalence d’accès, s’adressant à de nombreuses parties prenantes ou
concepteurs qui peuvent exister dans des groupes interfonctionnels développant des applications d’IA de pointe.
Toute l’actualité en temps réel, est sur L’Entrepreneur