Il n’y a pas de remède contre la maladie d’Alzheimer. Et si nous pouvions trouver un moyen de le détecter tôt ? La question a intrigué les scientifiques d’Imagia, qui ont ensuite utilisé l’apprentissage automatique de Google. (AutoML) pour réduire le temps de traitement des tests de 16 heures à une heure. PayPal a connu des avantages similaires. En 2018, avec H2O’s AutoML, PayPal a augmenté la précision de son modèle de détection des fraudes de 6 % et rendu le processus de développement du modèle six fois plus rapide.
Des histoires de réussite comme celles-ci ont inspiré 61 % des décideurs dans les entreprises utilisant l’intelligence artificielle (IA) pour adopter AutoML. Son adoption ne fera qu’augmenter car elle peut atténuer, dans une large mesure, les problèmes causés par le manque de data scientists. De plus, la capacité d’AutoML à améliorer l’évolutivité et à augmenter la productivité ne manquera pas d’attirer les clients.
Mais cela signifie-t-il que l’adoption d’AutoML est devenue incontournable ? Eh bien, c’est une énigme à laquelle la plupart des entreprises sont actuellement confrontées, et l’examen de cas réels pourrait être une solution.
En tant qu’ingénieur logiciel senior, j’ai travaillé avec plusieurs startups où l’IA a joué un rôle central. J’ai vu les avantages et les inconvénients et l’impact commercial. Mais avant d’aborder les cas d’utilisation, définissons d’abord ce qu’est AutoML, son statut actuel et ce qu’il peut et ne peut pas faire.
Qu’est-ce qu’AutoML ?
AutoML (apprentissage automatique de la machine) est la capacité d’un système à choisir automatiquement le bon modèle et à définir des paramètres pour fournir le meilleur modèle possible. Je me concentrerai uniquement sur les réseaux de neurones profonds dans cet article.
Dans les réseaux de neurones profonds, trouver la bonne architecture est toujours un défi majeur. Par architecture, j’entends les blocs de construction de base (par exemple, pour la reconnaissance d’image, les blocs de construction de base seraient la mise en commun maximale 3X3, la convolution 3X1, etc.) et l’interconnexion entre eux pour plusieurs couches cachées.
La recherche d’architecture neuronale (NAS) est une technique permettant d’automatiser la conception de réseaux de neurones profonds. Il est utilisé pour concevoir des réseaux qui sont comparables ou peuvent surpasser les architectures conçues à la main. Mais nous devons former un grand nombre de réseaux candidats dans le cadre du processus de recherche pour trouver la bonne architecture, ce qui prend du temps.
L’état actuel des plateformes disponibles
NAS joue un rôle central dans la formation du framework AutoML pour Amazon Web Services (AWS) et Google plate-forme cloud (GCP). Mais AutoML en est encore à ses balbutiements et ces plates-formes évoluent. Laissez nous discuter de ces deux célèbres frameworks AutoML.
GCP AutoML< /span>
GCP AutoML s’appuie sur le NAS et l’apprentissage par transfert. Le NAS recherche l’architecture optimale à partir d’un pool d’architectures en fonction des résultats de formation précédents. Initialement, des algorithmes d’apprentissage par renforcement ont été utilisés pour la recherche d’architecture.
Cependant, ces algorithmes ont tendance à être coûteux en termes de calcul en raison du grand espace de recherche. Récemment, il y a eu un changement de paradigme vers le développement de méthodes basées sur le gradient qui ont montré des résultats prometteurs. Mais ce qui se passe dans GCP AutoML n’est toujours pas aussi clair, et il s’agit plutôt d’une solution de boîte noire.
AWS AutoPilot< /span>
Le concept principal d’AWS Autopilot est de fournir une solution AutoML configurable. Chaque détail du cycle d’apprentissage automatique est exposé, de la transformation des données à la formation des modèles et au réglage des hyperparamètres. Contrairement à GCP AutoML, AWS Autopilot est une solution boîte blanche.
AWS Autopilot utilise différentes stratégies pour les pipelines de données et de ML (machine learning). Certaines de ces stratégies sont basées sur les déclarations if-else suggérées par les experts du domaine ; d’autres stratégies dépendent du choix des hyper-paramètres corrects (c’est-à-dire le taux d’apprentissage, le paramètre de sur-ajustement, la taille d’intégration) pour le pipeline.
Ce que peut AutoML faire et ce qu’il ne peut pas faire
Parfois, les gens disent qu’AutoML est le Saint Graal de l’IA/ML, un point de vue que je ne partage pas. Alors continuons :