samedi, 27 avril 2024

Examen : Google Cloud Vertex AI élimine les rides de la plate-forme ML

Lorsque j’ai examiné la plate-forme Google Cloud AI et Machine Learning en novembre dernier, j’ai noté quelques lacunes malgré le fait que Google possède l’une des plus grandes piles d’apprentissage sur les appareils du marché, et j’ai mentionné que de nombreux services proposés étaient encore disponibles. test beta. J’ai poursuivi en disant que personne n’était jamais licencié pour avoir choisi l’IA de Google.

En mai, Google a bouleversé sa plate-forme AI/ML en introduisant Vertex AI, qui, selon lui, combine et améliore ses offres d’IA et de ML. . Plus précisément, Vertex AI devrait simplifier la procédure de création et de déploiement de modèles d’intelligence artificielle à grande échelle et nécessiter moins de lignes de code pour former une conception que d’autres systèmes. L’ajout de Vertex AI ne modifie pas la base de Google Cloud AI, telle que l’API Vision et l’API Cloud Natural Language, ni les offres d’infrastructure AI, telles que les GPU Cloud et les TPU.

Le résumé de Google est que Vertex AI rassemble Google Cloud AutoML et Google Cloud AI et la plate-forme d’intelligence artificielle dans une API, une bibliothèque cliente et une interface unifiées. AutoML vous permet d’entraîner des conceptions sur des ensembles de données image, tabulaire, texte et vidéo sans écrire de code, tandis que l’entraînement dans AI et Machine Learning Platform vous permet d’exécuter un code d’entraînement personnalisé. Avec Vertex AI, la formation AutoML et la formation personnalisée sont des alternatives disponibles. Quel que soit le choix que vous choisissez pour la formation, vous pouvez conserver les conceptions, les modèles de version et les prévisions de la demande avec Vertex AI.

Cette combinaison d’AutoML et de formation personnalisée constitue une amélioration substantielle par rapport à l’ancienne plate-forme Google Cloud AI/ML. Étant donné que chaque service de l’ancienne plate-forme était développé indépendamment, il y avait des cas où les données étiquetées dans un service ne pouvaient pas être recyclées par un autre service. Tout est réparé dans Vertex AI.

Le groupe Google AI a passé deux ans à réorganiser sa pile d’apprentissage des appareils de Google Cloud AI et de la plate-forme d’intelligence artificielle à Vertex AI. Maintenant que les tuyaux sont terminés et que les différents services ont été reconstruits à l’aide du tout nouveau système, l’équipe d’IA de Google peut s’occuper d’améliorer et d’étendre les services.

Dans cette revue, je vais vérifier Vertex L’IA en vue de comprendre comment elle aide les chercheurs de données, comment elle améliore les capacités d’IA de Google et comment elle se compare aux offres d’IA et de ML d’AWS et d’Azure.

  • Google Cloud Vertex AI workflow
  • Blocs de notes sur la science des données
  • Préparation et gestion des données
  • Formation AutoML et d’autres conceptions
  • Importation de modèles
  • Obtenir des prévisions
  • Utiliser une IA explicable
  • Suivi de la qualité du modèle
  • Gérer le workflow de ML

Google Cloud Flux de travail de Vertex AI

Selon Google, vous pouvez utiliser Vertex AI pour gérer les phases suivantes du flux de travail de détection de périphérique :

  • Créer un ensemble de données et télécharger des informations.
  • Former un modèle ML sur vos informations :
    • Former la conception.
    • Examiner la précision de la conception.
    • Ajuster les hyperparamètres (formation personnalisée uniquement).
  • Télécharger et stockez votre conception dans Vertex AI.
  • Libérez votre modèle qualifié à un point de terminaison pour diffuser des prédictions.
  • Envoyez des demandes de prédiction à votre point de terminaison.
  • Définissez une prédiction répartition du trafic dans votre point de terminaison.
  • Gérez vos modèles et vos points de terminaison.

Cela ressemble à une option de bout en bout. Examinons plus en détail les pièces qui prennent en charge chaque phase.

Par la méthode, les bonnes affaires de ces pièces sont des « aperçus » importants. Cela suggère qu’ils sont couverts par les conditions des offres pré-GA de Google Cloud, qui sont similaires aux conditions des éléments publics en phase bêta, consistant en l’absence de contrat de niveau de service et le manque de garanties concernant la compatibilité ascendante.

Bloc-notes de science des données

Vertex AI prend toujours en charge les ordinateurs portables, avec un ensemble élargi de types d’environnement, comme indiqué dans l’image ci-dessous. Les nouveaux blocs-notes incluent JupyterLab 3.0 par défaut et Python 2.x n’est plus pris en charge.

IDG

Les types de blocs-notes Vertex AI JupyterLab incluent la prise en charge de Python 3, TensorFlow Business, PyTorch, R, RAPIDS et d’autres langages et structures.

Préparation et gestion des données

La préparation et la gestion des données ne semblent pas avoir réellement beaucoup changé, à l’exception de l’ajout de certaines API Vertex AI. Je souhaitais voir des variétés d’exemplaires suggérées inférieures pour les ensembles de données d’images AutoML, mais Google suggère toujours 1 000 images pour la formation. Cela me suggère que le service Azure Customized Vision, qui nécessite beaucoup moins d’images de formation pour d’excellents résultats, est toujours en avance sur le service Google AutoML Vision. J’imagine que Google améliorera ses offres dans ce domaine maintenant que Vertex AI a été lancé.

De plus, les informations personnalisées identifiant les emplois (par des personnes) sont encore limitées, en raison du fait que COVID- 19. Vous pouvez demander des tâches d’étiquetage de données, mais uniquement par e-mail.

Former AutoML et d’autres conceptions

Google a une signification peu commune d’AutoML. Pour les images, le texte et la vidéo, ce qu’il appelle AutoML est ce que la plupart des informaticiens appellent l’apprentissage par transfert. Pour les données tabulaires, son AutoML s’en tient à la signification de base, qui comprend la préparation automatique des informations, le choix de la conception et la formation.

La conception qualifiée peut être AutoML, AutoML Edge (à exporter pour une utilisation sur l’appareil), ou une formation sur mesure. Les modèles AutoML Edge sont plus petits et souvent moins précis que les conceptions AutoML. Les modèles personnalisés peuvent être du code source Python personnalisé (utilisant PyTorch, Scikit-learn, TensorFlow ou XGBoost) qui s’exécute dans un conteneur prédéfini ou des images de conteneur Docker personnalisées.

J’ai exécuté le didacticiel pour AutoML Image en utilisant un ensemble de données de fleurs fourni par Google. La formation s’est terminée en une demi-heure environ avec un budget de 8 nœuds-heures. La libération du nœud pour la formation était automatique. Entre la formation et une journée de déploiement du modèle sur un nœud (une erreur : j’ai dû nettoyer l’implémentation après ma sélection mais j’ai oublié), cet exercice a coûté 90 $.

IDG

Google a fourni cet ensemble de données identifié de 3 667 images de fleurs pour le didacticiel AutoML Image. Notez la marguerite mal étiquetée (étiquetée comme un tournesol) à gauche de la rangée du milieu.

IDG

Le modèle de classification des fleurs est assez bon à en juger par la précision et le rappel, mais la matrice de confusion laisse entrevoir quelques problèmes. Il est naturel de s’interroger souvent sur les roses et les tulipes si les couleurs sont similaires et que les formes ne sont pas claires. Il n’est pas naturel de classer les marguerites comme des tournesols à tort, mais nous avons vu une marguerite mal étiquetée dans l’ensemble de formation.

IDG

J’ai testé le design formé par rapport à quelques-unes de mes propres photographies, dont la qualité et la taille ont été réduites pour s’adapter les limites de taille de Vertex AI. Cette image de tulipes a été déterminée correctement.

IDG

Cette image d’une marguerite (et d’une abeille) a été identifiée à tort comme un tournesol avec une certitude de 100 %. Nous avons vu l’image d’entraînement mal identifiée qui a probablement déclenché ce problème dans une figure précédente. « Garbage in, garbage out » s’applique autant aux sciences de l’information qu’aux programmes informatiques conventionnels.

IDG

Cette photo de roses a été correctement reconnue avec une certitude de 98,7 %. La faible probabilité que l’image soit celle de tulipes est compréhensible.

Comme nous l’avons vu, quelques images d’entraînement terriblement étiquetées peuvent amener une conception à offrir des réponses incorrectes, bien que le modèle présente une précision et une précision élevées. Si ce modèle était destiné à une utilisation dans le monde réel, l’ensemble d’entraînement identifié devrait être audité et corrigé.

AutoML Tabular, qui s’appelait auparavant AutoML Tables, dispose d’une nouvelle fonctionnalité de prévision (bêta), bien qu’aucun tutoriel pour l’évaluer.

J’ai exécuté le tutoriel pour AutoML Tabular, qui catégorise les clients bancaires et ne se compose d’aucune information basée sur le temps. J’ai donné à la formation un budget d’une heure-nœud ; il s’est terminé en 2 heures, reflétant le temps requis pour d’autres opérations en plus de la formation proprement dite. Le coût de formation de 21 USD a été compensé par un crédit automatisé.

En revanche, Azure Automated ML pour les informations tabulaires comprend actuellement des prévisions, des descriptions et une ingénierie de fonction automatique, et pourrait être un peu en avance sur Google AutoML Tabular. à la minute près. Azure propose également des didacticiels de prévision utilisant à la fois la console et les blocs-notes Azure. DataRobot et Driverless AI semblent être plus avancés que Google AutoML Tabular pour AutoML des informations tabulaires. DataRobot autorise également les colonnes d’images dans ses tableaux.

IDG

C’est l’écran préliminaire pour entraîner un modèle sur un jeu de données tabulaire. Notez que le choix de prévision est un aperçu et n’a pas de tutoriel.

IDG

Vous pouvez suivre le développement et les performances d’entraînement d’un entraînement AutoML pour les données tabulaires au fur et à mesure de son exécution. Ici, la formation est terminée.

IDG

Vertex AI montre l’importance des fonctionnalités pour les conceptions AutoML. L’importance des fonctionnalités aide à décrire la conception.

Google AutoML Text répond à 4 objectifs : catégorie à une ou plusieurs étiquettes, extraction d’entités et analyse des croyances. Je n’ai pas exécuté le didacticiel texte moi-même, mais je consulte la documentation et les cahiers.

Les API présentées dans le bloc-notes du didacticiel sont à peu près aussi simples qu’elles peuvent l’être. Pour développer un jeu de données, le code est :

ds = aiplatform.TextDataset.create(
display_name=display_name,
gcs_source=src_uris,

import_schema_uri=aiplatform.schema .dataset.ioformat.text.single _ label_classification,
sync=True,
)

Le code pour former une tâche de catégorie est double, définissant puis exécutant la tâche :

# Définir la tâche de formation
training_job_display_name = f « e2e-text-training-job- « 
job = aiplatform.AutoMLTextTrainingJob(
display_name=training_job_display_name,
prediction_type = »category « ,
multi_label=False,
)
model_display_name = f « e2e-text-classification-model- TIMESTAMP  » # Exécutez la tâche de formation
design = job.run(
dataset= text_dataset,
model_display_name=model_display_name,
training_fraction_split=0.7,
validation_fraction_split=0.2,
test_fraction_split=0.1,
sync=True,
)

Les objectifs AutoML Video peuvent être la reconnaissance d’actions, la catégorie ou le suivi d’éléments. Le tutoriel fait la classification. Le modèle qualifié peut être AutoML, AutoML Edge (à exporter pour une utilisation sur l’appareil) ou une formation personnalisée. La sortie de prédiction pour une conception de classification vidéo est constituée d’étiquettes pour les vidéos, d’étiquettes pour chaque plan et d’étiquettes pour chaque intervalle d’une seconde. Les étiquettes avec une confiance en soi répertoriées en dessous de la limite que vous avez définie sont omises.

Importation de modèles

Vous pouvez importer des modèles existants que vous avez réellement entraînés en dehors de Vertex AI, ou que vous se sont en fait entraînés à l’aide de Vertex AI et exportés. Vous pouvez ensuite déployer le modèle et en tirer des prévisions. Vous devez enregistrer vos artefacts de modèle dans un seau Cloud Storage.

Vous devez associer la conception importée à un conteneur. Vous pouvez utiliser des conteneurs prédéfinis proposés par Vertex AI, ou utiliser vos propres conteneurs personnalisés que vous créez et transférez vers le registre Container Pc ou Artifact Computer Registry.

Obtenir des prévisions

Comme nous vu lorsque nous avons testé AutoML Image, vous pouvez publier et évaluer des modèles à partir de la console. Vous pouvez également publier et tester des conceptions à l’aide de l’API Vertex AI. Vous pouvez éventuellement enregistrer des prédictions. Si vous souhaitez utiliser une conception personnalisée ou un modèle tabulaire AutoML pour diffuser des prédictions en ligne, vous devez spécifier un type d’appareil lorsque vous déployez la ressource Design en tant que DeployedModel sur un Endpoint. Pour d’autres types de modèles AutoML, tels que la conception d’image AutoML que nous avons testée, Vertex AI configure les types de machines immédiatement.

À l’aide d’une IA explicable

Nous avons vu un tracé de valeur de caractéristique pour AutoML Tabular modèles plus tôt, mais ce n’est pas la seule fonctionnalité d’IA explicable utilisée par Vertex AI.

IDG

Les superpositions d’attribution de fonctionnalités à partir d’une conception de classification d’images Google.

Vertex AI prend également en charge Vertex Explainable AI pour les modèles tabulaires AutoML (modèles de classification et de régression uniquement), les conceptions personnalisées basées sur des informations tabulaires et les conceptions personnalisées basées sur des informations d’image.

En plus du général graphique de l’importance des caractéristiques pour la conception, les modèles tabulaires AutoML peuvent également renvoyer l’importance de la fonction locale pour les prédictions en ligne et par lots. Les modèles basés sur des données d’image peuvent afficher des superpositions d’attribution de fonctionnalités, comme indiqué dans les images répertoriées ci-dessous. (Voir « Explainable AI expliqué. »)

Suivi de la qualité du modèle

La circulation des informations sur les caractéristiques que vous utilisez pour former une conception peut ne pas correspondre constamment à la distribution des informations sur les caractéristiques utilisées pour prévisions. C’est ce qu’on appelle l’asymétrie au service de la formation. De plus, la fonction circulation de l’information dans la production pourrait se modifier considérablement progressivement, ce que l’on appelle la dérive de prédiction. Vertex Design Monitoring découvre à la fois l’asymétrie et l’errance des caractéristiques catégoriques et numériques.

Gestion du flux de travail ML

Les pipelines Vertex (aperçu) pourraient bien être la partie la plus vitale de Vertex AI, considérée qu’il implémente MLOps. Bien que la valeur des MLOps ne soit pas évidente si vous débutez simplement dans les sciences de l’information, cela fait une énorme différence en termes de vitesse, d’agilité et de performances pour les praticiens expérimentés de la science des données. Il s’agit de déployer des conceptions et de rendre l’ingénierie des fonctions reproductible.

IDG

Cette image est un graphique partiellement développé pour un pipeline Vertex qui catégorise les fleurs en utilisant le même ensemble de données et le même modèle que ceux que nous avons utilisés précédemment.

La combinaison de Vertex Pipelines et de Vertex Model Monitoring ferme la boucle de rétroaction pour maintenir la qualité du modèle progressivement à mesure que les informations changent et errent. En enregistrant les artefacts de votre workflow ML dans Vertex ML Metadata, vous pouvez évaluer l’arbre généalogique des artefacts de votre workflow. Vertex Pipelines prend en charge deux types de pipelines, TensorFlow Extended (TFX) et Kubeflow Pipelines (KFP). KFP peut être constitué d’éléments de pipeline Google Cloud pour les opérations Vertex telles que AutoML.

Les pipelines Vertex sont compétitifs avec les pipelines Amazon SageMaker et Azure Machine Learning. Comme Amazon SageMaker Pipelines, vous développez Google Vertex Pipelines à partir du code, mais vous pouvez les réutiliser et les gérer à partir des graphiques résultants.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

xnxx sex download russianporntrends.com hardxxxpics saboten campus freehentai4u.com read manga porn rakhi sex photo ganstagirls.com nani sex video xxx indian girl video download elporno.mobi tamilauntycom bf hd video bf hd video porn555.me anyporn hd tamil beach sex erolenta.com xxx sex boy to boy bustyboobs pakistanixxxx.com nude sexy videos desi sex xvideos.com tubaka.mobi justdesi in free naked dance vegasmpegs.mobi eva grover desi ass lick eroanal.net 69 xvideo 4k xnxx thefuckingtube.com xxii roman numerals translation tamil nayanthara sex sexozavr.com indian porn videos tumblr كلبات سكس porn-arab.net نيك ف الكس y3df comics popsexy.net akhil wife hentai ahri wowhentai.net the sarashina bloodline