vendredi, 19 avril 2024

Voici ce qui vient ensuite pour Alexa d’Amazon

Dans le contexte : faire en sorte que les créateurs comprennent les interactions en langage naturel est beaucoup plus difficile qu’il n’y paraissait initialement. Beaucoup d’entre nous ont découvert cela dans une certaine mesure au début des assistants vocaux, lorsque ce qui ressemblait à des demandes d’informations très abordables finissait souvent par recevoir des réponses frustrantes et absurdes. Il s’avère que les êtres humains sont bien meilleurs pour comprendre les nuances subtiles (ou les distinctions vraiment apparentes) entre ce que quelqu’un a sous-entendu par rapport à ce qu’il a réellement déclaré.

Depuis qu’Amazon a introduit Alexa via ses haut-parleurs intelligents Echo, j’ai en fait souhaité le jour où je pourrais simplement parler aux appareils et leur faire faire ce que je voulais qu’ils fassent. Nous n’en sommes pas encore là, mais nous nous en rapprochons un peu.

L’un des problèmes apparents lors de la compréhension du langage naturel est que la structure et la syntaxe du langage parlé que nous comprenons tous intuitivement doivent généralement être brisées en divers sous-composants avant qu’ils ne puissent être « compris » par les fabricants.

Cela indique que les progrès de l’intelligence artificielle ont été plus lents que prévu en raison de la nécessité de découvrir les actions incrémentielles nécessaires pour vraiment donner un sens à une demande offerte. Même aujourd’hui, certaines des conceptions d’IA en langage naturel les plus avancées se heurtent à des murs lorsqu’il s’agit de faire tout type de raisonnement simple qui nécessite le type de réflexion indépendante qu’un enfant peut faire.

En plus de cela, lorsqu’il s’agit de gadgets intelligents pour la maison – où les appareils alimentés par un assistant vocal continuent de faire leur marque – il y a en fait eu une multitude aggravante de normes incompatibles qui ont rendu physiquement difficile la collaboration des gadgets.

Heureusement, la nouvelle exigence Matter – qu’Amazon, Apple, Google et bien d’autres prévoient de prendre en charge – contribue grandement à résoudre ce problème. En conséquence, le problème très réel de faire collaborer parfaitement de nombreux gadgets de différents fournisseurs ou peut-être de divers écosystèmes de maisons intelligentes pourrait rapidement être un peu plus qu’un souvenir distant.

Avec tout ce contexte à l’esprit, les nombreuses annonces différentes axées sur les concepteurs qu’Amazon a faites lors d’Alexa Live 2022 ont plus de sens. La société a lancé le SDK Link Kit pour Matter. Cela étend une gamme de services de connexion Amazon à tout gadget compatible Matter qui le prend en charge. Cela indique que les entreprises qui développent des appareils intelligents pour la maison peuvent tirer parti du travail qu’Amazon a réellement effectué pour des fonctions vitales telles que la connexion au cloud, les mises à jour logicielles OTA, la journalisation des activités, les mesures, etc. L’objectif est d’obtenir une base de fonctionnalités qui encouragera les utilisateurs à acheter et à installer plusieurs produits intelligents compatibles avec Matter.

Naturellement, dès que les appareils sont liés, ils doivent toujours interagir les uns avec les autres dans des moyens intelligents d’offrir plus de performances. Pour résoudre ce problème, Amazon a également dévoilé l’ensemble de développement Alexa Ambient House, qui intègre des services et des API logicielles permettant à de nombreux appareils de fonctionner ensemble rapidement et silencieusement en arrière-plan.

Amazon et d’autres appellent cela « l’informatique ambiante ». , en raison du fait qu’il est indiqué pour offrir un maillage de services informatiques essentiellement indétectables. La toute première version de ce kit de développement se compose d’API Home State pour faire des choses comme mettre tous vos appareils domestiques intelligents en même temps dans différents modes (tels que Sleep, Dinner Time, Home, etc.). Les API de sûreté et de sécurité envoient instantanément des alarmes à partir de capteurs connectés, tels qu’un détecteur de fumée, à d’autres appareils et applications liés pour s’assurer que les alarmes sont remarquées/entendues. L’API for Credentials simplifie la configuration des utilisateurs sur de nombreux appareils en partageant les qualifications du réseau Thread (un élément clé de la norme Matter), afin que les utilisateurs n’aient pas à le faire plus d’une fois.

En mentionnant une configuration plus simple, Amazon a également annoncé des plans pour permettre à ses fonctionnalités de « configuration sans frustration » d’être utilisées par des gadgets non Amazon achetés dans d’autres magasins. L’entreprise prévoit de tirer parti de la norme Matter pour permettre cela, soulignant une fois de plus à quel point Matter sera important pour les futurs appareils.

Pour ceux qui traitent des interfaces vocales, Amazon s’efforce de rendre possible quelques-unes des premières capacités réelles d’une avancée sur le marché appelée Voice Interoperability Effort, ou VII.

Annoncé en 2019, VII est développé pour permettre à de nombreux assistants vocaux de travailler ensemble dans un méthode transparente pour fournir des interactions plus complexes. Amazon a déclaré qu’il travaillait avec Skullcandy et Native Voice pour permettre l’utilisation d’Alexa avec les assistants et commandes « Hey Skullcandy » en même temps. Par exemple, vous pouvez utiliser « Hey Skullcandy » pour permettre le contrôle vocal des paramètres des écouteurs et de la lecture multimédia, mais également demander à Alexa les titres d’actualités les plus récents et les lire sur les écouteurs Skullcandy.

Le SDK Alexa Voice Service (AVS) 3.0 a fait ses débuts pour combiner les capacités d’Alexa avec le SDK Alexa Smart Screen précédemment séparé pour générer des réactions intelligentes basées sur l’écran. L’utilisation de cela permettrait aux entreprises de faire des choses comme avoir une interface vocale avec des vérifications visuelles à l’écran ou de créer des interfaces multimodales qui tirent parti des deux en même temps.

Enfin, Amazon a également a révélé une foule de tout nouveaux outils d’éducation sur les capacités, l’avancement des compétences, la promotion des compétences et les capacités développés pour aider les concepteurs qui souhaitent produire des « applications » de capacité pour la communauté Alexa sur une grande variété d’appareils variés, comprenant des téléviseurs, des PC, des tablettes , écrans intelligents, automobiles, etc. Tout compte fait, cela semble être une série complète de fonctionnalités qui devraient faire une distinction concrète pour ceux qui souhaitent profiter de la base installée d’environ 300 millions d’appareils compatibles Alexa.

Malheureusement, vérifier plusieurs des menus à l’écran, en appuyant sur de nombreuses combinaisons de boutons et en essayant de découvrir l’état d’esprit des ingénieurs qui ont créé l’interface est encore la vérité de nombreux gadgets aujourd’hui. Pour ma part, j’anticipe la possibilité de faire quelque chose comme brancher un tout nouveau gadget, lui dire de connecter mes autres appareils, le faire parler avec moi via un haut-parleur lié pour me dire qu’il l’a fait (ou s’il ne l’a pas fait ‘ t, ce qui doit être fait pour résoudre ce problème), répondre aux questions sur ce qu’il peut et ne peut pas faire et comment je peux le gérer, et enfin, tenez-moi informé verbalement de tout problème pouvant survenir ou des nouvelles fonctionnalités qu’il obtient .

Alors que ces tout nouveaux outils et capacités commencent à être lancés, le potentiel de contrôle vocal beaucoup plus facile d’une pléthore d’appareils numériques s’améliore de manière tentante.

Bob O’Donnell est le créateur et l’analyste en chef de TECHnalysis Research Study, LLC, une société de conseil en technologie qui fournit des services de conseil stratégique et de recherche marketing au marché de l’innovation et à la communauté monétaire experte. Vous pouvez le suivre sur Twitter @bobodtech.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici