mercredi, 24 avril 2024

Kit de développement vocal Edge, financement révélé alors que le marché du matériel axé sur la PNL se développe

Le marché des solutions de traitement du langage naturel (NLP) et de son ambiant semble croître régulièrement, à mesure que de nouvelles entreprises annoncent le lancement de nouveaux produits ou des investissements. Plus précisément, Knowles a annoncé un nouveau kit de développement Raspberry Pi avec des capacités d’écoute vocale, audio et d’apprentissage automatique (ML). -processeur de soutien. En outre, un nouveau rapport d’ABI Research a mis en évidence les avantages du son ambiant basé sur l’apprentissage en profondeur et de la PNL dans les applications cloud et périphériques.

Knowles lance un nouveau kit de développement Raspberry Pi

Le kit est conçu pour apporter la biométrie vocale, le traitement de bord audio et les capacités d’écoute ML aux appareils et systèmes dans une variété de nouvelles industries.

La solution permet aux entreprises de rationaliser la conception, le développement et les tests des technologies d’intégration vocale et audio.

Le nouveau kit de développement est construit sur Knowles‘ AISonic IA8201 Audio Edge Processor OpenDSP créé pour les besoins de traitement audio ultra basse consommation et hautes performances.

Le processeur est doté de deux cœurs DSP audio-centriques basés sur Tensilica. L’un d’entre eux pour les applications de calcul et d’IA/ML haute puissance, et l’autre pour le traitement permanent à très faible consommation des entrées de capteur.

Grâce à la plate-forme DSP ouverte de Knowles, le nouveau kit< /a> a permis l’accès à un large éventail d’algorithmes audio embarqués et de bibliothèques AI/ML.

Il comprend également deux cartes de réseau de microphones pour aider les ingénieurs à sélectionner les configurations d’algorithme appropriées pour l’application finale.

Deep Vision lève 35 millions de dollars pour des applications biométriques

Le fabricant de puces pour processeurs d’IA a récemment annoncé qu’il avait levé 35 millions de dollars dans le cadre d’un tour de financement de série B, mené par Tiger Global avec la participation d’Exfinity Venture Partners, SiliconMotion et Western Digital.

Les nouveaux fonds devraient aider les efforts renouvelés de Deep Vision dans l’amélioration de son processeur d’IA breveté ARA-1.

Le matériel peut être utilisé comme outil de biométrie faciale pour fournir des analyses vidéo en temps réel. Cependant, ARA-1 prend également en charge les capacités NLP pour plusieurs applications à commande vocale.

« Pour améliorer la latence et la fiabilité de la voix et d’autres services cloud, les produits de périphérie tels que les drones, les caméras de sécurité, les robots et les applications de vente au détail intelligentes mettent en œuvre des réseaux de neurones complexes et robustes », a expliqué Linley Gwennap, analyste principal de The Linley Group .

« Au sein de ces applications d’IA de pointe, nous constatons une demande croissante pour plus de performances, une plus grande précision et une résolution plus élevée », a ajouté Gwennap. « Ce marché à croissance rapide offre une grande opportunité pour l’accélérateur d’IA de Deep Vision, qui offre des performances impressionnantes et une faible puissance. »

Le chipset dédié au son ambiant et à la PNL a le vent en poupe

Plus de deux milliards d’appareils seront livrés avec un chipset dédié au son ambiant ou à la PNL d’ici 2026, selon les nouvelles données d’ABI Research.

Les chiffres proviennent du « Deep Learning-Based Ambient Sound and Language Processing : Cloud to Edge » report, qui met en évidence l’état des technologies de son ambiant et de PNL basées sur l’apprentissage en profondeur dans différents secteurs.

Selon le rapport, le son ambiant et la PNL suivront le même chemin d’évolution cloud-to-edge que la vision industrielle.

« Grâce à des technologies efficaces de compression de matériel et de modèle, cette technologie nécessite désormais moins de ressources et peut être entièrement intégrée dans les appareils finaux », a expliqué Lian Jye Su, analyste principal pour l’intelligence artificielle et l’apprentissage automatique chez ABI Research.

« Pour le moment, la plupart des implémentations se concentrent sur des tâches simples, telles que la détection de mots de réveil, la reconnaissance de scènes et la biométrie vocale. Cependant, à l’avenir, les appareils compatibles avec l’IA offriront des applications de traitement audio et vocal plus complexes », a ajouté Su.

Selon l’expert en technologie, de nombreux fournisseurs de chipsets, dont Qualcomm, sont conscients de cette tendance et nouent désormais activement des partenariats pour renforcer leurs capacités.

« Grâce à l’apprentissage multimodal, les systèmes d’intelligence artificielle de pointe peuvent devenir plus intelligents et plus sécurisés s’ils combinent des informations provenant de plusieurs sources de données », a déclaré Su.

« Avec l’apprentissage fédéré, les utilisateurs finaux peuvent personnaliser l’IA vocale dans les appareils finaux, car l’IA de pointe peut s’améliorer en fonction de l’apprentissage de leurs environnements locaux uniques », a-t-il conclu.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici