vendredi, 29 mars 2024

Comment le traitement du langage naturel aide à promouvoir l’inclusivité dans les communautés en ligne

Pour développer des communautés en ligne saines, les entreprises ont besoin de meilleures stratégies pour éliminer les messages préjudiciables. Lors de cet événement VB On-Demand, les experts IA/ML de Cohere et  Cloud partagent leurs idées sur les tout nouveaux outils qui modifient la façon dont les petites quantités sont traitées.

Regardez gratuitement, à la demande !

Les joueurs subissent une quantité incroyable d’abus en ligne. Une étude récente a révélé que cinq adultes sur six (18 à 45 ans) étaient harcelés dans les jeux vidéo multijoueurs en ligne, soit plus de 80 millions de joueurs. 3 jeunes gamers sur 5 (13– 17 ans) ont effectivement été importunés, soit près de 14 millions de joueurs. Le harcèlement fondé sur l’identité est en augmentation, tout comme les cas de rhétorique suprémaciste blanche.

Occasion

Sommet sur la sécurité intelligente

Découvrez le rôle vital de l’IA et du ML dans la cybersécurité et des études de cas spécifiques à l’industrie le 8 décembre. Inscrivez-vous pour votre pass totalement gratuit aujourd’hui.

Inscrivez-vous maintenant

Ça se passe dans un un monde en ligne très agité, où 2,5 quintillions d’octets de données sont produits chaque jour, ce qui rend le contenu de petites quantités, constamment une proposition stimulante, basée sur l’homme, un défi plus grand qu’il ne l’a jamais été. pas une augmentation du harcèlement, c’est juste plus visible en raison du fait que les jeux et les réseaux sociaux sont devenus plus populaires – mais ce que cela suggère en fait, c’est que plus de personnes que jamais souffrent de toxicité « , déclare Mike Lavia, responsable des ventes commerciales chez Cohere . « Cela cause beaucoup de dommages aux individus et cela cause beaucoup de tort dans la façon dont il développe des relations publiques négatives pour les jeux vidéo et d’autres communautés sociales. Cela demande également aux développeurs de stabiliser la modération et la monétisation, alors maintenant les développeurs tentent de rattraper leur retard. . »

Les méthodes basées sur l’homme ne suffisent pas

La méthode standard de manipulation de petites quantités de matériaux consistait à demander à un humain d’examiner le matériau , vérifiez s’il a enfreint les consignes de confiance et de sécurité, et marquez-le comme toxique ou non toxique. Les humains sont encore principalement utilisés, même si les gens semblent être les plus précis pour identifier le matériel, en particulier pour les images et les vidéos. Former les êtres humains sur les politiques de confiance et de sécurité, et identifier les habitudes néfastes prend beaucoup de temps, dit Lavia, car ce n’est souvent pas noir ou blanc.

« La manière dont les gens interagissent sur les réseaux sociaux et les jeux vidéo , et la façon dont la langue est utilisée, en particulier au cours des 2 ou 3 dernières années, évolue rapidement. Une agitation mondiale constante affecte les conversations », déclare Lavia. « Au moment où un humain est formé pour comprendre un modèle toxique, vous pouvez être obsolète et les choses commencent à glisser à travers les fractures. »

Le traitement du langage naturel (TLN), ou la capacité d’un ordinateur pour comprendre le langage humain, a en fait progressé à pas de géant au cours des deux dernières années et est devenu une méthode ingénieuse pour identifier la toxicité dans le texte en temps réel. Des conceptions puissantes qui comprennent le langage humain sont enfin disponibles pour les développeurs, et vraiment rentables en termes de coût, de ressources et d’évolutivité pour s’intégrer dans les flux de travail et les piles technologiques existants.

Comment les conceptions de langage évoluent en temps réel

Une partie de petits montants consiste à se tenir au courant des événements actuels, car le monde du plein air ne reste pas à l’extérieur : il affecte constamment les communautés et les discussions en ligne. Les modèles de base sont formés sur des téraoctets d’informations, en grattant le Web, et après cela, un excellent réglage maintient les modèles pertinents pour la communauté, le monde et l’entreprise. Une entreprise apporte ses propres informations IP pour peaufiner un modèle afin de comprendre son organisation particulière ou sa tâche particulière à accomplir.

« C’est là que vous pouvez étendre une conception pour ensuite comprendre votre service et exécuter la tâche à un rythme vraiment niveau de performance élevé, et ils peuvent être mis à niveau assez rapidement », déclare Lavia. « Et puis, progressivement, vous pouvez produire des limites pour commencer la reconversion et en pousser une toute nouvelle sur le marché, afin de pouvoir développer une toute nouvelle intention de toxicité. »

Vous pourriez signaler toute conversation sur la Russie et l’Ukraine, qui n’est peut-être pas toujours toxique, mais qui mérite d’être suivie. Si un utilisateur est signalé à plusieurs reprises au cours d’une session, il est signalé, surveillé et signalé si nécessaire.

« Les conceptions précédentes n’auraient pas la capacité de trouver cela », déclare-t-il. « En réentraînant la conception pour qu’elle se compose de ce type de données d’entraînement, vous démarrez la capacité de commencer à suivre et à reconnaître ce type de matériel. Avec l’IA, et avec ces plates-formes comme celles que Cohere développe, il est vraiment facile de recycler les conceptions et de se recycler en continu avec le temps, selon vos besoins. »

Vous pouvez identifier les fausses informations, les propos politiques, événements existants : tout type de sujet qui ne correspond pas à votre communauté et déclenche le type de division qui décourage les utilisateurs.

« Ce que vous voyez avec et et quelques-unes des plateformes de jeux , où il y a un roulement considérable, c’est principalement dû à cet environnement nocif », déclare-t-il. « Il est difficile de discuter de l’inclusivité sans discuter de la toxicité, car la toxicité dégrade l’inclusivité. Un grand nombre de ces plates-formes doivent trouver ce juste milieu entre gagner de l’argent et modérer leurs plates-formes pour s’assurer qu’elles sont sûres pour tout le monde. »

Pour en savoir plus sur le fonctionnement des modèles NLP et comment les concepteurs peuvent les exploiter, comment construire et faire évoluer des quartiers inclusifs de manière rentable et plus encore, ne manquez pas cette occasion à la demande !

Visualisez gratuitement à la demande maintenant !

Programme

  • Adaptation des outils à la langue vernaculaire et aux politiques distinctes de votre quartier
  • Augmentation de la capacité à comprendre les nuances et le contexte du langage humain
  • Utiliser un langage IA qui découvre à mesure que la toxicité évolue
  • Accélérer considérablement la capacité à déterminer la toxicité à grande échelle

Présentateurs

  • David Wynn, responsable du conseil en solutions,  Cloud pour les jeux
  • Mike Lavia, responsable des ventes commerciales, Cohere
  • Dean Takahas salut, auteur principal, GamesBeat (modérateur)

l’objectif de VentureBeat est d’être une place publique numérique pour les décideurs techniques compréhension de l’innovation d’entreprise transformatrice et des transactions. Découvrez nos Rundowns.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici