vendredi, 26 avril 2024

VoxLens rend les données interactives plus accessibles pour les lecteurs d’écran

Partager cette
publication

Vous êtes libre de partager cet article sous la licence Attribution 4.0 International.

Tags
  • perte de vue
  • Internet
Université

Université de Washington

VoxLens est un plugin JavaScript qui, avec une ligne de code supplémentaire, permet aux personnes qui utilisent des lecteurs d’écran de s’engager avec des visualisations.

Les visualisations interactives ont en fait changé la façon dont nous comprenons nos vies . Par exemple, ils peuvent afficher la variété des infections à coronavirus dans chaque état.

Ces graphiques ne sont souvent pas disponibles pour les personnes qui utilisent des lecteurs d’écran, des programmes d’application logicielle qui analysent le contenu d’un écran de système informatique et rendent le contenu disponible via une voix synthétisée ou en braille.

Des millions d’Américains utilisent des lecteurs d’écran pour diverses raisons, notamment une cécité totale ou partielle, des troubles d’apprentissage ou un niveau de sensibilité au mouvement.

Les utilisateurs de VoxLens peuvent acquérir un résumé de haut niveau des informations expliquées dans un graphique, écouter un graphique traduit en son ou utiliser des commandes vocales pour poser des questions particulières sur les données, telles que la moyenne ou la valeur minimale, son rapport des développeurs.

« Si je regarde un graphique, je peux retirer tous les détails qui m’intéressent, peut-être que c’est la tendance générale ou peut-être que c’est l’optimum », déclare l’auteur principal Ather Sharif, un doctorant à la Paul G. Allen School of C omputer Science & Engineering à l’Université de Washington.

« Actuellement, les utilisateurs de lecteurs d’écran obtiennent extrêmement peu ou pas d’informations sur les visualisations en ligne, qui, en raison de la pandémie de COVID-19, peuvent souvent faire référence à la vie et la mort. Le but de notre projet est d’offrir aux utilisateurs de lecteurs d’écran une plate-forme où ils peuvent extraire autant ou aussi peu de détails qu’ils le souhaitent. »

Les lecteurs d’écran peuvent informer les utilisateurs sur le texte à l’écran grâce à la fait que c’est ce que les chercheurs appellent des « détails unidimensionnels ».

« Il y a un début et une fin de phrase et tout ce qui peut être trouvé entre les deux », explique le co-auteur principal Jacob O. Wobbrock , enseignant à l’école des détails. « Mais aussi rapidement que vous déplacez les choses dans des espaces bidimensionnels, tels que des visualisations, il n’y a pas de début ni de surface clairs. Il n’est tout simplement pas structuré de la même manière, ce qui signifie qu’il n’y a pas de point d’entrée ou de séquencement apparent pour les lecteurs d’écran. »

Pour commencer le travail, l’équipe a travaillé avec cinq utilisateurs de lecteurs d’écran avec une perte partielle ou totale de afin de déterminer comment un éventuel outil pourrait fonctionner.

 » Dans le domaine de l’accessibilité, il est vraiment important de suivre le concept d' »absolument rien sur nous sans nous », déclare Sharif. « Nous ne sommes pas va construire quelque chose et après cela voir comment cela fonctionne. Nous allons le construire en tenant compte des retours des utilisateurs. Nous souhaitons construire ce dont ils ont besoin. »

Pour exécuter VoxLens, les concepteurs de visualisation n’ont besoin que d’inclure une seule ligne de code.

« Nous ne voulions pas que les gens sautent d’un une visualisation à une autre et expérimentez des informations irrégulières », déclare Sharif. « Nous avons fait de VoxLens une bibliothèque municipale, ce qui signifie que vous allez entendre le même type de résumé pour toutes les visualisations. Les concepteurs peuvent simplement ajouter cette ligne de code et après cela, nous faisons le reste. »

Les chercheurs ont évalué VoxLens en recrutant 22 utilisateurs de lecteurs d’écran entièrement ou partiellement aveugles. Les participants ont appris à utiliser VoxLens. et après cela, il a effectué 9 tâches, chacune impliquant de répondre aux préoccupations concernant une visualisation.

Par rapport aux personnes d’une étude de recherche précédente qui n’avaient pas accès à cet outil, les utilisateurs de VoxLens ont terminé les tâches avec 122 % d’augmentation précision et 36 % de temps d’interaction en moins.

« Nous voulons que les individus se connectent à un graphique autant qu’ils le souhaitent, mais nous ne souhaitons pas non plus qu’ils passent une heure à chercher ce qu’est le maximum », Sharif « Dans notre étude, le temps d’interaction fait référence au temps qu’il faut pour extraire les détails, c’est pourquoi le minimiser est une bonne chose. »

L’équipe a également interrogé 6 personnes sur leurs expériences.

« Nous voulions nous assurer que ces temps de précision et d’interaction Les chiffres que nous avons vus se reflétaient dans la façon dont les participants se sentaient à propos de VoxLens », déclare Sharif. « Nous avons reçu des commentaires très positifs. Quelqu’un nous a informés qu’il tentait d’accéder à des visualisations depuis 12 ans et que c’était la première fois qu’il était capable de le faire rapidement. »

Pour le moment, VoxLens uniquement fonctionne pour les visualisations créées à l’aide de bibliothèques JavaScript, telles que D3, chart.js ou Google Sheets. Mais le groupe travaille à l’élargissement à d’autres plates-formes de visualisation populaires. Les scientifiques ont également reconnu que le système de reconnaissance vocale peut être ennuyeux à utiliser.

« Ce travail fait partie d’un programme beaucoup plus vaste pour nous : se débarrasser des préjugés dans le style », déclare la co-auteure principale Katharina Reinecke, professeur associé à l’école Allen. « Lorsque nous construisons l’innovation, nous avons tendance à penser aux individus qui nous ressemblent et qui ont les mêmes capacités que nous.

« Par exemple, D3 a en fait transformé l’accès aux visualisations en ligne et amélioré la façon dont les individus peuvent comprendre informations. Mais il y a des valeurs enracinées et les gens sont négligés. Il est vraiment essentiel que nous commencions à croire davantage à la manière de rendre l’innovation utile à tous. »

L’équipe a présenté son projet au CHI 2022 à la Nouvelle-Orléans.

La Mani Charitable Structure, la Le Centre pour un public informé de l’Université de Washington et le Centre de recherche et d’éducation sur les technologies et les expériences accessibles de l’Université de Washington ont financé le travail.

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

xnxx sex download russianporntrends.com hardxxxpics saboten campus freehentai4u.com read manga porn rakhi sex photo ganstagirls.com nani sex video xxx indian girl video download elporno.mobi tamilauntycom bf hd video bf hd video porn555.me anyporn hd tamil beach sex erolenta.com xxx sex boy to boy bustyboobs pakistanixxxx.com nude sexy videos desi sex xvideos.com tubaka.mobi justdesi in free naked dance vegasmpegs.mobi eva grover desi ass lick eroanal.net 69 xvideo 4k xnxx thefuckingtube.com xxii roman numerals translation tamil nayanthara sex sexozavr.com indian porn videos tumblr كلبات سكس porn-arab.net نيك ف الكس y3df comics popsexy.net akhil wife hentai ahri wowhentai.net the sarashina bloodline