Vous consultez : Le Typhlophile / CSUN édition 2001
Accès au contenu | Accès au au menu | Touches d'accès rapide du site

CSUN édition 2001

Quatre cannes blanches.

Vendredi 15 décembre 2017 à 18:28:54 HnE

Tournois d'échecs pour déficients visuels

Chercher sur le site

Interroger Google

Logo de Google.


Photographie d'un preneur de notes.
Le BrailleNote est un appareil de type preneur de notes et peut être relié à un ordinateur pour accéder au contenu de l'écran. Il est muni d'un affichage de 32 cellules braille.





Typhlophile écrit en braille.
Une vitrine virtuelle à l'attention des AMIS DES AVEUGLES

Le Typhlophile / CSUN édition 2001

La conférence CSUN 2001 s'est avérée, encore cette année, des plus intéressante. CSUN 2001 c'est une douzaine d'ateliers de front d'une durée moyenne d'une heure, réparties entre deux grands hôtels de Los Angeles, le tout étalé sur trois jours et demi et mobilisant près de 500 conférenciers et une centaine d'exposants.

Merci à Jean-Marie D'Amour d'avoir accepté de rendre disponible ici, son très intéressant compte-rendu sur la dernière conférence de CSUN édition 2001. Vous pouvez également trouver l'original de ce document sur le site Web de la Fondation des aveugles du Québec.

Bonne lecture à tous et toutes.


Table des matières :


1. Introduction.

La conférence CSUN 2001 s'est avérée, encore cette année, des plus intéressante. CSUN 2001 c'est une douzaine d'ateliers de front d'une durée moyenne d'une heure, réparties entre deux grands hôtels de Los Angeles, le tout étalé sur trois jours et demi et mobilisant près de 500 conférenciers et une centaine d'exposants.

Il serait donc un peu hasardeux pour une seule personne d'essayer de résumer un tel événement. Ce rapport aura donc une saveur assez personnelle et réflétera nécessairement mon choix d'ateliers et par conséquent mes préoccupations.

Avant d'aller plus loin, je voudrais remercier chaleureusement la Fondation des aveugles du Québec et le CAMO pour personnes handicapées qui se sont partagé (respectivement, 70 % et 30 %) les frais de ma participation à cette édition 2001. Quant à mon salaire, pour près de deux semaines de travail (conférence et rapport), c'est ma contribution personnelle à l'avancement de la science.

C'est la quatrième année où je participe à CSUN avec, au fil des jours et des ateliers qui se succèdent, des sentiments souvent un peu ambivalents. J'éprouve d'abord le sentiment de la découverte stimulante et de l'enthousiasme devant les nouvelles perspectives qui s'ouvrent pour l'intégration sociale et professionnelle des personnes handicapées. Par contre, je ressens également, la frustration de me sentir à l'écart des grands enjeux qui mobilisent le monde des technologies adaptées et j'ai l'impression de vivre dans une sorte de tiers-monde technologique. Ce sentiment de marginalité est en partie lié au fait que tout cela se passe d'abord aux États-Unis et en anglais et, par la suite, avec un certain retard, en français pour nous du Québec. C'est pourquoi je considère que la participation à CSUN est une activité essentielle dans un processus de recherche et développement qui est continu.

Revenir à la Table des matières.


2. La Section 508, une révolution à l'américaine aux retombées internationales.

"En 1998, le Congrès américain amendait le "Rehabilitation Act" pour exiger des agences fédérales qu'elles rendent accessibles les équipements électroniques et les technologies de l'information aux personnes handicapées. Dans le cadre de la Section 508, les agences gouvernementales doivent donner aux employés handicapés et au public ayant des incapacités un accès aux technologies comparable à celui des personnes n'ayant pas ces limitations.

La Loi s'applique à toutes les agences fédérales quand elles développent, procurent, maintiennent ou utilisent des équipements électroniques ou des technologies de l'information. Les technologies inaccessibles empêchent les individus handicapés d'obtenir et d'utiliser l'information rapidement et facilement.

La Section 508 a été édictée pour éliminer les barrières au niveau des technologies de l'information, pour ouvrir de nouvelles possibilités aux personnes ayant des incapacités et encourager le développement de technologies qui permettent d'atteindre ces buts."

Le paragraphe précédent est une traduction libre d'un extrait tiré du site du Gouvernement américain sur la Section 508. Ce Règlement a été adopté le 21 décembre 2000 et doit s'appliquer dans un délai de six mois, soit le 21 juin 2001. C'est plus qu'une simple politique d'achat gouvernemental, car la Section 508 a force de loi. La Section 508 s'applique à tous les achats ou développements faits après le 21 juin 2001 et n'oblige pas la modification des équipements achetés ou des développements réalisés dans le passé.

La Section 508 énonce un certain nombre de critères techniques à respecter comme les règles d'accessibilité pour les sites Web du Web Accessibility Initiative (WAI), toutes les priorités de niveau 1 et quelques priorités de niveau 2 et 3. La réglementation énonce également des critères de performance qui sont plus généraux et qui décrivent le résultat attendu plutôt que la façon d'y arriver. Exemples : les logiciels doivent être entièrement utilisables au clavier et sans souris, les documents multimédias doivent comporter des sous-titres et de l'audiodescription, les images doivent être décrites et les tableaux doivent être utilisables, les logiciels ne doivent pas interrompre ou désactiver les fonctions d'accessibilité d'un autre produit ou d'un système d'exploitation et doivent fournir l'information nécessaire aux produits d'adaptation. Enfin, l'exigence d'accessibilité s'applique aussi à l'information et à la documentation sur les produits et services.

À partir du 21 juin 2001, les compagnies qui transigent avec le Gouvernement fédéral américain devront faire une déclaration sur le niveau d'accessibilité de leur produit et l'agence qui les acquiert disposera de six semaines pour accepter ou rejeter le produit selon son accessibilité.

C'est à partir du 1er janvier 2003 que le Gouvernement américain aura mis en place un système permettant de tester l'accessibilité de tous les produits et services. Un produit reconnu accessible pourra dès lors afficher un logo attestant qu'il a passé ces tests avec succès.

Je ne sais pas si vous comprenez bien l'impact considérable de cette mesure législative. En tout cas, beaucoup de compagnies dans le domaine de l'électronique et de l'informatique comprennent qu'elles n'ont plus le choix et c'est dans une atmosphère de panique qu'elles cherchent des solutions en y affectant, dans certains cas, des budgets illimités.

C'est en toute connaissance de cause que les législateurs américains ont lancé ce pavé dans la mare en espérant, à la manière américaine, qu'ils vont changer la face du monde et avoir un effet d'entraînement sur le secteur privé et sur les autres pays dont ils se perçoivent naturellement comme le chef de file.

À moyen terme, la Section 508 aura sûrement ce type d'impact aussi chez nous au Québec. Mais, à court terme, il faudra être très vigilants face à deux risques importants. Le premier est que les produits inaccessibles et donc inacceptables pour le Gouvernent américain soient écoulés sur des marchés dont la réglementation est moins contraignante comme le marché canadien. Le second risque est que plusieurs compagnies rendent rapidement leurs produits accessibles en anglais en y consacrant toutes les ressources disponibles et qu'elles oublient ou qu'elles tardent à en faire autant pour leurs versions françaises.

Du côté canadien, l'ADIO (Assistive Devices Industry Office ou Bureau de l'industrie des appareils et accessoires fonctionnels) d'Industrie Canada, a lancé son site Boîtes à outils accessibles pour l'approvisionnement afin d'aider les employés handicapés et les directeurs à acheter des produits et des services accessibles. C'est un effort important et intéressant qui peut être utile non seulement aux gestionnaires fédéraux, mais également aux gestionnaires des entreprises ou des gouvernements provinciaux.

Le contexte canadien est fort différent de la réalité américaine. Le Canada ne dispose pas d'une réglementation contraignante comme la Section 508, ce qui fait que ses politiques d'achat ont une apparence plus incitative. Les Canadiens handicapés peuvent toutefois compter sur une Charte des droits qui promet une égalité de résultats que les tribunaux doivent faire respecter tout en définissant concrètement sa portée. Encore faudrait-il que ceux qu'elle est censée protéger s'adressent aux tribunaux plus souvent pour la faire respecter. Cela pourrait activer des efforts qui, sans cela, relèvent trop exclusivement du domaine de la bonne volonté.

Enfin, dans ce même ordre d'idée, une présentation du Royal National Institue for the Blind (RNIB) de Grande-Bretagne faisait ressortir le manque de normes claires et précises pour définir ce qu'est un logiciel accessible et réclamait une concertation internationale du même type que celle réalisée par le Web Accessibility Initiative depuis cinq ans.

Cette préoccupation émergeait de plusieurs années d'expérience dans l'adaptation de postes de travail où les employés aveugles ou mal-voyants doivent utiliser des logiciels variés qui deviennent, dans certains cas, des barrières à l'emploi. Nous nous sommes reconnus dans ce portrait d'une situation que nous connaissons également au Québec. Espérons que la Section 508 aura pour impact de faire progresser très nettement ce dossier important. Il sera intéressant de suivre de près ces travaux.

Revenir à la Table des matières.


3. Coup d'œil sur l'avenir des technologies accessibles.

Avec, "Telecommunications - Accessibility and Future Directions", Gregg Vanderheiden Ph.D. du Trace R & D Center de l'Université duWisconsin, nous avons plongé notre regard dans l'avenir proche et plus lointain. À plusieurs reprises, le conférencier a d'ailleurs rappelé que les produits qu'il décrivait n'existaient pas encore.

Compte tenu de l'intérêt de ce sujet, voici, en traduction libre, le texte intégral de cette conférence.

"Dans le passé, les produits ont été conçus pour fonctionner d'une façon fixée à l'avance et ciblaient les personnes qui se trouvaient dans le centre ou dans le centre supérieur de la courbe d'habileté. En effet, ils étaient conçus pour les gens qui disposaient de toutes leurs capacités ou présentaient des capacités légèrement supérieures à la moyenne. De façon typique, les personnes qui avaient des incapacités devaient obtenir l'accès à ces produits soit en achetant une version spéciale (quand une telle version était disponible) ou en attachant une technologie d'adaptation ou une autre interface spécialisée.

Plusieurs choses sont toutefois en train de changer qui modifieront dramatiquement à la fois la façon dont les produits sont conçus et le potentiel des futurs produits au niveau de l'accessibilité. Cette conférence met en évidence certains de ces changements et décrit quelques technologies actuelles et futures qui démontrent cette nouvelle flexibilité et le potentiel d'accessibilité intégré aux produits eux-mêmes.

Revenir à la Table des matières.


3.1. Les technologies utilisées pour créer de nouveaux produits sont différentes de celles du passé.

Premièrement, presque tous les produits sont aujourd'hui contrôlés par un microprocesseur qui exécute un programme. Dans le passé, les produits étaient de nature plutôt électromécanique. Aujourd'hui, le microprocesseur du téléphone contrôle ce que le téléphone fait sur la base de sa programmation.

Conséquemment, il est facile de faire en sorte que les téléphones aient des comportements différents simplement en changeant leur programmation. Il est aussi possible d'obtenir des comportements différents pour des utilisateurs différents ou pour le même utilisateur dans des situations différentes en permettant simplement à l'utilisateur de choisir des comportements différents.

Avec l'accroissement de la vitesse des processeurs et la diminution constante du coût des processeurs et de la mémoire, il est possible d'intégrer de la flexibilité dans les produits eux-mêmes d'une manière que l'on ne pouvait pas imaginer auparavant. La console de jeux Nintendo d'il y a quelques années avait la capacité de traitement d'un superordinateur Cray de 1985. Ces mêmes Nintendo sont maintenant lents et désuets selon les critères actuels.

L'informatique mobile a aussi engendré le besoin de systèmes et d'interfaces plus flexibles. Comme les gens veulent accéder à leur système, à leur poste de travail, en marchant, les yeux mobilisés par la conduite automobile, en faisant autre chose avec leurs mains, dans un environnement bruyant où ils ne peuvent entendre, dans un contexte silencieux comme une bibliothèque ou une réunion où ils ne peuvent utiliser du son, etc., les individus veulent des systèmes qui leur permettent de changer facilement la façon dont ils interagissent avec les produits selon leurs besoins ou selon la situation.

Enfin, les progrès rapides des technologies vocales sont en train de rendre la commande vocale (ex. : mot) des produits et l'utilisation du langage naturel pour effectuer des opérations, une réalité de plus en plus effective.

Toutes ces tendances se conjuguent pour apporter à tous les utilisateurs des systèmes qui auront une flexibilité sans précédent et la capacité de s'adapter aux différents besoins des utilisateurs, à différents moments et dans différents environnements. Cette même flexibilité aura de profondes répercussions sur la capacité des produits de s'adapter aux situations particulières auxquelles font face les personnes qui ont des incapacités temporaires ou permanentes. Cette conférence décrira certaines technologies récentes et futures et démontrera comment ces avancées technologiques peuvent changer dramatiquement la conception et l'accessibilité naturelle des futurs produits d'information et de télécommunication.

Revenir à la Table des matières.


3.2. Messagerie silencieuse - téléscripteur intégré aux téléphones cellulaires numériques.

Quand les téléphones cellulaires numériques ont été introduits, les algorithmes de compression de la voix créaient de la distorsion au niveau des signaux utilisés par les téléscripteurs, rendant difficile ou impossible la transmission d'un message de téléscripteur via un téléphone cellulaire numérique.

Pour résoudre ce problème, les producteurs de téléphones ont changé le logiciel intégré au téléphone de façon à ce qu'il reconnaisse les tonalités du téléscripteur et les convertisse sous une forme plus facilement transmissible.

Cela signifie que tous ces téléphones cellulaires numériques seront capables d'envoyer et de recevoir des messages texte de type téléscripteur. Conséquemment, ces téléphones standards disponibles sur le marché pourront, avec un petit effort additionnel, présenter directement à l'écran les caractères de type téléscripteur au moment de leur réception.

Les personnes sourdes ou incapables de parler seront dès lors capables d'utiliser n'importe quel téléphone standard sans aucune modification spéciale. Si les téléphones avaient un mode d'entrée de caractères (comme plusieurs le font de nos jours), la personne sourde pourrait également utiliser un téléphone cellulaire standard en tant que téléscripteur bidirectionnel.

C'est une fonction qui peut être utile et utilisée par de nombreuses personnes, pas seulement par les personnes sourdes. Les téléphones pourraient être conçus avec un mode "opération silencieuse" qui permettrait aux gens de communiquer avec les autres quand ils sont en réunion ou dans un autre endroit où ils sont incapables de parler au téléphone.

Revenir à la Table des matières.


3.3. Captel - conversations téléphoniques sous-titrées.

La technologie Captel est déjà disponible aujourd'hui dans des marchés limités en tant que projet pilote et sera bientôt étendue à tout le pays. Le service s'appelle Captel, une abréviation pour "captioned telephone" (téléphone sous-titré).

Le téléphone Captel ressemble à un téléphone de table standard avec le combiné sur la gauche et un clavier numérique agrandi. Au-dessus du clavier, se trouvent six petits boutons et, au-dessus de ceux-ci, un écran LCD. À la droite du clavier, il y a quatre petits boutons et un gros bouton. À l'avant du téléphone, sous le clavier, il y a un volet qui s'ouvre pour révéler un petit clavier caché.

Figure 1: Téléphone Captel Le téléphone Captel (voir Figure 1) ressemble beaucoup au téléphone standard . La différence clé est qu'il dispose d'un petit bouton intitulé "caption" (sous-titre). Si vous pressez ce bouton avant de composer un numéro de téléphone, cet appel sera sous-titré. Un jour, cette technologie utilisera une reconnaissance informatisée complète de la parole. Aujourd'hui, la reconnaissance de la parole n'est pas encore assez bonne et ne peut servir une variété de personnes incluant celles qui ont un accent. Alors, à la place, le système Captel fonctionne en ayant une tierce personne qui écoute la conversation. Presser le bouton "sous-titre" avant de faire un appel établit automatiquement un lien avec cette personne qui participe à l'appel. Cette tierce personne écoute tout ce qui se dit par les autres interlocuteurs. Tout en écoutant, la tierce personne répète les mêmes mots très distinctement dans un ordinateur qui fait de la reconnaissance vocale. Parce que cette personne a entraîné l'ordinateur à reconnaître sa voix et qu'elle fait cela toute la journée, elle peut atteindre un niveau très élevé de reconnaissance. De plus, même si l'ordinateur fait une erreur, elle peut la voir à l'écran et la corriger avant qu'elle soit transmise sur l'écran de la personne qui utilise le téléphone Captel. Pour plus d'information, visitez le site : www.ultratec.com.

Revenir à la Table des matières.


3.4. Le concept "Essayer plus fort" (Try Harder).

La technique "essayer plus fort" est une technique qui peut être utilisée avec n'importe laquelle des technologies décrites dans ce document. C'est en fait un mécanisme qui nous permet une transition plus facile entre les capacités techniques actuelles et futures.

Appliquée au domaine de la reconnaissance de la parole, cette technique peut ressembler à ce qui suit. Un individu aimerait utiliser un système entièrement automatisé de reconnaissance de la parole. Toutefois, actuellement cela ne fonctionnerait que dans certaines circonstances avec certains locuteurs. Ajouter un bouton "Essayer plus fort" au produit permettrait à l'utilisateur d'essayer d'abord le mode de reconnaissance automatique (qui est moins coûteux) pour voir si cela fonctionne.

Si cela ne fonctionne pas, la personne a simplement à pousser le bouton "essayer plus fort" et un humain intervient immédiatement pour vérifier la sortie automatique et faire les corrections.

Pousser encore une fois le bouton "essayer plus fort" pourrait faire passer la personne à un autre niveau de service où un humain répète les mots pour la reconnaissance de parole ou utilise un système de sténo ou une autre technique pour donner une meilleure transcription de la parole au texte. Chaque pression sur le bouton "essayer plus fort" pourrait faire appel à une ressource plus qualifiée et qui coûte plus cher.

Avec l"utilisation de la technique "essayer plus fort", nous pouvons mettre en place aujourd'hui des systèmes qui fonctionnent dès maintenant et qui pourront migrer tout naturellement vers ou incorporer de nouvelles technologies (dans le cas présent, la reconnaissance de la parole) dès qu'elles seront disponibles afin d'offrir un service plus rapide et moins coûteux au fil du temps. En ayant un système qui fonctionne dès maintenant et qui s'appuie sur l'avenir, nous pouvons créer le service qui est nécessaire aujourd'hui et l'infrastructure pour incorporer automatiquement les avancées technologiques à mesure qu'elles deviennent disponibles.

Revenir à la Table des matières.


3.5. L'interprète personnel.

Une forme plus générale du concept de reconnaissance de la parole a été décrite, au fil des ans, par de nombreux chercheurs et futurologues pour doter les personnes sourdes d'un interprète personnel. Un exemple (Vanderheiden, 1995) prenait la forme d'un appareil hypothétique qui consistait en un petit microphone directionnel (pouvant avoir l'apparence d'un stylo) et d'un petit écran alphanumérique qui pourrait être intégré à une paire de lunettes.

Une personne sourde pourrait transporter cet appareil en toute discrétion. Chaque fois qu'elle entrerait en conversation, elle aurait simplement à diriger le stylo vers la bouche de la personne qui parle. La parole serait alors captée et transmise à un endroit central où elle serait transcrite sous forme textuelle.

Le texte ainsi transcrit serait à son tour renvoyé à la personne en lui étant présenté via l'écran intégré à ses lunettes.

Cet appareil donnerait à la personne sourde la capacité de converser face à face, les yeux dans les yeux avec n'importe quel interlocuteur. À mesure que la technologie avancerait, le service central de transcription pourrait devenir de plus en plus automatisé et, à la longue, entièrement automatique (en fait, dans un futur éloigné, la puissance de traitement nécessaire à une reconnaissance parfaite pourrait se loger dans le stylo lui-même). En septembre 2000, Ultratec a lancé un nouveau service appelé "Sous-titres instantanés" (Instant Captioning) qui traduit ce concept en réalité. Selon des études sur le terrain, cela donnera des possibilités similaires à celles décrites ici en utilisant différents formats technologiques (www.ultratec.com).

Revenir à la Table des matières.


3.6. Interprétation gestuelle à distance.

L'interprétation gestuelle à distance fonctionne d'une façon similaire au stylo écouteur sauf qu'au lieu de retransmettre du texte, c'est l'image de quelqu'un utilisant le langage gestuel qui est retransmise et projetée pour la personne. La personne sourde peut donc voir quelqu'un flottant dans l'espace et donnant l'interprétation en langage gestuel de tout ce qui est dit.

Une première version de ce système a déjà été réalisée en utilisant une personne vivante parlant le langage gestuel à partir d'un lieu distant via Internet 2 (Barnicle, 2000). Toutefois, une alternative à envoyer un signal vidéo complet serait l'utilisation d'un avatar (personnage animé par ordinateur). Une autre possibilité pourrait être une conversion directe de l'audio à l'avatar. Des recherches sont actuellement en cours suivant ces deux avenues : interprétation du texte en langage signé et production d'avatars logiciels pouvant donner une interprétation gestuelle avec suffisamment de précision et de fluidité.

La possibilité d'avoir un système d'interprétation personnel comme ceux décrits ici sera formidable. Notons également que l'interprétation gestuelle par des humains à distance ouvre la possibilité pour les interprètes de travailler à partir de la maison et à la demande, augmentant grandement le nombre d'interprètes disponibles et leur permettant d'intervenir pour de courtes périodes de temps, diminuant d'autant les coûts reliés à l'interprétation pour les personnes qui ont des incapacités de ce type.

Revenir à la Table des matières.


3.7. Morphage des signeurs et des parleurs - habiletés de communication virtuelle.

Ces concepts peuvent être encore étendus quand des individus sont impliqués dans une communication téléphonique. En utilisant les technologies de morphage, il est possible de prendre l'image d'une personne et de la combiner avec un avatar signeur pour obtenir une image qui ressemble exactement à l'individu lui-même utilisant le langage gestuel. De cette façon, il est possible d'envoyer l'image d'une personne signant via un vidéotéléphone même si la personne ne connaît rien au langage gestuel.

De façon similaire, il est possible de prendre une image d'une personne et de morpher ses lèvres comme si elle parlait même si ce n'est pas le cas. Ainsi, une personne (qui ne peut parler) peut taper au clavier tout en projetant une image d'elle-même assise calmement en train de parler, ses lèvres en mouvement créant l'apparence de la parole.

L'utilisation combinée de ces deux applications permettrait à une personne au bout de la ligne du vidéophone (et ne pouvant parler) d'apparaître en train de parler à ses interlocuteurs à l'autre bout de la ligne. Et, quand ses interlocuteurs lui répondraient, ils le feraient en signant.

Tôt ou tard, la reconnaissance gestuelle sera assez bonne pour qu'une personne sourde puisse signer et voir les autres signer pendant que les autres personnes parleraient et verraient la personne sourde parler. De cette façon, chaque personne pourrait choisir la façon de se présenter et de voir les autres, ce qui lui permettrait d'interagir le plus facilement.

Revenir à la Table des matières.


3.8. Assistance à la demande.

Dans les exemples déjà mentionnés, le concept d'un "assistant à la demande" a déjà été présenté. En fait, un "assistant à la demande" est une personne qui peut être appelée à la rescousse par une personne ayant une incapacité à n'importe quel moment où elle en a besoin, mais qui disparaît le reste du temps.

Dans l'exemple précédent, l'assistant est un interprète qui aide une personne sourde dans un environnement auditif. Des assistants sur demande peuvent aussi être utilisés par des personnes ayant des incapacités visuelles ou cognitives.

Par exemple, quelqu'un ayant une basse vision ou qui est aveugle pourrait trouver très utile d'utiliser une mini-caméra et un lien vidéotéléphonique pour appeler une personne qui pourrait agir comme assistant visuel au moment où il en a besoin. Ainsi, une personne pourrait assister à un cours (ou participer à une téléconférence) dont la majeure partie est aisément compréhensible en écoutant simplement le professeur. Toutefois, à un certain moment, le cours commence à référer à un graphique ou à un diagramme. La personne aveugle pourrait pousser un bouton sur son assistant visuel à la demande (AVAD) et, instantanément, obtenir quelqu'un qui pourrait l'aider à interpréter le graphique grâce à une description visuelle. Comme la téléconférence est transmise électroniquement, il est aussi possible de demander une boucle de 30 ou 60 secondes. Ainsi, quand la personne agissant comme assistant visuel à la demande est appelée dans la conférence, elle peut commencer réellement 60 secondes dans le passé de sorte que la référence visuelle ou l'objet présenté qui a amené l'appel de l'AVAD pourrait être vu par l'assistant et décrit à la personne aveugle.

Une technique que l'on pourrait appeler "pause et reprise" pourrait aussi être utilisée par laquelle la conférence serait mise sur "pause" (seulement pour la personne aveugle) pendant que l'objet visuel lui serait décrit. Puis, la conférence reprendrait et lui serait présentée avec un léger délai, mais avec débit légèrement accéléré de façon à ce que, après un court moment, la personne revienne en temps réel.

Revenir à la Table des matières.


3.9. Le Compagnon - un assistant cognitif à la demande.

Un exemple d'appareil hypothétique donnant de l'assistance à une personne ayant une incapacité cognitive, est inclus dans Rowitz's 1992 "Mental Retardation in the Year 2000" (dans un chapitre intitulé "A brief look at technology and mental retardation in the 21st century", Vanderheiden, 1992).

Les technologies de Compagnon sont celles qui non seulement augmentent et améliorent les habiletés cognitives de la personne, mais augmentent également les habiletés cognitives de l'utilisateur avec une deuxième entité cognitive séparée. Un exemple d'un tel appareil est un appareil hypothétique appelé le "Compagnon".

Le Compagnon consiste en un petit appareil de la taille approximative d'un gros porte-feuille. Il comporte quatre ou cinq gros boutons qui sont brillamment colorés de couleurs distinctes et portent des symboles. L'un des boutons appelle la fonction '"Aide". Deux autres boutons représentent "Oui" et "Non". Un autre bouton est un bouton d'appel. Le Compagnon est doté d'une sortie vocale et de reconnaissance de la parole. Il a un système d'intelligence artificielle incorporé spécialement conçu pour faciliter la solution de problèmes et la résolution de crises.

De plus, le Compagnon agit comme un système de rappel et de monitorage pour la personne. Le Compagnon comporte un système de positionnement par satellite (GPS) qui permet de connaître exactement sa position à partir d'un signal satellite.

Enfin, le Compagnon dispose d'un système de communication cellulaire similaire à celui d'un téléphone cellulaire lui permettant de mettre la personne instantanément en contact avec une ligne de crise en cas d'urgence qui ne pourrait facilement être gérée par le Compagnon.

L'objectif du compagnon serait, bien sûr, de permettre aux personnes ayant une déficience intellectuelle de vivre de façon plus autonome. Si le Compagnon pouvait habiliter la personne à vivre de façon sécuritaire avec moins de supervision et plus d'autonomie, les sommes économisées viendraient très rapidement couvrir le coût du Compagnon.

Revenir à la Table des matières.


3.10. Fenêtre sur le monde (FSLM).

Figure 2: Fenêtre sur le monde Le dernier scénario, est la description d'un appareil hypothétique de communication et d'information à usages multiples qui pourrait être utilisé dans un avenir pas trop lointain. (voir Figure 2). Toutes les techniques et les technologies décrites pour ce produit existent actuellement en laboratoire.

La "Fenêtre sur le monde" est un appareil de 3,5 par 4,5 pouces et d'un quart de pouce d'épaisseur lorsque fermé. L'appareil s'ouvre comme un porte-billets pour homme et mesure alors 3,5 par 9 pouces avec une épaisseur d'un huitième de pouce sauf pour une bande verticale d'un demi-pouce à l'extrémité droite et qui demeure à un quart de pouce d'épaisseur. Cette partie contient deux caméras, un microphone et des contrôles.

Quand il est ouvert, la plus grande partie de l'appareil est une interface constituée d'un grand écran tactile qui couvre toute la surface de l'appareil ouvert sauf la bande d'un demi-pouce déjà mentionnée sur le côté. L'appareil comporte quatre petits boutons, deux au bas de l'appareil de chaque côté.

Avec la Fenêtre sur le monde (FSLM) une personne peut accéder à n'importe quelle information à laquelle elle a la permission d'accéder n'importe où dans le monde : tous les livres publiés, tous les films, tous les documents, tous les rapports, toutes ses informations personnelles, des fichiers, des lettres, des enregistrements, etc., les bulletins de ses enfants, les menus du casse-croûte, les horaires de cinéma, les prix pour tous les produits dans tous les magasins, les manuels d'instruction pour tous les produits, etc. La FSLM se connecte sans fil au réseau. L'appareil agit aussi comme un appareil de télécommunication et peut compter sur un service réseau de traduction de telle sorte qu'il est possible de tenir une conversation avec n'importe qui utilisant n'importe quelle langue et d'obtenir automatiquement une interprétation dans la langue maternelle de la personne.

Cet appareil peut être entièrement commandé vocalement ou visuellement et les contrôles d'entrée sont flexibles. L'appareil a également une fonction de saisie et de lecture qui peut aussi traduire.

Avec ces options de viseur tête haute et d'écouteur, il apporte une grande flexibilité d'entrée sortie permettant son utilisation en marchant, dans une réception, une réunion, un environnement bruyant, en conduisant, etc.

Le résultat est un appareil qui, bien que conçu pour un usage mobile et flexible par n'importe qui, est, par bonheur, accessible pour toutes les types d'incapacités. La tendance générale pour les technologies du futur en est une de flexibilité au niveau des entrées sorties qui les rendra naturellement accessible à toutes les incapacités confondues ou presque. Nous devons tourner à notre avantage cette tendance."

La conférence dont vous venez de lire la traduction libre, est fondée sur des recherches poursuivies grâce à une subvention du National Institute on Disability and Rehabilitation Research (NIDRR) du Department of Education américain, projet #H133A60030. Les opinions contenues dans cette publication sont celle de l'organisme subventionné et ne reflètent pas nécessairement celles du Department of Education.

Pour les autres références, voir la version originale en anglais.

Revenir à la Table des matières.


4. Les vidéoloupes ou télévisionneuses.

Un grand nombre de fabricants exposaient leurs produits dans le domaine des systèmes électronique de grossissement de l'image mieux connu au Québec sous le nom de télévisionneuses, terme auquel nous préférons celui de vidéoloupe qui est plus représentatif de la fonction. La vidéoloupe est constitué d'une caméra qui capte l'image d'un document et la transmet sur un moniteur.

Ces appareils sont disponibles en noir et blanc ou en couleur avec des moniteurs de différentes taille. Ils permettent un grossissement qui varie selon les modèles, mais qui peut atteindre jusqu'à cinquante fois. Ce sont pour la plupart, des modèles de table qui ne peuvent être transportés facilement.

4.1. Des lunettes vidéo appelées Jordy.

Depuis plusieurs années, nous sommes à la recherche d'un modèle qui soit vraiment portable et qu'un étudiant puisse, par exemple, facilement le transporter de classe en classe ou une personne âgée apporter à l'épicerie pour lire les prix et les informations sur les produits. Différents produits ont fait leur apparition au fil des ans pour répondre aux besoins de cette clientèle, mais se sont avérés peu satisfaisants.

La compagnie californienne EVS (Enhanced Vision System) vient peut-être de trouver une solution intéressante. Elle a présenté à CSUN une gamme de nouveaux produits dont le Maxport, le Flipperport et le Jordy dont voici des images.

Photo d'un homme utilisant le Maxport Photo d'une femmes utilisant le Flipperport  Photo d'un homme utilisant le Jordy Photo du Jordy et de son module de contrôle et de batteries qui se fixe à la ceinture

C'est sans conteste le modèle Jordy qui nous a le plus impressionné parce que la caméra est incorporée dans les lunettes vidéo et permet, de façon alternative, de lire de près (16 pouces, 40 cm) et de voir au loin. Il pèse moins de 10 onces (283g) et comporte un champ visuel de 44 degrés. La caméra dispose d'une fonction "autofocus" qui facilite beaucoup l'utilisation. Il peut grossir jusqu'à 24 fois, il est couplé à un module qui se porte à la taille et qui contient l'alimentation électrique avec une autonomie de 2 ou 4 heures.

Bien que le poids soit un peu élevé pour une lunette et le temps d'autonomie assez limité, la clarté de l'image, la dimension du champ visuel et la possibilité de l'utiliser au près comme au loin en font un outil qui mérite une évaluation sérieuse. Quel outil extraordinaire cela pourrait être en classe, dans une conférence ou une réunion, au spectacle ou simplement pour regarder la télévision à une distance socialement acceptable.

Revenir à la Table des matières.


4.2. Des images dessinées directement sur la rétine.

Une conférence était également prévue au programme sur un nouveau système intitulé RSD (Retinal Scanning Display), mais le conférencier ne s'étant pas présenté, voici de l'information tirée d'Internet en traduction libre.

Cette technologie n'a pas encore d'application commerciale dans le domaine de la basse vision même si la compagnie Telesensory a annoncé un partenariat avec son concepteur Microvision pour appliquer cette technologie à ce domaine.

Voici quelques photos tirées du site de Microvision et qui pourrait nous laisser croire qu'il s'agit de science-fiction. L'appareil Nomad illustré ici est annoncé comme livrable à l'été 2001.

Photo de la tête d'un homme portant le Nomad Photo du Nomad lui-même Photos d'un homme utilisant le Nomad et portant certains contrôle à la ceinture 

Voici un diagramme qui illustre le mode de fonctionnement de la technologie RSD et une traduction de ce qu'en explique Microvision..  Illustration d'une image projetée directement sur la rétine

"La Technologie de Microvision élimine tout écran externe à l'œil et s'adresse directement à la rétine avec un simple courant continu de pixels. À mesure que le courant balaie rapidement l'œil, le système visuel complète la fonction réalisée par un écran plat, éliminant plusieurs inefficiences au niveau de la performance et des coûts.

De plus, la combinaison libre des composants permet une énorme flexibilité, rendant le système hautement adaptable aux exigences d'applications spécifiques."

Cette technologie est développée pour le marché régulier et vise à remplacer les écrans des ordinateurs portables. Au courant de l'été, il faudrait faire le point sur cette technologie pour voir si des applications sont possibles dans notre domaine.

Revenir à la Table des matières.


5. Les logiciels de grossissement de l'image.

Les logiciels de grossissement de l'image permettent à une personne mal-voyante de lire l'information apparaissant à l'écran de son ordinateur. L'image peut ainsi être grossie jusqu'à 16 fois ou même plus. Il ne faut pas oublier cependant que plus l'image est agrandie, plus le champ de vision est restreint. Avec un grossissement de 4X, la personne ne voit que le quart de l'écran et avec 8X, elle ne voit plus qu'un soixante-quatrième. Une personne ayant besoin d'un grossissement de plus de 6X ou 8X sera donc souvent dirigée plutôt vers la synthèse vocale ou le braille.

5.1. ZoomText et Magic, une compétition prometteuse.

ZoomText qui est le logiciel qui domine le marché actuel, a intégré, depuis quelques temps, une synthèse vocale à son logiciel de grossissement afin de permettre un accès complémentaire à l'information. La voix française est cependant de piètre qualité et la synthèse ne lit pas adéquatement dans tous les contextes. Dans Internet, par exemple, la synthèse ne reconnaît pas actuellement les blocs de texte et les colonnes, ce qui la rend peu utile sur la majorité des sites Web qui comportent ce genre de mise en page.

Depuis peu, un nouveau concurrent est apparu sur le marché: Magic 8, développé par Freedom Scientific. Ce produit offre une voix française beaucoup plus intéressante et fait une lecture plus intelligente des pages Web. Ce produit pourra bientôt être jumelé au logiciel de revue d'écran JAWS et fournir une solution qui intègre complètement, selon les besoins, le grossissement, la synthèse vocale et le braille.

Cette nouvelle situation a déclenché une course à l'innovation dont les utilisateurs seront les principaux bénéficiaires. Les concepteurs de ZoomText annoncent en effet pour la fin de l'année une version 8 de leur produit qui corrigera ses principaux défauts et tentera de surpasser nettement la concurrence. Chaque compagnie garde jalousement le secret sur certaines fonctions dont elles nous réservent la surprise.

L'enjeu est très important pour ces deux compagnies car la majorité des utilisateurs bénéficient grandement de cette combinaison entre le grossissement et la synthèse vocale. La compagnie qui réussira à se démarquer emportera donc la plus grosse par du marché. Nous pouvons donc espérer dans 6 à 12 mois des logiciels qui seront beaucoup plus performants et faciles d'utilisation.

Revenir à la Table des matières.


6. Les logiciels de revue d'écran.

Les logiciels de revue d'écran permettent à une personne aveugle d'utiliser un ordinateur dont toute l'information est transmise sur un afficheur braille ou via une synthèse vocale. Après quelques années difficiles suite au passage de DOS à Windows, ces logiciels ont atteint depuis un certain temps un niveau de maturité qui permet une beaucoup plus grande fiabilité et facilité d'utilisation. Plusieurs produits se partagent ce marché, notamment : JAWS, Outspoken, Windows eyes, Hal et Windows Bridge. C'est JAWS qui domine très nettement ce marché et c'est le seul produit qui soit disponible dans une version française qui est d'ailleurs réalisée au Québec par la compagnie Visuaide.

6.1. JAWS.

Freedom Scientific présentait les nouvelles fonctions de JAWS 3.7. (Voir aussi le bref résumé en anglais : The New Features Of Jaws For Windows et le site de Freedom Scientific)

Freedom Scientific vient de sortir une mise à jour gratuite qui sera bientôt disponible en français et qui corrige certains problèmes de la version 3.7 et améliore de façon significative la façon de présenter les informations en braille dans les boîtes de dialogue. D'autres mise à jour sont également annoncées pour bientôt dans le but de rendre JAWS 3.7 et Magic 8 entièrement compatibles et pour faciliter la lecture de documents en format PDF dans Acrobat Reader 5.0 dont la sortie est prévue en avril. Freedom Scientific prétend que la lecture de document PDF deviendra aussi facile que la lecture de page HTML dans Internet. Cela serait extrêmement intéressant, mais reste à vérifier. La compagnie Adobe annonce que le logiciel Acrobat 5.0 permettra de sauvegarder la structure du document avec son contenu, ce qui permettrait à une personne aveugle de retrouver l'ordre logique des blocs de texte dans une mise en page complexe. Il reste cependant à vérifier comment seront rendus les documents déjà existant, fort nombreux sur Internet. Il y a de bonnes raisons de croire que ceux-ci ne seront pas plus faciles à lire qu'avec le plugiciel (plugin) d'accessibilité déjà disponible.

Revenir à la Table des matières.


6.2. Outspoken.

J'ai assisté à la présentation du prototype d'une version d'Outspoken dont la sortie est prévue l'été prochain. Cette version portera le nom ambitieux de Outspoken World1. (Voir aussi le bref résumé en anglais : Access Without Limits: An All-New Approach To Screen Access For The Blind And Visually Impaired et le site d'Alva Access Group)

La version actuelle de ce logiciel fonctionne aussi bien sur Mac que sur PC. Il a été pris en charge depuis quelques années par une compagnie qui se spécialise dans les afficheurs braille et prétend donc être mieux adapté à ce média que JAWS qui fut d'abord conçu pour la synthèse vocale. Outspoken prétend en outre être plus stable que son principal concurrent.

On peut résumer à deux nouvelles fonctions ce que Outspoken World1 apporte de nouveau :

D'abord, ses concepteurs proposent l'utilisation d'une synthèse vocale bidirectionnelle. Quand l'utilisateur lit un texte de droite à gauche sur l'écran, le son se déplace progressivement du haut-parleur gauche vers celui de droite afin de donner intuitivement à l'usager une perception de la disposition du texte. Est-ce là une fonction réellement utile ou une distraction inutile ? Il faudra l'expérimenter pour conclure.

L'autre innovation apportée par cette version est la disponibilité en tout temps d'un menu des commandes d'Outspoken. La personne qui ne sait plus comment appeler une commande spécifique peut l'exécuter à partir de ce menu tout en se rappelant au passage la commande clavier correspondante.

Cette dernière fonction nous apparaît à prime abord très intéressante, car nous l'avons nous-même utilisée dans l'adaptation du logiciel Antidote avec JAWS. Le nombre considérable de commandes au clavier à retenir par un usager constitue en effet pour plusieurs utilisateurs, âgés ou non, une charge trop considérable qu'il faut donc tenter d'alléger.

Il serait donc utile de réaliser une évaluation sérieuse de ce logiciel au moment de sa sortie. Il faudrait notamment comparer avec JAWS, l'ergonomie de l'interface braille, tester la voix bi-directionnelle pour en évaluer la pertinence et vérifier la façon dont Outspoken peut s'adapter à de nouveaux environnements, ce qui est une des forces de JAWS.

Remercions ici la concurrence qui milite encore une fois dans le sens d'une amélioration des produits disponibles.

Revenir à la Table des matières.


7. Une formation multimédia entièrement accessible.

Madame Treviranus du Adaptive Technology Resource Center de l'Université de Toronto présentait un système inclusif de formation à distance conçu en fonction d'un Internet à large bande permettant une utilisation intensive du multimédia. (Voir aussi le résumé en anglais sous le titre : Click the Captions, Select the Descriptions: Making Captioning and Video Description Essential for Any Learner in Broadband Education.)

Ce système comprend un logiciel de navigation adapté à partir du moteur de Netscape et un logiciel auteur qui permet au professeur de bâtir son cours en disposant de tous les outils nécessaires.

Au langage HTML qui est généralement utilisé dans Internet, on a préféré le langage XML parce qu'il offre une plus grande souplesse, notamment la possibilité de créer ses propres balises. XML comporte aussi l'avantage de distinguer de façon stricte le contenu lui-même de ses modalités de présentation, permettant donc de donner à l'usager une version adaptée à ses besoins particuliers.

Le cours ainsi créé peut contenir du texte, des liens hypertexte, de la vidéo avec sous-titres, langage signé (pour les sourds) et audio description (pour les aveugles).

La présentation ou non, la disposition et la taille de chacun de ces éléments sont entièrement configurable par l'usager ou le formateur.

On peut ajuster la taille et la couleur des sous-titres ou obtenir une audiodescription résumée ou détaillée. Si les sous-titres sont trop longs à lire ou l'audio description trop longue à écouter pour la poursuite de la vidéo, celle-ci peut-être mis sur "pause" automatiquement ou sur simple demande de l'usager. Autre exemple, la vidéo pourrait être en anglais et les sous-titres en français ou inversement.

À l'heure où les contenus de formation multimédia se multiplient de façon phénoménale sur CD-ROM ou dans le Web, les travaux poursuivis par Madame Treviranus et son équipe offrent des perspectives d'avenir extrêmement intéressantes.

Ce projet a obtenu une subvention de deux ans qui est à mi-parcours. Après avoir évalué les outils de conception de cours disponibles sur le marché en fonction de leur niveau d'accessibilité, compte tenu des limites constatées, il était logique de proposer un développement qui prenne vraiment en compte cette dimension.

Il faudra suivre de près l'évolution de ce projet et l'entrée éventuelle de ce produit sur le marché commercial, car il permet d'espérer que les nouvelles technologies ne deviendront pas une nouvelle barrière, mais plutôt une rampe d'accès à la formation pour les personnes handicapées.

Revenir à la Table des matières.


8. L'accessibilité au Web.

L'intérêt pour l'accessibilité d'Internet ne se dément pas à CSUN depuis quelques années. La cuvée 2001 nous réservait encore de nombreux ateliers qui explorent ou approfondissent de nombreuses avenues. Nous savons tous que le Web est devenu l'outil de référence et d'accès à l'information pour une proportion de plus en plus grande de la population, du moins dans les pays développés. Cet outil est encore plus important pour les personnes handicapées.

  • Les personnes aveugles ou en fauteuil roulant peuvent éviter d'avoir à se déplacer, compte tenu des problèmes de mobilité encore plus importants l'hiver dans certains pays froids.
  • Les personnes sourdes peuvent éviter les communications téléphoniques fastidieuses par téléscripteur et les rencontres avec des personnes qui ne comprennent pas le langage des signes.
  • Les personnes ayant une déficience intellectuelle peuvent mieux comprendre un monde souvent difficile et jouer au maximum leur rôle social.

Par contre, l'utilisation d'Internet n'est possible que si les contenus Web sont accessibles. Dans un site accessible, la personne handicapée ne rencontre plus de barrières et retrouve toute sa liberté d'action, la situation de handicap étant temporairement abolie.

Une étude récente réalisée par le Centre de recherche informatique de Montréal (CRIM) à la demande du CAMO pour personnes handicapées a révélé que dans un échantillon de 50 sites ayant un rapport avec le travail et la formation, seulement 12 % des pages évaluées répondent à des critères minimaux d'accessibilité.

Revenir à la Table des matières.


8.1. Le langage XML.

Faisons un petit détour qui peut sembler trop théorique, mais qui vous permettra de découvrir les nouveaux horizons ouverts aux personnes handicapées dans Internet avec l'évolution des langages utilisés pour créer les contenus Web.

Le langage HTML qui est généralement utilisé pour les pages Web est une version extrêmement simplifiée d'un langage beaucoup plus complexe qui s'appelle SGML.Le langage XML, quant à lui, est une sorte de version intermédiaire, un langage SGML amplifié mais donnant beaucoup plus de souplesse au concepteur de contenu parce que celui-ci peut créer ses propres balises. L'abréviation XML signifie "Extensible Markup Language" ou langage de balisage (marquage) extensible.

Le langage XML pourrait être comparé à une sorte de base de données où tous les contenus d'information sont classés dans des champs bien identifiés. Chaque élément de contenu est donc qualifié. Par exemple, une adresse de courrier standard, ne sera pas simplement quatre ou cinq lignes de texte comme dans le traitement de texte ou dans le langage HTML. Elle sera décortiquée en sous-éléments: le nom, le numéro et la rue, la ville, la province, le code postal. Le langage XML permet donc non seulement de présenter l'information, mais également de la traiter comme dans une base de données. Le langage complémentaire qui permet de traiter et de présenter l'information XML s'appelle XSLT. À partir d'un document XML contenant des adresses, on pourrait, par exemple, présenter seulement une liste de nom ou bien on pourrait demander que cette liste soit présentée par ordre alphabétique de nom ou de ville ou de code-postal, etc. Le langage XML est donc le langage de choix pour le commerce électronique parce qu'il permet non seulement de stocker l'information, mais de la traiter.

Le langage XML offre de nombreux avantages au niveau de l'accessibilité parce que c'est un langage de codage du contenu qui est entièrement distinct du langage qui sera utilisé pour gérer la façon de présenter ce contenu. On peut donc imaginer qu'à partir d'un même document XML (contenu), chacun pourrait obtenir, selon ses besoins, une présentation dans la forme qui lui est la plus accessible. La mise en page pourrait être contrôlée par l'utilisateur ou choisie parmi un certain nombre de versions proposées.

XML a été conçu pour l'archivage à très long terme de documents qui peuvent être extrêmement complexes. Les présentations HTML qui en seraient tirées pourraient être éphémères et même variables selon le choix de l'utilisateur.

XML a également donné naissance à d'autres langages complémentaires de présentation pour certains types de contenus.

MathML (Mathematical Markup Language) est un langage qui permet de présenter des formules mathématiques complexes. En HTML, ces formules doivent être converties en images pour être présentables à l'écran, ce qui rend le contenu inaccessible pour une personne utilisant un logiciel de revue d'écran comme JAWS, en synthèse vocale ou en braille.

SVG (Scalable Vector Graphics) est un langage de présentation d'images qui peuvent être grossies ou réduites selon les besoins sans perdre de qualité, comme une carte géographique, par exemple. Ce langage permet d'animer les images comme dans la technologie Flash (inaccessible), mais en incluant dans l'image elle-même l'information nécessaire à sa description ou à sa compréhension par une personne qui ne peut la voir.

SMIL (Synchronized Multimedia Integration Language), est ce langage qui permet le sous-titrage ou l'audiodescription synchronisée d'un document vidéo. Il est également utilisé pour la production des nouveaux livres numériques afin de synchroniser la piste sonore et le texte.

Revenir à la Table des matières.


8.2. Le travail indispensable du WAI.

Le langage XML et ses langages complémentaires (XSLT, MathML, SVG et SMIL), ont été créés par le W3C (World Wide Web Consortium) avec la préoccupation de l'accessibilité universelle en tête. Les W3C regroupe tous les partenaires majeurs, commerciaux ou non, qui ont un intérêt dans le développement du Web, dont Microsft, AOL (Netscape), etc.

Le WAI (Web Accessibility Initiative) est un sous-comité de W3C qui s'assure que les nouvellee normee émanant du W3C intègrent la notion d'accessibilité universelle. Même si ces nouveaux langages ne sont pas encore très présents dans le Web, ils vont y prendre rapidement une place de plus en plus importante et ce sera tout à notre avantage.

Le WAI a fait approuver par le W3C les Directives pour l'accessibilité aux contenus Web et a publié des techniques et des outils de formation pour aider à leur application. Le WAI a publié aussi des recommandations pour les logiciels auteurs qui permettent de créer des contenus Web avec la double préoccupation que ces logiciels soient accessibles et qu'ils produisent des contenus Web accessibles.

Le WAI a enfin publié des normes applicables aux logiciels de navigation et de recherche dans Internet, document qui sera officiellement approuvé sous peu par le W3C.

Un autre groupe de travail du WAI s'intéresse aux outils d'évaluation et de réparation de sites Web et a publié un document sur les techniques à utiliser pour de tels outils.

Pour compléter ce portrait, mentionnons que le WAI compte également un groupe de travail préoccupé d'éducation et de diffusion qui coordonne les efforts des différents pays pour faire adopter des normes conformes à celles du WAI et proposer des activités et des outils d'information et de formation pour les décideurs et les concepteurs de sites Web. Je suis membre de ce groupe de travail depuis le 25 mars dernier.

Le WAI fait un travail extraordinaire en coordonnant les efforts de nombreux experts intéressés à l'accessibilité universelle tout en maintenant un lien étroit avec le W3C dont il est une sorte de chien de garde. Il n'existe officiellement que depuis quatre ou cinq ans, mais a déjà accompli beaucoup, même s'il reste encore énormément à faire.

Revenir à la Table des matières.


8.3. Les outils d'évaluation et de réparation de sites.

8.3.1. Bobby.

Le plus connu des outils d'évaluation de l'accessibilité des sites Web est sans contredit Bobby. Développé par CAST (Center for Applied Special Technology) il est souvent cité comme outil de référence et plusieurs sites arborent son logo "Bobby approuved". Il est gratuit. Vous pouvez tester une page en soumettant son adresse dans un formulaire, directement sur le site de Bobby, ou télécharger une version autonome qui s'installe dans votre ordinateur. Il n'est pas encore disponible en français.

C'est l'outil qui fut utilisé par le CRIM (Centre de recherche informatique de Montréal) pour son évaluation de l'accessibilité au Web québécois. L'évaluation réalisée par Bobby n'est automatique que pour 27% des items vérifiés. Le reste doit être vérifié manuellement.

Cet organisme sans but lucratif prévoit lancer une version 3.3 de Bobby en mai ou juin prochains qui évaluera la conformité à la Section 508 de la réglementation américaine. Mentionnons à ce sujet que, depuis la sortie de cette réglementation, les pages testées sur le site de Bobby sont passées de 1000 à 4000 par jours en moyenne.

Au printemps ou à l'été 2001, CAST veut aussi lancer un nouveau logiciel appelé pour l'instant "Ceylon". Celui-ci se veut surtout un outil de formation. Pour chaque problème décelé au niveau de l'accessibilité, on y trouvera des explications sur la façon de le corriger dans les différents logiciels d'édition de pages Web.

8.3.2. A-Prompt.

Un deuxième outil fort intéressant est conçu à l'Université de Toronto par le ATRC (Adaptive Technology Resource Centre). Il s'appelle A-Prompt. Non seulement il évalue, mais il répare également les pages Web. De plus, Il possède un très bon système d'aide qui en fait également un bon outil de formation.

La version actuelle tout à fait fonctionnelle est présentée comme une version béta parce que ses concepteurs souhaitent refléter le consensus d'un groupe de travail qui est sur le point de finaliser ses travaux. Une version 1.0 devrait donc être offerte sous peu. De plus, une collaboration franco-québécoise entre BrailleNet et le CAMO pour personnes handicapées devrait bientôt nous offrir une version française de ce produit qui est lui aussi gratuit.

8.3.3. WAVE.

Le troisième produit s'appelle WAVE (Web Accessibility Versatile Evaluator) et il est conçu à l'Université Temple de Philadelphie. Il faut soumettre l'adresse de la page à tester dans un formulaire, ce qui est moins intéressant pour tester l'ensemble d'un site. Par contre WAVE offre un commentaire très visuel en ajoutant des icônes dans la page elle-même et en rendant visibles les alternatives texte. Comme les autres outils, il est gratuit. Voir le texte anglais de la conférence sur WAVE.

Une image valant souvent mille mots, cela peut donc être utile d'un point de vue didactique sans pour autant remplacer les outils plus complets comme A-Prompt et Bobby. Là aussi, tout est en anglais même si les icônes elles-mêmes sont universelles.

8.3.4. SSB Technology.

Le dernier produit est commercial, très ambitieux et probablement très coûteux car à la question posée pour en connaître le prix, la réponse fut: "Le prix varie selon le client". Il est développé par la compagnie SSB et prétend évidemment faire mieux que tous les autres (sinon, pourquoi le vendrait-il?). Voir le texte anglais de la conférence de SSB.

8.3.5. Une évaluation muti-outils.

Pour conclure cette section, notons que le WAI ne recommande pas de se fier à un seul outil pour vérifier l'accessibilité d'une page Web et préconise plutôt une approche combinant plus d'un outil ainsi que des tests avec des logiciels spécialisés d'adaptation comme JAWS ou IBM Home Page Reader.

Revenir à la Table des matières.


8.4. Des services de soutien à l'accessibilité pour les webmestres.

Le Canada et la France ont tous deux développé un service d'évaluation et de soutien pour l'accessibilité des sites Web. En voici une très brève description.

8.4.1. Le WATS canadien.

En mai 2000, les ministres membres du Conseil du trésor du Canada ont approuvé les Normes et directives sur la Normalisation des sites Internet (NSI) et imposé à toutes les institutions visées aux Parties 1, 1.1 et 2 de la Loi sur la gestion des finances publiques l'obligation de s'y conformer d'ici le 31 décembre 2002. Ce document réfère explicitement aux priorités 1 et 2 du WAI.

Pour soutenir cette démarche, le gouvernement canadien met au service des webmestres fédéraux un service intitulé WATS (Web Accessibility Testing Service). Malgré son nom, il ne s'agit pas d'un service d'évaluation dont la mission serait de vérifier le niveau de conformité des sites Web fédéraux, mais plutôt d'un service de soutien aux webmestres.

Dans une rencontre d'une demi journée chaque webmestre, après une introduction assez générale, se voit confronter, pendant 90 minutes, à deux personnes handicapées qui naviguent sur son site et commentent les problèmes qu'ils rencontrent : une personne aveugle utilisant JAWS et une personne ayant une déficience motrice utilisant la commande vocale.

Cette sensibilisation ouvre une période de discussion sur l'accessibilité et la convivialité au cours de laquelle le webmestre reçoit toutes les références nécessaires pour le travail de correction qui s'impose. Aucun suivi systématique n'est initié par l'équipe du WATS, mais elle joue le rôle de ressource conseil sur demande.

8.4.2. La cellule accessibilité de BrailleNet en France.

Du côté français, c'est l'association BrailleNet qui a pris l'initiative de créer un observatoire de l'accessibilité des sites Web. L'approche de la cellule accessibilité est différente de celle utilisée par WATS. BrailleNet réalise des évaluations de sites Web dont il publie les résultats sur son site dans un classement qui varie de zéro à quatre étoiles. Ces évaluations sont également envoyées aux responsables de ces sites avec lesquels s'entame alors un dialogue qui permet d'améliorer l'accessibilité pour les personnes handicapées. Sur le site de BrailleNet, vous pouvez lire une description de la méthode d'évaluation utilisée basée sur les règles du WAI..

BrailleNet peut s'appuyer sur une décision du Comité Interministériel pour la Réforme de l'État (CIRE) du 12 octobre 2000 visant à rendre tous les sites du gouvernement français accessibles aux aveugles et aux malvoyants, en collaboration avec l'association BrailleNet.

8.4.3. Un vide à combler au Québec.

Il n'existe encore rien au Québec, mais le CAMO pour personnes handicapées a annoncé son intention de créer une équipe d'intervention sur les nouvelles technologies de l'information et des communications qui pourrait éventuellement jouer ce rôle en s'inspirant des modèles déjà existant.

Revenir à la Table des matières.


8.5. De nouvelles technologies d'accès.

8.5.1. Le transcodage pour les non voyants.

Deux chercheurs japonais d'un laboratoire de recherche IBM au Japon ont présenté à CSUN une nouvelle approche pour faciliter l'utilisation d'Internet pour les personnes aveugles. Même avec des pages Web répondant aux règles d'accessibilité, les mise en page très visuelles que l'on trouve de plus en plus sur Internet rendent souvent difficile la navigation dans ces pages pour les personnes qui ne peuvent y accéder visuellement. La complexité de ces pages décourage plusieurs utilisateurs qui pourraient bénéficier du potentiel énorme d'Internet pour l'accès à l'information et les transactions liées au commerce électronique.

Pour résoudre ce problème, les pages Web doivent être simplifiées pour être plus faciles d'accès. Takagi et Asakawa ont donc décidé de transcoder, c'est-à-dire convertir le code des pages avant qu'elles atteignent l'utilisateur. Dans un premier temps, ils ont mis l'accent sur les sites de nouvelles et les moteurs de recherche qui sont parmi les pages les plus populaires. Premièrement, ils simplifient la page Web en ressortant les différences entre deux documents HTML, ce qui permet à l'utilisateur de se concentrer seulement sur l'information nouvelle ajoutée à la page comme les articles du jour. Deuxièmement, ils insèrent l'information manquante comme les alternatives texte pour les liens images (en allant chercher le titre de la page de destination) et renvoient les barres de navigation, les menus de liens et les formulaires au bas de la page.

Figure 1 : architecture du transcodeur automatique

La Figure 1 illustre la configuration du système. Les utilisateurs peuvent accéder à l'Internet en utilisant leur système comme une sorte de serveur proxy en changeant simplement la configuration du serveur proxy dans leur logiciel de navigation. Quant le serveur proxy reçoit une requête d'un utilisateur pour accéder à une page il demande cette page. Le module de simplification entre alors en action et renvoie la page transformée à l'utilisateur.

Au transcodage automatique, les deux chercheurs ont ajouté un module qui permet d'annoter une page pour en faciliter la navigation. Ce travail d'annotation peut être fait par n'importe quelle personne voyante même si elle ne connaît rien aux adaptations utilisées par les personnes aveugles. Elle doit simplement sélectionner chacune des zones visuelles à l'écran et lui donner un titre afin de constituer une sorte de table des matières qui est ajoutée à la page et que l'utilisateur peut consulter pour se rendre directement à l'information qui l'intéresse.

Takagi et Asakawa ont certainement mis le doigt sur un problème réel et proposé une solution innovatrice. En attendant que les règles d'accessibilité soient connues et appliquées par tous ou que le langage XML permette de séparer le contenu de sa présentation, un tel service pourrait certainement faciliter la vie de bien des utilisateurs et rendre le Web beaucoup plus convivial pour les non voyants. Cependant, nous ne savons pas s'il serait possible d'importer cette technologie chez nous, ni quel organisme pourrait soutenir financièrement l'implantation et le fonctionnement d'un tel service.

Voir également le texte anglais de la conférence sur le transcodeur.

8.5.2. Le langage signé par un avatar.

Un avatar est un personnage numérique souvent utilisé dans Internet pour représenter chacune des personnes se rencontrant pour bavarder en direct, de façon interactive, dans une réunion sociale virtuelle.

Reproduction d'un écran du dictionnaire du SigningAvatar(TM) Le SigningAvatar(TM) développé par la compagnie VDCom3D est un personnage numérique en trois dimensions qui parle le langage des signes américain (ASL) avec ses mains et ses expressions faciales. Il comporte déjà un vocabulaire de 3500 mots ou concepts, 24 expressions faciles et ses doigts peuvent épeler les mots que son dictionnaire ignore. Selon l'application utilisée avec l'avatar, l'utilisateur peut contrôler la vitesse, l'apparence du personnage, l'angle de rotation ou le facteur de zoom, la couleur de fond, la présence ou non de sous-titres textuels. L'avatar trouve les mots et les expressions dans sa bibliothèque et les combinent avec douceur, en temps réel, pour former la phrase désirée.

Exemple de page Web utilisant le SigningAvatar(TM)

Le SigningAvatar exige un ordinateur de 500 Mhz doté de 64 Mo de mémoire vive, ce qui est inférieur au PC de bas de gamme couramment vendu. Il est présenté en deux produits différents. Le premier est un CD-ROM donnant accès à tout matériel conçu pour l'avatar ainsi qu'à tout site Web utilisant l'avatar. Le second produit est un logiciel serveur offrant le langage signé sur demande pour des pages Web. Un logiciel d'édition deviendra disponible en cours de 2001.

Une discussion avec VDCom3D nous a permis d'apprendre que l'adaptation de SigningAvatar(TM) au langage des signes québécois pourrait être réalisée moyennant un investissement d'environ 500 000 $.

Pour de nombreuses personnes sourdes ou sourdes et malvoyantes, le langage des signes est la seule langue de communication vraiment bien maîtrisée et une technologie comme celle développée par SigningAvatar(TM) pourrait marquer une étape majeure pour leur participation sociale via l'Internet.

Voir également le texte anglais de la conférence sur le SigningAvatar(TM).

Revenir à la Table des matières.


9. Conclusion.

La cuvée 2001 de la conférence CSUN a été fertile en découvertes de toutes sortes, le présent rapport en fait foi. Nous devons toutefois nous mettre à la tâche pour en tirer le meilleur parti.

Plusieurs technologies méritent des évaluations plus approfondies. L'évolution des politiques et des réglementations américaines et canadiennes demandent des suivis et des efforts pour en importer le meilleur au Québec. L'accessibilité au Web et la concertation internationale coordonnée par le Web Accessibility Initiative exigent une participation beaucoup plus active des Québécois et des Canadiens francophones.

Souhaitons-nous de trouver les ressources capables de soutenir cette démarche continue d'adaptation des nouvelles technologies si importante pour l'intégration sociale et professionnelle des personnes handicapées.

Revenir à la Table des matières.



Fac ut videam (Faites que je vois)
Le mot latin Fac écrit en braille. 
Le mot latin Ut écrit en braille. 
Le mot latin Videam écrit en braille.

Éphéméride du jour

Aucune éphéméride en déficience visuelle pour aujourd'hui.

Saviez-vous que :

Maurice de la Sizeranne naquit le 30 juillet 1857 à Tain (France). Il perd la vue à l'âge de 9 ans. Son œuvre est colossale. Mentionnons seulement qu'il est le fondateur de l'Association Valentin Haüy (1889). Il meurt le 13 janvier 1924 à l'âge de 66 ans. Encore aujourd'hui, plusieurs de ses réalisations poursuivent l'œuvre qu'il a amorcé permettant ainsi aux aveugles et amblyopes d'aspirer à une vie active et productive.

TyphloPensée

« On croit devenir myope, on est déjà aveugle. »

Liam O'Cusegan - Les pensées d'un homard

Étymologie

Typhlophile tire sa racine de « typhlo » d'origine grecque et qui veut dire « cécité »; et « phile » veut dire ami, sympathisant, etc. Donc, Typhlophile veut dire l'ami des aveugles.

Un clin d'œil vers :

Haut de la page.

Politique d'accessibilité du site
[Certifier Bobby Approved (v 3.2). | Description]
[Validation HTML/XHTML du W3Québec | Valide CSS! | Ce document rencontre les conformités Valid XHTML 1.0 Strict]
DERNIÈRE MISE À JOUR DU SITE 20 janvier 2012
© 1996/2017; Le Typhlophile - Longueuil, Québec (Canada)

Pour vos commentaires et suggestions.