Vous consultez : Le Typhlophile / L'accès à l'information parlée chez l'aveugle - CHAPITRE 2 : L'ÉCOUTE ET LE TRAITEMENT DE L'INFORMATION PARLÉE
Accès au contenu | Accès au au menu | Touches d'accès rapide du site

L'accès à l'information parlée chez l'aveugle

Quatre cannes blanches.

Lundi 11 décembre 2017 à 17:48:12 HnE

Tournois d'échecs pour déficients visuels

Chercher sur le site

Interroger Google

Logo de Google.


Photographie d'un lecteur de livres numériques.
La première version du Victor Reader un lecteur de livres numériques adapté pour les personnes handicapées visuelles. Ces livres numériques utilisent le standard DAISY.





Typhlophile écrit en braille.
Une vitrine virtuelle à l'attention des AMIS DES AVEUGLES

Le Typhlophile / L'accès à l'information parlée chez l'aveugle - CHAPITRE 2 : L'ÉCOUTE ET LE TRAITEMENT DE L'INFORMATION PARLÉE

Présentation d'une Thèse de doctorat soutenue le 8 juin 1990

Auteure :

(Une reproduction autorisée par l'auteure. Un gros merci de nous en faire profiter.)


CHAPITRE 2 : L'ÉCOUTE ET LE TRAITEMENT DE L'INFORMATION PARLÉE

L'œil, l'oreille, la peau, le nez et la langue sont des organes sensoriels qui apportent au cerveau les informations sur le monde environnant. Ces informations sont détectées, triées, classées, organisées et intégrées parmi les premières acquisitions. Les fonctions perceptives et l'expérience alimentent ainsi le champ des connaissances et contribuent au développement cognitif d'un individu.

Nous avons vu dans un premier chapitre que la privation de la perception visuelle ralentit considérablement la prise d'informations et aboutit chez le jeune enfant à un retard du développement cognitif, chez l'adulte, à des problèmes de locomotion, de communication et d'intégration sociale. Toutefois, chez l'enfant le retard n'est pas permanent et chez l'adulte, les difficultés dépendent beaucoup des capacités d'adaptation ou de réadaptation du sujet.

Un programme d'éducation ou de rééducation prévoyant des stimulations riches, variées, adéquates, bien distribuées dès le plus jeune âge, accélèrent le développement cognitif du jeune enfant aveugle et favorise l'adaptation de l'adulte. Un des buts primordiaux de ce programme sera de favoriser la relation entre perception auditive et perception tactile pour viser à une parfaite coordination oreille-main. L'éducation de l'écoute et du toucher prend une part privilégiée dans ce programme.

L'oreille est l'organe sensoriel le plus complexe après l'œil. Elle permet de détecter, de discriminer des variations de signal sonore très faibles. L'oreille exercée d'un musicien est capable d'apprécier les nuances les plus fines.

Nous pensons que l'écoute occupe la part la plus importante du temps d'apprentissage des enfants scolarisés qu'ils soient aveugles ou voyants. D'autre part, C'est le seul mode d'accès à l'information pour l'aveugle accidentel qui ne connaît pas la lecture braille. C'est pourquoi nous nous proposons d'étudier tout particulièrement l'écoute et l'accès à l'information parlée dans ce chapitre. Notre ambition est de pouvoir fournir des modes d'apprentissage et des outils de travail efficaces à tous les aveugles. Cette recherche a un double objectif :

  • d'une part sur un plan théorique, essayer de comprendre et de définir les différents niveaux d'analyse dans le traitement de la parole ;
  • d'autre part sur un plan pratique, étudier un mode d'apprentissage, l'écoute, et des applications directes , la prise de notes aidée par l'enregistrement, "l'écoute rapide" et la parole comprimée et enfin la sortie vocale dans les nouvelles technologies.

I - QUELQUES RAPPELS SUR La PERCEPTION AUDITIVE

a - Le son

Le son est le stimulus qui active le système auditif. C'est une onde mécanique de pression qui se propage dans le milieu environnant. La représentation des variations de pression sonore en fonction du temps fournit une description complète du son (Buser et al 1988). Dans cette description, deux types de son peuvent être distingués : les sons purs et les sons complexes.

En ce qui concerne les sons purs, la description de l'onde vibratoire est strictement sinusoïdale et peut être définie par différents paramètres :

  • la phase,
  • la fréquence,
  • l'amplitude.

La phase correspond au temps de départ de l'onde.

La fréquence est le nombre d'oscillations recueillies en une seconde. Elle est définie en cycles par seconde ou en Hertz (Hz) ou en période par seconde. La période T est l'inverse de la fréquence F (F=1/T). Par rapport aux mécanismes de perception, la fréquence correspond a la hauteur du son : un son aigu a une fréquence élevée, un son grave a une fréquence basse.

L'amplitude de la sinusoïde est liée à l'intensité du son. Lorsque l'intensité du son est exprimée par rapport à la pression sonore, l'unité utilisée est le Dyn par centimètre carré. Elle peut aussi être exprimée en Watts par centimètre carré. Mais le plus souvent l'intensité du son est associé au mécanisme perceptif, c'est-à-dire à la sensation à laquelle est associée la hauteur et l'intensité du son. Cette sensation progresse proportionnellement au logarithme de l'excitation et est exprimée en unité relative : le décibel (dB). Le décibel correspond au logarithme du rapport de deux intensités :

nombre de dB=10Log(I/Ir),

Ir est l'intensité de référence standard internationale (0,0002 Dyn/cm2). Ce standard correspond à une pression sonore très faible. Il correspond à une intensité sonore minimale perçue par l'être humain pour un son de 1000 Hz.. Par exemple, une différence de 20 dB dans les intensités de deux sons, signifie qu'un son est de 10 puissance 2 000 000 fois plus intense que l'autre. Les sons harmoniques sont ceux qui, compris dans la zone audible se disposent dans la progression F, 2F, 3F, 4F, 5F, 6F, 8F, 9F, 10F, 11F. L'intensité d'un son est plus faible dans l'eau que dans l'air.

Les sons complexes peuvent être décomposables grâce à l'analyse de Fourier : une longueur d'onde complexe peut être représentée par une combinaison d'ondes sinusoïdales, de fréquence, d'intensité et de temps de départ spécifique. La décomposition d'une forme ondulatoire en fréquences et composantes simples est l'analyse de Fourier. La représentation des ondes complexes par leurs composantes sinusoïdales semble s'approcher le plus de la façon qu'à l'oreille de traiter le son (Lindsay et Norman 1981). Le timbre d'un signal sonore est la qualité spécifique individuelle du son complexe donné par les différents composants.

B - La transmission du son

Les récepteurs de l'oreille qui détectent les sons sont des phonorécepteurs qui ont la capacité de transformer les ondes sonores qui les excitent en un flux nerveux. Le son peut être transmis par deux voies : la conduction osseuse grâce à laquelle chacun entend sa propre voix et la voie aérienne grâce à laquelle nous entendons les autres. Au cours de la transmission, le son passe dans l'air, traverse successivement les trois parties de l'oreille : externe, moyenne et interne.

1 - L'oreille externe et l'oreille moyenne :

Les sons sont captés grâce au pavillon de l'oreille qui est destiné à concentrer l'onde sonore dans le canal auditif ou conduit auditif. Ce conduit a la particularité de transformer les ondes sonores "sphériques" (qui se dispersent dans toutes les directions) en ondes planes. L'onde se propage dans une seule direction le long du canal auditif. Celui-ci a une résonance proche de 3000 Hz. Un corps entre en "résonance" lorsque sa fréquence de vibration optimale correspond à la fréquence de l'onde qui le fait vibrer : il y a alors parfaite concordance entre l'onde mécanique qui arrive et les capacités de vibration de ce corps. Les sons qui ont une fréquence de 3000 Hz sont les mieux adaptés à l'oreille humaine.

L'onde sonore aboutit a une membrane : la membrane tympanique. Le tympan oscille et les fréquences de résonance du tympan pour lesquelles il oscille le mieux sont située entre 1000 et 4000 Hz.

2 - De l'oreille moyenne à l'oreille interne

La transmission des sons est réalisée dans l'oreille interne en milieu aqueux. L'onde sonore passe d'un milieu aérien à un milieu aqueux. La propagation des sons est différente selon que les ondes chemine dans l'un ou l'autre milieu. En effet la résistance de l'air n'est pas la même que celle de l'eau. Ainsi l'énergie sonore véhiculée dans l'air n'est pas transmise en totalité dans l'oreille interne.

L'oreille moyenne comprend la chaîne des osselets : le marteau, l'enclume et l'étrier qui relie le tympan à la fenêtre ovale. L'oreille interne comprend la cochlée et également le sacule, l'utricule et les canaux semi-circulaires qui interviennent dans l'équilibration. Pour que la transmission se passe dans les meilleures conditions, c'est-à-dire pour que le maximum de puissance sonore soit transmise à la cochlée, deux types d'adaptation sont possibles. Premièrement la chaîne d'osselets entre le tympan et la fenêtre ovale agit comme un levier : elle diminue l'amplitude des mouvements pour ne pas léser les membranes fragiles et augmente la pression sonore. La deuxième adaptation est le rapport entre la surface du tympan et la surface de la fenêtre ovale. Le tympan a une surface de 55 millimètres carré et la surface de la fenêtre ovale sur laquelle s'appuie l'étrier ne mesure que 2 à 3 millimètres carré. Ainsi, toute la pression qui s'exerce sur 55 mm2 se concentre ensuite sur 3 mm2 : c'est un système d'amplification. Une adaptation protège aussi le tympan. L'étrier s'appuie sur la fenêtre ovale et selon l'intensité du son, il ne vibre pas dans le même plan. La fenêtre ovale possède un grand rayon horizontal et un petit rayon vertical. En oscillant autour de son axe vertical, l'étrier enfonce le grand rayon horizontal dans la fenêtre et exerce une pression plus importante que s'il oscillait dans l'autre sens. Pour les faibles intensités l'étrier oscille autour de son axe vertical et amplifie ainsi la pression. Pour les fortes intensités l'étrier oscille suivant l'axe horizontal. C'est le petit rayon qui s'enfonce dans la fenêtre ovale atténuant les effets néfastes d'une trop forte intensité.

La cochlée est une structure membraneuse située à l'intérieur d'une structure osseuse en forme de limaçon. La cochlée est composée de trois canaux enroulés en spirale (2 tours et demi en moyenne). Ces trois canaux sont séparés par deux membranes : l'une très fine, la membrane de Reisner et l'autre au-dessous, la membrane basilaire sur laquelle repose la structure (l'organe de Corti) qui réalise la transduction entre l'onde sonore et les activités électriques dans les cellules nerveuses. Entre les deux membranes de Reisner et basilaire se situent trois canaux. Dans la partie supérieure, la rampe vestibulaire, dans la partie inférieure, la rampe tympanique dans lesquelles circule la périlymphe. Les deux membranes se rejoignent à l'extrémité apicale de la cochlée en laissant un orifice permettant la communication de la périlymphe entre les deux rampes. Dans la partie moyenne de la cochlée, limité en haut par la membrane de Reisner et en bas par la membrane basilaire se situe le canal cochléaire où circule l'endolymphe.La cochlée est en communication avec l'oreille moyenne par la fenêtre ovale et la fenêtre ronde. la fenêtre ovale, sur laquelle s'appuie l'étrier, est en communication avec la rampe vestibulaire et la fenêtre ronde est en communication avec la rampe tympanique.

3 - Le cheminement du son

Après un signal sonore, l'étrier s'enfonce dans la fenêtre ovale, qui enfonce et déplace la périlymphe transmettant la pression à la fenêtre ronde qui bombe légèrement. Les mouvements des liquides de l'oreille interne sont différents selon la fréquence des sons émis. Pour des fréquences faibles jusqu'à 20 HZ, toute la masse de liquide fait X fois le va et vient ( X est égale à la fréquence du son) au travers de l'hélicotrène. Au-delà de 20 Hz, la résistance de cet orifice est telle que le liquide ne peut plus suivre la cadence. Au-dessus de 20 Hz, la pression exercée sur la fenêtre ovale va modifier une zone privilégiée du canal cochléaire : de 20 Hz à 20000 Hz, une portion du canal cochléaire se déforme d'une façon privilégiée. Cela est lié aux caractéristiques de la membrane basilaire.

4 - La membrane basilaire

La membrane basilaire est constituée de tissu conjonctif et d'élastine. Elle s'insère sur la partie osseuse de l'oreille moyenne (la base) l'autre extrémité étant l'apex. a la base, près des fenêtres, la membrane basilaire est plus étroite (0,05 mm) qu'à l'apex (0,5mm). De plus, son élasticité augmente de la base vers l'apex. Lorsqu'un son de basse fréquence est émis, il fait vibrer la portion de la membrane dont la structure est adaptée, c'est-à-dire qui entre en résonance avec cette basse fréquence. Les sons graves sont perçus par la partie apicale, tandis que les sons aigus entrent en résonance avec la partie basale de la membrane basilaire et les sons de fréquences moyennes avec la partie médiane. a chaque point de la membrane basilaire correspond une fréquence donnée qui fera vibrer au maximum ce point privilégié. Grâce à ces points de vibration sélectifs, la membrane basilaire fait une véritable "analyse de Fourier" de l'onde sonore. La transduction de l'onde mécanique en activité électrique dans les cellules nerveuses se situe au niveau de l'organe de Corti.

5 - L'organe de Corti

L'organe de Corti est une structure complexe composée de cellules ciliées qui longent la membrane basilaire. Ces cellules sont situées en repli le long de la membrane. Il existe 3 rangées de cellules ciliées externes (soit au total environ 20000) et une rangée de cellules ciliées internes (environ 3500). Des fibres nerveuses (environ 30000) relient ces cellules ciliées au cerveau. Tout mouvement de la membrane basilaire, même infime, entraîne des fléchissements des cellules ciliées. Ces fléchissements déclenchent une activité nerveuse dans les fibres du nerf auditif. Pour un neurone donné cette activité dépend de la fréquence et de l'amplitude du son qui l'a produite. Les neurones reliés aux cellules ciliées de la partie basale de la membrane basilaire, sont activés par les hautes fréquences, ceux qui sont reliés aux cellules ciliées de la partie apicales, sont excités par les basses fréquences...

Les impulsions nerveuses sont synchrones de la fréquence du signal sonore qui les a déclenchées. Par exemple un son de 200 Hertz provoque une réponse de 200 impulsions par seconde du neurone sensible à cette fréquence.

En physiologie, grâce à des électrodes placées sur un nerf auditif, des expérimentateurs ont recuilli les "potentiels microphoniques cochléaires" au niveau des cellules réceptrices de la cochlée. Le potentiel microphonique cochléaire ressemble à une onde sinusoïdale. Comparée avec l'onde sonore qui lui a donné naissance, la forme de ce potentiel a le même aspect : même forme sinusoïdale, même fréquence. Un délai acoustique est observé : il correspond au temps de parcours de l'onde sonore dans les milieux de propagation de l'oreille jusqu'aux cellules réceptrices. L'amplitude du potentiel microphonique cochléaire augmente lorsque l'énergie sonore augmente (intensité du son). Jusqu'à 80 dB, cette amplitude est proportionnelle à l'augmentation de l'intensité sonore. Au-dela de 80 dB, le potentiel microphonique cochléaire n'est plus représentatif de l'intensité sonore.

La transmision de l'influx nerveux, qui a pris naissance au niveau des cellules réceptrices (cellules ciliées), s'effectue à travers 3 neurones : la voie cochléo-bulbaire (de la cochlée au bulbe), la voie bulbo-thalamique (du bulbe au thalamus) et la voie thalamo-corticale (du thalamus à l'aire sensorielle auditive c'est-à-dire l'aire 42).

C - La perception auditive

La fréquence et l'intensité d'un son sont des caractéristiques physiques qui peuvent être mesurées avec précision par des instruments adéquats tandis que les sensations qu'ils provoquent sont plus difficiles à évaluer.

La force d'un son (caractéristique psychologique) est liée à l'intensité de ce son (caractéristique physique), mais aussi à sa fréquence. Pour une fréquence constante, les sons de forte intensité sont plus forts que ceux de faible intensité. Pour une intensité constante, ce sont les sons de basse ou haute fréquence qui semblent plus faibles que ceux de fréquence moyenne. La hauteur tonale d'un son dépend d'abord de sa fréquence, mais aussi de son intensité. Le timbre d'un son (qualité du son) dépend de la complexité de l'onde sonore.

Deux théories ont essayé d'expliquer la perception auditive : la théorie de la localisation et la théorie de la périodicité. Pour la théorie de la localisation, la hauteur d'un son est déterminée par l'endroit où l'onde atteint son amplitude maximale sur la membrane basilaire. Dans la théorie de la périodicité, les réponses des neurones entrent en synchronisme avec les variations de pression dans l'onde acoustique. Les cellules nerveuses réagissant à une onde sonore déchargent en synchronisme avec la fréquence de l'onde. Cette synchronisation des réponses nerveuses permet ainsi de percevoir la hauteur d'un son. Selon Linsay et Norman, les théories de la localisation et de la périodicité expliqueraient en partie les mécanismes de la perception auditive. Mais, "peut-être faudrait-il songer à une théorie dualiste qui puisse les combiner". Les théories modernes mettent l'accent sur l'existence d'un système d'analyse spectrale centralisé pour la fréquence et un système temporel de forme. Ces analyses se situeraient au niveau du cerveau. Ainsi, au niveau cochléaire, la théorie de la localisation et la théorie de la périodicité détermineraient la hauteur tonale, mais d'autres analyses seraient effectuées à d'autres niveaux.

L'écoute binaurale c'est-à-dire les informations captées par les deux oreilles permettent de localiser le son dans l'espace. Quand la source d'un son est située à égale distance des deux oreilles, le son arrive aux oreilles en même temps. Si la source est décalée par rapport au plan sagittal c'est-à-dire situé à droite ou à gauche, il existe alors un délai entre l'arrivée de l'onde sonore à l'oreille droite et l'arrivée à l'oreille gauche. Ce délai permet de localiser le son dans l'espace. Toutefois ce délai ne peut servir d'indice à une bonne localisation que pour des fréquences inférieures à 1300 Hz. La localisation du son s'effectuerait grâce à un double mécanisme : écart de temps pour les basses fréquences et différence d'intensité pour les hautes fréquences. La forme du pavillon de l'oreille avec ses aspérités particulières facilite également la localisation du son. L'écoute binaurale ajoute une dimension spatiale à la perception auditive et rend les sons plus "clairs".

II - TRAITEMENT DE L'INFORMATION PARLÉE

La parole est le support de la communication humaine. C'est aussi une source d'information importante et un médiateur non négligeable dans l'apprentissage. Toutefois le traitement de la parole ou signal vocal peut être abordé sous différents angles selon le contexte dans lequel il s'inscrit : domaine de l'acoustique, de la perception, de la cognition, de la linguistique, de la production... La connaissance de la parole intéresse de nombreuses disciplines qui, de plus en plus, interagissent entre elles et ce d'autant plus que l'objectif est lié à l'évolution des nouvelles technologies : reconnaissance de la parole, codage, synthèse de la parole. Le traitement de la parole concerne donc des domaines multidisciplinaires qui se sont tous plus ou moins appliqués à évaluer les capacités humaines de perception, de cognition et de production de la parole.

a - L'appareil phonatoire

La structure de la parole est liée directement avec les organes de production de la parole. Sur le plan physique, la parole est produite par une source d'air provenant des poumons et un ensemble de muscles dont le rôle est de faire cheminer l'air de la trachée vers les cordes vocales et la bouche. Un locuteur peut parler pendant 40 secondes entre deux inspirations. Les muscles abdominaux, les muscles respiratoires entrent en jeu dans la production de paroles. Les muscles articulatoires modèlent ensuite cette production.

1 - Le larynx

La fonction phonatoire du larynx dépend de la pression de l'air provenant des poumons, de l'ajustement du larynx déterminé par les commandes nerveuses permettant de tendre et d'écarter plus ou moins les cordes vocales et enfin de l'association entre le larynx et les cavités sus-jacentes et sous-jacentes de la glotte.

Le signal vocal (voir paragraphe suivant) peut être caractérisé par sa fréquence, et son amplitude. La fréquence est surtout liée aux caractéristiques mécaniques des cordes vocales et l'intensité à la pression de l'air subglottique. Mais tous ces facteurs interagissent entre eux. Le débit de l'air est fonction des caractéristiques des cordes vocales, mais aussi de la forme des poumons, de la trachée et du conduit vocal dans sa globalité. Ce qui explique la variablilité des émissions vocales individuelles et interindividuelles.

Le larynx permet de faire une première classification des sons émis. En effet, les voyelles sont des sons pendant lesquels la position des organes phonatoires restent constante et pour lesquels il n'existe pas de rétrécissement important du conduit vocal qui pourrait provoquer un bruit de friction par exemple. Les sons pour lesquels les cordes vocales vibrent sont :

  • les voyelles pour lesquelles il n'existe pas de rétrécissement du conduit vocal,
  • les consonnes liquides (me, de, le et re), ,
  • les consonnes pour lesquels il existe un léger rétrécissment du conduit vocal permettant l'apparition d'un bruit ( fe, che et se),
  • les occlusives, sons pour lesquels il existe une fermeture du conduit vocal à un moment donné (ba, da, ga).

Pour les "silences", les cordes vocales ne vibrent pas et il n'existe pas de bruit. Ils sont indispensables pour l'intelligibilité de mots comme "papa "par exemple.

2 - La langue

Elle est formée de 17 muscles. La variété des sons est due à la richesse de la structure musculaire de la langue. Les sons vocaux peuvent aussi être classés selon la position de la langue :

  • la langue très relevée en avant produit le "i",
  • la langue relevée en arrière produit le "ou",
  • la langue abaissée au centre produit un "a",
  • d'autres positions intermédiaires donnent le "é", "o", "u"...

Le "i", le "o" et le "a" déterminent les 3 positions extrêmes de la langue dans son espace articulatoire.

3 - La mâchoire

Elle peut s'abaisser, se relever, s'avancer ou se reculer. "chou" et "chu" avancent la mâchoire au maximum tout en la fermant. "pa" ouvre la mâchoire.

4 - La bouche

Les lèvres sont les organes essentiels pour la production des consonnes et le français. Selon l'espace intérolabial, l'étirement des lèvres et leur point de contact les sons produits sont différents.

B - Structure de la parole

1 - Le signal vocal

La parole est un signal acoustique produit par l'homme dans le but d'énoncer un message d'information ou de communication. C'est pourquoi les "émissions sonores" de l'homme peuvent prendre des formes très variées : parler rapidement, lentement, à voix haute, à voix basse, chuchoter, murmurer, chanter, crier... D'autre part chaque personne à une voix particulière : voix grave ou aigüe, forte ou faible, timbre et intonation spécifique.

Sur un plan physique, la parole fait partie des ondes sonores complexes. C'est un signal vocal continu dont "la structure est complexe et variable dans le temps, tantôt périodique pour les sons voisés, tantôt aléatoire pour les sons fricatifs, tantôt inmpulsionnel dans les phases explosives des sons occlusifs".

L'information parlée peut être considérée comme une suite de séquences "consonne-voyelle". Les voyelles sont les parties stables (formants) et les consonnes sont les parties transitoires.

Le spectre acoustique est la représentation de la variation de l'amplitude des composants du signal vocal en fonction de la fréquence de ces composants. Les trois premières fréquences de résonance sont par exemple caractéristiques d'une voyelle : ce sont les trois premiers formants.

2 - Structure propre à la parole

Les connaissances propes au langage parlé concernent la phonétique, la phonologie et la prosodie. La phonétique est l'étude des sons utilisées dans les langues naturelles. Le terme de phonétique est apparu au XIX ème siècle et jusqu'au début du XX ème siècle la phonétique était surtout une science descriptive. Chaque changement de son était étudié isolément. Ferdinand de Saussure (1857-1913) fit évoluer les connaissances en linguistique en considérant la langue comme "un système de signes indépendants relevant d'une convention sociale entre les membres d'une communauté linguistique, l'emploi de chaque signe étant délimité par l'emploi des autres". Selon Saussure, la relation entre le "signifiant" (phase phonique) et le "signifié" (phase sémantique) d'un signal est arbitraire. La phonétique était considérée comme une science expérimentale étudiant les sons du langage selon deux points de vue : la manière dont on les produit (phonétique articulatoire) et le phénomène physique qu'ils représentent lié à leur perception (phonétique acoustique). La phonologie qui étudie les relations entre les sons du langage est venue complétée les connaissances linguistiques. La phonétique, science des sons de la langue indépendamment du contexte, est ainsi très liée à la phonologie qui étudie l'organisation des sons. La phonétique étudie la nature physique et physiologique des distinctions entre les sons tandis que la phonologie établit les oppositions entre les sons utilisés à des fins linguistiques dans une langue. Le phonème est un "segment de parole" (Content 19 ). C'est la plus petite unité de parole distincte par rapport à ses caractéristiques physiques. On en dénombre 36 pour la langue française.

La phonétique acoustique mesure les caractéristiques de l'onde sonore produite par le signal vocal : fréquence, intensité et durée. Les sons du langage sont complexes, composés de plusieurs fréquences qui peuvent être déterminées grâce à l'analyse de Fourier. Le spectrographe est un appareil qui analyse les fréquences composant l'onde sonore en fonction du temps. Il donne ainsi une image visuelle des composants physiques des sons (spectrogrammes). Le spectrographe peut être utilisé en filtrage large (300 Hz) ou en filtrage étroit (45 Hz). En filtrage large, le spectrogramme met bien en évidence les ondes périodiques (voyelles) et les transitions (consonnes) qui peuvent être considérées comme des ondes périodiques de période infinie. Ce filtrage permet d'étudier les phonèmes d'une langue. En filtrage étroit, le spectrographe enregistre chaque harmonique séparément et permet d'établir la courbe de la fréquence fondamentale qui caractérise la mélodie de la phrase. Ce filtrage est utilisé pour l'étude de la prosodie. Les différences d'intensités des sons vocaux sont traduites par des différences dans le noircissement du spectrogramme. On peut mesurer, grâce au spectrographe la durée, la fréquence fondamentale et l'intensité des sons vocaux et connaitre leurs fréquences caractéristiques (formants).

La prosodie est un terme qui vient du grec "prosodia". Il signifie accent, quantité dans la manière d'énoncer des propos. Il était autrefois réservé au domaine de la versification. Actuellement l'emploi du terme prosodie concerne le langage parlé et regroupe l'intonation et certains phénomènes physiques associés à la parole : l'effet de hauteur, l'effet d'intensité et la durée des segments phonémiques, syllabiques... L'intonation concerne la variation de la ligne mélodique.L 'intonation pourrait être un indicateur de la segmentation et de la hiérarchie syntaxique (Noizet 1980, Wingfield 1975).

La voix humaine peut être plus ou moins grave. Cet effet de hauteur dépend de la fréquence de l'onde sonore : les voix masculines peuvent varier entre 80 Hz et 160 Hz, les voix féminines entre 150 Hz et 300Hz, et les voix des enfants peuvent atteindre 500 Hz. L'intensité de la voix est aussi très variable : pour le langage parlé, l'intensité varie généralement entre 40 et 60 dB. La durée des segments phonémiques, syllabiques est mesurée en millisecondes : le débit des paroles fait varier la durée de ces segments. La durée d'un phonème peut s'étendre de 30 millisecondes à plusieurs centaines de millisecondes. La durée des pauses et des silences est un paramètre important dans l'intelligibilité d'un mot ou d'une phrase. Les trois paramètres (hauteur, intensité et durée) sont plus ou moins dépendants lors de la phonation. L'intensité dépend de la pression sous glottique et la fréquence laryngienne est le produit de la pression sous glottique et de la tension des cordes vocales. L'accent inclut les paramètres de durée, d'intensité et de hauteur. Le rythme, l'intonation dépendent du locuteur et de ses intentions par rapport au message qu'il souhaite transmettre. L'intonation peut être analysée au niveau des phonèmes ou au niveau de la phrase ou même au niveau du discours. Au niveau de la phrase, l'intonation est différente selon la modalité : assertive, interrogative, injonctive ou exclamative.

3 - Structure commune à la parole et à l'écrit

Les connaissances communes au langage parlé et écrit concernent le lexique, la syntaxe, la sémantique et la pragmatique.

Le lexique comprend l'ensemble des informations acoustiques, phonologiques, syntaxiques et sémantiques concernant le mot.

La syntaxe peut être définie comme l'ensemble des règles permettant de gérer l'ordre des mots et la construction des phrases et des énoncés.

Le Ny (1979) définit la sémantique comme étant"la relation entre la forme des signes linguistiques ou signifiants et ce qui est signifié ou "signifié". La sémantique comprend l'ensemble des informations liées au sens, à la signification des mots.

La pragmatique est l'étude des relations entre "signifié" et l'interprétation. Elle recouvre l'ensemble des relations entre le langage et le contexte d'énonciation.

C - Niveaux de traitement

La parole est un support d'information et de communication. Elle est émise et perçue. Dans l'émission de la parole, le locuteur transmet une idée en mettant en œuvre ses capacités de production de paroles pour aboutir à la commande des nerfs moteurs des organes phonatoires. Dans la perception, l'auditeur reçoit le signal vocal, analyse et organise ses différents constituants jusqu'à la compréhension du message et son intégration parmi ses idées. Dans la production et la perception de la parole, peuvent ainsi être mis en évidence différents niveaux de traitement : un niveau périphérique correspondant aux mécanismes du système de phonation et d'audition, et un niveau central correspondant à la formation ou à la compréhension du message linguistique.

Dans cette étude, l'objectif est d'essayer d'analyser les mécanismes associés à la perception, l'intelligibilité, et la compréhension du langage parlé afin de pouvoir définir les conditions d'une écoute efficace sur un plan pratique et sur un plan théorique, de mieux comprendre les processus cognitifs associés à la perception de la parole.

1 - Le niveau perceptif

Une phrase parlée est un signal sonore continu qui évolue dans le temps. Une phrase écrite est une suite de symboles (lettres) groupées en mots séparés par des espaces. L'analyse et le codage d'une phrase parlée fait appel au système de perception auditive qui utilise des mécanismes d'analyse séquentiels.

Dans la perception de la parole, l'oreille analyse d'abord les paramètres définissant cette onde sonore complexe : amplitude, fréquence et durée des segments. a ce stade, le traitement du signal a pour but de quantifier ces différentes grandeurs pour faire correspondre à l'onde sonore (temporelle), une description multidimensionnelle afin de réaliser l'analyse phonétique de la phrase. La parole a une structure complexe et très variable dans le temps, tantôt périodique, tantôt apériodique, impulsionnelle ou bruitée... Ainsi le "timbre" peut avoir plusieurs significations : le timbre des voyelles, le timbre du locuteur.. L'une qualifie la structure physique du son des voyelles,l'autre l'aspect global de la voix de l'individu. Les caractéristiques propres aux phonèmes se mêlent aux caractéristiques propres au locuteur. Les voyelles et les consonnes ont des caractéristiques acoustiques différentes. L'émission des voyelles produit des sons complexes ayant des composants de différentes fréquences (les formants) qui sont tous des harmoniques de la fréquence fondamentale (note sur laquelle une voyelle est prononcée). L'oreille humaine peut percevoir une différence de fréquence inférieure à 25 Hz. Les différences entre les phonèmes sont supérieures. Les deux ou trois premiers formants des voyelles sont suffisants pour les caractériser. Les voyelles "i" et "u" sont aiguës et les voyelles "ou", "o" sont graves les autres voyelles sont intermédiaires. Les caractéristiques acoustiques des consonnes sont plus complexes : elles comportent toujours un bruit (friction ou explosion) accompagné ou non d'un son pur selon que les cordes vocales vibrent ou non. Parmi les consonnes on distingue par exemple les occlusives, les fricatives, les nasales selon leur mode de production et leurs caractéristiques spectrales. Dans l'émission des paroles, le phénomène de coarticulation complique encore l'analyse : lorsqu'une personne parle, elle anticipe le son suivant dans le son précédent. Ainsi il y a une relation entre la voyelle et la consonne suivante si bien qu'un "a" suivi de "p" n'est pas un "a" suivi de "r". Sur le spectre, les transitions sont les portions de voyelles influencées par les consonnes. Les recherches sur la synthèse et la reconnaissance de la parole ont montré que les paramètres acoustiques (intensité, fréquence, durée), des transitions, des silences, des pauses sont des traits pertinents utilisés par les mécanismes d'analyse perceptive de la parole.

À ce stade, des indices prosodiques peuvent être également utilisés pour affiner l'analyse perceptive, mais aussi pour la quantification de segments de paroles et peuvent fournir des informations sur la structure syntaxique voire sémantique de l'énoncé. Pour les mots plurisyllabiques une "nuance mélodique" différente peut être perçue entre la syllabe initiale, intermédiaire et finale. Pour la phrase, la fréquence et l'intensité sont plus élevées au début, plus basses à la fin. au début d'un discours, la fréquence est toujours plus élevée et ce d'autant plus que le locuteur est émotif. Puis le locuteur "pose sa voix". a la fin du discours, le débit est plus lent et la note mélodique est la plus grave de tout l'énoncé.

Nous avons vu dans la première partie de ce chapitre que la physiologie du système auditif permet de comprendre quelles sont les informations que le système nerveux extrait des signaux sonores qui arrivent aux cellules sensorielles de l'oreille. Ces mécanismes physiologiques expliquent la première phase d'intelligibilité et de reconnaissance de l'information parlée. Toutes les caractéristiques d'un signal sonore n'ont pas la même importance : les cellules sensorielles vont sélectionner les caractéristiques pertinentes dans certaines conditions de limite (intensité, fréquence, durée). Des fréquences et des intensités sont mieux perçues que d'autres. L'existence d'un silence avant certaines consonnes est indispensable à leur intelligibilité...., Au niveau de la cochlée, des cellules ciliées spécifiques sélectionnent les caractéristiques pour lesquelles elles sont sensibles. Les effets consécutifs, de contraste, d'inhibition affinent cette sélection et permettent de comprendre le fonctionnement du système auditif.

Selon un modèle hiérarchique de la perception humaine de la parole (Lieberman 1979) trois niveaux peuvent être distingués dans la compréhension de l'information parlée :

  • la reconnaissance acoustico-phonétique analyse le signal vocal et le traduit en une suite de sons élémentaires (phonèmes),
  • la reconnaissance de phrase aboutit à une représentation syntaxico-sémantique à partir des phonèmes,
  • la phase d'interprétation complète, valide ou modifie les résultats de la reconnaissance de phrase.

Au fur et à mesure du déroulement de l'énoncé, des interactions constantes s'établissent entre ces trois niveaux et il est impossible de les séparer sans aboutir à une schématisation restrictive des mécanismes du traitement de la parole.

2 - Niveau cognitif

En psychologie cognitive, plusieurs modèles ont été proposés pour expliquer le traitement de l'information perceptive, du langage parlé et écrit.

"Lorsque nous écoutons quelqu'un parler, nous percevons des entités significatives, des mots, et non pas une suite confuse de sons qui doivent être traduits d'une façon ou d'une autre afin d'avoir un sens" (Lindsay et Norman 1981). Ces auteurs ont décrit deux systèmes de traitement, l'un "dirigé par données", l'autre "par concepts". Dans un système de traitement dirigé par données, le traitement commence avec l'arrivée des données. Chaque étape de l'analyse effectue son travail recevant des données d'entrée de l'étape précédente. Les données de sortie sont les données d'entrée qui déclenchent l'étape suivante. Mais il est plus facile d'entendre, quand on sait ce qu'il faut entendre. Quand il y a connaissance d'une interprétation possible ou conceptualisation d'un stimulus pour aider à sa perception, le traitement est dirigé par concept. Les mécanismes de ces deux systèmes de traitement s'effectueraient presque toujours simultanément, chaque mode contribuant à l'analyse globale.

Le rôle de la sémantique et de la conceptualisation dans l'étape de reconnaissance de phrases a fait l'objet de plusieurs études (Le Ny 1980). Nous citons ici quelques modèles :

  • un modèle de grammaire sémantique (Burton1976),
  • un modèle de réseau sémantique (Quillian 1968, Anderson 1976, Anderson 1984) composé d'un ensemble de nœuds (concepts) et d'arcs (relation entre les concepts),
  • un modèle hiérarchisé de traits sémantiques dans le lexique qui donne une représentation arborescente du vocabulaire.
  • un modèle de comparaison et de mémoire sémantique (Smith, Schoben et Rips 1973, 1974).

Dans la plupart de ces modèles, les auteurs montrent l'interaction entre les données informatives qui arrivent au sujet et les données acquises qu'il a classées et organisées dans sa propre base de connaissance. Mais dans toute acquisition, les processus cognitifs liés à l'attention et à la mémoire sont présents.

En effet lorsqu'un auditeur écoute un locuteur, il perçoit et décode les derniers éléments d'une phrase alors qu'il a déjà intégré en mémoire et compris les premiers éléments. Pour Spérandio (1986) , la mémoire à court terme permet de gérer les interprétations partielles d'une phrase élémentaire de dialogue et contient les résultats de l'analyse du dernier énoncé du locuteur au niveau acoustique, phonétique, lexical, sémantique. Dans la mesure où le débit moyen d'un locuteur varie entre 120 et 180 mots par minute, la vitesse de traitement de l'information parlée de l'auditeur doit suivre ce rythme.

En conclusion, la compréhension de phrases parlées nécessitent plusieurs approches :

  • une approche ascendante (traitement dirigé par données) dans laquelle l'auditeur émet des hypothèses à partir des caractéristiques de l'onde sonore pour trouver la phrase en suivant les diverses étapes de décodage (phonétique, lexical, syntaxique, sémantique) jusqu'à l'interprétation de la phrase ;
  • une approche descendante (traitement dirigé par concept) dans laquelle l'auditeur part du concept, de ses connaissances linguistiques (sémantique, syntaxe), du contexte, de ses attentes, pour prédire les éléments de la phrase (mots, syllabes, phonèmes),
  • une approche horizontale dans laquelle l'auditeur utilise ses connaissances pour sélectionner ou indicer les éléments pertinents dans le but de parfaire les interprétations immédiates ou à venir.

"Le problème de la compréhension de phrases peut être considéré comme un problème de recherche de la solution optimale dans un espace de réalisations partielles correspondant à l'ensemble des phrases ou des sous-phrases possibles compte tenu de trois contraintes : la structure du langage, le lexique, la chaîne ou le treillis phonétique d'entrée. On appelle alors "stratégie de recherche" l'ensemble des règles régissant le parcours qui conduit à la solution retenue. Cette notion de stratégie de recherche d'une solution dans un espace d'états correspond à une des méthodes les plus classiques de résolution de problèmes en intelligence artificielle" (Pierrel 1987).

III - L'ÉCOUTE

L'importance de l'écoute dans la communication humaine est évidente. Mais si la parole est un moyen de communication primordial, elle peut être un moyen d'apprentissage essentiel et même indispensable dans certaines situations : enseignement, de tous ceux qui ne peuvent avoir accès à la lecture. L'écoute nécessite l'intervention de l'attention et de l'éveil et peut être enseigner (Frazier 1966). .

a - Importance de l'écoute

Des auteurs ont essayé d'évaluer la place occupée par l'écoute au cours d'une journée de travail d'un enfant scolarisé et d'un adulte. Les premières études, en 1928 au Etats-Unis ont montré que les adultes passent 42% de leur temps à écouter, 32% à parler, 15% à lire et 11% à écrire. En 1940, toujours au Etats-Unis, ils passent 47% de leur temps à écouter, 28% à parler, 17% à lire et 7% à écrire. Parler occupe 3 fois plus de temps qu'écrire. Ecouter occupe 3 fois plus de temps que lire (toutes ces études ont été citées par Bischoff 1979). Pour cet auteur, les activités d'écoute et de compréhension des informations parlées occupent 50% du temps des enfants scolarisés. Il semblerait pourtant que les enseignants donnent moins d'importance aux facultés d'écoute qu'aux facultés de lecture.

À partir des études qui ont exploré les relations entre les capacités d'écoute et les capacités de lecture, il semblerait que ces capacités soient bien corrélées (Bischoff 1979).

L'écoute pourrait être un mode d'apprentissage avantageux pour les handicapés visuels. En effet, les aveugles sont en général très lents dans la lecture braille. Les amblyopes peuvent également perdre beaucoup de temps à essayer de déchiffrer les grands caractères imprimés. Les collégiens aveugles ont un débit de lecture approximatif de 50 mots/minute et les lycéens de 90 m/mn (mots par minute). si bien que ces enfants passent 2 à 3 fois plus de temps que les enfants voyants pour avoir accès a la même quantité d'information (Myers et al. 1966, Myers 1978, Foulke 1969) Magadur (1987) est plus optimiste pour les bons lecteurs braille :

  • après 1an d'apprentissage, 40 m/mn,
  • après 2 ans, 60 m/mn,
  • après 3 ans, 80 m/mn,
  • après 4 ans, 90 m/mn,
  • après 5 ans, 100 m/mn,
  • après 6 ans, 110 m/mn,
  • après 7 ans 120 m/mn,
  • après 8 ans, 130 m/mn,
  • après 9 ans, 140 m/mn,
  • après 10 ans, 150 m/mn.

Cet auteur relate une expérience relative à la vitesse de lecture d'un enfant aveugle : "la lecture d'un texte jamais lu de 52 mots a été faite en 5 minutes 6 secondes par un aveugle de 9 ans du cours élémentaire ; la lecture du même texte (sans préparation) par un clairvoyant de même niveau scolaire a été faite en 38 secondes. Le jeune aveugle a mis 8 fois plus de temps que le clairvoyant"...."Les élèves aveugles sont plus longtemps au stade de déchiffrage que les élèves clairvoyants. La lecture reste lente plus longtemps et cette lenteur perturbe le déroulement des études primaires, du premier cycle et même au lycée". Magadur expose ensuite les causes de cette lenteur :

  • l'éducation du toucher,
  • l'apprentissage tardif,
  • la possibilités tactiles de chaque enfant,
  • le refus d'apprentissage lié à un résidu visuel ou à la non acceptation du handicap,
  • le manque d'entraînement,
  • la méthode braille appliquée,
  • le système braille lui-même,
  • le toucher qui est un moyen de connaissance lent. L'élève prend ainsi du retard parce qu'il est lent.

Par comparaison avec la lecture visuelle, citons quelques observations et quelques chiffres classiquement admis. La vitesse de lecture à voix haute ou de paroles est environ 9000 mots à l'heure (soit 150 m/mn). La vitesse de la lecture "chuchotée" est environ de 13000 mots à l'heure (soit 215 à 220 m/mn). La lecture silencieuse est plus rapide et sa vitesse dépend des capacités et surtout de l'entraînement du lecteur : 20000 m/h (330 m/mn) pour un lecteur lent, 28000 m/h (470 m/mn) pour un lecteur moyen et 60000 m/h (1000 m/mn) pour un lecteur rapide (Richaudeau 1976). Les observations de Zielke (1970) ont conduit aux résultats suivants :

  • moyenne de vitesse des adultes (lecteurs non exercés) 90 à 160 m/mn,
  • moyenne d'un lecteur normal exercée avec une technique personnelle, 200 à 250 m/mn,
  • moyenne de lecteurs exercés participant à des cours de lecture, 500 à 700 m/mn,
  • moyenne de lecteurs très exercés, 900 m/mn et plus.

Nous sommes convaincu qu'il est nécessaire de favoriser la lecture braille chez l'enfant aveugle et le rendre plus efficace dans sa pratique. Pour l'encourager et le familiariser avec ce mode de lecture tactile, le contact avec des livres braille bien avant la classe préparatoire serait favorable. L'apprentissage de l'écoute "active" (voir paragraphe suivant), l'entraînement à l'écoute, l'analyse et la synthèse de livres enregistrés pourraient pallier les problèmes associés à la lenteur dans l'accès à l'information et compléter les connaissances acquises avec la lecture braille.

Les livres enregistrés peuvent aider considérablement les lycéens aveugle intégrés dans des classes de voyants (Field 1974, Bischoff 1976).

B - Apprendre à écouter

L'apprentissage dépend de l'efficacité de l'écoute qui dépend elle-même de plusieurs facteurs :

  • l'intelligence,
  • la compréhension dans les activités de lecture,
  • l'acquisition d'un vocabulaire riche,
  • les capacités d'adaptation au locuteur,
  • l'expérience et l'entraînement de l'écoute.

L'écoute efficace nécessite un effort de concentration. Elle doit être "active" : comme dans une prise de notes, l'auditeur doit analyser, sélectionner et synthétiser les informations perçues.

Bishoff signale le défaut d'étude et de recherche dans le domaine de l'écoute et propose un programme d'entraînement :

  • des leçons d'écoute distribuées à raison de trois par semaine,d'une durée de 15 minutes au début,
  • chaque leçon comporterait trois phases. Une phase de présentation de l'énoncé, un test de compréhension avec un questionnaire à choix multiples, un test de performance (réponse à des questions).
  • tester à chaque leçon la compréhension des idées, la connaissance du vocabulaire, l'interprétation de l'énoncé
  • découvrir l'idée principale de l'énoncé en lui donnant un titre,
  • les leçons devraient être échelonnées en longueur et en difficulté,
  • développer les capacités sélectives par la détection d'indices, de mots-clés, d'idée principale ou pertinente,
  • développer les capacités d'attention et de concentration,
  • les énoncés sont enregistrés par une voix masculine avec un débit de 120 m/mn.

La plupart des éducateurs des déficients visuels ont estimé nécessaire d'enseigner l'écoute. Un grand nombre d'auteurs (Bischoff 1967, Bixler 1963, Cobb 1977, Daughtery 1974, Gore 1969, Hatlen 1976, Morris 1966 et Nolan 1973, cités par Bischoff 1979) jugent que la présentation auditive des énoncés à apprendre est la seule voie d'apprentissage possible pour que les handicapés visuels puissent être intégrés aisément dans un enseignement scolaire.

C - Applications

Le champ d'application de l'écoute est vaste et varié : accueil, communication, échanges, informations radiophoniques et télévisées, cours et enseignement, conférence, renseignements, narrations, témoignage, documentation, publicité... Toutes les informations véhiculées par la parole sont plus ou moins importantes, plus ou moins intéressantes, plus ou moins utiles, plus ou moins utilisables.

Nous nous limiterons à étudier l'utilisation d'un mode de présentation auditive et de l'écoute chez l'aveugle et en particulier chez le collégien, le lycéen, l'étudiant. Il semble en effet primordial d'essayer d'améliorer l'accès à l'information chez les déficients visuels et ce d'autant plus qu'ils ne peuvent avoir un accès aisé à la lecture braille (aveugles tardifs, diabétiques, sensibilité tactile déficiente).

1 - La prise de notes :

Si l'acquisition de la lecture braille est relativement lente pour un jeune aveugle, la maîtrise de l'écriture braille est tout aussi difficile et peut être plus pour les très jeunes. La vitesse reste longtemps faible et il faut de nombreuses années de pratique pour être efficace. D'autre part la tablette et le poinçon ou la machine à écrire le braille sont assez bruyants et peuvent être gênants quand plusieurs aveugles sont intégrés dans une classe de voyants. Un grand nombre d'éducateurs anglo-saxons et quelques éducateurs français estiment que le magnétophone serait un outil précieux dans certaines conditions d'utilisation. Le chapitre suivant est consacré à l'étude de la prise de notes aidée par l'enregistrement. Il n'est évidemment pas pensable d'enregistrer l'intégralité d'un cours, de rester passif devant le matériel en marche, et de réécouter les 30 heures de cours enregistrés dans la semaine ! Comment rendre ce mode de prise de notes efficace ? Comment utiliser ce matériel pour sélectionner les informations pertinentes ? Sur un plan cognitif, quels sont les mécanismes les plus sollicités ? Quel est le rôle de la mémoire et celui de l'attention ? Une longue expérience et les problèmes à résoudre au "coup par coup" ont abouti a quelques solutions rentables et à une proposition de fabrication d'un magnétophone spécifique à la prise de notes et à la réécoute rapide.

2 - La parole comprimée et l'écoute rapide

Des techniques nouvelles mises en place dans les années 60 aux Etats-Unis ont permis de réaliser une compression temporelle de la parole enregistrée sans distorsion excessive du signal vocal. L'augmentation du débit de l'enregistrement permet l'écoute d'une plus grande quantité d'information dans un temps plus court. Quel est l'influence de la parole comprimée sur l'intelligibilité des mots, la compréhension du discours, la mémorisation des informations et l'efficacité de l'apprentissage ? a partir de quel âge peut-on utiliser ce mode de présentation ? Quelles seraient les applications de l'écoute rapide ?

Ces questions sont abordées dans le chapitre 4 dans lequel une revue de questions et une étude expérimentale sont exposées.

3 - La synthèse vocale

La synthèse vocale associée à un ordinateur, des logiciels adaptés, des nouveaux supports pour le stockage des informations (CD ROM, DON, ...) offrent des possibilités considérables aux jeunes aveugles.

Quels sont les problèmes posés par une sortie vocale ? Un opérateur aveugle peut-il utiliser le matériel informatique utilisé par les voyants sans avoir accès à l'écran ? Les mécanismes de la perception auditive et les processus mnésiques pourraient-ils pallier l'inexistence de la perception visuelle ? Quelles sont les conséquences de l'utilisation de ces nouvelles techniques sur l'intégration scolaire, sociale et professionnelle des jeunes déficients visuels ? Notre expérience et nos investigations dans ce domaine sont relatées dans le chapitre 5.

IV - CONCLUSION ET RÉSUMÉ

La parole est un signal vocal complexe, continu et redondant (formants) composé de segments périodiques et apériodiques, variable pour un même locuteur à des instants différents, et très variable selon les locuteurs (variabilité inter-individuelle). Contrairement à l'écrit, la parole est une suite de segments continue (phonèmes) dont le débit varie entre 120 et 150 mots par minute environ selon les conditions d'émission et les objectifs recherchés.

L'expérimentation en physiologie et en psycho-physiologie a permis de décrire l'information qui circule sur le nerf auditif à partir de l'émission d'un signal vocal.Au niveau périphérique, les mécanisme de la perception auditive ont pu être étudiés : l'onde vocale peut être définie par sa fréquence, son amplitude, sa durée. Dans l'oreille, elle subit des phénomènes de décomposition spectrale capables de discriminer la fréquence fondamentale et les harmoniques d'une voyelle par exemple. La hauteur perçue est liée à la fréquence fondamentale, l'intensité à la notion d'énergie (amplitude, pression acoustique). Une unité de puissance acoustique a été définie permettant de déterminer une unité relative de niveau d'intensité sonore en décibels. L'oreille perçoit des sons dont la fréquence varie entre 20 et 20000 Hertz (jusqu'à 10000 HZ dans la pratique). Des seuils d'audibilité et de douleur sont déterminés pour différentes fréquences (courbes d'audibilité et de douleur) La sensibilité de l'oreille est maximum pour les sons de 1000 Hertz. L'oreille est peu sensible à la variation d'intensité d'un son (supérieur à 10%), mais elle est très sensible à sa variation de fréquence (entre 0,1 et 0,3% en moyenne). L'oreille interne transforme le signal acoustique en un signal nerveux et le codage à ce niveau est tel qu'il produit déjà une bonne analyse acoustique du signal d'entrée. Deux type de codage sont effectués au niveau périphérique : un codage temporel pour une fibre nerveuse et un codage spatial et synchronisé de plusieurs fibres nerveuses suivant la localisation des cellules réceptrices : définissant une sorte de cartographie fonctionnelle au niveau de la cochlée (oreille interne).

Au niveau central, l'énoncé en cours de traitement fait appel à diverses sources de connaissances : acoustiques, phonétiques, lexicales, syntaxiques et pragmatiques. Plusieurs modèles rendent compte des mécanismes centraux. Plusieurs types de modèles ont essayé de décrire le déroulement des processus cognitifs dans le traitement de l'information parlée. Des phénomènes d'interaction multiples compliquent beaucoup cette tâche : phénomènes de coarticulation au niveau des segments (phonèmes) et multiples interactions dans les différentes étapes de l'analyse. Les recherches des acousticiens (Vicard 1987, Wang 1987) et des informaticiens (Pierrel 1987) qui ont pour objectif la synthèse et la reconnaissance de la parole, utilisent les résultats des phonéticiens, des phonologistes, des linguistes, des psychologues, mais en contre partie vérifient ces résultats :

  • la parole est redondante et reste intelligible après élimination de petits segments du signal vocal,
  • la durée d'un phonème varie de 30 millisecondes à quelques centaines de millisecondes,
  • des "silences" sont indispensables pour la reconnaissance de certaines consonnes et l'intelligibilité de la parole,
  • les pauses et la prosodie jouent un rôle important dans la compréhension des informations parlées,
  • la coarticulation et les interactions entre les différentes étapes du traitement rendent ces études très complexes,
  • la schématisation des mécanismes et des processus mis en jeu est toujours réductionniste, même si elle permet d'affiner les résultats et d'améliorer la qualité des synthèses vocales, des progrès sont encore attendus dans la reconnaissance de la parole,
  • l'attention et la mémoire sont importantes dans l'analyse, la compréhension et l'interprétation d'un message parlé.

La parole occupe une place essentielle dans la communication humaine et c'est aussi un support de l'information non négligeable dans l'enseignement. Compte tenu des difficultés et des problèmes de lenteur avec le mode d'accès à l'information tactile, de nombreux éducateurs anglo-saxons jugent le mode de présentation auditif très favorable pour l'accès à l'information et l'apprentissage des jeunes aveugles. D'autre part le développement des nouvelles technologies : machines à lire (scanner), calculatrices parlantes, synthèses vocales permettant la sortie vocale des données d'un micro-ordinateur et l'utilisation de nombreux logiciels rendent nécessaire l'éducation de l'écoute. Comment peut-on transmettre une information visuelle distribuée de façon spatiale sur une feuille ou un écran par la voie orale impliquant des caractéristiques temporelles et séquentielles ? La mémoire à court terme, la mémoire de travail, l'attention n'imposent-elles pas leurs lois de fonctionnement ? Et comment distribuer l'information parlée pour favoriser la compréhension et réduire la charge mentale ? Nous nous proposons d'étudier ces différentes questions dans les chapitres suivants.


 


Au sommaire de la thèse

  1. Présentation de la thèse
  2. CHAPITRE 1 : LENTEUR DANS L'ACQUISITION DES CONNAISSANCES CHEZ L'AVEUGLE
  3. CHAPITRE 2 : L'ÉCOUTE ET LE TRAITEMENT DE L'INFORMATION PARLÉE
  4. CHAPITRE 3 : LA PRISE DE NOTES
  5. CHAPITRE 4 : LA PAROLE COMPRIMÉE ET L'ÉCOUTE RAPIDE
  6. CHAPITRE 4 : LA PAROLE COMPRIMÉE ET L'ÉCOUTE RAPIDE - Section II
  7. CHAPITRE 4 : LA PAROLE COMPRIMÉE ET L'ÉCOUTE RAPIDE - Section III
  8. CHAPITRE 5 : LA SYNTHÈSE VOCALE DANS LES NOUVELLES TECHNOLOGIES

Fac ut videam (Faites que je vois)
Le mot latin Fac écrit en braille. 
Le mot latin Ut écrit en braille. 
Le mot latin Videam écrit en braille.

Éphéméride du jour

En ce 11 décembre de l'an de grâce 2004. France une première : une personne handicapée visuelle obtient le brevet national de moniteur des premiers secours. (BNMPS).

Saviez-vous que :

Ted Henter, de nationalité américaine, l'inventeur de JAWS, le logiciel que plusieurs personnes aveugles utilisent pour accéder à l'environnement Windows, est aveugle? En effet JAWS signifie Job Acces With Speech; mais aussi 'machoires'. Le sigle de JAWS est aussi un clin d'œil au film Les Dents de la mer, car on y voit la dorsale d'un requin surgissant de l'eau. Le logiciel a aussi été commercialisé par Henter qui a fondé Henter-Joyce, le manufacturier de JAWS. Donc, Ted Henter est aussi donc un gestionaire d'entreprise.

JAWS le film, est un classique des films d'épouvante et raconte l'histoire d'un grand requin blanc qui terrorise les plages et bouffe les vacanciers!. Ce requin n'était pas un vrai requin dans le film, mais une merveille mécanique qui a valu à ce film certaines distinctions pour ses innovations techniques. Or, Ted Henter était aussi récemment un champion du ski nautique, sport qu'il pratique toujours encore. Les bruits de vagues lorsqu'on installe JAWS, vous vous rappelez? Le moindre qu'on puisse dire, c'est que Ted Henter est un aveugle qui n'a pas froid aux yeux et n'a pas craint de dominer la mer de mots imprimés dans laquelle nous vivons.

TyphloPensée

« L'amour n'est pas aveugle, il est atteint de presbytie. La preuve c'est qu'il ne commence à distinguer les défauts que lorsqu'il s'éloigne. »

Miguel Zamacoïs

Étymologie

Typhlophile tire sa racine de « typhlo » d'origine grecque et qui veut dire « cécité »; et « phile » veut dire ami, sympathisant, etc. Donc, Typhlophile veut dire l'ami des aveugles.

Un clin d'œil vers :

Haut de la page.

Politique d'accessibilité du site
[Certifier Bobby Approved (v 3.2). | Description]
[Validation HTML/XHTML du W3Québec | Valide CSS! | Ce document rencontre les conformités Valid XHTML 1.0 Strict]
DERNIÈRE MISE À JOUR DU SITE 20 janvier 2012
© 1996/2017; Le Typhlophile - Longueuil, Québec (Canada)

Pour vos commentaires et suggestions.