Dissertationen zum Thema „Perception de parole“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Perception de parole.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Perception de parole" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Lancia, Leonardo. „Dynamique non linéaire de la perception de la parole“. Aix-Marseille 1, 2009. http://www.theses.fr/2009AIX10007.

Der volle Inhalt der Quelle
Annotation:
La recherche rapportée dans cette thèse examine les implications d'une approche par systèmes dynamiques non-linéaires à l'étude de la perception de la parole. Nous avons commencé par répliquer, avec des stimuli et des participants français, les prédictions du modèle monodimensionnel de l'identification et de l'évaluation des percepts linguistiques introduit par Tuller et ses Collègues (1994). Il a été possible d'observer deux phénomènes typiques de ce type de systèmes : lorsque le système s'approche d'un point d'instabilité, les temps de réaction augmentent ("ralentissement critique") et les réponses des participants sont de plus en plus exposées aux fluctuations aléatoires ("fluctuations critiques"). Nous avons ensuite observé comment les issues de l'apprentissage perceptif dépendent de l'ordre de présentation initiale des stimuli. Ces résultats ont été reproduits avec un modèle multidimensionnel qui se fonde sur les équations proposées par Steven Grossberg (19978, 2003). Dans la troisième expérience nous avons introduit un protocole expérimental ayant le but de déterminer la nature phonétique ou auditive des compétences acquises pendant l'exposition à la tâche d'identification.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Troille, Emilie. „De la perception audiovisuelle des flux oro-faciaux en parole à la perception des flux manuo-faciaux en langue française parlée complétée adultes et enfants : entendants, aveugles ou sourds“. Grenoble 3, 2009. http://www.theses.fr/2009GRE39021.

Der volle Inhalt der Quelle
Annotation:
La Langue française Parlée Complétée (LPC) a été élaborée à partir de son Cued Speech par Cornett (1967), pour pouvoir désambiguïser la phonologie visible sur le visage par des gestes phonémiques manuels simultanés. Mais c'est seulement depuis cinq ans que le secret de sa production est connu, lorsqu'il a été découvert que la main était toujours en avance sur le visage (Attina & al. , 2004). Ce comportement anticipatoire nous renvoie à celui de la parole. Sur ce comportement général, la question clé que nous allons poser ici est celle de la perception des flux acoustiques et optiques dans la parole et dans la parole coordonnée avec le code manuel de Cornett pour le LPC. Nous déterminerons en premier lieu que la parole bimodale est flexible même dans les structures CVCV les plus simples, non seulement entre locuteurs mais chez un même sujet. Si la parole peut être vue avant même d'être entendue (comme l'ont établi de manière exemplaire Cathiard & al. , 1991), l'inverse est aussi vrai, et chez le même locuteur. En fait nous montrerons que la parole peut aussi être entendue avant d'être vue et même que la parole peut être entendue aussitôt qu'elle est vue. En examinant soigneusement la structure des stimuli testés, nous avons pu montrer que les patrons perceptifs résultants sont "rivés" (locked) à la production oro-faciale de la parole. Ce qui se démontre en tenant compte des relations articulatori-acoustiques. Nos expériences de gating et de désynchronisation, menées avec des entendants et des sourds, adultes et enfants – et aussi des sujets aveugles "contrôles" pour l'audio – nous ont permis de tester la gamme de flexibilité que peut permettre cette coordination phonémique unique de la face et de la main. Ces résultats viennent renforcer la conception avancée depuis Attina & al. (2004), comme quoi le comportement anticipatoire dans la Langue française Parlée Complétée repose sur la mise en phase des types de contrôles les plus compatibles, ceux des (con)tacts de la main avec le visage pour les voyelles et ceux des constrictions de la bouche pour les consonnes. La fenêtre qui nous a été ainsi ouverte par le code de Cornett (Cornett's code) – surtout par la tournure qui lui a permis d'être neuralement incorporé (embodied & "embrained") dans une habileté linguistique – nous a ainsi de manière surprenante permis d'apporter des réponses plus décisives sur la nature des contrôles des segments dans la phonologie du langage que par la seule observation des actes de parole
Cued Speech was created by Cornett in 1967 in order to disambiguate the phonology of the visible face by simultaneous phonemic hand gestures. But its productive secret was disclosed just five years ago when discovering that the hand was always ahead of the face (Attina & al. , 2004). This anticipatory coordination was a reminder of the current anticipatory behaviour in speech. The core question here addressed to this anticipatory issue concerned the perception of the acoustic and optic flows in Speech and Cued Speech. We will first establish the flexibility of bimodal speech even in simple CVCV structures, both between and within speakers. If speech can be seen before it is heard (as evidenced at its best by Cathiard & al. , 1991), we will show that the reverse is also true, even for the same speaker. Namely we will assess that speech can be heard before it is seen and even that speech can be heard as soon as it is seen. By carefully examining the pattern of behaviour of the perceived stimuli, we will show that the perceptive outcomes are locked to the produced oro-facial structures, provided we take into account their articulatory to acoustic relationships. Gating and desynchronization experiments for speech et Cued Speech, run with hearing and deaf adults and children – with blind "control" subjects for the audio –, will give us the opportunity to test the range of flexibility allowed by this unique hand-face phonemic coordination. These results will reinforce the proposal that the anticipatory Cued Speech behaviour relies on the phasing of compatible contact controls for hand vowels with orofacial consonants. The window offered by Cornett’s code – and the way it was skillfully embodied (say "embrained") – brought us a surprisingly more decisive answer about the nature of the controls in the phonology of language than the mere observation of simple speech behaviour
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Cohen, Laurent. „Détection de stimuli non linguistiques et perception de la parole“. Paris, EHESS, 1994. http://www.theses.fr/1994EHES0312.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette etude est d'evaluer la technique de detection de clics pour l'etude en temps reel des processus de comprehension de la parole. Cette technique consiste a mesurer les temps de reaction a des clics sonores presentes simultanement a des phrases ou des mots experimentaux, a des instants precisement determines. Cette methode est applique e a differents facteurs lexicaux, syntaxiques et semantiques qui contribuent a la comprehension des phrases. Nous suggerons que cette methode n'est pas sensible aux processus rapides et automatiques responsables de l'acces lexical et de l'analyse syntaxique. Par contre, les temps de reaction sont ralentis lors de la mise en jeu de strategies de verification, rendues necessaires en cas d'echec des modules linguistiques automatiques
The aim of this study is to evaluate the potential interest of the click monitoring technique for the on-line study of speech comprehension. While subjects listened to experimental sentences (or words), the reaction times to short superimposed clicks were measured. We studied the influence on reaction times of various lexical, syntactic, and semantic factors that contribute to sentence comprehension. We suggest that latencies are not sensitive to the most rapid and automatic processes of lexical access and syntactic parsing. However, longer latencies are observed whenever automatic modules fail to produce a definite output, requiring that controlled verification strategies come into play
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Bensaada, Merzeghe. „Perception de la parole télévisuelle en Algérie. Dissonances et dyscommunication“. Thesis, Montpellier 3, 2013. http://www.theses.fr/2013MON30064/document.

Der volle Inhalt der Quelle
Annotation:
Les émissions de parole nous paraissent comme un espace de cristallisation des conflits linguistiques et identitaires que connaît la société algérienne, un lieu tout autant d'aboutissement que d'amplification des dysfonctionnements de la communication télévisuelle et publique en Algérie. Cette étude consiste à tenter de comprendre les contextes et les modalités d’articulation des déterminations psychosociales à partir de situations d'échanges et de transmission qui laissent deviner une sorte de “malaise” communicationnel à la télévision. À travers la parole, comme marqueur psycho-identitaire, nous avons cherché à identifier les symptômes de la “dyscommunication”. Les manifestations de cette dernière se révèlent comme la conséquence d'un raté politico-idéologique et l'indicateur d'un clivage identitaire des sujets parlants. La problématique que nous soulevons relève principalement du phénomène d'inadaptation de la langue utilisée à la télévision et qui semble influer sur le comportement expressif (langagier et paralangagier), et affaiblit les potentiels émotionnels et phatiques des locuteurs à la télévision. Nos observations et notre enquête montrent que les récepteurs sont sensibles aux messages émotionnels et aux implicites culturels véhiculés par les emblèmes mimogestuels, le langage paraverbal, la prononciation, et que ceux-ci sont des facteurs déterminants dans la qualité d'une interaction communicative, à la télévision comme dans la vie quotidienne. La langue, seule, ne suffit pas à transmettre la totalité du message. Le téléspectateur est très attentif aux “énoncés coopératifs” et de reconnaissance mutuelle, ainsi qu'aux compétences socioculturelles et émotionnelles qui accompagnent et émergent naturellement d'une parole endogène
TV programs based on words/debate/discussion appear to us as a space of crystallization of the linguistic and identity conflicts which the Algerian society knows. They show and amplify the dysfunctions of television and public communication in Algeria. This study consists in trying to understand the contexts and modalities of articulation of the psychosocial and ideological determinations by exploring situations of exchange and transmission which seem to reveal a kind of communicational discomfort on television. By analysing the word as a marker of identity and psychology, we have tried to identify symptoms of "dyscommunication". The expressions of the latter appear as the consequence of a politico-ideological failure and the indicator of an identity cleavage between the speaking subjects/enunciators. The problem which we raise has to do wit the phenomenon of maladjustment of the language used on television, which seems to influence the (both linguistic and paralinguistic) capacity of expression and to weaken the emotional and phatic potential of the speakers on television. Our observations and our investigation show that the receivers/viewers are sensitive to the emotional messages and to implicit cultural signs conveyed by mimogestual emblems, paraverbal language, pronunciation, and that these are determining factors in the quality of a communicative interaction, on television as in everyday life. Language alone is not enough to convey the totality of the message. The televiewer is very attentive to the "cooperative statements" and to processes of mutual recognition, as well as to the sociocultural and emotional skills which accompany and naturally emerge from endogenous speech
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Leblanc, Michel-Antoine. „Recherche de correspondances entre production écrite et orale“. Paris 10, 2001. http://www.theses.fr/2001PA100111.

Der volle Inhalt der Quelle
Annotation:
Cette recherche concerne les relations, objectives ou subjectives, pouvant exister entre une même production langagière, exprimée d'une part sous forme orale et d'autre part sous forme écrite. Ceci peut se concevoir selon deux perspectives différentes, qui sont l'une et l'autre prises en compte : soit en termes de correspondances "objectives", ou de production ; soit en termes de correspondances "subjectives", liées aux inférences suscitées chez des tiers par la perception de telles productions. L'hypothèse générale avancée est la suivante :« Lorsqu'on demande à des sujets d'apparier des productions orales et écrites d'une population de locuteurs/scripteurs, les appariements effectués ne se font pas au hasard ». La dualité production/perception se retrouve au coeur du paradigme expérimental retenu, qui repose d'une part sur des expérimentations d'appariement par des sujets entre des voix et des écritures, et d'autre part sur la qualification de ces écritures et de ces voix par d'autres sujets. Principales conclusions : Les sujets ne sont pas en mesure de percevoir de correspondance « objective » entre des productions orales et des productions écrites émanant d'un même individu. Ils perçoivent par contre des correspondances « subjectives », sur des bases assez largement partagées dans la population testée. Selon que les attentes suscitées par les paroles et celles suscitées par les écritures coïncident à peu près ou non, les sujets infèrent qu'il s'agit ou non, dans notre cadre expérimental de « choix forcé », de la même personne ; ou, à tout le moins, de façon plus générale', que telle parole « va bien » ou non avec telle écriture. Il semble bien que les critères retenus, de façon apparemment inconsciente, par les sujets pour en décider correspondent à des associations de caractéristiques entre les voix et les écritures assez spécifiques
This research concerns the subjective and objective relationships which could exist between an oral and written productions of the saine language extract. This can be viewed from two diffèrent aspects, both of which are taken into account here. They can either be seen in terms of "objective "relationships linked to the process of production, or in ternis of "sujective" relationships linked to inférences made by third parties in their perception of these productions. The general hypothesis that is being put forward is the following : "When subjects are asked to match oral and written productions from a population of speakers/writers the resulting matches are not random. ". The duality of production and perception lies at the heart of the experimental paradigm which consists of a series of matching experiments between voices and writings carried out by the subjects accompanied by an evaluation of these voices and writings by an other group of subjects. Main conclusions : - The subjects were not capable of perceiving an objective relationship between oral and written productions coming from the saine individual. There was a broad consensus,however, amongst the tested population in subjective links. Depending on whether the responses evoked by the voices and the writings more or less coincided or not the subjects inferred wether or not it concerned the saine person ; or, at least, they had a general feeling that a certain voice "went well" or not with a certain handwriting. It would seem that the criteria applied in an apparently unconscious way by the subjects to make their decisions correspond to quite specific associations of characteristics between voices and writings
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Bruckert, Laetitia. „Production et perception de la voix : entre données phylogénétiques et modèles socio-culturels“. Paris 10, 2006. http://www.theses.fr/2006PA100077.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous sommes intéressés à la production et à la perception de la voix. Nous avons utilisé des voix masculines. Les principaux résultats sont : - Il existe des consensus sur le jugement hédoniste de la voix et sur les inférences concernant le locuteur. Les consensus apparaissent quelle que soit la nature linguistique de la production vocale entendue, même à l'écoute d'une simple série de voyelles. - Les auditeurs sont capables d'inférer correctement l'âge des locuteurs mais non la taille car ceux-ci utilisent à tort des indices acoustiques non fiables tel F0. - Il n'y a pas d'effet du genre de l'auditeur sur les jugements : les auditeurs et les auditrices produisent les mêmes jugements. - Il y a un effet du corpus vocal sur les jugements produits à l'écoute des voix, cet effet oppose principalement les voyelles aux autres corpus. - Il apparaît, de manière générale, que les auditeurs/trices utilisent surtout les informations prosodiques de la voix et non les aspects spectraux tels F0 moyen et le timbre de la voix
The present thesis focuses on voice production and perception. We used male voices. Theses are the main results: - Consensus on the voice hedonistic judgment and on the inferences regarding the speaker can be noted. Theses appear whatever the linguistic nature of the vocal production listened, even while listening to a simple series of vowels. - The listeners prove themselves able to infer correctly the speakers' age but not height, as they mistakenly use non-reliable acoustic indications such as pitch. - There is no gender effect on the judgments : both male and female listeners seem to produce the same judgments. - A vocal corpus effect on the judgments produced while listening to voices can be observed, principally opposing the vowels to the other corpora. -It generally turns out that male and female speakers use mainly voice prosodic information and not the spectral aspects such as pitch and the voice tone
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Vie, Marie-Thérèse. „Contribution à l'étude de la transmission de la parole par les prothèses auditives“. Montpellier 1, 1988. http://www.theses.fr/1988MON13510.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Arnal, Luc. „Mécanismes prédictifs dans l'intégration audiovisuelle de la parole“. Paris 6, 2010. http://www.theses.fr/2010PA066256.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans cette thèse décrivent les différentes phases de traitement au cours desquelles les informations visuelle et auditive de parole convergent dans le cerveau, puis sont intégrées en une représentation de parole cohérente. Les premières étapes indiquent que l’information visuelle permet d’anticiper l’information auditive entrante en fonction de la quantité d’information visuelle, et ce indépendamment de son contenu représentationnel. Plus tardivement au cours de l’intégration, le cerveau détecte d’éventuelles incohérences entre informations visuelles et auditives et met en œuvre des processus permettant de prendre en compte ces incohérences, potentiellement dans le but d’apprendre les stimuli inconnus. Ces résultats indiquent que les informations visuelles transitent vers le cortex auditif via des voies anatomo-fonctionnelles différentes selon le stade intégratif. D’autre part, les dynamiques oscillatoires et réseaux cérébraux impliqués varient selon que l’information auditive entrante valide ou non la prédiction émise sur la base de l’information visuelle. La perception d’un stimulus correctement prédit induit la stabilisation des représentations de parole à un rythme lent (delta, 3 Hz) au sein d’un réseau étendu de régions lexico-sémantiques. A l’inverse, la détection d’une erreur de prédiction induit un changement de régime des oscillations corticales à un rythme plus élevé, entrainant une propagation descendante des prédictions via un canal fréquentiel beta (15 Hz) du sulcus temporal supérieur vers les aires sensorielles de bas niveau, puis une propagation de l’erreur de prédiction via un canal fréquentiel gamma (80 Hz) dans le sens inverse
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Treille, Avril. „Percevoir et agir : la nature sensorimotrice, multisensorielle et prédictive de la perception de la parole“. Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAS015/document.

Der volle Inhalt der Quelle
Annotation:
Voir les gestes articulatoires de son interlocuteur permet d’améliorer significativement le décodage et la compréhension du signal acoustique de parole émis. Un premier objectif de cette thèse était de déterminer si les interactions multimodales lors de la perception de parole, en plus d’impliquer classiquement les informations auditives et visuelles transmises par le son et le visage du locuteur, pouvaient être déclenchées par d’autres sources sensorielles moins communément utilisées dans la communication parlée, comme la perception tactile de la parole ou encore la perception visuelle des mouvements de la langue. Parallèlement, nos travaux avaient également pour but de déterminer l’implication possible du système moteur dans ces mécanismes de perception multisensorielle. Enfin, un autre enjeu de nos recherches était de déterminer plus avant le décours temporel et l’organisation neuroanatomique fonctionnelle de ces mécanismes d’intégration à l’aide de différentes techniques comme l’électro-encéphalographie, l’imagerie par résonance magnétique fonctionnelle ou encore la stimulation magnétique transcrânienne. Nos travaux ont permis d’élargir la notion de « multisensorialité de la parole » en mettant en évidence une facilitation des traitements temporels auditifs lors de la perception audio-tactile de la parole et lors de l’observation de nos propres mouvements articulatoires. D’autre part, nos études ont fourni de nouveaux arguments en faveur d’un rôle fonctionnel du système moteur lors de la perception de parole en montrant une activation plus importante des régions motrices lors de l’observation de mouvements de la langue ainsi qu’un recrutement plus bilatéral du cortex prémoteur ventral au cours du vieillissement. Pris ensemble, nos résultats renforcent l’idée d’un couplage fonctionnel, d’une co-structuration des systèmes de perception et de production de la parole. Les études présentées dans cette thèse appuient ainsi l’existence de connexions entre régions sensorielles, intégratives et motrices permettant la mise en œuvre de processus et traitements multisensoriels, sensorimoteurs et prédictifs lors de la perception et compréhension des actions de parole
Seeing the speaker’s articulatory gestures significantly enhances auditory speech perception. A key issue is whether cross-modal speech interactions only depend on well-known auditory and visual inputs from the speaker’s voice and face or, rather, might also be triggered by other sensory sources less common in speech communication, such as tactile information or vision of the tongue movements. Another goal of the present research was to determine the possible role of the motor system in these multisensory processes. Finally, we used electro-encephalographic, functional magnetic resonance imaging and transcranial magnetic stimulation techniques in order to better understand the time course and the functional neuroanatomical organization of these integration mechanisms. Our results extent the concept of “multisensory speech perception” by highlighting a facilitation of auditory processes during audio-haptic speech perception as well as during the observation of our own articulatory movements. They also provide new evidence in favor of a functional role of the motor system in speech perception by demonstrating an increase of motor activity during visuo-lingual speech perception and a more bilateral ventral premotor cortex recruitment during speech perception across aging. Taken together, our results reinforce the idea of a functional coupling and a co-structuring of speech perception and production systems. Our work support the existence of connections between sensory, integrative and motor regions allowing the implementation of multisensory, sensorimotor and predictive processes in the perception and understanding of speech actions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Snoeren, Natalie Dominique. „Variations phonologiques en production et perception de la parole : le phénomène de l'assimilation“. Paris 5, 2005. http://www.theses.fr/2005PA05H035.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur la variation phonologique de l'assimilation de voisement en français. La première série d'expériences a eu pour objectif d'étudier la production des mots assimilés. Nous avons proposé un nouvel indice acoustique pour mesurer le degré d'assimilation entre deux mots. Les mesures acoustiques ont montré que l'assimilation est souvent un processus gradué plutôt que dichotomique et modulé par le voisement sous-jacent. Les résultats de la deuxième série d'expériences d'amorçage intermodal ont montré que le rôle du contexte droit varie en fonction du degré d'assimilation. Le traitement perceptif des mots complètement assimilés est facilité en présence du contexte droit, alors que la présences des traces acoustiques dans les mots assimilés était confirmée dans une troisième série d'expériences en amorçage sémantique
The present PhD thesis provides an in-depth study of a phonological variation frequently encountered in French, namely voice assimilation. The goal of the first series of experiments was to study the production of assimilated words and to provide an acoustico-phonetic description of word-final assimilated obstruents. Acoustic measurements showed that voice assimilation is often a graded, rather than a categorical phonetic process. Moreover, degrees of assimilation varied as a function of underlying voicing. Cross-modal priming results showed that the role of phonological right context varies as a function of the degree of assimilation. Perceptual processing of completely assimilated segments was facilitated in the presence of the right context, whereas the presence of "acoustic traces" sufficed to access partially assimilated segments. The hypothesis of the presence of acoustic traces in assimilated words was confirmed in the third series of experiments using semantic priming
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Fort, Mathilde. „L'accès au lexique dans la perception audiovisuelle et visuelle de la parole“. Phd thesis, Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00652068.

Der volle Inhalt der Quelle
Annotation:
En situation de perception audiovisuelle de la parole (i.e., lorsque deux interlocuteurs communiquent face à face) et lorsque le signal acoustique est bruité, l'intelligibilité des sons produits par un locuteur est augmentée lorsque son visage en mouvement est visible. L'objectif des travaux présentés ici est de déterminer si cette capacité à " lire sur les lèvres " nous est utile seulement pour augmenter l'intelligibilité de certains sons de parole (i.e., niveau de traitement pré-lexical) ou également pour accéder au sens des mots (i.e., niveau de traitement lexical). Chez l'adulte, nos résultats indiquent que l'information visuelle participe à l'activation des représentations lexicales en présence d'une information auditive bruitée (Etude 1 et 2). Voir le geste articulatoire correspondant à la première syllabe d'un mot constitue une information suffisante pour contacter les représentations lexicales, en l'absence de toute information auditive (Etude 3 et 4). Les résultats obtenus chez l'enfant suggèrent néanmoins que jusque l'âge de 10 ans, l'information visuelle serait uniquement décodée à un niveau pré-lexical (Etude 5).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Banel, Marie-Hélène. „Perception de la parole et segmentation lexicale traitement d'indices morphologiques et prosodiques“. Paris 5, 1996. http://www.theses.fr/1996PA05H069.

Der volle Inhalt der Quelle
Annotation:
Le signal de parole est le plus souvent continu, mais les mots sont percus comme des entites distinctes. Cela semble supposer une integration des informations acoustiques en unites du format des mots. La these examine si la prosodie contribue a l'integration de suites syllabiques en mots, et par suite a la segmentation lexicale en francais. Une premiere experience examine le role de l'un des aspects importants du rythme prosodique: la metrique, representee par des contrastes de duree syllabique. Son effet sur la segmentation a ete etudie lors de la perception de mots isoles. Cette etude du traitement de la metrique a conduit a preciser les relations entre le traitement d'indices metriques et d'indices morphologiques-phonotactiques lies a la structure syllabique des mots. Les fonctions precises des differents indices ont ete approfondies et leur generalite a ete testee. Les resultats ont montre que les indices metriques et les indices pho no tactiques sont utilises au cours de la segmentation et la reconnaissance des mots en francais. Les deux dimensions etudiees n'ont pas la meme fonction. La premiere conduit a former des unites de traitement de format variable, la seconde introduit des marques de discontinuite dans le signal. Les indices metriques et les indices pho no tactiques relevent de mecanismes de traitement precoces et independants. En conclusion, les resultats ont ete discutes en reference aux modeles actuels de traitement de la parole.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Pallier, Christophe. „Rôle de la syllabe dans la perception de la parole : études attentionnelles“. Paris, EHESS, 1994. http://www.theses.fr/1994EHES0318.

Der volle Inhalt der Quelle
Annotation:
Nous presentons une serie d'experiences psycholinguistiques destinees a tester l'hypothese que la syllabe est l'unite de perception de la parole. Les taches mises en oeuvre sont des detections ou des classifications en temps reel de stimuli linguistiques. Nous observons (a) qu'une variation extra-syllabique ralentit la classification, mais dans une moindre mesure qu'une variation intra-syllabique; (b) qu'on peut habituer des sujets a detecter un phoneme place dans une position precise de la structure syllabique, mais pas dans une position sequentielle precise; (c) que des informatio ns subsyllabiques peuvent permettre d'amorcer une reponse motrice. Les resultats observes nous conduisent a remettre en cause le modele orthodoxe ou la syllabe est l'unite de decodage et de representation de la parole, et a proposer un nouveau modele ou les reponses des sujets ont pour origine une representation phonologique structuree syllabiquement
A series of psycholinguistic experiments evaluating the hypothesis that the sillable is the unit of speech processing is presented. Subjects had to detect or classify linguistic stimuli on line. We have observed (a) that extra-syllabic varia bility; (b) that subjects could be induced to detect target phonemes faster when these were located at a precise syllabi c position, but not when the position was defined sequentially; (c) that sub-syllabic information could prime a motor re sponse. These results lead us to reject the classical syllabic model where the syllable is both the unit of decoding and the unit of representation of speech. We propose a new model in which subjects' reponses orginate from a phonological representation which possesses a syllabic structure
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Sock, Rudolph. „Organisation temporelle en production de la parole émergence de catégories sensori-motrices phonétiques“. Grenoble 3, 1998. http://www.theses.fr/1998GRE39019.

Der volle Inhalt der Quelle
Annotation:
La production de la parole est un processus moteur complexe, régi par une orchestration temporelle des articulateurs, organisés dans le temps et dans l'espace, pour contribuer à l'émergence des catégories sensori-motrices : les sons d'une langue spécifique. En mettant l'accent sur la dimension motrice du phénomène parole, nous nous rapprochons, avec quelques ajustements épistémologiques, de la démarche de Stetson, qui disait dans son ouvrage "Motor phonetics" (1928 ; 1951 ; Reed. 1988) que la parole était plutôt un ensemble de gestes rendus audibles qu'un ensemble de sons produits par des mouvements. Nous tentons de montrer, d'après l'analyse de nos données, que la parole est aussi bien un ensemble de mouvements rendus audibles (et visibles) qu'un ensemble de sons produits par des mouvements. Dans notre perspective, l'accent est mis sur la nature de la spécification mutuelle des niveaux articulatoire et acoustique, un trait qui semble caractériser les systèmes sensori-moteurs en général et tout particulièrement, celui de la production-perception de la parole. Pour comprendre l'organisation temporelle des gestes "gouvernant" la production des catégories phonétiques, on doit donc nécessairement s'intéresser, dans un premier temps, aux principes généraux qui sous-tendent les conduites sensori-motrices biologiques, pour pouvoir, dans un deuxième temps, appliquer les nécessaires adaptations théoriques et méthodologiques dans le domaine spécifique de l'étude du timing des gestes linguistiques. Cette thèse s'organise autour d'un thème majeur en production de la parole : l'étude de l'organisation temporelle des oppositions linguistiques fortement contrastées. L'objectif principal est de mettre à jour les contraintes temporelles liées à la production des oppositions de quantité, par l'analyse du comportement des phasages articulatori-acoustiques. Différentes hypothèses sont évoquées au cours de ce travail, la plus fondamentale étant la suivante : il est possible de trouver des régularités articulatori-acoustiques dans l'organisation temporelle des oppositions de quantité, malgré les différences de langues, de dialectes et de locuteurs. Ces régularités de timing peuvent se rationaliser en invoquant les exigences physiques et sémiotiques du système de production-perception de la parole. Apres vérification de nos hypothèses de départ, nous tentons de replacer nos observations…
Speech production is a complex motor process, governed by the temporal orchestration of the articulators that are organized in time and space, thus contributing to the emergence of sensorimotor categories: the sounds of a given language. By paying more attention to the motor dimension of speech and by making a few epistemological adjustments, this approach resembles that of Stetson, who stated in his book "Motor phonetics" (1928; 1951; Reed. 1988) that speech was rather a set of gestures made audible than a set of sounds produced by movements. However, this research attempts to demonstrate, from experimental results, that speech is both a set of movements made audible (and visible) and a set of sounds produced by movements. In this perspective, the focus is on the nature of the mutual specification of the articulatory and acoustic levels, a trait that seems to characterize sensorimotor systems in general and, particularly, the speech production-perception one. In order to understand the timing of the gestures that "govern" the production of phonetic categories, it is essential to look, first, at the general principles that underlie biological sensorimotor behaviours to be able, second, to make necessary theoretical and methodological adaptations in the specific area of timing of linguistic gestures. This dissertation is concerned with a major theme in speech production: the timing of well contrasted linguistic categories. The main aim is to uncover temporal constraints that are tied to the production of quantity contrasts, by analyzing both articulatory and acoustic phasing patterns. Various hypotheses are made in this work, the strongest being the following: it is possible to pinpoint articulatory-acoustic regularities in the timing of quantity contrasts, regardless of language, dialect and speaker differences. Such regularities could be rationalized by referring to physical and semiotic demands of the speech production-perception system. After verifying the initial hypotheses, an attempt is made to discuss the data within a general theory of speech production and perception. Finally, propositions are made for a theoretical modelling of the emergence of sensorimotor behaviours in speech production and perception
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Dubois, Cyril Michel Robert. „Les bases neurophysiologiques de la perception audiovisuelle syllabique : étude simultanée en Imagerie par Résonance Magnétique fonctionnelle et en électroencéphalographie (IRMf/EEG)“. Strasbourg, 2009. https://publication-theses.unistra.fr/public/theses_doctorat/2009/DUBOIS_Cyril_Michel_Robert_2009.pdf.

Der volle Inhalt der Quelle
Annotation:
L’intelligibilité de la parole est améliorée par l’apport des visèmes (contrepartie visuelle des phonèmes), dans un environnement bruyant (Sumby & Pollack, 1954), ce qui nous indique un effet facilitateur sur l’accès au lexique mental. Selon Massaro (1990), l’influence d’une source est maximale si une autre est ambiguë. Pourtant dans l’effet «McGurk» (McGurk & MacDonald, 1976), les deux sources, audible et visible sont équipotentes. Le résultat est bien une perturbation, puisque la «cible» a été mal interprétée. Certains chercheurs ont montré que l’effet McGurk pouvait avoir lieu sur des mots et même sur des phrases. Cela corrobore l’idée que l’intégration de la source visuelle est précoce et prélexicale, mais aussi sujette à l’influence d’effet top-down. Nous avons mené une étude anatomo-fonctionnelle simultanée en IRMf/EEG, en utilisant une tâche de discrimination à choix forcé, portant sur des syllabes consonne-voyelle, selon deux modalités perceptives : audiovisuelle animée et audiovisuelle fixe, afin de pouvoir observer les bases neurophysiologiques de la perception audiovisuelle syllabique. La tâche de discrimination portait sur des paires syllabiques s’opposant sur les trois traits suivants : la labialité vocalique, le lieu d’articulation et le voisement consonantiques. Les résultats de la discrimination syllabique indiquent un recrutement bilatéral du cortex auditif primaire pour les deux modalités perceptives. De plus, le gyrus fusiforme et l’aire MT/V5 (dans le cortex occipital) sont activés en modalité audiovisuelle animée. Les potentiels évoqués montrent des variations significatives autour de 150 et de 250 millisecondes
In a noisy environment, speech intelligibility is improved by perceiving a speaker’s face (Sumby & Pollack, 1954), a dimension which seemingly involves a facilitation effect in accessing the mental lexicon. Massaro (1990) assumes that the influence of one source of information is greatest when the other source is neutral or ambiguous. However, the McGurk effect suggests that audible and visible sources have an equal impact on the speech perception system (McGurk & MacDonald, 1976). The result is indeed a perturbation, in terms of misperception of the “target”. Several studies claim that the McGurk effect operates on the lexical level as well as on word or phrasal levels. Taken together, previous studies indicate that the bimodal integration of the visual source is early and prelexical, moreover it could be influenced by a top-down effect. We conducted a study with simultaneous recordings in fMRI/EEG, in a discrimination task, comprising consonant-vowel syllables, in two perception modalities : audiovisual and audio only, in order to investigate the neural substrates of audiovisual syllabic perception. The discrimination task was based on syllable pairs, contrasting three features : vowel lip rounding, consonant place of articulation and voicing. For syllabic discrimination, the results show bilateral activation of the primary auditive cortex for each modality. Furthermore, the fusiform gyrus and MT/V5 area (in occipital cortex) are recruited in the audio-visual modality. ERPs indicate significant modulation around 150 and 250 milliseconds
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Van, Bogaert Lucie. „Soutenir le développement de la parole chez l'enfant sourd porteur d'implant cochléaire : apports de l'Auditory Verbal Therapy et de la Langue française Parlée Complétée“. Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALS004.

Der volle Inhalt der Quelle
Annotation:
La surdité peut avoir un impact sur le développement linguistique et cognitif de l’enfant. L'implant cochléaire (IC) vise à améliorer la perception des sons de la parole, mais les informations auditives transmises par celui-ci restent altérées, ce qui peut impacter le développement du langage oral. Ainsi, pour les parents d’enfants sourds porteurs d’IC qui désirent utiliser une langue parlée avec leur enfant, il est important de mettre en place des outils et méthodes d’aide à la communication de manière quotidienne. Ce travail de thèse vise à quantifier les usages de ces outils et méthodes en France et leurs éventuels bénéfices sur le développement de la parole.La première étude de cette thèse a permis de recenser les outils et méthodes utilisés par les parents et les professionnel·le·s en France à partir d’enquêtes en ligne et ainsi de mieux décrire les pratiques orthophoniques et parentales actuelles auprès des enfants sourds.Parmi tous ces outils et méthodes, deux approches sont spécifiquement examinées dans la deuxième partie de la thèse : l'Auditory Verbal Therapy (AVT), qui renforce les compétences auditives, et la Langue française Parlée Complétée (LfPC), un outil visuo-manuel complémentaire à la lecture labiale grâce à l’ajout de gestes manuels. Ces deux approches se distinguent par l’utilisation exclusive de la modalité auditive pour l'une, et des modalités auditive et visuelle pour l'autre. Trois tâches issues de la batterie EULALIES (Meloni et al. 2020), mesurant la perception et la production de la parole, ont été utilisées : une tâche de détection d’altérations phonologiques, une tâche de dénomination d’images et une tâche de répétition de pseudo-mots. Les performances d’enfants âgés de 5 à 11 ans ont été analysées. Les enfants ont été répartis en quatre groupes : les enfants normo-entendants, les enfants sourds porteurs d'IC ayant suivi une thérapie AV (groupe AVT), les enfants sourds porteurs d’IC ayant un niveau élevé de décodage de la LfPC (groupe LfPC+) et les enfants sourds porteurs d’IC avec un faible niveau de décodage de la LfPC (groupe LfPC-).Les résultats de ces études soutiennent le fait que l'implantation cochléaire seule n'est pas suffisante pour qu'un enfant sourd développe des compétences adéquates en matière de perception et de production de parole. Les personnes qui prennent en charge des enfants sourds porteurs d’implants cochléaires, tels que les parents, les orthophonistes ou les médecins, doivent prendre conscience des limites de la perception et de la production de parole par l’implant cochléaire et doivent envisager des approches spécifiques de rééducation de la parole, particulièrement pendant les premières années. Il est primordial de fournir aux parents toutes les options de communication disponibles le plus tôt possible. Concernant les deux approches étudiées dans cette thèse, les résultats indiquent que l'AVT et la LfPC contribuent au développement des processus linguistiques nécessaires à la perception et la production de la parole. En effet, les performances des enfants des groupes AVT et LfPC+ sont améliorées, par rapport aux enfants du groupe LfPC-. Par conséquent, les résultats de ces études suggèrent qu’un niveau élevé de décodage de la LfPC, ainsi que la participation à une approche AVT peuvent contribuer au développement des compétences phonologiques en production et en perception de parole chez les enfants sourds porteurs d’IC. Enfin, ces études révèlent un manque de données probantes sur l’efficacité de tous ces outils et méthodes
Hearing loss can impact the cognitive and linguistic development of a child. Cochlear implants (CI) are designed to improve speech sound perception, but the auditory information provided by the CI remain limited, which could lead to spoken language difficulties. Therefore, for parents of deaf children who would like to use spoken language with their child, it is important to implement communication aids. This thesis aims to quantify the usage of these tools and methods in France and their potential benefits on speech development.The first study of this thesis involved documenting the tools and methods used by parents and professionals in France through online surveys, thereby providing a better description of current speech therapy and parental practices with deaf children.Among all these tools and methods, two approaches are specifically examined in the second part of the thesis: Auditory Verbal Therapy (AVT), which enhances auditory skills, and French Cued Speech (LfPC), a visual-manual tool that complements lip-reading with the addition of manual gestures. These two approaches differ in their use of the auditory modality exclusively for one and both auditory and visual modalities for the other. Three tasks from the EULALIES battery (Méloni et al., 2020), assessing speech perception and production, were used: a phonological alterations detection task, a picture naming task, and a non-word repetition task. The performances of children aged 5 to 11 were analyzed. Children were categorized into four groups: typically hearing children, deaf children with CI who were enrolled in an AVT program (AVT group), deaf children with CI with a high level of CS proficiency (CS+ group), and deaf children with CI with a low level of CS proficiency (CS- group).The results of these studies support the idea that cochlear implantation alone is not sufficient for a deaf child to develop adequate speech perception and production skills. Those caring for deaf children with CI, including parents, speech therapists, or doctors, should be aware of the limits of speech perception and production through CI and should consider specific speech rehabilitation approaches, particularly during the early years. It is essential to provide parents with all available communication options as early as possible. Regarding the two approaches studied in this thesis, the results indicate that both AVT and CS contribute to the development of linguistic processes involved for speech perception and production. Indeed, the speech performances of AVT and CS+ groups are improved compared to the CS- group. Therefore, the findings of these studies suggest that a high level of CS proficiency, and using an AVT approach, can contribute to the development of phonological skills in speech production and perception in children with CI. Finally, these studies reveal a lack of scientific evidence on the effectiveness of all these tools and methods
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Guibert-Blanchard, Marie-Sophie. „Transmission des indices acoustiques de la parole par la prothèse auditive : approche d'une méthode d'essais techniques“. Montpellier 1, 1992. http://www.theses.fr/1992MON13501.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

ROSEMBERG, LASORNE MURIEL. „Marketing urbain et projet de ville : parole et representations geographiques des acteurs“. Paris 1, 1997. http://www.theses.fr/1997PA010616.

Der volle Inhalt der Quelle
Annotation:
Ce que l'on designe sous le nom de marketing urbain, dont l'existence se manifeste par les images publicitaires produites par les villes, recouvre en fait l'activite de communication, qui joue un role dans tout processus decisionnel, mais qui revet des formes particulieres dans la production d'espace urbain. C'est en effet comme composante du projet de ville qu'on apprehende le marketing urbain. L'ensemble du discours produit par les acteurs urbains, incluant la forme spatiale de ce discours, est analyse dans ses relations avec le processus de production d'espace. L'activite de communication, sous des modalites diverses, exerce un role actif dans le projet : dans la mise en place du systeme d'acteurs, dans l'environnement culturel qui influence les acteurs et qu'ils influencent, dans l'ecriture du projet, dans sa formulation comme dans sa materialisation, dans la mise en scene du projet. L'analyse du discours renseigne egalement sur les representations et les conceptions geographiques des acteurs qui produisent de l'espace. Dans les projets de villes etudies, on met en evidence les relations subjectives a l'espace, revelees par le discours et imprimees dans l'espace produit. Le discours de la ville destine aux habitants meme lorsqu'il semble adresse au monde apparait comme une affirmation du territoire urbain. L'etude du discours sur l'espace se revele donc comme un instrument de la connaissance de l'espace
Cities promoting themselves through the publicity they generate, that is called urban marketing, seems to be in fact communication. This saying activity is a factor in any decision procedure but appears in different ways when it refers to rebuilding the city. Urban marketing indeed is understood as a component of urban projects and planning. City's saying, and the way they decide to build or the events they sponsor are regarded as a kind of saying too, is expounded by its connections with rebuilding the city. Communication activity seems to be a geographic factor : it acts a part in actors system placing, in project's cultural environment, in writing the project, in playing it. Saying's study teaches on geographic image and thought of those who build the city. The subjective relating to space is obvious in the city projects that have been studied, through saying as well as through acting the city. City's saying bound for the inhabitants although addressed to the world as it seems, affirms the urban territory. So saying space's study is a means of understanding space
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Gilbert, Gaëtan. „Fonctions d'importance fréquentielle pour la reconnaissance de la parole : application et amélioration d'une approche corrélationnelle“. Lyon 1, 2003. http://www.theses.fr/2003LYO10205.

Der volle Inhalt der Quelle
Annotation:
La découverte récente de la non-linéarité des mécanismes fréquentiels mis en jeu pour reconnaître la parole remet en cause les protocoles par lesquels sont couramment estimées les fonctions d'importance fréquentielle pour la reconnaissance de parole. Une approche corrélationnelle, empruntée de la psychophysique de l'audition, permet de pallier ce problème en estimant l'importance de bandes fréquentielles distinctes sur la base de stimuli larges bandes. Une première partie de cette thèse a consisté à appliquer la méthode corrélationnelle (telle qu'elle ou au besoin en l'adaptant) sur divers types de sujets (normo-entendants et mal-entendants). Les résultats indiquent que les bandes de hautes fréquences sont moins importantes pour les sujets victimes d'une perte auditive, même légère, sur les hautes fréquences. La méthode corrélationnelle a également été utilisée pour tester l'hypothèse selon laquelle l'importance relative de différentes bandes fréquentielles pour la reconnaissance de la parole est influencée par les conditions d'écoute. Le résultat majeur de cette étude est qu'en présence d'un brouhaha, les bandes fréquentielles basses fréquences (< 750 hz) sont relativement plus importantes qu'en l'absence d'un brouhaha. Enfin, un dernier volet de ce travail, a porté sur l'éventuelle l'amélioration de la méthode notamment via une meilleure estimation des fonctions d'importance fréquentielle fondée sur des simulations de patterns d'excitation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Lepage, Marie-Josée. „Les facteurs prosodiques qui marquent la perception des fins de tour de parole“. Thèse, Université Laval, 2009. http://constellation.uqac.ca/188/1/030105478.pdf.

Der volle Inhalt der Quelle
Annotation:
La présente étude s'intéresse principalement aux éléments prosodiques, c'est-àdire (Intonation, la pause et (Intensité, utilisés dans une conversation afin de comprendre comment les locuteurs les utilisent pour signaler la fin de leurs tours de parole. Pour ce faire, nous avons utilisé un corpus composé de 20 tours de parole longs tirés d'une conversation spontanée entre deux étudiants québécois de niveau universitaire. Pour réaliser cette expérimentation, nous avons procédé en deux grandes étapes. Tout d'abord, une analyse auditive a été faite afin d'identifier les facteurs présents à la fin et à l'intérieur des tours de parole. Par la suite, les facteurs prosodiques ont été soumis à une analyse instrumentale plus poussée. Afin d'avoir un portrait un peu plus fidèle à la réalité, des éléments syntaxiques et sémanticopragmatiques ont aussi été étudiés. Les résultats obtenus montrent que l'utilisation des différents indices étudiés est assez partagée. Il semblerait en effet que les locuteurs de notre étude aient tendance à utiliser un ensemble d'éléments pour signaler la fin de leurs tours de parole plutôt que d'utiliser un élément de façon prédominante. Contrairement à l'Idée généralement répandue, la production d'une pause longue accompagnée d'une descente de fréquence et d'intensité ne serait pas un indice suffisant en oral spontané. Les facteurs prosodiques auraient besoin d'être complétés par des indices syntaxiques et sémantico-pragmatiques pour être efficaces.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Vercherand, Géraldine. „Production et perception de la parole chuchotée en français : analyse segmentale et prosodique“. Paris 7, 2010. http://www.theses.fr/2010PA070099.

Der volle Inhalt der Quelle
Annotation:
Le chuchotement est un mode de parole qui, même s'il n'a pas de fonction linguistique distinctive est utilisé par pratiquement toutes les langues pour communiquer dans une situation discrète. Ce mode de parole implique la non vibration des cordes vocales et par conséquent l'absence de la fréquence fondamentale qui reste le paramètre acoustique le plus important dans la production de l'intonation. Et pourtant si l'utilisation de ce mode de parole est courante, il semblerait qu'en dépit de l'absence de fréquence fondamentale, l'intonation continue à être reconnue. Si l'intonation continue à être perçue en parole chuchotée, on peut se demander quels sont les moyens autres produisant l'intonation. J'ai tenté de donner des éléments de réponses à travers une analyse segmentale et supra segmentale. Mon but est de décrire d'une part le fonctionnement de la parole chuchotée aussi bien du point de vue de la production que de la perception, et d'autre part, déterminer comment se compense l'absence de fréquence fondamentale. L'analyse segmentale étudie les différents paramètres acoustiques enjeu dans la production des consonnes et des voyelles. L'analyse supra segmentale étudie les réalisations de deux phénomènes intonatifs : la modalité et le focus. Il s'agit de comprendre, à travers une étude de production, le fonctionnement de la modalité et du focus et de déterminer les indices acoustiques pertinents quant à leurs identifications. Ces analyses de production sont chacune mises à l'épreuve par une étude de perception avec stimuli naturels puis contrôlés. Ainsi la parole chuchotée est-elle une parole dépourvue de voisement ou est-elle une parole avec des stratégies propres
The use of whisper is widespread ail over the world, even in societies using tonal languages where the fundamental frequency has a contrastive linguistic function. Whisper is a mode of speech that implies non vibration of the vocal folds and therefore the absence of fundamental frequency which remains the most important acoustic parameter in the production of intonation. But if intonation is still perceived in whispered voice, what are other means that allow to produce intonation in this mode of production? The aim of this thesis is to give a preliminary answer to this question through segmental and supra segmental analyses of whispered voice in French. Throughout this thesis, my aim is to describe how whispered speech is produced and how this speech is perceived. The main question is to see how the lack of fundamental frequency is supplied in this mode of production. The segmental study analyses acoustical aspects in the production of consonants and vowels. The supra segmental study analyses two aspects of intonation: modality and focus. Based on production analysis, this study aims to understand how modality and focus are realised and determine which acoustics phenomena are decisive. These studies are organised following the same general outline to highlight the link between production and perception (natural stimuli and resynthesized stimuli )
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Scarbel, Lucie. „Relations sensori-motrices lors de communication parlée : Application chez les jeunes adultes et séniors normo-entendants et les patients sourds implantés cochléaire“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAS007/document.

Der volle Inhalt der Quelle
Annotation:
La communication parlée peut être vue comme un processus interactif impliquant un couplage fonctionnel entre les systèmes moteur et sensoriel. L’objectif de ce travail de thèse est de tester ces possibles liens perceptivo-moteurs, aussi bien lors de la perception que de la production de la parole, au travers de multiples paradigmes comportementaux et auprès de différentes populations de participants. Le protocole expérimental mis en place est composé de trois paradigmes expérimentaux classiques : un premier paradigme de close-shadowing,visant à explorer le format partiellement moteur de stimuli auditifs et audiovisuels de parole ; un second paradigme permettant de mettre en évidence des corrélations entre la production et la perception de voyelles ; et enfin, un dernier paradigme d’imitation consciente et inconsciente de fréquence fondamentale.Suite à la validation de notre protocole expérimental auprès d’une population contrôle de jeunes adultes normo-entendants, nous avons étudié une seconde population constituée d’adultes normo-entendants séniors, et ceci afin d’évaluer la conséquence d'un déclin des fonctions cognitives et langagières. Les résultats obtenus ont permis de suggérer une activation fonctionnelle des liens perceptivo-moteurs lors de la perception et de la production de parole chez l’ensemble des participants. La troisième population testée était constituée de patients sourds post-linguaux puis implantés, afin de déterminer l'impact d'une déprivation sensorielle ainsi que les éventuels réapprentissages liés à leur implantation sur ces liens perceptivo-moteurs. De manièresurprenante, les résultats ont mis en évidence des relations sensori-motrices actives chez ces participants, et ce même très peu de temps après l’implantation. Pris ensemble, les résultats observés avec ces trois paradigmes expérimentaux et auprès de ces trois groupes de participants attestent de la nature perceptivo-motrice de la parole. De manière importante, malgré des performances dégradées, ces interactions entre systèmes sensoriels et moteur lors de la perception et de la production de parole resteraient fonctionnelles auprès des deux populations, celle des adultes normo-entendants séniors etcelle des patients sourds post-linguaux porteurs d’un implant cochléaire
Speech communication can be considered as an interactive process involving afunctional coupling between sensory and motor systems. The aim of this thesis was to test possible perceptuo-motor linkages during both speech perception and production, using distinct behavioral paradigms and populations. The experimental protocol was made of three classic experiments: a first paradigm of close-shadowing, aiming at exploring the partially motor format of audio and audiovisual stimuli; a second paradigm allowing to correlate production and perception of vowels; and a third paradigm of conscious and unconscious imitation of pitch. The experimental protocol was validated with a first group of young hearing adults. The second population studied was composed of elderly normal-hearing participants, in order to evaluate the consequences of both cognitive and linguistic declines. Results allowed us to suggest a functional activation of perceptuo-motor linkage during speech production and perception.The third population we tested comprised post-lingually deaf patients wearing acochlear implant. Our objective was to determine the impact of the sensorial deprivation and the re-learning processes, associated with their implantation, on perceptuo-motor linkages. Unexpectedly, results showed an active sensori-motor relationship in those participants, even shortly after the cochlear implantation. Altogether, our results confirmed the perceptuo-motor nature of speech. Importantly, in spite of degraded performances, these interactions between the sensory and the motor systems during speech production and perception remained functional in both the elderly normal-hearing population and the post-lingually deaf patients, wearing a cochlear implant
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Chung, Soo-Jin. „L'expression et la perception de l'émotion extraite de la parole spontanée : évidences du coréen et de l'anglais“. Paris 3, 2000. http://www.theses.fr/2000PA030095.

Der volle Inhalt der Quelle
Annotation:
La these s'adresse aux questions comment la joie et la tristesse sont exprimees dans la parole spontanee et comment elles sont identifiees l'auditeur dans differents conditions d'audition. Les corpus en coreen et en anglais ont ete acquis a partir de l'enregistrement des entretiens televises. L'analyse acoustique montre que la joie renforce une augmentation du fo moyen tandis que la tristesse renforce la diminution du fo minimum et celle de la moyenne des 20% des valeurs les plus basses de fo. L'augmentation de la plage de fo et du fo maximum est un bon indice de l'excitation emotionnelle generale. D'apres les analyses perceptives, les auditeurs coreens, americains et francais ont tous identifie la joie et la tristesse de la coreenne avec une precision superieure a celle qui aurait ete due au hasard. Cependant, les coreens etaient significativement plus precis que les francais et les americains dans l'identification des emotions coreennes. Les contours de fo montant et montant-descendant creent une impression emotionnelle positive dans la voix synthetique tandis que les contours de fo descendant et plat creent plutot une impression emotionnelle negative. L'efficacite de la partie finale de l'enonce dans la communication de l'emotion a ete demontree par des experiences avec des stimuli de la parole naturelle et de la parole synthetique : l'emotion est mieux exprimee et mieux reconnue dans la partie finale de l'enonce que dans les parties initiale et mediane.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Kouider, el Ouahed Sid-Ahmed. „Rôle de la conscience dans la perception des mots“. Paris, EHESS, 2002. http://www.theses.fr/2002EHES0021.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

COURSANT, MOREAU AUDREY. „Un systeme d'aide automatique a la lecture labiale pour les personnes sourdes profondes : lipcom elaboration et evaluation“. Strasbourg 2, 1997. http://www.theses.fr/1997STR20006.

Der volle Inhalt der Quelle
Annotation:
Le projet lipcom, developpe au centre scientifique d'ibm-france, est une aide automatique a la perception de la parole pour les personnes sourdes profondes. Actuellement a l'etat de prototype, lipcom est un systeme de reconnaissance phonetique de la parole continue en temps reel, fonctionnant en mode monolocuteur avec un vocabulaire illimite et une syntaxe non contrainte. Le but du systeme est de lever les ambiguites de la lecture labiale. En pratique, lorsqu'une personne sourde observe les levres de son interlocuteur, elle percoit, en outre, par la vision peripherique, le sous-titrage phonetique effectue par lipcom. Nous avons experimente le prototype, sur une periode de 3 ans, aupres d'une dizaine d'enfants sourds profonds pre-linguaux ages de 8 a 12 ans. Afin d'evaluer l'apport et l'interet du systeme, nous avons realise differentes experiences d'identification, portant successivement sur des logatomes non signifiants, des syllabes, des mots, puis des phrases, dans les deux conditions suivantes : lecture labiale plus protheses auditives, et lecture labiale plus protheses auditives plus lipcom. Les resultats montrent que l'utilisation de lipcom ameliore les performances des sujets. Les pourcentages d'identification varient en fonction des tests et des protocoles employes ; en moyenne, ceux-ci sont de 48% en lecture labiale plus protheses, contre 64% en lecture labiale assistee par lipcom. Dans le meme temps, l'experimentation a contribue a l'amelioration du taux de reconnaissance par le systeme d'un double point de vue : quantitatif, qualitatif. En effet, lipcom, qui effectuait initialement une reconnaissance tres partielle, reconnait, au terme de l'experimentation, entre 90% et 95% des phonemes. En conclusion, cette etude montre l'interet de lipcom pour faciliter la comprehension de la parole par les personnes sourdes et la faisabilite technique du systeme
The lipcom project, developed in the ibm-france scientific center, is an automatic tool to help speech perception for profoundly deaf people. As a prototype, for the time being, lipcom is a real-time, speaker dependent phonetic recognition system, operating on continuous speech with unlimited vocabulary and unconstrained syntax. The aim of the system is to discriminate lip-reading ambiguities : when a deaf user observes speaker's lips, he/she may read in a peripheral vision, a phonetic "sub-titling" made by lipcom. We experimented this prototype over a three years period, with about 10 pre-lingual profoundly deaf children from 8 to 12 years old. In order to evaluate the efficiency and the usefulness of the system, we made different experiments, successively, on nonsense items, on syllabes, words and finally on sentences under two conditions : lip-reading plus hearing aids, and lip-reading plus hearing aids plus lipcom. The results show that using lipcom increases the identification scores of the subjects performances. The relative improvement brought by lipcom depends on the tests and protocols ; as a mean, the identifications scores obtained in the lip-reading plus hearing aids condition are about 48% to 64% with lipcom. In the same time, the experiment contributed to improve the lipcom system recognition level both from quantitative and qualitative point of view. Effectively, lipcom which had an initial weak recognition rate, raised, at the end of the experiment to a phoneme recognition rate between 90% and 95%. To conclude, this study shows that lipcom does help speech understanding by deaf persons and that the system is technically feasible
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Collet, Gregory. „Etude des effets des entraînements auditifs sur la perception catégorielle du délai d'établissement du voisement: implications chez l'adulte, l'enfant et dans les troubles d'acquisition du langage“. Doctoral thesis, Universite Libre de Bruxelles, 2012. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209639.

Der volle Inhalt der Quelle
Annotation:
L’objectif général de cette thèse était de déterminer dans quelle mesure les entraînements auditifs pouvaient conduire à une modification de la perception du voisement en français en termes d’identification, de discrimination et de perception catégorielle (PC). L’originalité de notre méthodologie reposait sur l’étude à la fois des effets entraînements sur la perception d’un contraste particulier (e.g. +15/+45 ms DEV) mais également sur la perception catégorielle de stimuli variant le long d’un continuum (e.g. +75, +45, +15, -15, -45 et -75 ms DEV). En effet, la majorité des études de la littérature se limitent à étudier les effets des entraînements sur un contraste bien particulier (e.g. Golestani & Zatorre, 2004 ;Tremblay et al. 1998 ;Tremblay et al. 2001). Grâce à notre paradigme, il nous était possible de quantifier l’apprentissage sur un contraste spécifique mais aussi d’en étudier les éventuels effets de généralisation sur l’ensemble du continuum.

Dans une première étude, nous avons tenté d’évaluer les limites du système perceptif en matière d’extraction de l’information statistique en travaillant sur de fines différences acoustiques (Etude 1). Au fil des années, une partie de plus en plus importante de la littérature s’est développée, soutenant que la formation des catégories phonologiques reposait sur l’extraction des régularités statistiques existant dans la production des phonèmes. Cependant, en aucun cas la question des limites que pouvait imposer le système perceptif n’a été posée. Pour ce faire, nous avons décidé de déterminer dans quelle mesure l’exposition à une grande variabilité de stimuli séparés par de fines différences acoustiques pouvait conduire à l’amélioration des capacités de discrimination d’un contraste spécifique.

Par la suite, nous avons sommes concentrés sur la question des modifications de la PC suite à un entraînement. L’idée principale était de déterminer dans quelle mesure un entraînement centré sur une valeur particulière du continuum et mettant en jeu un contraste (i.e. opposition entre deux stimuli) pouvait avoir un impact sur la PC. Pour ce faire, nous avons commencé par entraîner des participants à identifier (Etude 2) des stimuli autour de trois frontières non-phonologiques (-30, -45 et -60 ms DEV).

Ensuite, nous avons entraîné d’autres participants à discriminer (Etude 3) des stimuli autour de deux frontières non-phonologiques (-30 et -45 ms DEV). Les modifications perceptives étaient évaluées sur différents paramètres qui caractérisent la PC (voir Introduction – La Perception Catégorielle) chez des adultes normo-entendant. Nos hypothèses reposaient sur l’idée selon laquelle, plus on s’éloigne de la frontière phonologique, plus les modifications perceptives seraient difficiles. Toutefois, les discontinuités perceptives pourraient interagir, facilitant ainsi les changements.

Sur base des résultats de ces études, nous nous sommes intéressés à la malléabilité de la perception catégorielle chez des enfants de troisième maternelle et de deuxième primaire (Etude 4). Dans ce cas, nous avons décidé d’entraîner les enfants à identifier des stimuli autour de la frontière phonologique du français (0 ms DEV) et autour d’une frontière non-phonologique (-30 ms DEV). L’idée sous-jacente était que les enfants, et plus particulièrement ceux qui n’avaient pas encore appris à lire, puissent être plus sensibles aux modifications perceptives imposées par leur environnement.

Par la suite, la question des entraînements auditifs comme source de changements chez les enfants et adultes normo-entendant s’est élargie aux pathologies et notamment dans les troubles spécifiques du langage (Etude 5). En effet, il est reconnu que ces enfants présentent des difficultés dans la perception des sons de parole et notamment du voisement. Dans cette étude, nous avons donc tenté de restructurer la PC au moyen d’un entraînement basé sur une tâche de discrimination. Malgré leur difficulté sévère à traiter le matériel auditif, ces enfants ne présentent pas des troubles de l’audition. Nous nous attendions donc à une amélioration de leurs habilités à percevoir le voisement.

Enfin, nous nous sommes interrogés sur les facteurs qui pouvaient contribuer, en plus des séances d’entraînement, à la consolidation des représentations phonologiques en mémoire. Parmi ceux-ci, la littérature dans le domaine visuel et moteur indique que le sommeil contribue à consolider ce qui a été appris. Nous avons donc décidé de nous intéresser aux rôles et aux bénéfices du sommeil dans la consolidation des apprentissages auditif chez des adultes normo-entendant (Etude 6).


Doctorat en Sciences Psychologiques et de l'éducation
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Grataloup, Claire Hombert Jean-Marie. „La reconstruction cognitive de la parole dégradée étude de l'intelligibilité comme indice d'une capacité cognitive humaine /“. Lyon : Université Lumière Lyon 2, 2007. http://theses.univ-lyon2.fr/sdx/theses/lyon2/2007/grataloup_c.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Hennequin, Alexandre. „Percevoir la parole quand elle est produite différemment : étude des mécanismes de familiarisation multimodale/multisensorielle entre locuteurs tout-venants et locuteurs présentant un trouble de l'articulation“. Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAS013/document.

Der volle Inhalt der Quelle
Annotation:
La parole est le moyen de communication le plus utilisé par l’Homme. Elle permet d’exprimer ses besoins, d’échanger ses pensées avec autrui et contribue à la construction de l’identité sociale. C’est aussi un canal de communication complexe impliquant un contrôle moteur élaboré en production et la capacité à analyser des séquences sonores produites par une grande variété de locuteurs en perception. Cette complexité fait qu’elle est souvent le mode de communication le plus altéré ou difficile à acquérir pour des personnes dont les systèmes sensori-moteurs impliqués sont perturbés. C’est en particulier le cas des personnes avec trisomie 21 (T21), syndrome d’origine génétique induisant des difficultés motrices orofaciales complexes et des altérations des sphères auditives et somatosensorielles. Si parler est possible pour la plupart de ces personnes, leur intelligibilité est toujours touchée. Améliorer leur communication orale est un enjeu clinique et d’intérêt social. L’étude de la production de la parole par des personnes avec T21 et de sa perception par des auditeurs tout-venant présente aussi un intérêt théorique, en particulier relativement aux questions fondamentales de la perception multimodale de la parole et de l’implication du système moteur de l’auditeur dans sa perception.Dans cette thèse, nous repositionnons le trouble de l’intelligibilité des personnes avec T21 dans un cadre qui conçoit la parole comme un acte coopératif entre locuteur et auditeur. En contre-pied de l’attention traditionnellement portée sur le locuteur dans la recherche appliquée, nous nous intéressons aux recours de l’auditeur pour mieux percevoir la parole en partant de deux observations : (1) la parole T21 est peu intelligible auditivement ; (2) son intelligibilité est meilleure pour des interlocuteurs familiers que non familiers. Ces observations sont mises en relation avec deux résultats importants de la recherche sur la perception de la parole. Primo, en situation de communication face-à-face, en plus de l’information auditive, l’auditeur utilise aussi l’information visuelle produite par le locuteur. Cette dernière permet notamment de mieux percevoir la parole quand l’information auditive est altérée. Deuxio, la familiarisation à un type de parole spécifique entraîne une meilleure perception de celle-ci. Cet effet est augmenté par l’imitation de la parole perçue, qui activerait davantage les représentations motrices internes de l’auditeur.Cette mise en relation des difficultés spécifiques des personnes avec T21 avec la recherche sur la perception de la parole nous amène à formuler les questions suivantes. Compte-tenu des spécificités anatomiques orofaciales du locuteur avec T21 impactant ses gestes moteurs articulatoires, l’auditeur tout-venant bénéficie-t-il de la présence de l’information visuelle ? L’implication du système moteur dans la familiarisation à cette parole spécifique peut-elle aider à mieux la percevoir ? Pour répondre à ces questions, nous avons mené deux études expérimentales. Dans la première, en utilisant un paradigme classique de perception audio-visuelle de la parole dans le bruit, nous montrons que voir le visage du locuteur avec T21 améliore l’intelligibilité de ses consonnes de manière comparable à des locuteurs tout-venant. L’information visuelle semble donc relativement préservée malgré les spécificités anatomiques et physiologiques. Dans une deuxième étude, nous adaptons un paradigme de familiarisation avec et sans imitation pour évaluer si l’imitation lors de la perception auditive de mots produits par un locuteur avec T21 peut aider à mieux les percevoir. Nos résultats suggèrent que c’est le cas. Ce travail ouvre des perspectives cliniques et théoriques : l’étude de la perception de la parole produite par des personnes avec un conduit vocal et des mécanismes de contrôle atypiques permet d’évaluer la généralité des mécanismes de perception mis en avant avec des locuteurs typiques et d’en délimiter les contours
Speech is the most widely used means of communication by humans. It allows people to express their needs, exchange thoughts with others and contributes to the construction of social identity. It is also a complex communication channel involving elaborate motor control in production and the ability to analyze sound sequences produced by a wide variety of speakers in perception. This complexity results in speech being often the most altered or difficult to acquire mode of communication for people whose sensorimotor systems are impaired. This is particularly the case for people with trisomy 21 (T21), a genetic syndrome inducing complex orofacial motor difficulties and alterations in the auditory and somatosensory spheres. While speaking is possible for most of these people, their intelligibility is always affected. Improving their oral communication is a clinical and social issue. The study of speech production by people with T21 and its perception by typical listeners is also of theoretical interest, particularly with regard to the fundamental issues of multimodal perception of speech and the involvement of the auditor's motor system in this perception.In this thesis, we reposition the intelligibility disorder of people with T21 in a framework that conceives speech as a cooperative act between speaker and listener. In contrast to the traditional focus on the speaker in applied research, we are interested in the listener's means to better perceive speech, based on two observations: (1) T21 speech is not very intelligible auditorily; (2) its intelligibility is better for familiar than unfamiliar interlocutors. These observations are linked to two important research results on speech perception. First, in a situation of face-to-face communication, in addition to auditory information, the listener also uses the visual information produced by the speaker. In particular, the latter makes it possible to better perceive speech when auditory information is altered. Secondly, familiarization with a specific type of speech leads to a better perception of it. This effect is increased by the imitation of the speech perceived, which would further activate the listener’s internal motor representations.This connection between the specific difficulties of people with T21 and research on speech perception leads to the following questions. Given the anatomical orofacial specificities of the speaker with T21 impacting his articulatory motor gestures, does the typical listener benefit from the presence of visual information? Can the involvement of the motor system in familiarizing oneself with this specific speech help to better perceive it? To answer these questions, we conducted two experimental studies. In the first one, we show that seeing the face of the speaker with T21 improves the intelligibility of his consonants in a way comparable to typical speakers, using a classical paradigm of audio-visual perception of speech in noise. Visual information therefore seems to be relatively preserved despite anatomical and physiological specificities. In a second study, we adapt a familiarization paradigm with and without imitation to assess whether imitation during the auditory perception of words produced by a speaker with T21 can help improve their perception. Our results suggest that this is the case. This work opens up clinical and theoretical perspectives: the study of the perception of speech produced by people with atypical vocal tract and control mechanisms makes it possible to evaluate the generality of the perception mechanisms put forward with typical speakers and to delimit their contours
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Le, Cocq Cécile. „Communication dans le bruit : perception de sa propre voix et rehaussement de la parole“. Mémoire, École de technologie supérieure, 2010. http://espace.etsmtl.ca/274/1/LE_COCQ_C%C3%A9cile.pdf.

Der volle Inhalt der Quelle
Annotation:
La communication dans le bruit est un problème de tous les jours pour les travailleurs qui oeuvrent dans des environnements industriels bruyants. Un grand nombre de travailleurs se plaignent du fait que leurs protecteurs auditifs les empêchent de communiquer facilement avec leurs collègues. Ils ont alors tendance à retirer leurs protecteurs et mettent ainsi leur audition à risque. Ce problème de communication est en fait double : les protecteurs modifient à la fois la perception de la propre voix du porteur, ainsi que la compréhension de la parole des autres personnes. Cette double problématique est considérée dans le cadre de cette thèse. La modification de la perception de la propre voix du porteur des protecteurs est en partie due à l’effet d’occlusion qui se produit lorsque le conduit auditif est occlus par un bouchon d’oreille. Cet effet d’occlusion se traduit essentiellement par une amélioration de la perception des sons de basses fréquences internes à l’être humain (bruits physiologiques), et par une modification de la perception de la propre voix de la personne. Dans le but de mieux comprendre ce phénomène, suite à une étude approfondie de ce qui se trouve déjà dans la littérature, une nouvelle méthode pour quantifier l’effet d’occlusion a été développée. Au lieu d’exciter la boite crânienne du sujet au moyen d’un pot vibrant ou de faire parler le sujet, comme il se fait classiquement dans la littérature, il a été décidé d’exciter la cavité buccale des sujets au moyen d’une onde sonore. L’expérience a été conçue de telle manière que l’onde sonore qui excite la cavité buccale n’excite pas l’oreille externe ou le reste du corps directement. La détermination des seuils auditifs en oreilles ouvertes et occluses a ainsi permis de quantifier un effet d’occlusion subjectif pour une onde sonore dans le conduit buccal. Ces résultats ainsi que les autres quantifications d’effet d’occlusion présentées dans la littérature ont permis de mieux comprendre le phénomène de l’effet d’occlusion et d’évaluer l’influence des différents chemins de transmission entre la source sonore et l’oreille interne. La compréhension de la parole des autres personnes est altérée à la fois par le fort niveau sonore présent dans les environnements industriels bruyants et par l’atténuation du signal de parole due aux protecteurs auditifs. Une possibilité envisageable pour remédier à ce problème est de débruiter le signal de parole puis de le transmettre sous le protecteur auditif. De nombreuses techniques de d´ebruitage existent et sont utilisées notamment pour débruiter la parole en télécommunication. Dans le cadre de cette thèse, le débruitage par seuillage d’ondelettes est considéré. Une première étude des techniques “classiques” de débruitage par ondelettes est réalisée afin d’évaluer leurs performances dans un environnement industriel bruyant. Ainsi les signaux de paroles testés sont altérés par des bruits industriels selon une large de gamme de rapports signal à bruit. Les signaux débruités sont évalués au moyen de quatre critères. Une importante base de données est ainsi obtenue et est analysée au moyen d’un algorithme de sélection conçue spécifiquement pour cette tâche. Cette première étude a permis de mettre en évidence l’influence des diffèrents paramêtres du débruitage par ondelettes sur la qualité de celui-ci et ainsi de déterminer la méthode “classique” qui permet d’obtenir les meilleures performances en terme de qualité de débruitage. Cette première étude a également permis de donner des guides pour la conception d’une nouvelle loi de seuillage adaptée au débruitage de la parole par ondelettes dans un environnement industriel bruité. Cette nouvelle loi de seuillage est présentée et évaluée dans le cadre d’une deuxième étude. Ses performances se sont avérées supérieures à la méthode “classique” mise en évidence dans la première étude pour des signaux de parole dont le rapport signal à bruit est compris entre −10 dB et 15 dB
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Laurent, Raphael. „COSMO : un modèle bayésien des interactions sensori-motrices dans la perception de la parole“. Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM063/document.

Der volle Inhalt der Quelle
Annotation:
Si la parole est une faculté dont l'usage nous semble parfaitement naturel,il reste toutefois beaucoup à comprendre sur la nature des représentations et des processus cognitifs qui la gouvernent. Au cœur de cette thèse se trouve la question des interactions entre perception et action dans la production et la perception de syllabes. Nous adoptons le cadre rigoureux de la programmation bayésienne au sein duquel nous définissons mathématiquement le modèle COSMO (pour "Communicating Objects using Sensori-Motor Operations"), qui permet de formaliser les théories motrice, auditive et perceptuo-motrice de la communication parlée et de les étudier quantitativement. Cette approche conduit à un premier résultat théorique fort : nous démontrons un théorème d'indistinguabilité d'après lequel, lorsque l'on pose certaines hypothèses de conditions idéales d'apprentissage, les théories auditive et motrice font des prédictions identiques pour des tâches de perception, et sont de ce fait indistinguables. Pour s'éloigner de ces conditions, nous proposons un algorithme original d'apprentissage sensori-moteur “par accommodation”, qui permet de s'adapter au bain acoustique ambiant tout en développant des idiosyncrasies. Cet algorithme d'apprentissage par imitation de ciblesacoustiques permet l'apprentissage de compétences motrices à partir d'entrées perceptives uniquement, avec la propriété remarquable de se focaliser sur les régions d'intérêt pour l'apprentissage. Nous utilisons des syllabes synthétisées grâce au modèle de conduit vocal VLAM pour analyser les dynamiques d'évolution des modèles appris ainsi que leur robustesse aux dégradations
While speech communication is a faculty that seems natural, a lot remainsto be understood about the nature of the cognitive representations and processes that are involved. Central to this PhD research is the study of interactions between perception and action during production or perception of syllables. We choose Bayesian Programming as a rigorous framework within which we provide a mathematical definition of the COSMO model ("Communicating Objects using Sensori-Motor Operations"), which allows to formalize motor, auditory and perceptuo-motor theories of speech communication and to study them quantitatively. This approach first leads to a strong theoretical result:we prove an indistinguishability theorem, according to which, given some ideal learning conditions, motor and auditory theories make identical predictions for perception tasks, and therefore cannot be distinguished empirically. To depart from these conditions, we introduce an original “learning by accommodation” algorithm, which enables to adapt to the ambient acoustic environment as well as to develop idiosyncrasies. This algorithm, which learns by mimicking acoustic targets, allows to acquire motor skills from acoustic inputs only, with the remarkable property of focusing its learning on the adequate regions. We use syllables synthesized by a vocal tract model (VLAM ) to analyse how thedifferent models evolve through learning and how robust they are to degradations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Berdasco, Muñoz Elena. „La perception précoce de la parole chez les enfants prématurés et nés à terme“. Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCB233.

Der volle Inhalt der Quelle
Annotation:
La prématurité est un problème de santé publique mondial qui affecte aujourd'hui 1 sur 10 enfants chaque année. En France, ce phénomène a régulièrement augmenté, les prématurés représentant 7,3% des nouveaux nés français en 2014, contre 5,9% en 1995. Des recherches scientifiques ont établi que les enfants nés prématurément sont plus susceptibles de rencontrer des difficultés dans le développement langagier ainsi que dans d'autres domaines cognitifs que les enfants nés à terme. Cependant, nos connaissances sur les habilités langagières précoces des enfants prématurés restent actuellement limitées. Le premier objectif de cette thèse était donc de spécifier différentes capacités de perception de la parole pendant les deux premières années, en référence à celles d'enfants nés à terme de même âge postnatal. Son second objectif était d'étudier si le degré de prématurité module les performances langagières des enfants prématurés. Cette thèse est organisée en trois parties expérimentales. La première a exploré la segmentation, c'est-à-dire la capacité à découper la parole en mots, qui est liée à l'acquisition du vocabulaire. Nos résultats ont établi qu'à 6 mois d'âge postnatal, les enfants prématurés ont des capacités de segmentation basiques (segmentation de mots monosyllabiques, Exp. 1), comme les enfants nés à terme de même âge postnatal (6 mois ; Nishibayashi, Goyet, & Nazzi, 2015) et corrigé (4 mois ; Exp. 2). Toutefois, nous avons aussi trouvé des différences avec les nés à terme. Si les enfants prématurés de 6 mois segmentent des syllabes intégrées dans des mots, comme précédemment trouvé pour les enfants nés à terme, l'effet de segmentation à des directions opposées chez les deux populations, suggérant différents mécanismes de traitement (Exp. 3). En outre, à 8 mois d'âge postnatal, nos résultats ne font pas apparaître de biais consonantique dans la reconnaissance des mots segmentés, comme chez les enfants nés à terme (Exp. 4). Néanmoins, des enfants bilingues prématurés et nés à terme qui ont le français comme langue dominante sont capables de segmenter des mots monosyllabiques à l'âge de 6 mois (Exp. 5). La deuxième partie a mesuré le comportement visuel d'enfants prématurés et nés à terme face à un visage parlant dans la langue maternelle (le français) et une langue étrangère (l'anglais). Nos résultats révèlent qu'à 8 mois, les enfants prématurés ont un comportement visuel différent de celui d'enfants nés à terme au même âge postnatal et corrigé. Alors que les enfants nés à terme ont un comportement visuel différent dans les deux langues, ce n'est pas le cas chez les enfants prématurés (Exp. 6). Ces comportements visuels différentiels sont les premiers éléments de caractérisation de la trajectoire développementale de la perception audiovisuelle des enfants prématurés. La troisième partie a porté sur le développement lexical. Nos résultats montrent que les enfants prématurés reconnaissent la forme des mots familiers à 11 mois d'âge postnatal (Exp.7), comme les enfants nés à terme (Hallé & de Boysson-Bardies, 1994). Concernant la production lexicale autour de l'âge de 24 mois postnatal (Exp. 8), nos résultats révèlent que les enfants prématurés ont un vocabulaire réduit par rapport aux enfants nés à terme de même âge postnatal, mais des niveaux similaires à ceux de même âge corrigé. Cependant, un pourcentage élevé des enfants prématurés étaient en dessous du centile 10 selon les normes de la population typique, ce qui pourrait constituer un indice d'identification de risque de délais langagiers. Pris ensemble, nos résultats offrent une vision plus détaillée et nuancée de l'acquisition langagière précoce des enfants nés à terme, et aident à mieux comprendre la contribution relative de l'input environnemental (i.e. exposition à input visuel et auditif non filtré) et la maturation neuronale à cette trajectoire développementale
Prematurity is currently an important public health problem in the world that affects 1 in 10 babies worldwide every year. In France, preterm birth has steadily increased from 5.9% in 1995 to 7.3% in 2014. Research has demonstrated that prematurely born children are more susceptible to encounter some difficulties in language development and other cognitive domains than children born fullterm. To date, knowledge on early language abilities in preterm infants remains limited. The first goal of this doctoral research was to specify different speech perception abilities in the first two years of life in preterm infants, comparing their abilities to those of fullterm infants of the same postnatal age. The second goal was to investigate whether degree of prematurity modulates linguistic performance across preterm infants. This thesis is organized in three experimental parts. First, we explored word segmentation (the ability to extract word forms) from fluent speech, an ability that is related to lexical acquisition. Our findings showed that basic segmentation abilities are in place in monolingual preterm infants at 6 months of postnatal age (Exp. 1), since they segment monosyllabic words just like their postnatal (Nishibayashi, Goyet, & Nazzi, 2015) and corrected age (4-month-olds; Exp.2) fullterm peers. However, we also found differences with fullterms. While 6-month-old preterms segment embedded syllables as fullterms do (Nishibayashi et al., 2015), the direction of the effect is reversed, suggesting differential processing mechanisms (Exp. 3). Moreover, at 8 months postnatal age, we failed to find evidence for a consonant bias in recognition of segmented word forms (Exp. 4) as found for fullterms of the same age (Nishibayashi & Nazzi, 2016). Nevertheless, French-dominant bilingual populations were found to segment monosyllabic words in French at 6 months, whether being born pre- or full-term (Exp. 5). In the second part, using eye-tracking techniques, we measured preterm and fullterm infants scanning patterns of a talking face in the native (French) and a non-native (English) language. We found that preterm infants at 8 months postnatal age show different looking behavior than their fullterm counterparts matched on postnatal and maturational age. Compared to fullterm infants who showed different scanning pattern of a face speaking in the two languages, preterm infants showed similar scanning patterns for both languages (Exp. 6). These differential gaze patterns provide a first step to characterize the developmental course of audiovisual speech perception in preterm infants. The third part focused on lexical development. Our results show that preterm infants recognize familiar word forms at 11 months postnatal age (Exp. 7), hence at the same postnatal age as fullterm infants (Hallé & de Boysson-Bardies, 1994). With respect to word production at around 24 months of postnatal age (Exp. 8), we found that preterm infants have smaller vocabularies than fullterms of the same postnatal age, but as a group have similar levels as their fullterm, corrected age peers. However, more preterm infants were below the 10th percentile than expected based on (fullterm) norms, which might constitute an index for early identification of (preterm) infants at risk for linguistic delays. Taken together, our results help us build a more detailed and nuanced picture of early language acquisition in preterm infants, and better understand the relative contribution of environmental input (i.e. exposure to unfiltered auditory and visual input after preterm birth) and brain maturation on this developmental trajectory
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Tran, Ngoc Anaïs. „Perception de la parole sifflée : étude de la capacité de traitement langagier des musiciens“. Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ2052.

Der volle Inhalt der Quelle
Annotation:
La perception de la parole est un processus qui doit s'adapter à un grand nombre de facteurs de variabilité. Ces variations, qui modifient le signal sonore, incluent des spécificités de production chez les locuteurs. En utilisant un signal de parole modifiée de manière expérimentale, nous pouvons cibler certains aspects du signal, pour mieux comprendre leurs rôles dans les processus perceptifs. Dans cette thèse, nous traitons une forme de parole naturellement modifiée, appelée « parole sifflée », pour explorer le rôle que jouent les indices acoustiques des phonèmes lors de la perception de la parole. Cependant, ces facteurs de variabilité concernent également la réception du signal, où l'écoute est influencée par l'expérience de chacun. Nous nous intéressons ici à l'effet de la pratique musicale classique sur la perception de la parole sifflée. La parole sifflée augmente le signal de la parole modale vers le registre de fréquences le mieux perçu par l'oreille humaine. Dans notre corpus, les voyelles se réduisent à des fréquences sifflées dans un registre propre à chaque voyelle, et les consonnes modifient ces fréquences selon leur articulation. Dans un premier temps, nous avons considéré la manière dont la parole sifflée est traitée par des personnes n'ayant jamais entendu ce mode de parole auparavant (écouteurs naïfs). Nous avons considéré quatre voyelles et quatre consonnes cible : /i,e,a,o/ et /k,p,s,t/, analysées dans un contexte isolé et dans la forme VCV, ainsi que dans des mots sifflés (choisis pour intégrer ces mêmes phonèmes). Nous avions ensuite considéré l'effet de la pratique musicale sur la perception de la parole sifflée, en nous intéressant également à différentes façades de l'impact de la pratique musicale : le type de traitement, le transfert de connaissance et l'effet du niveau et de l'instrument d'apprentissage.Les résultats montrent que tous les écouteurs catégorisent les phonèmes et les mots bien au-dessus du hasard, avec une préférence pour certaines caractéristiques acoustiques, soit des phonèmes (consonnes ou voyelles) ayant des contrastes de fréquence. Cette facilité est néanmoins affectée par le contexte du phonème (notamment dans le mot). Nous observons dans un second temps un effet de pratique musicale continue selon la quantité d'expérience, mais qui est d'autant plus marqué pour des personnes avec un haut niveau de pratique. Nous attribuons cet « avantage » musical à une meilleure exploitation d'indices acoustiques, permettant un transfert de connaissances musicales vers la parole sifflée, bien que l'effet de transfert reste inférieur à une expérience de pratique sifflée. Cette exploitation acoustique est spécifique à l'instrument pratiqué, avec un avantage marqué pour les flûtistes, surtout dans le traitement des consonnes. Ainsi, l'effet d'un entraînement, tel que la musique, améliore la performance selon la similarité du signal sonore d'un point de vue acoustique et articulatoire
Speech perception is a process that must adapt to a large amount of variability. These variations, including differences in production that depend on the speaker, modify the speech signal. By then using this modified speech signal in experimental studies, we can target certain aspects of speech and their role in the perceptive process. In this thesis, I considered a form of naturally modified speech known as “whistled speech” to further explore the role of acoustic phonological cues in the speech perception process. Variation, however, is not unique to speech production: it is also present among those perceiving speech and varies according to individual experience. Here, I analyzed the effect of classical music expertise on whistled speech perception. Whistled speech augments the modal spoken speech signal into higher frequencies corresponding to a register best perceived by human hearing. In our corpus, vowels are reduced to high whistled frequencies, in a pitch range specific to each vowel, and consonants modify these frequencies according to their articulation. First, we considered how naive listeners (who have never heard whistled speech before) perceive whistled speech. We targeted four vowels and four consonants: /i,e,a,o/ and /k,p,s,t/, which we considered in isolation or a VCV form, and in whistled words (chosen to incorporate the target phonemes). We then considered the effect of musical experience on these categorization tasks, also taking an interest in the transfer of knowledge and the effect of instrument expertise. In these studies, we observed that naive listeners categorize whistled phonemes and whistled words well over chance, with a preference for acoustic cues that characterize consonants and vowels with contrasting pitches. This preference is nonetheless affected by the context in which the phoneme is heard (especially in the word). We also observed an effect of musical expertise on categorization, which improved with more experience and was strongest for high-level classical musicians. We attributed these differences to better use of acoustic cues, allowing for a transfer of skills between musical knowledge and whistled speech perception, though performances due to musical experience are much lower than participants with a knowledge of whistled speech. These acoustic skills were also found to be specific to the instrument played, where flute players outperformed the other instrumentalists, particularly on consonant tasks. Thus, we suggest that the effect of training, such as music, improves one's performance on whistled speech perception according to the similarities between the sound signals, both in terms of acoustics and articulation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Bedard-Giraud, Kimberly. „Troubles du traitement de la parole chez le dyslexique adulte“. Toulouse 3, 2007. http://www.theses.fr/2007TOU30334.

Der volle Inhalt der Quelle
Annotation:
Les troubles du traitement de la parole peuvent jouer un rôle causal dans certains cas de dyslexie. Cette recherche porte sur le traitement auditif de consonnes occlusives chez le dyslexique adulte. Dans la première étude [décours temporel des Potentiels Evoqués Auditifs (PEAs)], nous analysons le traitement cortical des indices temporels constituant le "Voice Onset Time" de consonnes voisées et non-voisées. On constate deux profils atypiques: (i) "PEA Pattern I": traitement différentiel sur la base d'indices temporels, mais avec plus de composantes et des délais; (ii) "PEA Pattern II": absence de traitement différentiel sur la base d'indices temporels. Dans la deuxième étude [modélisation des sources et analyse d'asymétries], on constate que ce traitement temporel peut être latéralisé atypiquement chez le dyslexique - même dans des cas compensés avec décours temporels relativement normaux. La troisième étude [Perception Catégorielle & MMN] suggère une correspondance entre nos profils électrophysiologiques et la discrimination de sons occlusives: le "PEA Pattern I" peut être associé à un traitement superflu d'indices acoustiques sans pertinence phonétique, tandis que le "PEA Pattern II" semble lié à un trouble de discrimination sévère. Dans la quatrième étude [l'effet McGurk], nous analysons l'intégration des indices acoustiques et visuels dans la perception de la parole face-à-face. Chez le dyslexique, on constate moins d'intégrations audiovisuelles et plus de dépendance sur des indices strictement acoustiques. Dans l'ensemble, ces résultats sont cohérents avec un dysfonctionnement affectant plusieurs niveaux du traitement de la parole chez le dyslexique
Speech perception deficits may play a causal role in certain cases of developmental dyslexia. This research focuses on the perception of stop consonants in the adult dyslexic. In the first study [temporal course of Auditory Evoked Potentials (AEPs)], the cortical processing of temporal cues (Voice Onset Time) differentiating voiced and voiceless stops is analysed in dyslexics with persistent deficits. Two atypical electrophysiological patterns are observed: (i) AEP Pattern I is characterised by a differential coding of stimuli on the basis of some temporal cues but with more AEP components and a delay in termination time; (ii) AEP Pattern II is characterised by an absence of differential coding based on temporal cues. The second study [source modelling and asymmetry of temporal processing] shows an atypical functional asymmetry of this temporal cue processing in adult dyslexics - even in compensated cases with relatively normal AEP timecourses. The third study [Categorical Perception and MMN] suggests how atypical temporal cue processing may affect stop consonant discrimination: AEP Pattern I may be associated with the coding of superfluous non-phonetically pertinent cues, while AEP Pattern II may be associated with a severe voiced/voiceless discrimination deficit. In the fourth study [McGurk Effect], the integration of acoustic and visual cues in face-to-face speech perception is analysed in adult dyslexics. Compared to controls, dyslexics demonstrated less audiovisual integration, relying preferentially on acoustic cues. Together, these results are consistent with a speech perception deficit that affects multiple levels of processing in the developmental dyslexic
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Gonseth, Chloe. „Multimodalité de la communication langagière humaine : interaction geste/parole et encodage de distance dans le pointage“. Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENS011/document.

Der volle Inhalt der Quelle
Annotation:
Désigner un objet à l’attention d’un interlocuteur est l’un des processus fondamentaux de la communication langagière. Ce processus est généralement réalisé à travers l’usage combiné de productions vocales et manuelles. Le but de ce travail est de comprendre et de caractériser les interactions entre la parole et le geste manuel dans des tâches de deixis spatiale, afin de déterminerde quelle façon l’information communicative est portée par chacun de ces deux systèmes,et de tester les principaux modèles de traitement du geste et de la parole.La première partie de l’étude concerne la production du pointage vocal et manuel. L’originalité de ce travail consiste à rechercher des paramètres d’encodage de la distance dans les propriétés acoustiques, articulatoires et cinématiques du pointage multimodal, et à montrer que ces différentes caractéristiques sont corrélées les unes aux autres, et sous-tendues par un même comportement moteur de base : désigner un objet distant implique de produire des gestes plus larges, qu’ils soient vocaux ou manuels. Ce patron moteur peut alors être rapporté à l’encodage phonologique de la distance dans les langues du monde. Le paradigme expérimental utilisé dans cette étude contraste des pointages bimodaux vs unimodaux vocaux vs unimodaux manuels, et la comparaison de ces différentes conditions révèle par ailleurs une coopération bi directionnelle entre les modalités vocales et manuelles, qui se répartissent la charge informative lorsqu’elles sont utilisées ensemble.La deuxième partie de l’étude explore le développement du pointage multimodal. Les propriétés du pointage multimodal sont analysées chez des enfants de 6 à 12 ans, dans une tâche expérimentale comparable à celle des adultes. Cette deuxième expérience atteste d’un développement progressif du couplage geste/parole pour la deixis spatiale. Elle révèle que la distance est encodée préférentiellement dans les gestes manuels des enfants, par rapport à leurs gestes vocaux(surtout chez les jeunes enfants). Elle montre également que l’usage coopératif des gestes manuels et de la parole est déjà à l’oeuvre chez les enfants, avec cependant plus d’influence du geste sur la parole que le patron inverse.Le troisième volet de ce travail considère les interactions sensorimotrices dans la perception de la deixis spatiale. Une étude expérimentale basée sur un principe d’amorçage intermodal montre que le geste manuel joue un rôle dans le mécanisme de perception/production des unités sémantiques du langage. Ces données sont mises en parallèle avec les études sur la naturesensorimotrice des représentations dans le traitement des unités sonores du langage.L’ensemble de ces résultats plaide pour une représentation fortement intégrée des gestes manuels et de la parole dans le cerveau langagier humain, et ce même à un stade relativement précoce du développement. Ils montrent également que l’encodage de la distance est un indice robuste,présent dans tous les aspects du pointage multimodal
Designating an object for the benefit of another person is one of the most basic processes inlinguistic communication. It is most of the time performed through the combined use of vocaland manual productions. The goal of this work is to understand and characterize the interactionsbetween speech and manual gesture during pointing tasks, in order to determine howmuch linguistic information is carried by each of these two systems, and eventually to test themain models of speech and gesture production.The first part of the study is about the production of vocal and manual pointing. The originalaspect of this work is to look for distance encoding parameters in the lexical, acoustic,articulatory and kinematic properties of multimodal pointing, and to show that these differentcharacteristics can be related with each other, and underlain by a similar basic motor behaviour: designating a distant object induces larger gestures, be they vocal or manual. This motorpattern can be related with the phonological pattern that is used for distance encoding in theworld’s languages. The experimental design that is used in this study contrasts bimodal vs. vocalmonomodal vs. monomodal manual pointings, and a comparison between these conditionsreveals that the vocal and manual modalities act in bidirectional cooperation for deixis, sharingthe informational load when used together.The second part of the study explores the development of multimodal pointing. The propertiesof multimodal pointing are assessed in 6-12 year-old children, in an experimental task similarto that of the adults. This second experiment attests a progressive evolution of speech/gestureinteractions in the development of spatial deixis. It reveals that distance is preferentially encodedin manual gestures in children, rather than in vocal gestures (and especially so in youngerchildren). It also shows that the cooperative use of speech and manual gesture in deixis is alreadyat play in children, though with more influence of gesture on speech than the reversedpattern.The third part of the study looks at sensorimotor interactions in the perception of spatial deixis.This experimental study, based on an intermodal priming paradigm, reveals that manual gestureplays a role in the production/perception mechanism associated with the semantic processingof language. These results can be related with those of studies on the sensorimotor nature ofrepresentations in the processing of linguistic sound units.Altogether, these studies provide strong evidence for an integrated representation of speech andmanual gestures in the human linguistic brain, even at a relatively early age in its development.They also show that distance encoding is a robust feature, which is also present in all aspectsof multimodal pointing
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Signoret, Carine. „Exploration des mécanismes non conscients de la perception de la parole : approches comportementales et électroencéphalographiques“. Phd thesis, Université Lumière - Lyon II, 2010. http://tel.archives-ouvertes.fr/tel-00562541.

Der volle Inhalt der Quelle
Annotation:
Tandis que de nombreuses informations sont disponibles dans notre environnement à chaque instant, toutes ne donnent pas lieu à une perception consciente. Il est alors légitime de se demander quels mécanismes entrent en jeu dans le phénomène de perception. Sur la base de quels processus une stimulation sensorielle sera-t-elle perçue de façon consciente ? Que deviennent les stimulations qui ne sont pas perçues consciemment ? Ce présent travail de thèse vise à apporter des éléments de réponse à ces deux questions dans la modalité auditive. À travers plusieurs études utilisant des approches comportementales mais aussi électroencéphalographiques, nous suggérons que les connaissances pourraient exercer une influence top-down facilitant les hauts comme les bas niveaux de traitement (comme la détection) des stimulations auditives complexes. Les stimulations pour lesquelles nous avons des connaissances (phonologiques et sémantiques) sont mieux détectées que les stimulations ne contenant ni caractéristique phonologique ni caractéristique sémantique. Nous montrons également que l'activation des connaissances influence la perception des stimulations ultérieures, et ce, même lorsque le contexte n'est pas perçu consciemment. En effet nous avons pu mettre en évidence un effet d'amorçage sémantique subliminal et nous avons observé des modifications neuronales oscillatoires dans la bande de fréquence bêta concomitante au traitement lexical de stimulations non catégorisées consciemment. L'ensemble des perceptions auditives ne serait alors que le produit d'une interaction permanente entre le contexte environnemental et les connaissances, ce qui nous conduirait à percevoir préférentiellement ce que nous connaissons déjà.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Gonzalez, Gomez Nayeli. „Acquisition de relations phonologiques non-adjacentes : de la perception de la parole à l'acquisition lexicale“. Phd thesis, Université René Descartes - Paris V, 2012. http://tel.archives-ouvertes.fr/tel-00733527.

Der volle Inhalt der Quelle
Annotation:
Les langues ont de nombreux types de dépendances, certaines concernant des éléments adjacents et d'autres concernant des éléments non adjacents. Au cours des dernières décennies, de nombreuses études ont montré comment les capacités précoces générales des enfants pour traiter le langage se transforment en capacités spécialisées pour la langue qu'ils acquièrent. Ces études ont montré que pendant la deuxième moitié de leur première année de vie, les enfants deviennent sensibles aux propriétés prosodiques, phonétiques et phonotactiques de leur langue maternelle concernant les éléments adjacents. Cependant, aucune étude n'avait mis en évidence la sensibilité des enfants à des dépendances phonologiques non-adjacentes, qui sont un élément clé dans les langues humaines. Par conséquent, la présente thèse a examiné si les enfants sont capables de détecter, d'apprendre et d'utiliser des dépendances phonotactiques non-adjacentes. Le biais Labial-Coronal, correspondant à la prévalence des structures commençant par une consonne labiale suivie d'une consonne coronale (LC, comme bateau), par rapport au pattern inverse Coronal-Labial (CL, comme tabac), a été utilisé pour explorer la sensibilité des nourrissons aux dépendances phonologiques non-adjacentes. Nos résultats établissent qu'à 10 mois les enfants de familles francophones sont sensibles aux dépendances phonologiques non-adjacentes (partie expérimentale 1.1). De plus, nous avons exploré le niveau auquel s'effectuent ces acquisitions. En effet, des analyses de fréquence sur le lexique du français ont montré que le biais LC est clairement présent pour les séquences de plosives et de nasales, mais pas pour les fricatives. Les résultats d'une série d'expériences suggèrent que le pattern de préférences des enfants n'est pas guidé par l'ensemble des fréquences cumulées dans le lexique, ou des fréquences de paires individuelles, mais par des classes de consonnes définies par le mode d'articulation (partie expérimentale 1.2). En outre, nous avons cherché à savoir si l'émergence du biais LC était liés à des contraintes de type maturationnel ou bien par l'exposition à l'input linguistique. Pour cela, nous avons tout d'abord testé l'émergence du biais LC dans une population présentant des différences de maturation, à savoir des enfants nés prématurément (± 3 mois avant terme), puis comparé leurs performances à un groupe d'enfants nés à terme appariés en âge de maturation, et à un groupe de nourrissons nés à terme appariés en âge chronologique. Nos résultats indiquent qu'à 10 mois les enfants prématurés ont un pattern qui ressemble plus au pattern des enfants nés à terme âgés de 10 mois (même âge d'écoute) qu'à celui des enfants nés à terme âgés de 7 mois (même âge de maturation ; partie expérimentale 1.3). Deuxièmement, nous avons testé une population apprenant une langue où le biais LC n'est pas aussi clairement présent dans le lexique : le japonais. Les résultats de cette série d'expériences n'a montré aucune préférence pour les structures LC ou CL chez les enfants japonais (partie expérimentale 1.4). Pris ensemble, ces résultats suggèrent que le biais LC peut être attribué à l'exposition à l'input linguistique et pas seulement à des contraintes maturationnelles. Enfin, nous avons exploré si, et quand, les acquisitions phonologiques apprises au cours de la première année de la vie influencent le début du développement lexical au niveau de la segmentation et de l'apprentissage des mots. Nos résultats montrent que les mots avec la structure phonotactique LC, plus fréquente, sont segmentés (partie expérimentale 2.1) et appris (partie expérimentale 2.2) à un âge plus précoce que les mots avec la structure phonotactique CL moins fréquente. Ces résultats suggèrent que les connaissances phonotactiques préalablement acquises peuvent influencer l'acquisition lexicale, même quand il s'agit d'une dépendance non-adjacente.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Sato, Marc. „Représentations verbales multistables en mémoire de travail : vers une perception active des unités de parole“. Grenoble INPG, 2004. http://www.theses.fr/2004INPG0082.

Der volle Inhalt der Quelle
Annotation:
Les travaux réalisés dans le cadre de cette thèse, visant à souligner la dépendance des représentations mentales phonologiques à des contraintes purement articulatoires, ont emprunté au domaine scientifique de la cognition motrice l'idée d'un couplage fonctionnel, d'une co-structuration, des mécanismes de perception, de simulation mentale et de production des gestes de parole. Le paradigme central de ce travail est celui de l'Effet de Transformation Verbale, reposant sur la notion de formes perceptives multistables, et qui fournit un accès original aux mécanismes d'interaction sensorimotrice en relation avec l'imagerie auditive et la mémoire de travail. Les hypothèses formulées, notamment celle d'une mise en forme de certains des principes et paramètres de la phonologie par des contraintes sensorimotrices ou encore celle d'un fonctionnement de la mémoire de travail basé sur le traitement des représentations acoustiques et articulatoires, s'inscrivent dans une conception d'un système de perception de la parole orientée vers et pour le contrôle de l'action. Les résultats obtenus lors d'expériences comportementales et de neuroimagerie fonctionnelle confirment le rôle des contraintes actionnelles dans la perception multistable de la parole et démontrent l'implication de la mémoire de travail verbale dans l'émergence des représentations perceptives. Dès lors, que ce soit dans le contrôle exécutif, la simulation mentale ou encore la perception des gestes de parole, ces "représentations partagées", pourraient être à la base des mécanismes de reconnaissance des unités de parole
In recent years, the studies of cerebral and cognitive systems implied in the control and analysis of actions have provided empirical evidence towards a functional intertwining of perception, execution and mental imagery of actions. Within the framework of speech sciences, the aim of this thesis was to test the existence of purely motor constraints in the birth and analysis of mental phonological forms. The experimental paradigm of this work is that of the Verbal Transformation Effect, resting on the concept of multistable speech perception and providing an original access to sensorimotor interactions in relation to auditory imagery and working memory. By suggesting that phonology could be constrained, in some part, by sensorimotor properties and that verbal working memory could rely on both acoustical and articulatory representations, our hypotheses converge towards the idea of a speech perception system directed towards and for action control. Both behavioural and functional neuroimaging results confirm the existence of purely motor constraints in the multistable perception of speech and demonstrate the involvement of verbal working memory during the emergence of perceptual representations. During the executive control, the mental simulation or the perception of speech gestures, these "shared representations" could then form a basis for the recognition of speech units
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Dahan, Delphine. „Étude de la prosodie du français en parole continue : processus de production et de perception“. Paris 5, 1994. http://www.theses.fr/1994PA05H087.

Der volle Inhalt der Quelle
Annotation:
La prosodie désigne les caractéristiques mélodiques et rythmiques de la parole. Cette thèse étudie un phénomène prosodique particulier, la réalisation d'un accent d'emphase sur un élément de l'énoncé, ce qui confère a ce dernier le statut de focus, d'information nouvelle (ou rhème), en contraste avec l'information donnée, le connu (le thème). Comme pour l'ensemble du système langagier, il est nécessaire de postuler l'existence de représentations mentales coexistant chez le locuteur et l'auditeur pour que les phénomènes prosodiques puissent avoir une fonction linguistique. Nous avons cherché à comprendre quels processus sont à l'œuvre lors de la réalisation et de la perception d'une focalisation véhiculée par un accent d'emphase. Pour cela, nous avons choisi d'analyser à la fois les productions réalisées par des locuteurs et les perceptions faites par des auditeurs. Il apparait que le locuteur produit une rupture de la structuration prosodique attendue par l'auditeur, cette violation des attentes permettant à l'auditeur d'inférer la présence d'un phénomène prosodique linguistiquement pertinent
Prosody refers to the melody and rhythm of speech. This thesis deals with a specific prosodic phenomenon, i. E. The production of emphatic accent on an element of the utterance, le latter becoming the focus of the utterance and conveying new inforlation (or rhemes), as opposed to the given information (the theme). An explanation of how prosodic phenomena convey linguistic information implies the postulate that the speaker and listener share mental representations. In order to specify the processes involved in the production and perception of a focusing conveyed by an empha tic accent, we have analyzed the productions of emphatic accents realized by several speakers, as well as their perception by listeners. It appears that the speaker produces a break in listener's expected prosodic structuration, the violation of these expectancies allowing the listener to perceive the presence of a linguistically relevant prosodic phenomenon
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

González, Gómez Nayeli. „Acquisition de relations phonologiques non-adjacentes : de la perception de la parole à l’acquisition lexicale“. Thesis, Paris 5, 2012. http://www.theses.fr/2012PA05H102/document.

Der volle Inhalt der Quelle
Annotation:
Les langues ont de nombreux types de dépendances, certaines concernant des éléments adjacents et d'autres concernant des éléments non adjacents. Au cours des dernières décennies, de nombreuses études ont montré comment les capacités précoces générales des enfants pour traiter le langage se transforment en capacités spécialisées pour la langue qu'ils acquièrent. Ces études ont montré que pendant la deuxième moitié de leur première année de vie, les enfants deviennent sensibles aux propriétés prosodiques, phonétiques et phonotactiques de leur langue maternelle concernant les éléments adjacents. Cependant, aucune étude n'avait mis en évidence la sensibilité des enfants à des dépendances phonologiques non-adjacentes, qui sont un élément clé dans les langues humaines. Par conséquent, la présente thèse a examiné si les enfants sont capables de détecter, d'apprendre et d’utiliser des dépendances phonotactiques non-adjacentes. Le biais Labial-Coronal, correspondant à la prévalence des structures commençant par une consonne labiale suivie d'une consonne coronale (LC, comme bateau), par rapport au pattern inverse Coronal-Labial (CL, comme tabac), a été utilisé pour explorer la sensibilité des nourrissons aux dépendances phonologiques non-adjacentes. Nos résultats établissent qu’à 10 mois les enfants de familles francophones sont sensibles aux dépendances phonologiques non-adjacentes (partie expérimentale 1.1). De plus, nous avons exploré le niveau auquel s’effectuent ces acquisitions. En effet, des analyses de fréquence sur le lexique du français ont montré que le biais LC est clairement présent pour les séquences de plosives et de nasales, mais pas pour les fricatives. Les résultats d'une série d'expériences suggèrent que le pattern de préférences des enfants n’est pas guidé par l'ensemble des fréquences cumulées dans le lexique, ou des fréquences de paires individuelles, mais par des classes de consonnes définies par le mode d'articulation (partie expérimentale 1.2). En outre, nous avons cherché à savoir si l’émergence du biais LC était liés à des contraintes de type maturationnel ou bien par l'exposition à l’input linguistique. Pour cela, nous avons tout d’abord testé l'émergence du biais LC dans une population présentant des différences de maturation, à savoir des enfants nés prématurément (± 3 mois avant terme), puis comparé leurs performances à un groupe d‘enfants nés à terme appariés en âge de maturation, et à un groupe de nourrissons nés à terme appariés en âge chronologique. Nos résultats indiquent qu’à 10 mois les enfants prématurés ont un pattern qui ressemble plus au pattern des enfants nés à terme âgés de 10 mois (même âge d'écoute) qu’à celui des enfants nés à terme âgés de 7 mois (même âge de maturation ; partie expérimentale 1.3). Deuxièmement, nous avons testé une population apprenant une langue où le biais LC n’est pas aussi clairement présent dans le lexique : le japonais. Les résultats de cette série d'expériences n’a montré aucune préférence pour les structures LC ou CL chez les enfants japonais (partie expérimentale 1.4). Pris ensemble, ces résultats suggèrent que le biais LC peut être attribué à l'exposition à l'input linguistique et pas seulement à des contraintes maturationnelles. Enfin, nous avons exploré si, et quand, les acquisitions phonologiques apprises au cours de la première année de la vie influencent le début du développement lexical au niveau de la segmentation et de l’apprentissage des mots. Nos résultats montrent que les mots avec la structure phonotactique LC, plus fréquente, sont segmentés (partie expérimentale 2.1) et appris (partie expérimentale 2.2) à un âge plus précoce que les mots avec la structure phonotactique CL moins fréquente. Ces résultats suggèrent que les connaissances phonotactiques préalablement acquises peuvent influencer l'acquisition lexicale, même quand il s'agit d'une dépendance non-adjacente
Languages instantiate many different kinds of dependencies, some holding between adjacent elements and others holding between non-adjacent elements. During the past decades, many studies have shown how infant initial language-general abilities change into abilities that are attuned to the language they are acquiring. These studies have shown that during the second half of their first year of life, infants became sensitive to the prosodic, phonetic and phonotactic properties of their mother tongue holding between adjacent elements. However, at the present time, no study has established sensitivity to nonadjacent phonological dependencies, which are a key feature in human languages. Therefore, the present dissertation investigates whether infants are able to detect, learn and use non-adjacent phonotactic dependencies. The Labial-Coronal bias, corresponding to the prevalence of structures starting with a labial consonant followed by a coronal consonant (LC, i.e. bat), over the opposite pattern (CL, i.e. tab) was used to explore infants sensitivity to non-adjacent phonological dependencies. Our results establish that by 10 months of age French-learning infants are sensitive to non-adjacent phonological dependencies (experimental part 1.1). In addition, we explored the level of generalization of these acquisitions. Frequency analyses on the French lexicon showed that the LC bias is clearly present for plosive and nasal sequences but not for fricatives. The results of a series of experiments suggest that infants preference patterns are not guided by overall cumulative frequencies in the lexicon, or frequencies of individual pairs, but by consonant classes defined by manner of articulation (experimental part 1.2). Furthermore, we explored whether the LC bias was trigger by maturational constrains or by the exposure to the input. To do so, we tested the emergence of the LC bias firstly in a population having maturational differences, that is infants born prematurely (± 3 months before term) and compared their performance to a group of full-term infants matched in maturational age, and a group of full-term infants matched in chronological age. Our results indicate that the preterm 10-month-old pattern resembles much more that of the full-term 10-month-olds (same listening age) than that of the full-term 7-month-olds (same maturational age; experimental part 1.3). Secondly we tested a population learning a language with no LC bias in its lexicon, that is Japanese-learning infants. The results of these set of experiments failed to show any preference for either LC or CL structures in Japanese-learning infants (experimental part 1.4). Taken together these results suggest that the LC bias is triggered by the exposure to the linguistic input and not only to maturational constrains. Finally, we explored whether, and if so when, phonological acquisitions during the first year of life constrain early lexical development at the level of word segmentation and word learning. Our results show that words with frequent phonotactic structures are segmented (experimental part 2.1) and learned (experimental part 2.2) at an earlier age than words with a less frequent phonotactic structure. These results suggest that prior phonotactic knowledge can constrain later lexical acquisition even when it involves a non-adjacent dependency
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Lazard, Diane. „Réorganisation neurocognitive et perception de la parole après implantation cochléaire chez l'adulte sourd post-lingual“. Paris 6, 2010. http://www.theses.fr/2010PA066465.

Der volle Inhalt der Quelle
Annotation:
L’implant cochléaire (IC), par sa capacité à restaurer la communication orale, est une des révolutions médicales du XXe siècle. Cependant, une grande variabilité des performances existe avec au minimum 10% d’échecs. Les facteurs périphériques pouvant influencer les résultats ont fait l’objet de nombreuses études mais sont insuffisants pour expliquer les différences entre les individus. L’avènement de l’exploration cérébrale fonctionnelle a ouvert un champ d’investigation de cette variabilité inter-individuelle, amenant la notion de « cerveau auditif ». Le but de ce travail a été d’approfondir l’influence des processus cognitifs sur les résultats de l’IC. Nous avons montré grâce à un paradigme d’IRM fonctionnelle chez des sujets adultes candidats à l’IC que la surdité acquise entrainait une réorganisation des circuits cérébraux de la mémoire auditive. La mémoire phonologique, indispensable à la perception de la parole et à sa supplémentation audio-visuelle, se dégrade avec la durée de surdité sévère, entrainant une désinhibition du cortex temporal postérieur droit qui se révèle mal-adaptative. Le déclin précoce de la mémoire des sons environnementaux participe à ce processus. L’utilisation prédominante du réseau dorsal se révèle un facteur prédictif positif robuste des performances de l’IC, grâce à des associations visuelles, articulatoires et motrices. Au contraire, le recrutement du réseau ventral basé sur des confrontations mnésiques globales grève le pronostic. Ces données ouvrent de nouvelles perspectives sur la prise en charge neurocognitive des candidats à l’IC afin de préserver la mémoire auditive et ses circuits
By restoring oral communication, cochlear implant (CI), is one of the major medical developments of the XXth century. However, outcome varies with a least 10% of rehabilitation failure. Peripheral predictors have been largely studied but do not fully explain this variability. Cerebral functional exploration has enlarged the investigation field of the cognitive impact on performance, and had led to the notion of an “auditory brain”. The aim of this thesis was to further explore the influence of cognitive functions in CI outcome. We showed, using a functional MRI paradigm on postlingually deaf adults, candidates to CI, that cortical reorganization of auditory memory networks occurs during deafness. Phonological memory, necessary to speech perception and associated audio‐visual supplementation, progressively deteriorates with profound deafness duration, yielding maladaptive right posterior superior temporal cortex disinhibition. This process is driven by a prompt environmental sound memory decline. The use of the dorsal network, based on visual, articulatory and motor associations, frequently observed as dominant cognitive strategy, is a robust good predictor for CI performance. Conversely, ventral network neural activity enhancement, using global identification and confrontation with stored representations, is associated with poor CI performance. These findings suggest that specific cognitive rehabilitation preserving auditory memory and its networks should be proposed to CI candidates
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Laguitton, Virginie. „Indices acoustiques et perception de la parole : nature et latéralisation hémispherique des processus de traitement (études comportementales et électrophysiologiques)“. Rennes 2, 1997. http://www.theses.fr/1997REN20015.

Der volle Inhalt der Quelle
Annotation:
Cette thèse étudie la nature et la latéralisation du traitement de deux indices acoustiques de la parole au niveau du cortex auditif humain: le "délai d'établissement du voisement" ou vot et la "place d'articulation". Des protocoles d'identification et d'écoute dichotique de syllabes, utilisant des sons de parole naturelle respectant les règles de la phonologie française, ont préalablement été mis au point. L'utilisation de ces protocoles avec des sujets sains et des patients épileptiques candidats à un traitement chirurgical de leur épilepsie lors d'études comportementales (identification et temps de réponse) et électrophysiologiques (analyse des potentiels évoqués auditifs intra-cérébraux enregistrés à l'aide d'électrodes implantées chez les patients épileptiques) permet de supporter l'hypothèse selon laquelle la spécialisation hémisphérique gauche correspond à un aspect particulier du traitement de l'information sonore et non des caractéristiques verbales en général. Ainsi, si le vot et la place d'articulation sont deux indices phonétiquement pertinents, ils ne semblent pas relever des mêmes mécanismes de traitement: en situation d'écoute dichotique, seul l'indice vot entraîne une asymétrie perceptive corrélée a la dominance hémisphérique pour le langage déterminée par un test à l'amytal chez certains patients épileptiques. Par ailleurs, les expériences sur la perception du vot soutiennent l'hypothèse que la distinction phonétique entre consonnes voisées et non-voisés pourrait reposer sur une capacité auditive de détection d'un ordre temporel entre deux événements et que cette capacité serait sous le contrôle de l'hémisphère gauche chez des sujets droitiers. Ces résultats comportementaux sont corroborés par nos investigations électrophysiologiques qui montrent que des propriétés physiologiques de base peuvent encoder le vot de façon temporelle et que ce codage séquentiel n'apparaît que dans le cortex auditif gauche chez le sujet droitier
Iin the present thesis, we studied the processing of two acoustical speech features: voice-onset time (vot) and place of articulation (pa). Behavioural and electrophysiological data were obtained from human subjects. Natural syllabes, pronounced by a native French speaker, were presented to subjects in both an identification and a dichotic listening task. The group of subjects consisted of normals and epileptic patients. The latter were candidate for surgical treatment of their epilepsy. For this purpose they had intra-cerebral electrodes implanted in the auditory cortex. They were also submitted to the test of Wada, revealing their speech dominant hemisphere. Both normals and epileptic patients participated in behavioural experiments (identification of syllables; registration of reaction time). For the epileptic patients, intra-cerebral auditory evoked potentials were recorded. The results of the present study support the hypothesis that the left hemisphere dominance for speech is not based on the processing of general verbal characteristics of sounds but on specific acoustical aspects of the auditory information. Indeed, although both pa and vot are phonetic features, in a dichotic listening protocol only the feature vot results in a perceptual asymmetry between left and right hemisphere, correlated to the language dominant hemisphere. Moreover, the results of experiments where we varied the duration of the vot show that the perceptual distinction between voiced and unvoiced consonants is based on the detection of the successive acoustical events (voice and vowel), and that this auditory capacity is controlled by the left hemisphere (for right-handed subjects). These results are confirmed by the electrophysiological data, showing that, in left (and not in right) auditory cortex, the processing of a syllable is time-locked with the distinct parts of the syllable, indicating a temporal processing of the acoustical events of the syllable
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Crouzet, Olivier. „Segmentation de la parole en mots et régularités phonotactiques : Effets phonologiques, probabilistes ou lexicaux ?“ Phd thesis, Université René Descartes - Paris V, 2000. http://tel.archives-ouvertes.fr/tel-00425949.

Der volle Inhalt der Quelle
Annotation:
Selon des travaux récents, les locuteurs seraient capables de recourir à des connaissances sur les régularités phonotactiques ou syllabiques de leur langue pour segmenter le signal de parole en mots. Une analyse distributionnelle de la fréquence des groupes de consonnes dans un lexique informatisé de la langue française révèle cependant l'existence d'un lien étroit entre la structure phonologique des groupes de consonnes et leur probabilité d'occurrence dans la langue. Les séquences de phonèmes tautosyllabiques ou légales sont en moyenne beaucoup plus fréquentes que les séquences hétérosyllabiques ou illégales. Trois modèles des processus de segmentation lexicale sont présentés qui pourraient rendre compte des effets observés sans recourir à des processus de segmentation fondés sur les régularités phonologiques de la langue. Les expériences conduites ont pour objectif de dissocier ces diverses interprétations d'un modèle de segmentation fondé sur les régularités phonologiques. Les résultats obtenus confirment en partie l'influence des contraintes phonologiques sur les processus de segmentation de la parole en mots. Ils incitent cependant à développer une réflexion sur le niveau d'implémentation de ces connaissances (prélexical vs. post-lexical) et sur leur mode d'intégration dans un modèle du traitement de la parole. Un modèle est proposé dans lequel ces procédures de segmentation constitueraient des routines générales d'organisation perceptive qui ne seraient pas spécifiques des processus de traitement du langage parlé et n'influenceraient pas directement les niveaux de représentation lexicaux. Ces deux catégories de traitements seraient indépendantes et intégrées au cours d'une étape ultérieure.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Cathiard, Marie-Agnès. „La perception visuelle de l'anticipation des gestes vocaliques : cohérence des évènements audibles et visibles dans le flux de la parole“. Grenoble 2, 1994. http://www.theses.fr/1994GRE29052.

Der volle Inhalt der Quelle
Annotation:
Cette these porte sur la perception de l'anticipation des deux dimensions visibles de la modulation syllabique de voyelle a voyelle, l'arrondissement et la hauteur. La premiere partie comporte une revue de question sur la perception audiovisuelle (notamment sur la recuperation des invariants et la desynchronisation son image) et sur la structure coarticulee de la parole, sa production et sa perception. La deuxieme partie consacree a la perception visuelle du trait d'arrondissement, au cours des pauses acoustiques, montre que ce trait peut etre identifie jusqu'a 210 ms avant que le moindre son ait ete emis. La frontiere visuelle - sa date comme sa pente - depend du profil articulatoire du signal. Mais sur un meme profil, le phonomene est robuste pour differentes conditions experimentales (angle de vue : face vs. Profil ; type de presentation : images statiques vs. Sequences dynamiques) : un empan de variation de 40 ms au maximum est observe au niveau des frontieres, et ceci pendant la phase de transition et non aux positions cibles. Un gain du mouvement (de 30 ms au plus) n'est obtenu que de face, le profil (statique et dynamique) presentant les meilleures performances. Notre interpretation reste dans la veine des traitements de type shape from notion : le mouvement ne sert a recuperer la forme que lorsque celle-ci est sous-echantillonnee ou n'est pas projetee sous son angle le meilleur, cet angle etant pour l'arrondissement le profil. La troisieme partie teste la coherence du flux audiovisuel en reduisant le retatd naturel et l'audio sur le visuel. Le resultat majeur, obtenu finalement pour l'arrondissement et la hauteur, est que les scores d'identification ne decroissent pas tant que l'avance du son n'atteint pas les frontieres visuelles. Au-dela, une majorite de sujets s'averent sensibles au conflit ou se laissent illusionner par la vision. En conclusion, c'est donc la coherence configurationnelle qui determine la marge de manoeuvre des discordances naturelles dans l'organisation temporelle de la parole
This thesis deals with the perception of anticipation for the two visible dimensions of the vowel-tovowel syllabic modulation : i. E. Rounding (i-y) and height (i-a). The first part consists of a thorough review of the literature on audiovisual speech perception (mainly the recovery of invariants and sound sight desynchronisation) and on the production and the perception of the coarticulation phenomenon. The second part evaluates visual perception of the rounding gesture along acoustic pauses. Rounding can thus be visually identified up to 210 ms before the sound. The identification boundary - its date and its slope - depends on articulatory anticipation. But on the same signal, this phenomenon is robust for different experimental conditions (view angle : front vs. Profile ; presentation of static images vs. Dynamic sequences) : a meximum variation of 40 ms is observed on boundaries, differences appearing only in the transition phase, but not on target positions. A motion benefit (30 ms at best) is obtained only for front view, profile ones (static and dynamic) giving the best performances. Our interpretation draws near to the shape from motion processing : movement is useful to recover shape only when this shape is undersampled or not optimally profected, as it is the case for rounding in front views (vs. Profile ones). The third part of the thesis explores the coherence of audiovisual flow by reducing the natural delay of audio relative to the visual speech signal. The major result, obtained finally for rounding and height anticipation, is that identification scores do not decrease as long as the sound does not come ahead of the visual boundary. When it precedes this boundary, a majority of subjects experience conflict or are illusioned by vision. Thus the overall conclusion put emphasis on configurational vs. Timing constraints in speech
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Elsabbagh, Mayada M. A. „Mécanismes précurseurs de changement développemental dans la cognition : trajectoires d'organisation perceptuelle typiques et atypiques /“. Montréal : Université du Québec à Montréal, 2005. http://accesbib.uqam.ca/cgi-bin/bduqam/transit.pl?&noMan=24713003.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Guellaï, Bahia. „Reconnaissance des visages par le nouveau-né : étude du rôle du langage, du regard et du mouvement“. Paris 5, 2011. http://www.theses.fr/2011PA05H117.

Der volle Inhalt der Quelle
Annotation:
Quelques heures après leur naissance les bébés sont déjà capables de reconnaître des visages. Les recherches sur le traitement et la reconnaissance des visages non familiers par les nouveau-nés ont présenté des stimuli abstraits ou sous format photographique. Or, dans la vie de tous les jours, les visages parlent, regardent, bougent…Tous ces éléments perçus de manière combinée pourraient moduler le traitement et la reconnaissance des visages à la naissance. Dans cette thèse, nous avons cherché à répondre à cette question en présentant aux nouveau-nés des visages dans des situations interactives, sous format vidéo. Une première série d’expériences a permis de montrer l’influence du langage sur la reconnaissance des visages à la naissance. Une seconde série a montré l’importance de l’association entre le regard direct et le langage dans cette reconnaissance. Une troisième série a montré que les mouvements rigides (de la tête) et non rigides (des traits internes) perçus ensemble en synchronie avec le flux de parole, comme c’est le cas lorsqu’un visage parle, facilitent le traitement et la reconnaissance des visages par le nouveau-né. De plus, placés devant deux configurations abstraites d’un visage parlant où seuls les mouvements rigides et non rigides sont spécifiés en synchronie avec le discours, les nouveau-nés détectent très rapidement la configuration qui est congruente avec la phrase entendue. Les travaux de cette thèse, en proposant une méthodologie plus proche des situations réelles, apportent des éléments nouveaux concernant les habiletés sociocognitives précoces des nouveau-nés
A few hours after birth newborns are already able to recognize faces. Research on unfamiliar face recognition at birth used photographs and abstract stimuli. However, in everyday life, faces speak, look, move. . . All of these elements perceived in combination could modulate face recognition at birth. The present work aimed at answering this question by presenting faces in interactive situations, using video films. A first series of experiments evidenced the influence of language on face recognition at birth. A second series showed that it is the association between direct gaze and language that is important in face recognition. A third series showed that rigid motion (of the head) and non-rigid motion (of internal features) presented together in synchrony with the flow of speech, as it is the case in a talking face, facilitated face recognition by newborn infants. In addition, when faced with two abstract configurations of a talking face in which only the rigid and non-rigid movements are specified in synchrony with the speech, newborns can rapidly detect the configuration that is congruent with the sentence heard. The work of this thesis by proposing a methodology closer to real life situations provides new evidence for early social-cognitive skills already present at birth
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

DURAFOUR, JEAN PIERRE. „Etudes de semantique genetique. Introduction a une phenomenologie de la perception du langage“. Université Marc Bloch (Strasbourg) (1971-2008), 2000. http://www.theses.fr/2000STR20045.

Der volle Inhalt der Quelle
Annotation:
Mises en chantier a l'occasion d'une reflexion critique sur les causes authentiques, jamais jusqu'ici, selon nous, identifiees, de la mediocre performance de la pedagogie de la lecture, les etudes de semantique genetiques sont caracterisees par un double mouvement : 1ʿ) tout d'abord, par un mouvement de deconstruction de la notion ancienne et moderne de sens litteral : un sens homogene, objectif et invariant qui serait inherent a la forme materielle des signes langagiers, et donc par une deconstruction des theories statiques empirico-formelles du sens (grammaire chomskyenne) et de l'esprit (cognitivisme, modularisme ; neoconnexionnisme) - et de leur principe genetique commun de compositionnalite-, toutes theories heritees de l'ontologie classique et des theories de la connaissance auxquelles cette meme ontologie conceptuelle, reductionniste et logiciste, donne lieu ; 2ʿ) ensuite, par un mouvement d'elaboration theorique au cours duquel dans le cadre conceptuel de la pensee complexe et de l'enaction, une theorie dynamique et non radicalement constructiviste de l'organisation globale et locale et des mecanismes de la genese du sens discursif en tant que zeitgestalt d'un type nouveauest proposee (renvoi dos a dos de l'atomisme et du gestaltisme purs). Ainsi, en appui notamment sur les phenomenologies allemande et francaise (husserl, heidegger, merleau-ponty), sur les travaux de biologistes (maturana, varela) aussi bien que sur les conceptions philosophiques et linguistiques d'e. Coseriu et de j. -m. Zemb, la semantique genetique parvient-elle philosophiquement et scientifiquement a apporter a une serie de questions brulantes qui sont au cur de la semantique actuelle, de la linguistique et des sciences de la cognition des reponses inedites.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Bogliotti, Caroline. „Perception catégorielle et perception allophonique : incidences de l'âge, du niveau de lecture et des couplages entre prédispositions phonétiques“. Phd thesis, Université Paris-Diderot - Paris VII, 2005. http://tel.archives-ouvertes.fr/tel-00468920.

Der volle Inhalt der Quelle
Annotation:
Ce travail avait pour objectif d'évaluer la perception catégorielle de la parole (PC) et les liens qu'elle entretient avec l'apprentissage de la lecture et les difficultés de cet apprentissage. Les études ont porté sur des continua de voisement (VOT) et de lieu d'articulation (transitions de F2 et F3). Trois critères ont été utilisés pour évaluer la PC : la perception catégorielle relative, l'effet de frontière phonémique et la précision catégorielle. Cinq études ont été effectuées, 3 sur le voisement (études 1, 2 et 3), 1 sur le lieu d'articulation (étude 4) et 1 sur voisement et lieu (étude 5). L'étude 1, dans laquelle ont été suivis de 6 à 8 ans des enfants qui étaient non lecteurs à 6 ans, a permis de relever un effet de l'âge et/ou de l'apprentissage de la lecture sur la PC. L'effet du niveau de lecture sur la PC a été également relevé dans l'étude 2, qui a permis de constater que des dyslexiques de 10 ans, comparativement à des normolecteurs de même âge, présentaient un déficit de PC, et plus spécifiquement un mode de perception allophonique. L'étude 3 a en plus mis en relief le fait que le déficit de PC était persistant, étant donné qu'il a été observé chez des dyslexiques relativement âgés (17 ans). Les travaux sur le trait de voisement suggèrent que la perception allophonique résulterait d'un déficit de couplage entre prédispositions phonétiques au cours du développement perceptif. Nous avons confirmé cette hypothèse pour le trait de lieu d'articulation dans l'étude 4, qui a porté sur des adultes. Dans la dernière étude, nous avons proposé à des dyslexiques de 8 à 10 ans des entraînements qui avaient pour objectif de « corriger » leur déficit de perception allophonique. Cette tentative a échoué, ce qui indique que ce déficit est résistant à la remédiation. Ces résultats suggèrent que la perception allophonique serait à l'origine des difficultés de lecture des dyslexiques, ce mode de perception entravant l'établissement des correspondances graphèmes-phonèmes, condition sine qua non de l'apprentissage de la lecture.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Latinus, Marianne. „De la perception unimodale à la perception bimodale des visages : corrélats électrophysiologiques et interactions entre traitements des visages et des voix“. Toulouse 3, 2007. http://www.theses.fr/2007TOU30028.

Der volle Inhalt der Quelle
Annotation:
Cette thèse a examiné le traitement des visages, des voix et des interactions entre ces traitements en utilisant la technique des potentiels évoqués, qui a permis d'étudier le décours temporels de ces différents processus. Mes études sur la perception des visages montre que 3 traitements relationnels différents sont recrutés successivement ; chacun sous-tend une étape de la perception des visages, de leur détection à leur identification. Dans une deuxième partie, la perception des voix est abordée ; il est montré que le traitement des voix diffèrent légèrement de celui du visage. Dans la dernière partie, les résultats obtenus dans l'étude des interactions bimodales des visages et des voix confirment la différence entre traitements des voix et traitements des visages ; les informations portées par le visage semblent prévaloir sur celle portée par la voix dans la perception du genre des individus. Un modèle résumant les résultats des différentes études menées pendant cette thèse est proposé à la fin. Ce modèle suggère une différence entre traitement des voix et des visages due à la spécialisation des systèmes sensoriels dans la communication verbale et non verbale respectivement
This thesis examined the processing of faces and voices, as well as the interaction between them, using evoked potentials; this technique informs on the temporal course of these processes. My experiments on face processing revealed that faces recruit successively the three configural processes described in the literature; each process underlies a stage of face perception from detection to identification. In a second part of this thesis, voice perception was approached. I showed that voices are processed in a slightly different way than faces. In the last part of this thesis, bimodal interactions between auditory and visual information was investigated using gender categorisation of faces and voices presented simultaneously. This study reinforced the view that face and voice processing differed; information carried by faces overruled voice information in gender processing. A summary model is presented at the end of the thesis. This model suggests that face and voice processing differ due to the specialisation of the auditory and visual systems in verbal and non verbal communication, respectively; these differences lead to a dominance of visual information in non verbal social interactions and a dominance of auditory information in language processing
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Leclère, Thibaud. „Towards a binaural model for predicting speech intelligibility among competing voices in rooms“. Thesis, Vaulx-en-Velin, Ecole nationale des travaux publics, 2015. http://www.theses.fr/2015ENTP0008/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse vise à proposer un modèle pouvant prédire l’intelligibilité d’une voix cible masquée par des sources concurrentes dans les salles. Un modèle a déjà été développé par Lavandier et Culling (2010) et est capable de prédire l’intelligibilité d’une cible en champ proche perturbée par plusieurs sources de bruit. Le travail présenté ici traite des nouvelles implémentations et expérimentations nécessaires pour étendre le modèle au cas de cibles distantes et au cas de voix concurrentes, qui présentent des propriétés acoustiques différentes des bruits stationnaires (fluctuation d’enveloppe, fréquence fondamentale, modulations de fréquence fondamentale). L’effet nuisible de la réverbération sur la parole cible a été implémenté avec succès. Cette nouvelle version du modèle permet une interprétation unifiée de plusieurs effetsperceptifs observés dans la littérature mais il présente une dépendance de la salle, ce qui limite son aspect prédictif. Des travaux expérimentaux ont été menés pour déterminer comment le modèle pourrait prendre en compte le cas de sources cibles et masquantes avec des spectres différents ainsi que le cas où plusieurs mécanismes auditifs opèrent simultanément (ségrégation par F0, démasquage spatialet écoute dans les creux de modulation)
This PhD work aims to propose a model predicting the perceived intelligibility of a target speech masked by competing sources in rooms. An existing model developed by Lavandier and Culling (2010) is already able to predict speech intelligibility of a near-field target in the presence of multiple noise sources. The present work deals with new implementations and experimental work needed to extend the model tothe case of a distant target and to the case of masking voices, which present different acoustical properties than noises (envelope fluctuations, fundamental frequency, modulations of fundamental frequency). The detrimental effect of reverberation on the target speech has been successfully implemented. This new version of the model provides a unified interpretation of several perceptual effects previously observed in the literature but it presents a room dependency which limits its predictive power. Experimental work has been conducted to determine how the model could account for sources presenting different spectra, and to account for several auditory mechanisms operating simultaneously (F0 segregation, spatial unmasking and temporal dip listening)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

CONNAN, PIERRE YVES. „Etude, a la lumiere des temps de reaction, des strategies lexicales et des analyses phonetico-acoustiques en reconnaissance lexicale auditive, a partir de parole naturelle“. Université Marc Bloch (Strasbourg) (1971-2008), 1998. http://www.theses.fr/1998STR20014.

Der volle Inhalt der Quelle
Annotation:
Si l'experience quotidienne de la communication orale atteste de l'efficacite du mecanisme general de perception et de comprehension des enonces, cela ne doit pas pour autant nous faire oublier qu'il s'agit la d'un mecanisme d'une extreme complexite. La nature meme de la parole continue, veritable flux sonore distribue temporellement mais souvent lacunaire, variable et difficilement segmentable en unites discretes, semble impossible a concilier avec notre apparente facilite a comprendre le langage parle. Cette complexite est egalement due aux nombreuses etapes (acces, selection et integration) propres au traitement lexical et aux multiples relations qui existent entre les representations mentales : les dimensions phonologiques, morphologiques et semantiques peuvent interagir a des niveaux et a des moments divers parmi ces processus. Cette etude, qui repose sur une tache de decision lexicale ainsi que sur des mesures comportementales (temps de reaction), devrait permettre une meilleure connaissance de l'organisation des strategies mise en oeuvre pour la reconnaissance des mots. Un autre interet de ce travail consiste alors a chercher si la reconnaissance de la parole est facilitee (paradigme d'amorcage) quand un mot ou un non-mot 'amorce' et 'cible' partagent la meme sequence initiale, dont le statut, soit phonologique, soit morphemique, pourrait modifier les conditions d'acces au lexique mental. Les resultats montrent l'absence d'effet de l'amorcage phonologique et le statut specifique de la premiere syllabe 'morphemique', le prefixe, qui facilite la decision lexicale. Les donnees issues de plusieurs populations d'auditeurs francais non entraines, classes selon le sexe et l'age, sont analysees en relation constante avec des modeles interactifs de reconnaissance lexicale, telle la theorie de la cohorte qui donne la priorite a l'analyse acoustico-phonetique (bottom-up) et une importance particuliere au debut des mots et aux informations 'top-down'
If daily practice of oral communication shows how performant is the general processing of perception and comprehension of spoken utterances, we can't forget that spoken word recognition is an extremely complex phenomenon. On-going speech is naturally 'directional' in time but often incomplete, variable and very difficult to segment into discrete units. All these arguments seem incompatible with the intrinsic facility of understanding spoken language. This complexity is also due to the numerous steps (access, selection and integration) that constitute the lexical processing, and to the multiple relationships that exist within mental representations: phonological, morphological and semantic dimensions can interact at different levels and times in these processes. This study, based on a lexical decision task and on comportemental measurements (reaction times), should enable a better understanding of the organization of word recognition strategies. A major question addressed here, is to find out if auditory word recognition is facilitated (priming paradigm) when a word or a non-word prime and target share the same initial sequence, whose status, whether phonological or morphemic, may change access conditions to the mental lexicon. The results show a lack of phonological priming effect and the specific status of the initial morphemic syllable (prefix) as a factor that facilitates lexical decision. The data from large groups of untrained french listeners, classified by sex and age, are discussed in relation to interactive lexical recognition models such as the cohort theory, that have shown the priority of acoustic-phonetic analysis of the incoming speech signal ('bottom-up' information), the importance of word onsets and the role of 'top- down' information and processes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie