Дисертації з теми "Reconnaissance de la langue"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Reconnaissance de la langue.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Reconnaissance de la langue".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Nguyen, Quoc Cuong. "Reconnaissance de la parole en langue vietnamienne." Grenoble INPG, 2002. http://www.theses.fr/2002INPG0044.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La langue vietnamienne est une langue asiatique tonale avec six tons lexicaux dans laquelle chaque syllabe est prononcée avec un ton lexical distinct. Le principal objectif de ce travail de thèse est la réalisation d'un moteur de reconnaissance automatique de la parole en langue vietnamienne. Dans les langues tonales, pour reconnaître les mots, il faut réaliser la reconnaissance des syllabes prononcées avec le ton, c'est-à-dire réaliser deux processus parallèles de reconnaissance du ton et de reconnaissance de la syllabe sans le ton. Nous avons réalisé un corpus multi-locuteurs qui constitue une base de données en langue vietnamienne pour la caractérisation des six tons du vietnamien. Les gabarits des tons sont alors déduits pour permettre de définir un vecteur caractéristique nécessaire à la reconnaissance des tons vietnamiens. Notre système de reconnaissance des tons vietnamiens utilise la technique fondée sur les modèles de Markov caches (HMM). Le taux de reconnaissance des tons atteint est de 93. 3 % en mode dépendant du locuteur et de 91. 5 % en mode indépendant du locuteur. Un module de reconnaissance de la syllabe vietnamienne sans ton, lui aussi fondé sur l'utilisation de HMMS est alors couple au module de reconnaissance des tons pour réaliser un prototype de reconnaissance du vietnamien en mots isolés. Le taux de reconnaissance du moteur complet est de 80. 7 % en mode de mots isolés.
2

Burger, Thomas. "Reconnaissance automatique des gestes de la langue française parlée complétée." Phd thesis, Grenoble INPG, 2007. http://tel.archives-ouvertes.fr/tel-00203360.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le LPC est un complément à la lecture labiale qui facilite la communication des malentendants. Sur le principe, il s'agit d'effectuer des gestes avec une main placée à côté du visage pour désambigüiser le mouvement des lèvres, qui pris isolément est insuffisant à la compréhension parfaite du message. Le projet RNTS TELMA a pour objectif de mettre en place un terminal téléphonique permettant la communication des malentendants en s'appuyant sur le LPC. Parmi les nombreuses fonctionnalités que cela implique, il est nécessaire de pouvoir reconnaître le geste manuel du LPC et de lui associer un sens. L'objet de ce travail est la segmentation vidéo, l'analyse et la reconnaissance des gestes de codeur LPC en situation de communication. Cela fait appel à des techniques de segmentation d'images, de classification, d'interprétation de geste, et de fusion de données. Afin de résoudre ce problème de reconnaissance de gestes, nous avons proposé plusieurs algorithmes originaux, parmi lesquels (1) un algorithme basé sur la persistance rétinienne permettant la catégorisation des images de geste cible et des images de geste de transition, (2) une amélioration des méthodes de multi-classification par SVM ou par classifieurs unaires via la théorie de l'évidence, assortie d'une méthode de conversion des probabilités subjectives en fonction de croyance, et (3) une méthode de décision partielle basée sur la généralisation de la Transformée Pignistique, afin d'autoriser les incertitudes dans l'interprétation de gestes ambigus.
3

Duroselle, Raphaël. "Robustesse au canal des systèmes de reconnaissance de la langue." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0250.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La tâche de reconnaissance de la langue consiste à prédire la langue utilisée dans un énoncé audio contenant de la parole. Depuis 2017, les systèmes atteignant les meilleures performances reposent sur un réseau de neurones profond, entraîné à identifier la langue pour l’ensemble du segment. Ces systèmes subissent une perte de performance lorsqu’ils sont exposés à une variation des canaux de transmission entre les données d’entraînement et d’évaluation. L’objet de cette thèse est l’exploration d’approches permettant de limiter cette perte de performance dans le cadre de ces nouveaux systèmes. Nos travaux peuvent être regroupés en trois directions : l’étude d’une méthode d’amélioration de la robustesse au canal des systèmes, l’analyse de leur robustesse et la simplification de la recette d’apprentissage. Une augmentation de l’invariance, par rapport au canal de transmission, des représentations utilisées par le réseau de neurones peut augmenter la robustesse du système. Nous montrons que la régularisation de la fonction de coût utilisée lors de l’entraînement du réseau de neurones est un outil efficace pour augmenter cette invariance. Deux types de fonction de régularisation sont analysés. Les mesures de divergence entre les domaines réduisent efficacement la variabilité entre des canaux identifiés, elles peuvent également être utilisées pour valoriser des données non annotées dans le cadre d’un apprentissage semi-supervisé. Les fonctions de coût de metric learning permettent de réduire des variabilités inconnues dans l’ensemble d’apprentissage. Nous montrons comment cette méthode peut être mise en œuvre dans trois scénarios d’apprentissage d’intérêt pratique : l’adaptation de domaine non supervisée, l’apprentissage multi-domaines et la généralisation à un domaine inconnu. Au cours de l’étude de cette approche, nous développons des méthodes d’analyse de la qualité des représentations. Elles visent à mesurer la variabilité des représentations due au canal de transmission et à la comparer à la variabilité due à la langue. Deux outils sont introduits : le calcul de rapports entre les covariance inter-classes et intra-classes et la mesure de divergences entre groupes de représentations. Ceux-ci nous permettent d’évaluer quantitativement la robustesse des représentations au changement de canal et donc de comprendre l’effet des fonctions de régularisation sur l’espace des représentations. En particulier, ces méthodes révèlent que l’augmentation de l’invariance entre les canaux peut mener à des représentations plus discriminantes entre les langues et donc à une amélioration de la performance sur chacun des canaux de transmission.Enfin, nous contribuons à l’amélioration de la recette d’entraînement d’un autre module du système, l’extracteur de bottleneck features. Nous montrons qu’un réseau de neurones de reconnaissance de la parole de bout en bout multilingue permet de réaliser cette extraction, avec une meilleure performance et une recette d’apprentissage simplifiée. L’utilisation d’augmentations de données et de méthodes de régularisation améliore la performance de ce module. D’autre part nous montrons qu’un gain de performance peut être obtenu en réalisant un entraînement conjoint de ce module avec le réseau d’identification de la langue. Cela ouvre la voie à l’application simultanée des fonctions de régularisation étudiées aux deux modules
Language recognition is the task of predicting the language used in a test speech utterance. Since 2017, the best performing systems have been based on a deep neural network which is trained to predict language labels for the whole utterance. These systems suffer from a drop in performance when they are exposed to a change of the transmission channel between train and test data. The goal of this thesis is to investigate approaches to limit this performance drop, for these new systems.An increase in the invariance, with respect to the transmission channel, of the representations used by the neural network can increase the robustness of the system. We show that the regularization of the loss function used to train the neural network is an efficient approach to increase invariance. Two kinds of regularization functions are analysed. Divergence measures between domains reduce effectively the variability between known domains, they can also be used to incorporate unlabeled data into the training set in a semi-supervised learning framework. Metric learning cost functions are able to reduce unknown variabilities within the training set. We show how this regularization method can be enforced for three practical learning settings: unsupervised domain adaptation, multi-domain learning and domain generalization.During this work, we have designed methods for analyzing the quality of the representations. They aim at evaluating the variability of the representations induced by the transmission channel and to compare it to the variability that caused the language. Two tools are proposed: ratio between inter class and intra class covariance matrices and divergence measures between groups of representations. With these tools, we quantitatively evaluate the robustness to a change of transmission channel of the representations and analyse the effect of the regularization functions over the space of representations. We understand that an increase in invariance between channels can lead to more discriminative representations between languages and consequently to an increase in performance over each transmission channel.Finally, we contribute to the improvement of the training recipe of another module of the system, the bottleneck feature extractor. We replace it with a multilingual end-to-end automatic speech recognition neural network. It achieves a simiar performance as a traditional bottleneck feature extractor with a simplified training recipe. The use of data augmentation and regularization methods improves further this module. Moreover we show that a performance gain can be achieved with a joint training of the bottleneck feature extractor along with the language identification neural network. This paves the way to the application of the proposed regularization loss functions to the two modules jointly
4

BRAFFORT, ANNE. "Reconnaissance et comprehension de gestes, application a la langue des signes." Paris 11, 1996. http://www.theses.fr/1996PA112229.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these s'inscrit dans le domaine de la communication homme-machine et plus specifiquement dans celui de la communication gestuelle. L'objectif est la conception de systemes de reconnaissance et de comprehension adaptes au canal gestuel afin de pouvoir integrer de nouvelles possibilites d'interactions au sein d'interfaces informatiques. Une attention particuliere a ete portee au probleme de la reconnaissance et de la comprehension de la langue des signes francaise (lsf). Une etude detaillee de la structure et du fonctionnement de la lsf a ete menee en vue de sa modelisation informatique. Parmi les differentes proprietes degagees, les deux suivantes sont particulierement importantes. Tout d'abord, un signe est multidimensionnel car il possede la propriete de transmettre plusieurs types d'informations simultanement, par l'intermediaire de parametres qui sont au nombre de quatre pour les gestes de la main (configuration, mouvement, orientation et emplacement). Par ailleurs, deux categories de signes doivent etre distinguees: les gestes pour lesquels les quatre parametres sont invariables quelque soit le contexte (les signes standards) et ceux pour lesquels au moins un des parametres est variable en fonction du contexte (les signes variables). Le systeme propose, nomme argo, tient compte des resultats de cette etude. Il est compose d'un module de reconnaissance et d'un module de comprehension. Le module de reconnaissance est base sur une approche markovienne qui a permis l'obtention de resultats tres encourageants sur des phrases de gestes enchaines composees de signes standards et variables (taux de reconnaissance 96%). Le module de comprehension est fonde sur la definition de regles spatio-temporelle et la representation de la scene de narration du signeur. Un prototype comportant une scene virtuelle permet de visualiser etape par etape le processus d'interpretation. A la fin du processus, une traduction de la phrase en francais est produite
5

Ben, Mlouka Monia. "Le référencement en langue des signes : analyse et reconnaissance du pointé." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2676/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur le rôle et l'analyse du regard en langue des signes où celui-ci joue un rôle important. Dans toute langue, le regard permet de maintenir la relation de communication. En langue des signes, il permet, en plus, de structurer le discours ou l'interaction entre locuteurs, en s'investissant dans des fonctions linguistiques complexes. Nous nous intéressons au rôle de référencement qui consiste à mettre le focus sur un élément du discours. En langue des signes, les éléments du discours sont spatialisés dans l'espace de signation ; ainsi, mettre le focus sur un élément du discours revient à identifier et activer son emplacement spatial (locus), ce qui va mobiliser un ou plusieurs composants corporels, les mains, les épaules, la tête et le regard. Nous avons donc analysé le concept de référencement sous ses formes manuelles et / ou non manuelles et avons mis en place un système de reconnaissance de structures de référencement qui prend en entrée une vidéo en langue des signes. Le système de reconnaissance consiste en trois étapes: 1) la modélisation 3D du concept de référencement, 2) la transformation du modèle 3D en un modèle d'aspect exploitable par un programme de traitement 2D et 3) la détection, qui utilise ce modèle d'aspect. La modélisation consiste en l'extraction de caractéristiques gestuelles du concept de référencement à partir de corpus composés de capture 3D de mouvement et du regard et annotés manuellement à partir de vidéos. La modélisation concerne la description des composantes corporelles qui jouent un rôle dans le référencement et la quantification de quelques propriétés gestuelles des composantes corporelles en question. Les modèles obtenus décrivent : 1) La dynamique du mouvement de la main dominante et 2) la proximité spatiale entre des composantes corporelles et l'élément discursif spatialisé. La mise en œuvre de la méthode de reconnaissance intègre ces modèles 3D de profil dynamique de la main et de variation de distance entre composantes corporelles et l'élément discursif ainsi que le modèle temporel de décalages entre mouvements. Etant donné que les modèles obtenus sont tridimensionnels et que l'entrée du système de reconnaissance de structures de référencement est une vidéo 2D, nous proposons une transformation des modèles 3D en 2D afin de permettre leur exploitation dans l'analyse de la vidéo 2D et la reconnaissance des structures de référencement. Nous pouvons alors appliquer un algorithme de reconnaissance à ces corpus vidéo 2D. Les résultats de reconnaissance sont sous la forme d'intervalles temporels. On constate la présence de deux variantes principales de référencement. Ce travail pionnier sur la caractérisation et la détection des référencements nécessiterait d'être approfondi sur des corpus beaucoup plus importants, cohérents et riches et avec des méthodes plus élaborées de classification. Cependant il a permis d'élaborer une méthodologie d'analyse réutilisable
This thesis focuses on the role and analysis of gaze in sign language where it plays an important role. In any language, the gaze keeps the communication relationship. In addition to that, it allows structuring a sign language discourse or interaction between signers, by investing in complex linguistic features. We focus on the role of reference, which is to put the focus on an element of the discourse. In sign language, the components of the discourse are localized in the signing space; thus putting the focus on an element of discourse which is to identify and activate its spatial location (locus), which will mobilize one or more body parts, hands, shoulders, head and eyes. We therefore analyzed the concept of reference in its manual and / or non- manual gestures and set up a reference-based recognition system that takes as input a video in sign language. The recognition system consists of three steps: - 3D modeling of the concept of reference. - The transformation of the 3D model into a 2D model useable by a 2D recognition system. - The detection system, which uses this 2D model. Modeling involves the extraction of gestural characteristics of the concept of reference from corpus consisted of 3D motion capture and gaze and manually annotated videos and the temporal pattern of time lags between motions. Modeling concerns the description of body parts that play a role in reference and the quantification of their gestural. The resulting models describe: 1) The dynamic movement of the dominant hand and 2) the distances between body parts and locus and 3) the time lags between the beginning of motions. The implementation of the recognition method integrates these 3D models. Since the resulting models are three-dimensional and the recognition system has, as input, a 2D video, we propose a transformation of 3D models to 2D to allow their use in the analysis of 2D video and in pattern recognition of reference structures. We can then apply a recognition algorithm to the 2D video corpus. The recognition results are a set of time slots with two main variants of reference. This pioneering work on the characterization and detection of references structures would need to be applied on much larger corpus, consistent and rich and more sophisticated classification methods. However, it allowed to make a reusable methodology of analysis
6

Darcy, Isabelle. "Assimilation phonologique et reconnaissance des mots." Paris, EHESS, 2003. http://www.theses.fr/2003EHES0131.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'assimilation phonologique peut faire varier la forme sonore d'un mot sous l'influence des segments qui l'entourent. La reconnaissance des mots doit compenser ces variations systématiques caractéristiques du langage parlé. Trois expériences de détection de mot en français, anglais et américain montrent que les auditeurs utilisent une connaissance phonologique implicite des processus d'assimilation spécifiques à leur langue. En outre, cette connaissance intervient à un niveau indépendant de l'activation des représentations lexicales,la même compensation ayant été observée sur des mots et des non-mots. Ce mécanisme de compensation est également plastique : la comparaison d'apprenants anglophones et francophones d'une seconde langue (L2) montre qu'à un stade débutant, c'est le système phonologique de la langue maternelle qui effectue la compensation, mais que la construction d'un système spécifique dédié à la L2 est possible en l'espace de quelques années suite à une exposition suffisante
Phonological assimilation may change the acoustic shape of words according to the influence of surrounding segments. Word recognition has to cope with this systematic variability which characterizes spoken language. Three word-detection experiments in French, English and American English show that listeners use implicit phonological knowledge of the assimilation processes that exist in their language. Moreover, this knowledge of the assimilation independently of the activation of a lexical form, as the same compensation patterns have been observed in words and in non-words. This compensation mechanism shows some flexibility : comparing French and American second language (L2) learners shows that beginners use the phonological system of their native language to compensate for assimilation processes that exist in L2, but that more advanced learners develop a specific system dedicated to L2 within a few years of exposure
7

Masmoudi, Dammak Abir. "Approche hybride pour la reconnaissance automatique de la parole en langue arabe." Thesis, Le Mans, 2016. http://www.theses.fr/2016LEMA1040/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le développement d'un système de reconnaissance de la parole exige la disponibilité d'une grande quantité de ressources à savoir, grands corpus de texte et de parole, un dictionnaire de prononciation. Néanmoins, ces ressources ne sont pas disponibles directement pour des dialectes arabes. De ce fait, le développement d'un SRAP pour les dialectes arabes se heurte à de multiples difficultés à savoir, l’'abence de grandes quantités de ressources et l'absence d’'une orthographe standard vu que ces dialectes sont parlés et non écrit. Dans cette perspective, les travaux de cette thèse s’intègrent dans le cadre du développement d’un SRAP pour le dialecte tunisien. Une première partie des contributions consiste à développer une variante de CODA (Conventional Orthography for Arabic Dialectal) pour le dialecte tunisien. En fait, cette convention est conçue dans le but de fournir une description détaillée des directives appliquées au dialecte tunisien. Compte tenu des lignes directives de CODA, nous avons constitué notre corpus nommé TARIC : Corpus de l’interaction des chemins de fer de l’arabe tunisien dans le domaine de la SNCFT. Outre ces ressources, le dictionnaire de prononciation s’impose d’une manière indispensable pour le développement d’un SRAP. À ce propos, dans la deuxième partie des contributions, nous visons la création d’un système nommé conversion (Graphème-Phonème) G2P qui permet de générer automatiquement ce dictionnaire phonétique. Toutes ces ressources décrites avant sont utilisées pour adapter un SRAP pour le MSA du laboratoire LIUM au dialecte tunisien dans le domaine de la SNCFT. L’évaluation de notre système donné lieu WER de 22,6% sur l’ensemble de test
The development of a speech recognition system requires the availability of a large amount of resources namely, large corpora of text and speech, a dictionary of pronunciation. Nevertheless, these resources are not available directly for Arabic dialects. As a result, the development of a SRAP for Arabic dialects is fraught with many difficulties, namely the lack of large amounts of resources and the absence of a standard spelling as these dialects are spoken and not written. In this perspective, the work of this thesis is part of the development of a SRAP for the Tunisian dialect. A first part of the contributions consists in developing a variant of CODA (Conventional Orthography for Arabic Dialectal) for the Tunisian dialect. In fact, this convention is designed to provide a detailed description of the guidelines applied to the Tunisian dialect. Given the guidelines of CODA, we have created our corpus TARIC: Corpus of the interaction of the railways of the Tunisian Arab in the field of SNCFT. In addition to these resources, the pronunciation dictionary is indispensable for the development of a peech recognition system. In this regard, in the second part of the contributions, we aim at the creation of a system called conversion(Grapheme-Phonème) G2P which allows to automatically generate this phonetic dictionary. All these resources described before are used to adapt a SRAP for the MSA of the LIUM laboratory to the Tunisian dialect in the field of SNCFT. The evaluation of our system gave rise to WER of 22.6% on the test set
8

SAEB, MOHAMMAD. "Analyse morpho-syntaxique automatique de la langue persane - reconnaissance des syntagmes nominaux." Lyon 2, 1990. http://www.theses.fr/1990LYO20055.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objet de ce travail consiste a elaborer un modele linguistique pour le traitement automatique du persan. Ce modele est base sur une grammaire et un dictionnair associe auquel on fait appel pour verifier l'existence des differents constituants d'une forme dans le texte a analyser. Partant de ce modele l'analyseur morpho-syntaxique, ecrit en langage c sous le systeme d'exploitation unix, donne la liste de toutes les formes contenues dans un texte en langue persane mais transcrites en caracteres latins. A chaque forme de ce texte sera associee une categorie morphologique definie dans le modele linguistique. Les syntagmes nominaux seront ensuite extraits de cette liste. Le dictionnaire est concu suivant le modele relationnel et implemente sur le sgbd informix
The aim of this study is the eleboration of a linguistic model for the computing of persian. This model is based upon a grammar and a lexicon which can be querried to check the existence of the form in the text submitted to analysis. Based upon this model, the morpho-syntactic analyser generated by the c language in unix operating system, provides the list of all the forms included in a text written in persian. In this model a morphological category is assigend to each form in the text. Noun pharses are retrieved from the above mentioned list. The lexicon is conceived of according to the relational model and implemented upon the informix data base processing system
9

Pham, Trong-Ton. "MODELE DE GRAPHE ET MODELE DE LANGUE POUR LA RECONNAISSANCE DE SCENES VISUELLES." Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00599927.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous présentons une nouvelle méthode pour exploiter la relation entre différents niveaux de représentation d'image afin de compléter le modèle de graphe visuel. Le modèle de graphe visuel est une extension du modèle de langue classique en recherche d'information. Nous utilisons des régions d'images et des points d'intérêts (associées automatiquement à des concepts visuels), ainsi que des relations entre ces concepts, lors de la construction de la représentation sous forme de graphe. Les résultats obtenus sur catégorisation de la collection RobotVision de la compétition d'ImageCLEF 2009 et la collection STOIC-101 montrent que (a) la procédure de l'induction automatique des concepts d'une image est efficace, et (b) l'utilisation des relations spatiales entre deux niveaux de représentation, en plus de concepts, permet d'améliorer le taux de reconnaissance.
10

Bayeh, Rania. "Reconnaissance de la parole multilingue : adaptation de modèles acoustiques vers une langue cible." Paris, Télécom ParisTech, 2009. http://www.theses.fr/2009ENST0060.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le traitement de la parole est devenu une technologie clé et des systèmes de reconnaissance automatique de la parole (RAP) sont disponibles pour les langues populaires. Les utilisateurs de tels systèmes ne sont pas toujours des locuteurs natals et les conversations sont souvent un mélange de langues variées. Alors, un système pour la reconnaissance de plusieurs langues est nécessaire. Dans le cadre de la RAP multilingue et avec l'objectif de la modélisation acoustique universelle, cette thèse vise le «portage» des modèles acoustiques (MA) d'une langue peu-dotées à partir des MA d'une langue populaire. L’approche dite «portage» consiste à trouver une association entre les unités de la langue source et celles de la langue cible, initialiser les MA cibles à partir de cette association et finalement adapter ces modèles avec peu de données. Des méthodes «knowledge-driven» et «data-driven» sont étudiées pour l’association entre l’Arabe Standard (langue cible) et le Français (langue source) pour différents types d’élocution et d’applications. A partir des associations obtenues, chaque MA HMM cible indépendant du contexte (CI) est initialisé d'un seul modèle acoustique HMM source et une adaptation de ces modèles est appliquée. Pour l’initialisation des MA cible a partir de plusieurs MA source, de nouveaux modèles «multi-path» sont proposés. En plus, Les MA dépendant du contexte (CD) sont meilleure que ceux indépendant du contexte pour la RAP monolingue et multilingue. Alors, différentes méthodes sont ainsi proposées pour porter des MA CD d’une langue source à une langue cible avec peu de données. Toutes approches sont aussi validées pour une nouvelle langue, L’arabe dialectale
Speech processing has become a key technology where different automatic speech recognition (ASR) systems are available for popular languages. With the constant interaction of different cultures, not all users of such systems are native speakers & conversations are often a mixture of several languages which is challenging for ASR. Therefore, a multilingual ASR system is needed. This thesis focuses on efficiently porting the acoustic models (AM) of an under resourced target language using the acoustic models of a more resourced source language with the goal of universal acoustic modeling. Different approaches are suggested & tested for porting models for the recognition of Modern Standard Arabic starting from French for different types of speech & applications. Porting includes the association of speech units, initialization & adaptation of AM. Initially, methods are proposed for the creation of one-to-one phone associations by a human expert or using an automatic data-driven approach. Initialization is done at the context independent level by copying Hidden Markov Models (HMM) target language phone models from a source language HMM phone model based on these associations. Resulting models are adapted using different amounts of target language data. Then, novel methods for one-to-many associations are introduced & multi-path models are used for initialization. Moreover, since the superiority of context dependency extends to cross-lingual & multilingual, different approaches are proposed to create context dependent AM for the under resourced target language using robust AM from a source language. Approaches are also validated for a new language, Colloquial Levantine Arabic
11

Metzger, Jean-Paul. "Syntagmes nominaux et information textuelle : reconnaissance automatique et représentation." Lyon 1, 1988. http://www.theses.fr/1988LYO19013.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un modele morpho-syntaxique d'analyse de la surface d'un texte ecrit en francais et de reconnaissance des syntagmes nominaux est propose et discute dans la premiere partie de l'etude. Chacun des phases de l'analyse est decrite par un programme en langage prolog. L'ensemble des donnees lexicales necessaires a la categorisation des formes y est presente comme une base de donnees. Le probleme de la structure du syntagme nominal est ensuite aborde. Adoptant un point de vue logique, l'auteur admet son caractere d'expression logique fermee et son role de quantificateur restreint au sein de formations syntagmatiques plus larges (phrase, proposition, syntagme nominal). Il est fait appel par ailleurs a la notion de predicat complexe pour rendre compte des constructions du type non-epithete, adjectif-adverbe, nom-complement. Un schema de base de donnees est introduit, qui decrit la structure et le mode de representation de l'ensemble des syntagmes nominaux d'un corpus de textes et des unites predicatives correspondantes (simples ou complexes)
12

MAHMOUDI, SEYED MOHAMM. "Contribution au traitement automatique de la langue persane : analyse et reconnaissance des syntagmes nominaux." Lyon 2, 1994. http://www.theses.fr/1994LYO20070.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette étude consiste dans la conception et la mise au point d'un analyseur morpho-syntaxique du persan en vue des applications à l'indexation automatique et à l'enseignement des langues assisté par ordinateur (EAO). Parmi les prolongements qu'on peut attendre de cette recherche, il y a d'abord le traitement automatique de la langue naturelle dans des systèmes d'intelligence artificielle. L'apport principal de cette étude réside essentiellement dans la reconnaissance automatique des syntagmes nominaux (sn) en persan ; elle permettra par ailleurs l'analyse et la génération automatique d'une grande partie des particules de liaison d'ézafé. Chacune des phases de l'analyse est écrite par un programme en langage Prolog (Turbo-Prolog). L'ensemble des données "lexicales" nécessaires à la catégorisation des formes morpho-syntaxiques y est présenté comme une base de données
The aim of this thesis is the conception and realisation of a morpho-syntaxic parser of Persian designed for applications to automatic indexing and computer-assisted instruction (or learning) of the language (cai or cal). One of the chief extensions to this research is the automatic processing of natural language by means of artificial intelligence systems. The main interest of this contribution is to study the automatic recognition of noun phrases in Persian. Each stage of the parsing is described in a program in Prolog language (Turbo-Prolog). The whole of the lexical datas necessary for the categorisation of morpho-syntaxic forms is presented as a database
13

Aboutabit, Noureddine. "Reconnaissance de la Langue Française Parlée Complété (LPC) : décodage phonétique des gestes main-lèvres." Phd thesis, Grenoble INPG, 2007. http://www.theses.fr/2007INPG0153.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La Langue Française Parlée Complétée (LPC) héritée du Cued Speech (CS) a été conçue pour compléter la lecture labiale par nature ambigüe et ainsi améliorer la perception de la parole par les sourds profonds. Dans ce système, le locuteur pointe des positions précises sur le côté de son visage ou à la base du cou en présentant de dos des formes de main bien définies. La main et les lèvres portent chacune une partie complémentaire de l’information phonétique. Cette thèse présente tout d’abord une modélisation du flux manuel pour le codage automatique des positions de la main et de la configuration. Puis les travaux sont centrés sur le flux labial en discutant la classification des voyelles et des consonnes du Français. Le flux labial est composé des variations temporelles de paramètres caractéristiques issus du contour interne et externe des lèvres. Dans le cas des voyelles la méthode de classification utilise la modélisation gaussienne et les résultats montrent une performance moyenne de 89 % en fonction de la position de la main LPC. Le contexte vocalique est pris en compte dans le cas des consonnes par une modélisation HMM de la transition labiale de la consonne vers la voyelle avec un taux d’identification de 80 % en termes de visèmes CV. Un modèle de fusion « Maître-Esclave » piloté par le flux manuel est présenté et discuté dans le cadre de la reconnaissance des voyelles et des consonnes produites en contexte LPC. Le modèle de fusion prend en compte les contraintes temporelles de la production et la perception du LPC, ce qui constitue aussi une première contribution à la modélisation du système LPC du point de vue perceptif
Cued Speech (CS) is a visual communication system that uses handshapes placed in different positions near the face, in combination with the natural speech lip-reading, to enhance speech perception from visual input for deaf people. In this system, the speaker moves his hand in close relation with speech. Handshapes are designed to distinguish among consonants whereas hand positions are used to distinguish among vowels. Due to the CS system, both manual and lip flows produced by the CS speaker carry a part of the phonetic information. This work presents at first a method for the automatic coding of the manual flow in term of CS hand positions and CS handshapes. Then the lip-shape classification of the vowels and the consonants is discussed. The labial flow is composed of the temporal variations of lip parameters extracted from the inner and the outer contours of the lips. This work will show how the distribution of lip parameters inside each group of CS hand positions allows vowel discrimination. A classification method based on Gaussian modeling is presented and results demonstrate a good performance of this classification (89% as test score). The vocalic context is taken into account in the case of the consonants, with the use of HMM for the modeling of the lip transition from the consonant towards the vowel (80 % as test scores in term of CV visemes). Finally, the modeling of the lip information and the coding of the manual flow are included in a “Master-Slave” fusion model for recognition of the vowels and the consonants in the CS context. The fusion model integrates the temporal constraints of the CS production and perception. This work is thus also a first contribution to the modeling of the CS system from the perceptive point of view
14

Aboutabit, Noureddine. "Reconnaissance de la Langue Française Parlée Complété (LPC) : décodage phonétique des gestes main-lèvres." Phd thesis, Grenoble INPG, 2007. http://tel.archives-ouvertes.fr/tel-00270162.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La Langue Française Parlée Complétée (LPC) héritée du Cued Speech (CS) a été conçue pour compléter la lecture labiale par nature ambigüe et ainsi améliorer la perception de la parole par les sourds profonds. Dans ce système, le locuteur pointe des positions précises sur le côté de son visage ou à la base du cou en présentant de dos des formes de main bien définies. La main et les lèvres portent chacune une partie complémentaire de l'information phonétique. Cette thèse présente tout d'abord une modélisation du flux manuel pour le codage automatique des positions de la main et de la configuration. Puis les travaux sont centrés sur le flux labial en discutant la classification des voyelles et des consonnes du Français. Le flux labial est composé des variations temporelles de paramètres caractéristiques issus du contour interne et externe des lèvres. Dans le cas des voyelles la méthode de classification utilise la modélisation gaussienne et les résultats montrent une performance moyenne de 89 % en fonction de la position de la main LPC. Le contexte vocalique est pris en compte dans le cas des consonnes par une modélisation HMM de la transition labiale de la consonne vers la voyelle avec un taux d'identification de 80 % en termes de visèmes CV. Un modèle de fusion « Maître-Esclave » piloté par le flux manuel est présenté et discuté dans le cadre de la reconnaissance des voyelles et des consonnes produites en contexte LPC. Le modèle de fusion prend en compte les contraintes temporelles de la production et la perception du LPC, ce qui constitue aussi une première contribution à la modélisation du système LPC du point de vue perceptif.
15

Besse, Anne-Sophie. "Caractéristiques des langues et apprentissage de la lecture en langue première et en français langue seconde : perspective évolutive et comparative entre l'arabe et le portugais." Phd thesis, Université Rennes 2, 2007. http://tel.archives-ouvertes.fr/tel-00267662.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette recherche interlangue a pour premier objectif d'analyser l'évolution des connaissances graphophonologiques, grapho-morphologiques et grapho-syntaxiques, implicites et explicites et la contribution de ces connaissances à la lecture en arabe vocalisé et en portugais langue première. Les résultats indiquent que les élèves de langue arabe se focalisent davantage sur la structure morpho- dérivationnelle en racine/schème que sur le marquage flexionnel, alors que les élèves de langue portugaise développent, non seulement une sensibilité phonologique à la rime et à la syllabe mais aussi de meilleures connaissances grapho-morpho-flexionnelles que grapho-morpho-dérivationnelles. Par ailleurs, si les connaissances morphologiques jouent un rôle sur la reconnaissance des mots écrits quelle que soit la langue, on remarque que ce sont celles les plus écontextualisées qui interviennent en arabe. La contribution des connaissances grapho-morpho-dérivationnelles à la compréhension de phrases en arabe souligne là encore l'importance de la morphologie dans cette langue écrite. Enfin, la compréhension en lecture apparaît plus dépendante des processus d'automatisation en portugais, du fait de l'opacité relative de son orthographe. Le deuxième objectif de ce travail est d'étudier le rôle des acquisitions de la lecture en langue première (arabe vs. portugais) sur l'apprentissage de la lecture en français langue seconde. Les comparaisons ont permis de conclure que le statut privilégié de la morphologie en arabe peut inciter les apprenants à porter attention à la structure interne des mots français pour les lire. En revanche, les similitudes entre le portugais et le français facilitent le développement de la sensibilité graphophonologique et amplifient la symétrie entre les habiletés de lecture de mots en L1 et en L2. Les profils de compréhension en français L2 et leur évolution sont également très différents entre arabophones et lusophones.
16

David, Sophie. "Les unités nominales polylexicales : éléments de description et reconnaissance automatique." Paris 7, 1994. http://www.theses.fr/1993PA070108.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Mesfar, Slim. "Analyse morpho-syntaxique automatique et reconnaissance des entités nommées en arabe standard." Besançon, 2008. http://www.theses.fr/2008BESA1022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La langue arabe, bien que très importante par son nombre de locuteurs, elle présente des phénomènes morpho-syntaxiques très particuliers. Cette particularité est liée principalement à sa morphologie flexionnelle et agglutinante, à l’absence des voyelles dans les textes écrits courants, et à la multiplicité de ses formes, et cela induit une forte ambiguïté lexicale et syntaxique. Il s'ensuit des difficultés de traitement automatique qui sont considérables. Le choix d'un environnement linguistique fournissant des outils puissants et la possibilité d'améliorer les performances selon nos besoins spécifiques nous ont conduit à utiliser la plateforme linguistique NooJ. Nous commençons par une étude suivie d’une formalisation à large couverture du vocabulaire de l’arabe. Le lexique construit, nommé «El-DicAr», permet de rattacher l’ensemble des informations flexionnelles, morphologiques, syntactico-sémantiques à la liste des lemmes. Les routines de flexion et dérivation automatique à partir de cette liste produisent plus de 3 millions de formes fléchies. Nous proposons un nouveau compilateur de machines à états finis en vue de pouvoir stocker la liste générée de façon optimale par le biais d’un algorithme de minimisation séquentielle et d’une routine de compression dynamique des informations stockées. Ce dictionnaire joue le rôle de moteur linguistique pour l’analyseur morpho-syntaxique automatique que nous avons implanté. Cet analyseur inclut un ensemble d’outils: un analyseur morphologique pour le découpage des formes agglutinées en morphèmes à l’aide de grammaires morphologiques à large couverture, un nouvel algorithme de parcours des transducteurs à états finis afin de traiter les textes écrits en arabe indépendamment de leurs états de voyellation, un correcteur des erreurs typographiques les plus fréquentes, un outil de reconnaissance des entités nommées fondé sur une combinaison des résultats de l’analyse morphologique et de règles décrites dans des grammaires locales présentées sous forme de réseaux augmentés de transitions (ATNs), ainsi qu’un annotateur automatique et des outils pour la recherche linguistique et l’exploration contextuelle. Dans le but de mettre notre travail à la disposition de la communauté scientifique, nous avons développé un service de concordances en ligne «NooJ4Web: NooJ pour la Toile» permettant de fournir des résultats instantanés à différents types de requêtes et d’afficher des rapports statistiques ainsi que les histogrammes correspondants. Les services ci-dessus cités sont offerts afin de recueillir les réactions des divers usagers en vue d’une amélioration des performances. Ce système est utilisable aussi bien pour traiter l’arabe, que le français et l’anglais
The Arabic language, although very important by the number of its speakers, it presents special morpho-syntactic phenomena. This particularity is mainly related to the inflectional and agglutinative morphology, the lack of vowels in currents written texts, and the multiplicity of its forms; this induces a high level of lexical and syntactic ambiguity. It follows considerable difficulties for the automatic processing. The selection of a linguistic environment providing powerful tools and the ability to improve performance according to our needs has led us to use the platform language NooJ. We begin with a study followed by a large-coverage formalization of the Arabic lexicon. The built dictionary, baptised "El-DicAr" allows to link all the inflexional, morphological, syntactico-semantic information to the list of lemmas. Automatic inflexional and derivational routines applied to this list produce more than 3 million inflected forms. We propose a new finite state machine compiler that leads to an optimal storage through a combination of a sequential minimization algorithm and a dynamic compression routine for stored information. This dictionary acts as the linguistic engine for the automatic morpho-syntactic analyzer that we have developed. This analyzer includes a set of tools: a morphological analyzer that identifies the component morphemes of agglutinative forms using large coverage morphological grammars, a new algorithm for looking through finite-state transducers in order to deal with texts written in Arabic with regardless of their vocalisation statements, a corrector of the most frequent typographical errors, a named entities recognition tool based on a combination of the morphological analysis results and rules described into local grammar presented as Augmented Transition Networks ( ATNS), an automatic annotator and some tools for linguistic research and contextual exploration. In order to make our work available to the scientific community, we have developed an online concordance service “NooJ4Web: NooJ for the Web”. It provides instant results to different types of queries and displays statistical reports as well as the corresponding histograms. The listed services are offered in order to collect feedbacks and improve performance. This system is used to process Arabic, as well as French and English
18

Thollard, Franck. "Inférence grammaticale probabiliste pour l'apprentissage de la syntaxe en traitement de la langue naturelle." Saint-Etienne, 2000. http://www.theses.fr/2000STET4010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de la thèse consiste à utiliser les langages formels pour modéliser la langue naturelle. Les techniques utilisées en reconnaissance de la langue naturelle estiment la probabilité d'un mot étant donnée son contexte. En raison de l'information structurelle qu'elle contiennent, les grammaires formelles semblent bien adaptées à cette tâche. Nous étudions les automates déterministes et probabilistes (PDFA). Une théorie formelle de ces objets est proposée. Nous montrons par ailleurs que les automates probabilistes peuvent être appris dans un cadre d'apprentissage dérivé de l'identification à la limite proposé par Gold. Nous proposons ensuite un nouvel algorithme (MDI) basé sur un calcul efficace de la divergence de Kullback-Leibler entre automates. L'algorithme MDI cherche à inférer un PDFA compromis entre la divergence par rapport aux données d'apprentissage et une petite taille. Une étude expérimentale montre que l'algorithme MDI améliore significativement le pouvoir de prédiction de l'algorithme de référence du domaine : ALERGIA. Ces expérimentations montrent par ailleurs l'importance du lissage lors de la modélisation de la langue naturelle
19

Nguyen, Hong Quang. "Reconnaissance automatique de la parole continue : grand vocabulaire en vietnamien." Avignon, 2008. http://www.theses.fr/2008AVIG0155.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La reconnaissance de la parole vietnamienne est juste au début de son développement. Nous constatons que les différences entre la langue vietnamienne et les langues occidentales sont telles que les techniques de reconnaissance de la parole communément employées pour ces dernières (anglais, français par exemple. ) ne suffisent pas pour développer directement un système de reconnaissance performant. La prise en compte des caractéristiques de la langue vietnamienne au niveau de la représentation des données (lexique, modèle de langage) et des modèles (modèle de tons) permettent par contre d’obtenir des résultats prometteurs. La première différence est la segmentation des entités sémantiques des phrases. En vietnamien, les mots/concepts peuvent être composés d'une ou plusieurs syllabes qui sont systématiquement découpés en syllabes séparées par un espace (langue syllabique). La segmentation en mots/concepts de la phrase est une tâche importante pour les langues isolantes telles que le mandarin, le cantonais, le thaï mais aussi pour le vietnamien. Pour améliorer les résultats des traitements automatiques de ces langues, nous avons construit un module de segmentation en mots multi syllabiques des phrases syllabiques. Deux approches ont été utilisées pour cela : la première utilise un dictionnaire de mots vietnamiens multi syllabiques alors que la seconde construit automatiquement un lexique multi syllabique à l’aide d’un algorithme utilisant l’information mutuelle des mots comme critère de regroupement, et la programmation dynamique pour simplifier les traitements. La deuxième différence entre ces langues est l’importance du ton dans la langue vietnamienne. La reconnaissance des tons est donc un aspect fondamental du traitement des langues tonales. Dans cette thèse, nous avons étudié en détail différentes méthodes pour représenter de manière optimale la fréquence fondamentale et l’énergie, d’une part, et pour trouver un moyen d’atténuer l’influence du phénomène de coarticulation entre les tons. Nous avons utilisé deux approches pour effectuer cette reconnaissance : une approche trame à trame à l’aide des modèles de Markov caché et une méthode globale à l’aide d’un perceptron multicouche. En cumulant les traitements des caractéristiques linguistiques (lexique multi syllabique) et acoustiques (reconnaissance des tons), les résultats ont été améliorés de pratiquement 50 % (par rapport au système initial). Ces résultats prouvent que l’ajout d’informations supplémentaires, caractéristiques de la langue vietnamienne, améliore considérablement les performances des systèmes de reconnaissance de la parole
Development of the Vietnamese speech recognition has just started. This is due to the differences between Vietnamese language and Western languages, the speech recognition techniques broadly used for these languages (English, French for example. ) are not enough for developing directly a powerful Vietnamese speech recognition system. Taking into consideration the Vietnamese language characteristics in term of data (lexicon, language model) and model (tone model) representation should allow us to obtain promised results and better performances. The first difference is the semantic entities segmentation of the sentence. In Vietnamese, the word/concept consists of one or several syllables which are systematically separated by spaces (syllabic language). The segmentation of the sentence in words/concepts is an important stage for the isolating languages such as the Mandarin, the Cantonese, and the Thai but also for the Vietnamese. To improve the performance of automatic recognition system for Vietnamese, we built a polysyllabic word segmentation module for syllabic sentences. Two approaches were used: the first one uses a Vietnamese polysyllabic word dictionary whereas the second builds automatically this dictionary using the mutual information of the words as the grouping criterion, and a dynamic programming algorithm to simplify the treatments. The second difference is the crucial role of the tone in the Vietnamese language. The tone recognition is thus a fundamental aspect of the tonal language processing. In this thesis, we studied various methods to represent, in an optimal way, the fundamental frequency and the energy. We also were interested in finding a method to reduce the influence of the co-articulation phenomenon between tones. We furthermore used two approaches: an approach in frames by using hidden Markov models and a more general method based on the multi-level perceptrons. By integrating the processing of the linguistic (polysyllabic word lexicon) and acoustic (tone recognition) characteristics, the results were improved by practically 50 % (compared to the baseline system). These results prove that the addition of supplementary information, characteristics of Vietnamese language, improves considerably the performances of the speech recognition system
20

Hallé, Pierre. "Segmentation syllabique et reconnaissance des tons du chinois en parole continue." Paris 11, 1985. http://www.theses.fr/1985PA112204.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse sont traités les problèmes préliminaires et spécifiques au décodage phonétique de La parole continue pour une Langue à tons : le chinois de Pékin. Les caractéristiques de cette langue dictant le choix de La syllabe comme unité acoustique de reconnaissance phonétique, il est tout d'abord proposé une méthode d'extraction des noyaux vocaliques utilisant conjointement stabilité spectrale et sonorité (Loudness). La seconde partie est consacrée à l'identification des tons phonologiques portés par les syllabes, indépendamment de la partie segmentale. Il est proposé d'une part une méthode de normalisation neutralisant l'intonation générale, et d'autre part une méthode de reconnaissance probabiliste qui exploite les contrastes entre unités successives en plus de leurs valeurs intrinsèques
This is a preliminary study on phonetic decoding of a tone language: the Peking dialect. The choice of this language implies the use of strategies based on the syllable as the recognition unit. A new method of vowel nuclei detection is first proposed. This method combines the use of spectral variability and loudness. The second part is devoted to the recognition of tones, regardless of the segmentals on which they are carried. A normalization technique based on a general intonation curve estimate is first proposed. Then a probabilistic recognition technique is presented. We have called it "contrastive" because, in addition to using information on the intrinsic characteristics of tonal units, it also employs knowledge of the contrasts between these units
21

Yektaie, Mohammad-Hossein. "Réalisation d'un système adapté à la reconnaissance de caractères typographiques persans." La Rochelle, 1998. http://www.theses.fr/1998LAROS022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les caractéristiques de l'écriture persane ne permettent pas d'appliquer les méthodes classiques pour la reconnaissance des mots et des caractères de cette langue. Les caractères persans ont la particularité d'être collés et qu'un grand nombre parmi eux, comportent des points diacritiques. La difficulté rencontrée en reconnaissance de l'écriture imprimée persane est similaire à celle rencontrée en reconnaissance des caractères manuscrits. Nous proposons dans un premier temps, une méthode de segmentation préalable des mots en caractères et sous caractères par fusion de trois types d'histogrammes. L'étude statistique sur les documents persans montre qu'une méthode de reconnaissance sans segmentation préalable des mots et sous-mots peut être utilisée car les caractères séparés et les sous-mots composés de deux et trois caractères représentent 85% de l'ensemble des cas avec environ $$1300$$ classes, tandis que le reste (15%) représentent les cas les moins fréquents avec environ $$3200$$ classes. Nous proposons une méthode de reconnaissance structurelle-statistique. La reconnaissance structurelle fonctionne sur des contours et des squelettes obtenus par une méthode d'approximation polygonale calculée à partir du code de Freeman, la reconnaissance statistique est utilisée quant à elle pour la reconnaissance des cas particuliers ainsi que pour lever certaines ambiguïtés, cette reconnaissance est basée sur une notion de corrélation floue.
22

Pham, Trong-Ton. "Modélisation et recherche de graphes visuels : une approche par modèles de langue pour la reconnaissance de scènes." Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00996067.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Content-based image indexing and retrieval (CBIR) system needs to consider several types of visual features and spatial information among them (i.e., different point of views) for better image representation. This thesis presents a novel approach that exploits an extension of the language modeling approach from information retrieval to the problem of graph-based image retrieval. Such versatile graph model is needed to represent the multiple points of views of images. This graph-based framework is composed of three main stages: Image processing stage aims at extracting image regions from the image. It also consists of computing the numerical feature vectors associated with image regions. Graph modeling stage consists of two main steps. First, extracted image regions that are visually similar will be grouped into clusters using an unsupervised learning algorithm. Each cluster is then associated with a visual concept. The second step generates the spatial relations between the visual concepts. Each image is represented by a visual graph captured from a set of visual concepts and a set of spatial relations among them. Graph retrieval stage is to retrieve images relevant to a new image query. Query graphs are generated following the graph modeling stage. Inspired by the language model for text retrieval, we extend this framework for matching the query graph with the document graphs from the database. Images are then ranked based on the relevance values of the corresponding image graphs. Two instances of the visual graph model have been applied to the problem of scene recognition and robot localization. We performed the experiments on two image collections: one contained 3,849 touristic images and another composed of 3,633 images captured by a mobile robot. The achieved results show that using visual graph model outperforms the standard language model and the Support Vector Machine method by more than 10% in accuracy.
23

Mathey, Stéphanie. "Le rôle du voisinage orthographique lors de la reconnaissance visuelle des mots." Dijon, 1997. http://www.theses.fr/1997DIJOL004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de ce travail est d'apporter une contribution à la compréhension des mécanismes d'accès au lexique en manipulant le voisinage orthographique en décision lexicale. Les résultats des expériences 1 et 2 montrent un effet facilitateur de fréquence du voisinage. Cet effet ne varie pas en fonction de la longueur des stimuli et semble du a un biais de réponse positif induit par la tâche. Dans les expériences 3 et 4, nous étudions l'effet de mots orthographiquement proches du stimulus, non-comptabilises dans la définition traditionnelle du voisinage : les voisins par suppression d'une lettre. Les performances d'identification des mots ayant un voisin fréquent par suppression sont comparables à celles des mots sans voisinage. Ces performances sont inférieures à celles des mots ayant un voisin fréquent traditionnel, ce qui réplique nos précédents résultats. Enfin, dans les expériences 5, 6 et 7, nous examinons si les relations de voisinage existant entre les voisins d'un stimulus jouent un rôle sur la reconnaissance de ce stimulus. Des simulations effectuées avec le modèle d'activation-interactive sur des lexiques artificiels permettent de prédire un effet facilitateur de dispersion du voisinage, observe expérimentalement pour les mots et les pseudomots. Par ailleurs, un effet inhibiteur de fréquence du voisinage apparait lorsque les pseudomots sont difficiles, ce qui suggère l'origine stratégique de l'effet. Les résultats de cette recherche sont compatibles avec l'hypothèse d'inhibition latérale postulée dans le modèle d'activation-interactive, mais semblent en partie dépendants de la difficulté de la tâche. Des interprétations stratégiques basées sur les caractéristiques du voisinage orthographique ou sur l'activation globale du lexique sont examinées
The aim of this research is to contribute to the understanding of lexical access mechanisms by manipulating orthographic neighborhood in lexical decision tasks. The results of experiments 1 and 2 show a facilitatory neighborhood frequency effect. This effect does not vary as a function of word size and may be due to a positive response bias induced by the task. The effect of orthographically similar words, neighbors by suppressing one letter, is examined in experiments 3 and 4. Identification performance for words with suppression neighbors and words with no neighbor are identical. We also replicate the facilitatory neighborhood frequency effect with traditional neighbors. In experiments 5, 6, and 7 we examine if a neighborhood relationship between the neighbors of a stimulus plays a role on the visual recognition of that stimulus. A facilitatory neighborhood distribution effect is observed, which is correctly predicted by the interactive-activation model. In addition, an inhibitory neighborhood frequency effect appears when the pseudoword context is difficult, which suggests a strategic bias. As a whole, the results are compatible with the interactive-activation model, but seem to vary according to the task difficulty. Explanations based on strategic effects are examined
24

Seng, Sopheap. "Vers une modélisation statistique multi-niveau du langage : application aux langues peu dotées." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse porte sur la reconnaissance automatique de la parole des langues peu dotées et ayant un système d'écrire sans séparation explicite entre les mots. La spécificité des lanques traitées dans notre contexte d'étude nécessite la segmentation automatique en mots pour rendre la modélisation du langage n-gramme applicable. Alors que le manque de données textuelles a un impact sur la performance des modèles de langage, les erreurs introduites par la segmentation automatique peuvent rendre ces données encore moins exploitables. Pour tenter de pallier les problèmes, nos recherches sont axées principalement sur la modélisation du langage, et en particulier sur le choix des unités lexicales et sous-lexicales, utilisées par les systèmes de reconnaissance. Nous expérimentons l'utilisation des multiples unités au niveau des modèles du langage et au niveau des sorties de systèmes de reconnaissance. Nous validons ces approches de modélisations à base des multiples unités sur les sytèmes de reconnaissance pour un groupede langues peu dotées : le khmer, le vietnamien, le thaï et le laotien
This PhD thesis focuses on the problems encountered when developing automatic speech recognition for under-resourced languages with a writing system without explicit separation between words. The specificity of the languages covered in our work requires automatic segmentation of text corpus into words in order to make the n-gram language modeling applicable. While the lack of text data has an impact on the performance of language model, the errors introduced by automatic segmentation can make these data even less usable. To deal with these problems, our research focuses primarily on language modeling, and in particular the choice of lexical and sub-lexical units, used by the recognition systems. We investigate the use of multiple units in speech recognition system. We validate these modeling approaches based on multiple units in recognition systems for a group of languages : Khmer, Vietnamese, Thai and Laotian
25

Seng, Sopheap. "Vers une modélisation statistique multi-niveau du langage : application aux langues peu dotées." Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00646236.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse porte sur la reconnaissance automatique de la parole des langues peu dotées et ayant un système d'écriture sans séparation explicite entre les mots. La spécificité des langues traitées dans notre contexte d'étude nécessite la segmentation automatique en mots pour rendre la modélisation du langage n-gramme applicable. Alors que le manque de données textuelles a un impact sur la performance des modèles de langage, les erreurs introduites par la segmentation automatique peuvent rendre ces données encore moins exploitables. Pour tenter de pallier les problèmes, nos recherches sont axées principalement sur la modélisation du langage, et en particulier sur le choix des unités lexicales et sous-lexicales, utilisées par les systèmes de reconnaissance. Nous expérimentons l'utilisation des multiples unités au niveau des modèles du langage et au niveau des sorties de systèmes de reconnaissance. Nous validons ces approches de modélisation à base des multiples unités sur les systèmes de reconnaissance pour un groupe de langues peu dotées : le khmer, le vietnamien, le thaï et le laotien.
26

Segal, Natalia. "Analyse, représentation et modélisation de la prosodie pour la reconnaissance automatique de la parole." Paris 7, 2011. http://www.theses.fr/2011PA070041.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente une nouvelle approche de la détection automatique des frontières prosodiques et de la structure prosodique en français, basée sur une représentation théorique hiérarchique de cette structure. Nous avons utilisé une théorie descriptive du système prosodique du ! i français pour créer un modèle prosodique linguistique adapté au traitement automatique de la parole spontanée. Ce modèle permet de détecter de façon automatique les frontières des groupes prosodiques et de les regrouper dans une structure hiérarchique. La structure prosodique de chaque énoncé est ainsi représentée sous forme d'un arbre prosodique. Nous avons démontré que ce modèle représentation était adapté pour le traitement automatique de la parole spontanée en français. La segmentation prosodique ainsi obtenue a été comparée à la segmentation prosodique manuelle. La pertinence de la structure prosodique a été également vérifiée manuellement. Nous avons appliqué notre modèle à différents types de données de parole continue spontanée avec différents types de segmentations phonétiques et lexicales : segmentation manuelle ainsi que différentes segmentations automatiques, et notamment aux données segmentées par le système de reconnaissance automatique de la parole. L'utilisation de cette segmentation a fourni une performance satisfaisante. Nous avons également établi une corrélation entre le niveau du noeud dominant dans l'arbre prosodique et la fiabilité de la détection de la frontière correspondante. Ainsi, il est envisageable d'enrichir la détection de frontières prosodiques en attribuant une mesure de confiance à la frontière en fonction de son niveau dans l'arbre prosodique
This thesis presents a new approach to automatic prosodic boundary and prosodic structure detection based on a theoretical hierarchical representation of prosodic organization of speech in French. We used a descriptive theory of the French prosodic System to create a rule based linguistic prosodic model suitable for the automatic treatment of spontaneous speech. This model allows finding automatically prosodic group boundaries and structuring them hierarchically. The prosodic structure of every phrase is thus represented in the form of a prosodic tree. This representation proved to be efficient for automatic processing of continuous speech in French. The resulting prosodic segmentation was compared to manual prosodic segmentation. Prosodic structure accuracy was also verified manually by an expert. We applied our model to different kinds of continuous spontaneous speech data with different phonemic and lexical segmentations: manual segmentation and different kinds of automatic segmentations. In particular, the application of our prosodic model to the output of a speech recognition System showed a satisfactory performance. There also bas been established a correlation between the level of the prosodic tree node and the boundary detection accuracy. Thus, it is possible to improve the precision of boundary detection by attributing a degree of confidence to the boundary according to its level in prosodic tree
27

Pagel, Vincent. "De l'utilisation d'informations acoustiques suprasegmentales en reconnaissance de la parole continue." Nancy 1, 1999. http://www.theses.fr/1999NAN10299.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail a pour but d'utiliser des indices acoustiques suprasegmentaux en reconnaissance de la parole continue, en exploitant notamment la régularité des accents venant conclure les groupes intonatifs en français. Nous avons d'abord mis au point avec J. Vaissière (professeur à Paris III) des conventions de marquage accentuel et intonatif du français que nous avons appliquées à un corpus monolocuteur. Pour reproduire automatiquement le marquage de l'expert, nous avons ensuite utilisé un classificateur connexioniste, puis un classificateur par arbre de décision, utilisant des indices acoustiques sur la syllabe et son contexte immédiat : durée, énergie acouqtique, valeur de la fréquence fondamentale. Les accents sont prédits avec une précision de 85% et on observe la forte corrélation de l'accent primaire et de l'émergence de la durée syllabique. Les indices d'énergie ne sont utilisés que pour la caractérisation de l'accent secondaire. Avec une précision de 74%, la prédiction des accents internes au groupe de souffle reste la principale difficulté. Dans un second temps nous avons utilisé une méthode de délexicalisation pour comparer les performances humaines à celles des classificateurs sur le même type de tâche. Les énoncés, dont on veut faire analyser l'accentuation par des auditeurs, sont réitérés à l'aide du synthétiseur vocal MBROLA, après modification des sons élémentaires pour masquer le sens, selon un paradigme original appelé Karaoke Prosodique. Les auditeurs sélectionnent les groupes prosodiques avec une précision étonnante, mais aussi avec prudence puisque le nombre d'accents internes détectés au sein des groupes de souffle est faible, confirmant ainsi les difficultés rencontrées avec les classificateurs. La méthode offre de nombreuses applications pour l'étude de la perception de la prosodie, et nous concluons que dans les études futures, les accents primaires au contact des prises de souffle devront systématiquement être placés dans des classes séparées.
28

Lembessi, Zacharoula-Pénélope. "Système de conjugaison, reconnaissance morphosyntaxique statistique lemmatisation automatique de la classe verbale du grec moderne standard." Université Marc Bloch (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/LEMBESSI_Penelope_2006.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse nous présentons les résultats ainsi que la méthodologie adoptée pour la création d'un système d'analyse morphosyntaxique automatique et de lemmatisation sans dictionnaire des formes verbales monolexicales du grec moderne standard. Avec le modèle rétrograde MOSAIC (Koktova 1985) sur le chech comme point de départ, ainsi que d'autres modèles similaires sur le français (Caradec & Saada 1982) et le grec moderne (Lexifanis, Kotsanis & Maistros 1985), notre recherche a couvert 8. 485 lexèmes verbaux grecs, en prenant les données des dictionnaires les plus récents (Kyriacopoulou 1990, Iordanidou 1992, Kriaras 1995, Babiniotis 1998, Institut d'Études Néohelléniques 1998). Il a ainsi été créé: un nouveau système de conjugaison de 385 modèles qui sert à la génération automatique de tous les morphèmes lexicaux/radicaux ainsi que de toutes les formes flexionnelles monolexicales une base de données des séquences graphémiques finales qui permet l'attribution automatique de modèle de conjugaison à n'importe quel lemme verbal une base de données de 151. 527 séquences graphémiques finales, statistiquement établie et manuellement perfectionnée, qui peut s'employer pour la reconnaissance automatique de n'importe quelle forme verbale monolexicale et un système des règles morphophonologiques rétrogrades utilisées pour la lemmatisation linéaire des formes flexionnelles, qui fonctionne sur la base du nouveau système de conjugaison de 385 modèles
In this dissertation we present the results as well as the methodology employed for the creation of an automatic (non-lexicon) morphosyntactic analysis and lemmatization system of the one-word Modern Greek Standard (MGS) verbal forms. . .
29

Liu, Li. "Modélisation pour la reconnaissance continue de la langue française parlée complétée à l'aide de méthodes avancées d'apprentissage automatique." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT057/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse de doctorat traite de la reconnaissance automatique du Langage français Parlé Complété (LPC), version française du Cued Speech (CS), à partir de l’image vidéo et sans marquage de l’information préalable à l’enregistrement vidéo. Afin de réaliser cet objectif, nous cherchons à extraire les caractéristiques de haut niveau de trois flux d’information (lèvres, positions de la main et formes), et fusionner ces trois modalités dans une approche optimale pour un système de reconnaissance de LPC robuste. Dans ce travail, nous avons introduit une méthode d’apprentissage profond avec les réseaux neurono convolutifs (CNN)pour extraire les formes de main et de lèvres à partir d’images brutes. Un modèle de mélange de fond adaptatif (ABMM) est proposé pour obtenir la position de la main. De plus, deux nouvelles méthodes nommées Modified Constraint Local Neural Fields (CLNF Modifié) et le model Adaptive Ellipse Model ont été proposées pour extraire les paramètres du contour interne des lèvres (étirement et ouverture aux lèvres). Le premier s’appuie sur une méthode avancée d’apprentissage automatique (CLNF) en vision par ordinateur. Toutes ces méthodes constituent des contributions significatives pour l’extraction de caractéristiques du LPC. En outre, en raison de l’asynchronie des trois flux caractéristiques du LPC, leur fusion est un enjeu important dans cette thèse. Afin de le résoudre, nous avons proposé plusieurs approches, y compris les stratégies de fusion au niveau données et modèle avec une modélisation HMM dépendant du contexte. Pour obtenir le décodage, nous avons proposé trois architectures CNNs-HMMs. Toutes ces architectures sont évaluées sur un corpus de phrases codées en LPC en parole continue sans aucun artifice, et la performance de reconnaissance CS confirme l’efficacité de nos méthodes proposées. Le résultat est comparable à l’état de l’art qui utilisait des bases de données où l’information pertinente était préalablement repérée. En même temps, nous avons réalisé une étude spécifique concernant l’organisation temporelle des mouvements de la main, révélant une avance de la main en relation avec l’emplacement dans la phrase. En résumé, ce travail de doctorat propose les méthodes avancées d’apprentissage automatique issues du domaine de la vision par ordinateur et les méthodologies d’apprentissage en profondeur dans le travail de reconnaissance CS, qui constituent un pas important vers le problème général de conversion automatique de CS en parole audio
This PhD thesis deals with the automatic continuous Cued Speech (CS) recognition basedon the images of subjects without marking any artificial landmark. In order to realize thisobjective, we extract high level features of three information flows (lips, hand positions andshapes), and find an optimal approach to merging them for a robust CS recognition system.We first introduce a novel and powerful deep learning method based on the ConvolutionalNeural Networks (CNNs) for extracting the hand shape/lips features from raw images. Theadaptive background mixture models (ABMMs) are also applied to obtain the hand positionfeatures for the first time. Meanwhile, based on an advanced machine learning method Modi-fied Constrained Local Neural Fields (CLNF), we propose the Modified CLNF to extract theinner lips parameters (A and B ), as well as another method named adaptive ellipse model. Allthese methods make significant contributions to the feature extraction in CS. Then, due tothe asynchrony problem of three feature flows (i.e., lips, hand shape and hand position) in CS,the fusion of them is a challenging issue. In order to resolve it, we propose several approachesincluding feature-level and model-level fusion strategies combined with the context-dependentHMM. To achieve the CS recognition, we propose three tandem CNNs-HMM architectureswith different fusion types. All these architectures are evaluated on the corpus without anyartifice, and the CS recognition performance confirms the efficiency of our proposed methods.The result is comparable with the state of the art using the corpus with artifices. In parallel,we investigate a specific study about the temporal organization of hand movements in CS,especially about its temporal segmentation, and the evaluations confirm the superior perfor-mance of our methods. In summary, this PhD thesis applies the advanced machine learningmethods to computer vision, and the deep learning methodologies to CS recognition work,which make a significant step to the general automatic conversion problem of CS to sound.The future work will mainly focus on an end-to-end CNN-RNN system which incorporates alanguage model, and an attention mechanism for the multi-modal fusion
30

Echchourafi, Adnane. "Vers une reconnaissance des composés, pour une désambiguïsation automatique : composés à trois, quatre, cinq et six éléments." Université de Franche-Comté, 2006. http://www.theses.fr/2006BESA1010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Nguyen, Viet Son. "Etudes de caractéristiques de la langue vietnamienne en vue de sa synthèse et de sa reconnaissance automatique : aspects statiques et dynamiques." Paris, Télécom ParisTech, 2009. http://www.theses.fr/2009ENST0056.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans le cadre de cette thèse vise à étudier de manière approfondie les caractéristiques des voyelles longues et brèves et des consonnes finales du vietnamien, non seulement en statique mais aussi en dynamique, en calculant en particulier les vitesses de transitions formantiques. Deux ensembles consonnes voyelles ont été analysés : (C1)V1C2, avec C2 l’une des trois consonnes finales /p, t, k/ et (C1)V1V2 avec les voyelles longues et brèves correspondantes. L’objectif de l’analyse est de permettre la mise en évidence de caractéristiques spécifiques qui sont alors testées en synthèse
The work presented in this thesis aims to study profoundly the static and dynamic characteristics of the long vowels, short vowels, and the final stop consonants in the Vietnamese in calculating the rates of formant transitions. Two sets consonants vowels were analyzed: (C1) V1C2, and (C1)V1V2 in which C2 is one of the three final stop consonants / p, t, k / and V1 is one of the thirteen vowels (included nine long vowels and four short vowels). The objective of the analysis is to highlight the identification of specific characteristics which are then validated in the perception tests
32

Betari, Abdelkader. "Caractérisation des phonèmes de l'arabe standard en vue d'une reconnaissance automatique de la parole." Aix-Marseille 2, 1993. http://www.theses.fr/1993AIX22029.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux presentes ont consiste a caracteriser les phonemes de l'arabe standard en vue d'une reconnaissance automatique de la parole continue. Par ailleurs, et vu la multitude des parlers et des dialectes utilises par les arabophones, nous avons opte pour une approche mono-locuteur avec adaptation simple au locuteur. Suite a une etude linguistique de l'arabe standard, nous en avons degage les difficultes specifiques dues essentiellement a ses particularites phonetiques et phonologiques (emphase, articulation arriere, gemination, duree des sons, etc. . . ). Cela nous a conduit ensuite, lors du processus de reconnaissance, a classer les phonemes en plusieurs categories: les voyelles, les emphatiques, les consonnes arriere, les consonnes interrompues, etc. Dans un environnement prolog ii utilisant des references spectrales dans une approche du type connaissances explicites, nous avons defini plusieurs strategies de segmentation et d'identification correspondant a chacune de ces categories. Plusieurs indices et traces acoustiques mis en evidence lors de notre analyse acoustique, ont directement ete pris en compte dans ces strategies. Cette approche, qui a donne des resultats satisfaisants pour decrire et identifier les voyelles et les fricatives, s'est revelee insuffisante pour l'identification des consonnes interrompues notamment les sonores. Afin de pallier ce probleme, nous avons alors integre dans le systeme des techniques connexionistes. Lors de toutes ces recherches nous avons particulierement mis l'accent sur la caracterisation des phonemes particuliers de l'arabe, (phonemes non traites dans le systeme phonetique du francais notamment)
33

Bendjillali, Mimoun. "La reconnaissance des langues et cultures d'origine : un facteur de réussite scolaire dans un contexte interculturel." Paris 8, 1996. http://www.theses.fr/1996PA081226.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La scolarisation des enfants d'origine algèrienne à l'école élémentaire française. La vie scolaire, pleine de contradictions. Se présente sous l'angle d'une triple interaction entre l'enseignement des langues et cultures d'origine, l'enseignant des langues et cultures d'orignine (alco), qui par sa présence, sa position et son enseignement ségrégatif dérange l'institution scolaire française et l'arrivée des approches interculturelles, comme pédagogie nouvelle
Our ressearch deals with the education of children of algerian origin in the french elementary school. Involving many contradictions, school life the appears as a triple interaction between the teaching the native language and culture (ilcs), who imposes with his presence, his position and his segregated teaching, on the creation of intercultural approaches as a pedagogy
34

Jamborova-Lemay, Diana. "Analyse morphologique automatique du slovaque : étude approfondie du système linguistique slovaque et sa reconnaissance d'après la forme dans les textes scientifiques et techniques, application au machinisme agricole." Paris, INALCO, 2003. http://www.theses.fr/2003INAL0013.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'analyse morphologique automatique du slovaque constitue la première étape d'un système d'analyse automatique du contenu des textes scientifiques et techniques slovaques. Un tel système pourrait être utilisé par des applications, telles que l'indexation automatique des textes, la recherche automatique de la terminologie ou par un système de traduction. Une description des régularités de la langue par un ensemble de règles ainsi que l'utilisation de tous les éléments au niveau de la forme du mot qui rendent possible son interprétation permettent de réduire d'une manière considérable le volume des dictionnaires. Notamment s'il s'agit d'une langue à très riche flexion, comme le slovaque. Les résultats que nous obtenons lors de l'analyse morphologique confirment la faisabilité et la grande fiabilité d'une analyse morphologique basée sur la reconnaissance des formes et ceci pour toutes les catégories lexicales concernées par la flexion
Automatic morphological analysis of Slovak language is the first level of an automatical analyser for Slovak's scientifical and technical texts. Such a system could be used for different applications : automatic text indexation, automatic research of terminology or translation systems. A rule-based description of language's regularities as well as the use of all the formal level elements of words allow to reduce considerably the volume of dictionaries. Notably in case of inflectionally rich languages such as Slovak. The results obtained by our morphological analyser justify such an approach and confirm the high reliability of morphological analysis based on form-recognition for all lexical categories
35

Martin-Dastillung, Éveline. "Éléments pour un système de reconnaissance de contextes thématiques dans l'exploration d'un corpus textuel." Paris 4, 1992. http://www.theses.fr/1992PA040005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'étude se situe dans le cadre de l'analyse et de l'exploration du texte assistée par ordinateur. Les bases de données textuelles, notamment Frantext, se limitent habituellement au simple accès à des structures de surface: on propose ici les éléments d'une base de connaissances lexicologique thématique qui doit permettre d'explorer en partie des structures profondes par la reconnaissance automatique de vocables conceptuellement associables. Cette base, évolutive, sera régulièrement alimentée par les listes que fournissent les rubriques analogiques des dictionnaires, les études particulières à un concept et surtout l'exploration contextuelle semi-automatisée de corpus spécifiques constamment complètes: des critères sémantique, stylistiques et chronologiques seront pris en compte, et affiches dans des menus a options multiples qui devront garantir la meilleure adéquation possible des résultats à la requête. Le problème se pose du mode de repérage, et de l'obstacle que constituent la polysémie et l'holographie. La collecte des corrélats pertinents suscite un certain nombre de remarques de type méthodologique impliquant notamment l'examen des relations qui lient virtuellement les signifies. Couplée à un logiciel d'exploration du plein-texte, la base ainsi constituée devra permettre d'obtenir en temps réel des collections de contextes (citations, exemples, attestations) centrées autour d'un thème donné. Une simulation à partir du concept "ennui" donne un premier aperçu de la démarche
This study is made in the field of computer assisted text analysis and exploration. Corpora data bases, (and here Frantext is no exception) generally go no further than accessing surface structure: the aim here is to outline a thematic lexicological knowledge-base allowing a partial exploration of deep structures by automatic recognition of conceptually associated words. The on-going data base described here will be regularly enriched with the lists obtained from analogy notes in dictionaries, from specific subject-oriented studies and more particularly from semi-automatized context selection made from constantly up-dated specific corpora. Sematic, stylistic and chronological criteria will be taken into account and incorporated into multiple choice menus which best match query and answer. The main obstacle, besides homography and polysemy, is identification technique. Bringing together pertinent correlates raises a number of methodological questions, especially on those relations that can go towards linking meanings. Coupled with a full-text exploration, the data base may be expected to produce collections of contexts (quotations, examples, attestations) centered on a given theme. A simulation made from the concept ennui ("boredom") gives an overview of the way this may be done
36

Riewpituk, Weera. "Reconnaissance de la parole par des mots isolés, appliquée à la langue thaie, prenant en compte les tons lexicaux." Paris 11, 1985. http://www.theses.fr/1985PA112102.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre de ce travail, nous avons réalisé un système de reconnaissance monolocuteur de mots isolés de la langue thaie, un langue monosyllabique tonale, prenant en compte les tons lexicaux. Ce système utilise la méthode globale et la technique de programmation dynamique pour comparer les paramètres d'entrée avec les paramètres du dictionnaire. La première phase du travail a été de réaliser un système de reconnaissance de mots isolés utilisant les paramètres de corrélation partielle (PARCOR). Pour la deuxième phase, nous avons utilisé la fréquence fondamentale pour les mots phonétiquement identique
Within the context of this thesis, we have worked out a mono-speaker recognition system of isolated words in thai language, a language which is tonally monosyllabic, taking into respect the lexical tones. This system uses the global method and the dynamic programming technique to compare the input parameters with the parameters in the dictionnary. The first phase of the thesis was in working out a system of recognition of isolated words using the parameters of partial correlation (PARCOR). In the second phase, we used the fundamental frequency for words which are phonetically identical
37

Djoudi, Mahieddine. "Contribution à l'étude et à la reconnaissance automatique de la parole en Arabe standard." Nancy 1, 1991. http://docnum.univ-lorraine.fr/public/SCD_T_1991_0395_DJOUDI.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La reconnaissance automatique de la parole continue pose un certain nombre de problèmes. Les caractéristiques phonétiques et linguistiques de la langue sont largement impliquées dans le processus. Ce travail consiste à présenter une contribution à la reconnaissance automatique de l'arabe standard. Nous avons d'abord effectué une étude phonétique de la langue basée essentiellement sur l'examen de spectrogrammes de mots et de phrases en tenant compte des différents contextes de production des phénomènes. Cette étude nous a permis de définir les caractéristiques acoustiques des phénomènes nécessaires au système de reconnaissance. Ensuite, nous avons réalisé un système de décodage acoustico-phonétique, baptise sapha (systeme acoustico-phonétique de l'arabe) qui reçoit en entrée le signal de parole d'une phrase et retourne comme résultat un treillis de phonèmes. Les principales étapes du système sont: la segmentation du signal de parole en grandes classes phonétiques (voyelles, plosives, fricatives et sonnantes); l'extraction des indices phonétiques utilisés en reconnaissance; l'étiquetage des segments utilisant un systeme à base de règles de production. Les méthodes utilisées ont été adaptées du système aphodex développé dans notre équipe pour le décodage phonétique du français. L'évaluation des performances du systeme a été effectuée à partir de l'étiquetage manuel des phrases phonétiquement équilibrées du corps djouma que nous avons constitué. Enfin, nous avons développé quelques idées pour la conception d'un systeme de reconnaissance de phrases en arabe (mars) intégrant le décodeur phonétique et nous avons soulevé les problèmes d'ordre morphologique, phonologique, syntaxique et prosodique qu'il faut résoudre.
38

Gonzalez, Preciado Matilde. "Méthodes de vision par ordinateur pour la reconnaissance de gestes naturelles dans le contexte de lʼannotation en langue des signes". Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00768440.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur l'étude des méthodes de vision par ordinateur pour la reconnaissance de gestes naturels dans le contexte de l'annotation de la Langue des Signes. Les annotations de vidéo en LS sont réalisées manuellement par des linguistes ou experts en LS, ce qui est source d'erreur, non reproductible et extrêmement chronophage. De plus, la qualité des annotations dépend des connaissances en LS de l'annotateur. L'association de l'expertise de l'annotateur aux traitements automatiques facilite cette tâche et représente un gain de temps et de robustesse. Nous avons étudié un ensemble de méthodes permettant de réaliser l'annotation en glose. Dans un premier temps, nous cherchons à détecter les limites de début et fin de signe. Cette méthode d'annotation nécessite plusieurs traitements de bas niveau afin de segmenter les signes et d'extraire les caractéristiques de mouvement et de forme de la main. D'abord nous proposons une méthode de suivi des composantes corporelles robuste aux occultations basée sur le filtrage particulaire. Ensuite, un algorithme de segmentation des mains est développé afin d'extraire la région des mains même quand elles se trouvent devant le visage. Puis, les caractéristiques de mouvement sont utilisées pour réaliser une première segmentation temporelle des signes qui est par la suite améliorée grâce à l'utilisation de caractéristiques de forme. En effet celles-ci permettent de supprimer les limites de segmentation détectées en milieu des signes. Une fois les signes segmentés, on procède à l'extraction de caractéristiques visuelles pour leur reconnaissance en termes de gloses à l'aide de modèles phonologiques.
39

Boujelbane, Jarraya Rahma. "Traitements linguistiques pour la reconnaissance automatique de la parole appliquée à la langue arabe : de l'arabe standard vers l'arabe dialectal." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4121.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les différents dialectes de la langue arabe (DA) présentent de grandes variations phonologiques, morphologiques, lexicales et syntaxiques par rapport à la langue Arabe Standard Moderne (MSA). Jusqu’à récemment, ces dialectes n’étaient présents que sous leurs formes orales et la plupart des ressources existantes pour la langue arabe se limite à l’Arabe Standard (MSA), conduisant à une abondance d’outils pour le traitement automatique de cette variété. Étant donné les différences significatives entre le MSA et les DA, les performances de ces outils s’écroulent lors du traitement des DA. Cette situation conduit à une augmentation notable de l’ambiguïté dans les approches computationnelles des DA. Les travaux décrits dans cette thèse s’inscrivent dans ce cadre à travers la modélisation de l’oral parlé dans les médias tunisiens. Cette source de données contient une quantité importante d’Alternance Codique (AC) entre la langue normative MSA et le dialecte parlé en Tunisie (DT). La présence de ce dernier d’une manière désordonnée dans le discours pose une sérieuse problématique pour le Traitement Automatique de Langue et fait de cet oral une langue peu dotée. Toutefois, les ressources nécessaires pour modéliser cet oral sont quasiment inexistantes. Ainsi, l’objectif de cette thèse consiste à pallier ce manque afin de construire un modèle de langage dédié à un système de reconnaissance automatique pour l’oral parlé dans les médias tunisiens. Pour ce fait, nous décrivons dans cette thèse une méthodologie de création de ressources et nous l’évaluons par rapport à une tâche de modélisation de langage. Les résultats obtenu sont encourageants
The different dialects of the arabic language have a large phonological, morphological, lexical and syntactic variations when compared to the standard written arabic language called MSA (Modern Standard Arabic). Until recently, these dialects were presented only in their oral form and most of the existing resources for the Arabic language is limited to the Standard Arabic (MSA), leading to an abundance of tools for the automatic processing of this variety. Given the significant differences between the MSA and DA, the performance of these tools fall down when processing AD. This situation leads to a significant increase of the ambiguity in computational approaches of AD.This thesis is part of this framework by modeling the oral spoken in the Tunisian media. This data source contains a significant amount of Code Switching (CS) between the normative language MSA and the Dialect spoken in Tunisia (DT). The presence of the latter in a disorderly manner in the discourse poses a serious problem for NLP (Natural Language Processing) and makes this oral a less resourced language. However, the resources required to model this oral are almost nonexistent. Thus, the objective of this thesis is to fill this gap in order to build a language model dedicated to an automatic recognition system for the oral spoken in the Tunisian media. For this reason, we describe in this thesis a resource generation methodologyand we evaluate it relative to a language modeling task. The results obtained are encouraging
40

Brito, Marcilio de. "Réalisation d'un analyseur morpho-syntaxique pour la reconnaissance du syntagme nominal : utilisation des grammaires affixes." Lyon 1, 1991. http://www.theses.fr/1991LYO10153.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La these se situe dans le cadre du traitement automatique du langage, plus precisement celui de la reconnaissance du francais ecrit et de la recherche d'informations effectuees par le groupe sydo. Apres avoir expose les concepts de base du modele linguistique ainsi que le positionnement des grammaires affixes dans notre perspective d'analyse, on concoit et developpe, a l'aide du langage de programmation starlet, un nouvel outil pour l'analyse morphosyntaxique de textes ecrits. En effet la puissance descriptive des grammaires a deux niveaux permet une representation plus fidele du processus d'analyse: la meta-grammaire sert a decrire l'organisation syntagmatique du discours, alors que l'hyper-grammaire permet d'approcher l'organisation paradigmatique
41

Lê, Viêt Bac. "Reconnaissance automatique de la parole pour des langues peu dotées." Université Joseph Fourier (Grenoble), 2006. http://www.theses.fr/2006GRE10061.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans la plupart des langues peu dotées, les services liés aux technologies du traitement de l'oral sont inexistants. L'originalité de mon travail de thèse vient de la volonté d'aborder ces langues pour lesquelles peu ou pas de ressources nécessaires pour la reconnaissance automatique de la parole sont disponibles. Ce manuscrit présente notre méthodologie qui vise à développer et adapter rapidement un système de reconnaissance automatique de la parole continue pour une nouvelle langue peu dotée. La nature statistique des approches nécessite de disposer d'une grande quantité de ressources (vocabulaires, grands corpus de texte, grands corpus de parole, dictionnaires de prononciation) pour le développement d'un système de reconnaissance automatique de la parole continue à grand vocabulaire. Ces ressources ne sont cependant pas disponibles directement pour des langues peu dotées. Par conséquent, une première façon d'accélérer la portabilité des systèmes de reconnaissance vocale vers une nouvelle langue est de développer une méthodologie permettant une collecte rapide et facilitée de ressources écrites et orales. Dans ce travail, nous proposons tout d'abord des solutions pour résoudre les difficultés principales de récupération et de traitement des ressources textuelles spécifiques aux langues peu dotées : recueil d'un vocabulaire, collecte de documents à partir de l'Internet, normalisation de textes, segmentation de textes, filtrage. Une boîte à outils générique " open source " nommée CLIPS-Text-Tk a notamment été développée pour faciliter le portage des outils de traitement de corpus textuels vers une nouvelle langue. Ensuite, la plus grande partie de notre travail de thèse concerne la construction rapide de modèles acoustiques pour une langue peu dotée. Nous proposons des concepts et des méthodes d'estimation de similarités entre unités phonémiques (phonème, polyphone, groupe de polyphones,. . . ). Ces mesures de similarité sont ensuite utilisées pour la portabilité et l'adaptation rapide des modèles acoustiques multilingues indépendant et dépendant du contexte vers une nouvelle langue peu dotée. Pour les langues peu dotées qui ne disposent pas encore de dictionnaire phonétique, une modélisation acoustique à base de graphèmes est aussi proposée et évaluée. Enfin, les ressources écrites et orales collectées pour le vietnamien et le khmer ainsi que les résultats expérimentaux obtenus par nos systèmes de reconnaissance automatique de la parole en vietnamien et en khmer sont présentés et valident le potentiel des méthodes que nous avons proposées
Nowadays, computers are heavily used to communicate via text and speech. Text processing tools, electronic dictionaries, and even more advanced systems like text-to-speech or dictation are readily available for several languages. There are however more than 6900 languages in the world and only a small number possess the resources required for implementation of Human Language Technologies (HLT). Thus, HLT are mostly concerned by languages for which large resources are available or which have suddenly become of interest because of the economic or political scene. On the contrary, languages from developing countries or minorities have been less worked on in the past years. One way of improving this "language divide" is do more research on portability of HLT for multilingual applications. Among HLT, we are particularly interested in Automatic Speech Recognition (ASR). Therefore, we are interested in new techniques and tools for rapid development of ASR systems for under-resourced languages or π-languages when only limited resources are available. These languages are typically spoken in developing countries, but can nevertheless have many speakers. In this work, we investigate Vietnamese and Khmer, which are respectively spoken by 67 million and 13 million people, but for which speech processing services do not exist at all. Firstly, given the statistical nature of the methods used in ASR, a large amount of resources (vocabularies, text corpora, transcribed speech corpora, phonetic dictionaries) is crucial for building an ASR system for a new language. Concerning text resources, a new methodology for fast text corpora acquisition for π-languages is proposed and applied to Vietnamese and Khmer. Some specific problems in text acquisition and text processing for π-languages such as text normalization, text segmentation, text filtering are resolved. For fast developing of text processing tools for a new π-language, an open source generic toolkit named CLIPS-Text-Tk was developed during this thesis. Secondly, for acoustic modeling, we address particularly the use of acoustic-phonetic unit similarities for multilingual acoustic models portability to new languages. Notably, an estimation method of the similarity between two phonemes is first proposed. Based on these phoneme similarities, some estimation methods for polyphone similarity and clustered polyphonic model similarity are investigated. For a new language, a source/target acoustic-phonetic unit mapping table can be constructed with these similarity measures. Then, clustered models in the target language are duplicated from the nearest clustered models in the source language and adapted with limited data to the target language. Results obtained for Vietnamese demonstrate the feasibility and efficiency of these methods. The proposal of grapheme-based acoustic modeling, which avoids building a pronunciation dictionary, is also investigated in our work. Finally, our whole methodology is applied to design a Khmer ASR system which leads to 70% word accuracy and which was developed in only five months
42

Derouault, Anne-Marie. "Modélisation d'une langue naturelle pour la désambiguation des chaînes phonétiques." Paris 7, 1985. http://www.theses.fr/1985PA077028.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Etude des problèmes de décodage linguistique à partir d'une entrée phonétique de bonne qualité. Elaboration de modèles généraux. Description des principes de la sténotypie. Etude du dictionnaires stenotypie français sur lequel s'appuie la transcription.
43

Font, Noëlle. "Rôle de la langue dans l'accès au lexique chez les bilingues : influence de la proximité orthographique et sémantique interlangue sur la reconnaissance visuelle de mots." Montpellier 3, 2001. http://www.theses.fr/2001MON30015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Lange, Marielle. "De l'orthographe à la prononciation: nature des processus de conversion graphème-phonème dans la reconnaissance des mots écrits." Doctoral thesis, Universite Libre de Bruxelles, 2000. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211741.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Nguyen, Viet Son. "Etude des caractéristiques de la langue vietnamienne en vue de sa synthèse et de sa reconnaissance automatique. Aspects statiques et dynamiques." Phd thesis, Telecom ParisTech, 2009. http://tel.archives-ouvertes.fr/tel-01064853.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté dans le cadre de cette thèse vise à étudier de manière approfondie les caractéristiques des voyelles longues et brèves et des consonnes finales du vietnamien, non seulement en statique mais aussi en dynamique, en calculant en particulier les vitesses de transitions formantiques. Deux ensembles consonnes voyelles ont été analysés : (C1)V1C2, avec C2 l'une des trois consonnes finales /p, t, k/ et (C1)V1V2 avec les voyelles longues et brèves correspondantes. L'objectif de l'analyse est de permettre la mise en évidence de caractéristiques spécifiques qui sont alors testées en synthèse. Pour étudier les voyelles longues, les voyelles brèves et les trois consonnes finales /p, t, k/ dans les contextes (C1)V1C2 et (C1)V1V2, nous avons fait deux corpus : un premier corpus avec quatre locuteurs vietnamiens pour étudier la partie centrale de la voyelle (la durée, les formants F1, F2, F3), les transitions V1C2 et V1V2 (durées de transition, pentes des transitions formantiques, valeurs du début de la transition formantique), et la partie finale (durée de la semi-voyelle finale) ; un deuxième corpus avec huit locuteurs (quatre hommes et quatre femmes) nous a permis d'étudier l'équation du locus pour les consonnes finales /p, t, k/. A partir des résultats analysés, nous avons réalisé des tests statistiques et des tests de perception (avec dix auditeurs vietnamiens, cinq hommes et cinq femmes). Les résultats d'analyse, les résultats statistiques et les résultats perceptifs nous permettent de mieux comprendre la production des voyelles vietnamiennes et des trois consonnes finales vietnamiennes /p, t, k/ comme résumés ci-dessous : (1) Dans la langue vietnamienne, il y a trois séries de voyelles longues et brèves /a, ӑ/, /ɤ, ɤ̆/, /ɔ, ɔ̆/ qui sont acoustiquement proches dans le plan F1-F2, mais se distinguent par leur durée, les pentes des formants transitionnels et la durée de la semi-voyelle V2 (dans le contexte des syllabes V1V2). Les durées des transitions V1C2 et V1V2 ne varient pas en fonction de la nature de la voyelle longue ou brève. (2) Les trois consonnes finales /p, t, k/ se terminent par un silence sans burst. Pour les syllabes (C1)V1C2, en comparant les consonnes finales C2 dans un même contexte d'une voyelle précédente V1, bien qu'il n'y a aucune différence de leurs caractéristiques acoustiques statiques (la durée de la transition, et les valeurs au début de la transition formantique), leurs caractéristiques acoustiques dynamiques (la pente des formants transitionnels) sont significativement distinctes et permettent aux vietnamiens de reconnaitre ces trois consonnes finales. (3) Nous avons obtenu les équations du locus avec une linéarité excellente et un bon regroupement des points autour des droites de régression. Les lieux d'articulation des 3 consonnes finales occlusives /p, t, k/ sont bien distincts. On ne trouve aucun effet du ton sur les équations du locus des consonnes finales. Les résultats de ces travaux phonétiques sont ensuite validés à l'aide des systèmes de synthèse (SMART (Synthesis with a Model of Anthropomorphic Region and Tract) et DRM (Distinctive Region Model)).
46

Aparicio, Xavier. "Mécanismes cognitifs du changement de langue chez les multilingues : études comportementales et électrophysiologiques." Thesis, Montpellier 3, 2010. http://www.theses.fr/2010MON30078/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce travail, nous étudions les mécanismes du changement de langue lors de la reconnaissance visuelle de mots chez des trilingues français /anglais /espagnol. Dans un premier temps, nous avons examiné les processus d’accès pour chacune des langues étudiées, indépendamment de la présentation des autres langues. Nous nous sommes ensuite interrogés sur les relations entre les langues et l’organisation lexicale sous-jacente dans la mémoire multilingue, ainsi que la mise en place des mécanismes cognitifs permettant de passer d’une langue à une autre. Dans cette perspective, nous avons réalisé trois séries d’expériences afin d’examiner l’influence mutuelle des langues et le coût cognitif consécutif à un changement de langue lors de la reconnaissance visuelle de mots isolés. Nous avons comparé le traitement de mots spécifiques à différentes langues (ayant un degré de recouvrement orthographique minimal) en faisant varier les situations de changement et en recueillant des données comportementales et chronométriques dans des tâches de décision lexicale, de catégorisation sémantique et d’amorçage sémantique par traduction. Les résultats mettent en évidence un ralentissement global du traitement dû au changement pour les trois langues. Nous avons également observé un coût cognitif suite à un changement de langue pour les trois langues, mais plus important lorsqu’il s’opère entre les deux langues les moins maîtrisées (L2 vers L3 et L3 vers L2). Les données obtenues confirment l’hypothèse d’unités lexicales intégrées au sein d’un même lexique dans la mémoire multilingue. Les résultats sont interprétés dans leur ensemble dans le cadre des principaux modèles de la mémoire bilingue/multilingue
The present work focuses on language switching mechanisms during visual word recognition in French / English / Spanish trilinguals. First, we examined access to processing for each language, independently from the presentation of other languages. Then, our concern was to determine the different relations between languages and the underlying lexical organization inside the multilingual memory, as well as the activation of cognitive mechanisms allowing language switching. With this goal in mind, we performed three series of experiments to examine the influences between the languages, and the cognitive cost subsequent to a language switching during visual word recognition. We compare the processing of non-cognate words belonging to the three languages, manipulating the language switching situations and recording behavioral and electrophysiological data during lexical decision, semantic categorization and semantic translation priming. Results of these experiments highlight a general slowdown of processing consecutive to a language switch for all languages. Moreover, we observed a cognitive cost related to language switching for all the three languages, but bilaterally larger when it concerns the two non-dominant languages (L2 to L3 and L3 to L2). The recording data confirms the hypothesis of lexical representations integrated into a shared lexicon of multilingual memory. The results are interpreted in the light of the main models accounting for bilingual memory
47

Solbiac, Rodolphe. "Migration et multiculturalisme dans l'oeuvre de Neil Bissoondath : exploration d'une reconnaissance singulière." Antilles-Guyane, 2005. http://www.theses.fr/2005AGUY0128.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L 'oeuvre romanesque que publie Neil Bissoondath, écrivain canadien d'origine indo-trinidadienne, du milieu des années 80 au début des années 90, dépasse, de manière surprenante, les frontières communautaires pour se faire une place sur la scène littéraire canadienne aux cotés d'écrivains canadiens reconnus. Cette situation est exceptionnelle dans le paysage littéraire canadien du milieu des années 80, une époque où les écrivains issus de groupes ethniques minoritaires ont du mal à faire publier leurs oeuvres et à bénéficier de l’attention de la critique canadienne. C'est pourquoi il apparaît nécessaire d'explorer les éléments littéraires et sociologiques qui produisent cette situation singulière d'une oeuvre qui a pour thèmes majeurs la migration et le multiculturalisme. Partant des concepts d'horizon d'attente, une étude de la représentation de l’espace puis de l’évolution des personnages dans cet espace recense les éléments qui constituent, pour le lecteur, des signaux déterminant l’effet puis la réception de l’oeuvre. Elle montre qu'il s'en dégage un discours de l’oeuvre qui appelle à rompre avec la Caraïbe et l'Amérique latine, critique le multiculturalisme canadien et met en avant les valeurs ang1o-canadiennes. Enfin, la description des rapports existant entre la réception de l'oeuvre de Neil Bissoondath et le mouvement de réajustement du multiculturalisme (du fait d'une convergence idéologique sur la primauté des valeurs ang1o-canadiennes sur celles des immigrants) montre qu'ils permettent à l’auteur d'accéder à une reconnaissance témoignant de l’institutionnalisation littéraire du multiculturalisme et marquant l’apparition d'un nouveau paysage littéraire canadien
This dissertation explores Neil Bissoondath' s text and Canadian literary and social contexts of the 80's and early 90's for an understanding of his surprising acceptance among mainstrearn Canadian writers. At a time when it is difficult for visible minorities' writers to have their books published talked about by Canadian criticism, what in Bissoondath's work and in Canadian literary space results in his status as a mainstrearn Canadian writer. Our studies of space and characters search for the signs producing the effect of the work on readers and causing its reception. They reveal a vision of Caribbean and South America as hostile places, where multi-ethnic nations are doomed to failure, of Canada as a refuge where Anglo European humanistic values are threatened by immigrant confinement to community. Our unveiling of the articulation between the reception Bissoondath's work and the reform of multiculturalism reveals that his access to the mainstrearn results from two causes. First, Bissoondath benefits from the institutionalisation of multiculturalism in the field of literature that promotes works by visible minorities ' writers. Then, its reception derives from a convergence between the ideology developed in its text about multiculturalism, celebrating Anglo Canadian values, and the re-defining of Canadian citizenship, that give precedence to common Canadian values over what make Canadians different. This situation of Bisoondath's work, exceptional in the late 80's, becomes commonplace by the of the 90's as it's publishing coincided with the emergence of a new Canadian literary landscape in which distinctions between mainstrearn and minority writers are abolished
48

Doignon, Nadège. "Les unités de lecture dans la reconnaissance visuelle des mots : le paradigme des conjonctions illusoires." Dijon, 2003. http://www.theses.fr/2003DIJOL009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif était d'étudier la nature des unités infralexicales identifiées au cours de la reconnaissance des mots écrits avec le paradigme des conjonctions illusoires. Nous nous sommes intéressés aux unités syllabiques et à la redondance orthographique. Nos résultats ont mis en évidence une influence de ces deux sources d'information sur les unités de lecture. L'influence syllabique était atténuée lorsque les propriétés orthographiques ne favorisaient pas la segmentation syllabique. D'autres résultats ont été mis en évidence : une influence des indices orthographiques tels que les consonnes ; un effet de fréquence syllabique, suggérant une représentation mentale des syllabes ; l'implication d'influences lexicale et prélexicale sur les unités de lecture ; des résultats similaires chez les lecteurs experts et débutants
The aim was to study the nature of sublexical units with the illusory conjunction paradigm. We focused on syllable units and orthographic redundancy. Our results showed an influence of the both types of information on reading unit perception. The syllable effect was attenuated when the orthographic properties were not congruent with the syllable segmentation. Other results were found : orthographic clues such as consonants give some indication to the constitution of units ; a syllable frequency effect suggesting a mental representation of syllable : reading units were perceived in the process of lexical access but also affected by lexical information ; results are similar for beginning and expert readers. To conclude, the experiments provided converging evidence that reading units are influenced by orthographic and phonological prelexical representations that correspond respectively to orthographic redundancy and syllable unit information, and lexical representations
49

Garçon, Laurie-Amandine. "Développement de langue électronique : étude de mélanges complexes et de bactéries." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAI069/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse est d'explorer les applications potentielles d'un système de langue électronique basée sur des récepteurs combinatoires à réactivités croisées et l'imagerie par résonance de plasmons de surface, pour l'analyse et la discrimination de différents milieux complexes et de bactéries. L'étude de milieux complexes a été réalisée sur des échantillons de différentes natures comme le vin, la bière et le lait d'origines végétale et animale. Les expériences ont démontré que notre système de langue électronique est capable de répondre avec une bonne sélectivité à ces milieux complexes et qu'il génère ainsi des profils continus 2D et des images 3D, propres à chaque échantillon. La différentiation et la classification de ces divers types de boissons ont été réalisées grâce à ces signatures 2D et 3D. Le dispositif a également prouvé son efficacité pour le suivi du vieillissement du lait. Une seconde étude a été dédiée à l'application du système pour la détection de bactéries. Dans un premier temps, des paramètres fluidiques ont été optimisés comme la forme et la profondeur de la cuve ou le débit fluidique, en raison de la morphologie variable des bactéries, considérées ici comme des objets biologiques complexes et volumineux. Dans un second temps, le système s'est révélé performant pour l'analyse de bactéries et a montré la possibilité de quantifier ces analyses. En effet, la langue électronique a permis la discrimination de différentes bactéries selon leur genre, leur espèce et en fonction des souches grâce aux profils continus 2D et aux images 3D
The objective of this PhD thesis is to explore the potential applications of the electronic tongue, based on combinatorial cross-reactive receptors and surface plasmon resonance imaging, for analysis and discrimination of different complex mixtures and bacteria. In this work, various complex mixtures of different nature such as wine, beer, and milk (either animal-based or plant-based) are used. It has been demonstrated that the electronic tongue is capable of responding differently to theses samples with good selectivity. For each of them, it can generate characteristic continuous 2D profile and 3D image, based on which the differentiation and classification of the complex mixtures have been carried out. Furthermore, it has been illustrated that the electronic tongue is efficient for monitoring the deterioration of milk. In the second part of this thesis, the electronic tongue has been applied for detection and analysis of bacteria. At first, some fluidic parameters have been optimized due to the variable morphology of these complexes and large biological objects. Under optimized experimental conditions, the electronic tongue is effective for analysis of bacteria with the possibility for quantification. Thereafter, the electronic tongue has allowed for the discrimination of different bacteria according to their genus, species and strains based on continuous 2D profiles and 3D images
50

Grandjean, Anaël. "Reconnaissance de langage en temps réel sur automates cellulaires 2D." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT331/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les automates cellulaires sont un modèle de calcul massivement parallèle introduit dans les années 50. De nombreuses variantes peuvent être considérées par exemple en faisant varier la dimension de l’espace de calcul, ou les possibilités de communication entre les différentes cellules. En effet, chaque cellule ne peut communiquer qu’avec un nombre fini d’autres cellules que l’on appelle son voisinage. Mes travaux s’intéressent principalement à l’impact du choix du voisinage sur les capacités algorithmiques de ce modèle. Cet impact étant bien compris en une dimension, mes travaux portent majoritairement sur les automates cellulaires bidimensionnels. J’ai tout d’abord essayé de généraliser des propriétés classiques de certaines classes de complexité au plus de voisinages possibles. On arrive notamment à un théorème d’accélération linéaire valable pour tous les voisinages. J’ai ensuite étudié les différences entre les classes de faibles complexités en fonction du voisinage choisi. Ces travaux ont permis d’exhiber des voisinages définissant des classes incomparables, ainsi que des ensembles de voisinages définissant exactement les mêmes classes de complexité. Enfin, je présente aussi des travaux sur les différences de puissance de calcul entre les automates de dimensions différentes
Cellular automata were introduced in the 50s by J. von Neumann and S. Ulamas an efficient way of modeling massively parallel computation. Many variations of the model can be considered such as varying the dimension of the computation space or the communication capabilities of the computing cells. In a cellular automaton each cell can communicate only with a finite number of other cells called its neighbors. My work focuses on the impact of the choice of the neighbors on the algorithmic properties of the model. My first goal was to generalize some classical properties of computation models to the widest possible class of neighborhoods, in particular I prove a linear speedup theorem for any two dimensional neighborhood. I then study the difference between the complexity classes defined by different neighborhoods, show the existence of neighborhoods defining incomparable classes, and some sets of neighborhoods defining identical classes. Finally, I also discuss the impact of the dimension of the automata on their computational power

До бібліографії