Siga este link para ver outros tipos de publicações sobre o tema: Grands modèles de langage.

Teses / dissertações sobre o tema "Grands modèles de langage"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Grands modèles de langage".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Barbier, Guillaume. "Contribution de l'ingénierie dirigée par les modèles à la conception de modèles grande culture". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00914318.

Texto completo da fonte
Resumo:
Cette thèse, à caractère industriel, vise à répondre à une problématique de production de l'entreprise ITK. Par la mise en oeuvre des techniques de l'ingénierie dirigée par les modèles, nous proposons un environnement de modélisation et de simulation pour la croissance des plantes. Outre sa facilité d'utilisation pour les agronomes, le prototype obtenu permet la génération automatique de code Java des modèles à intégrer dans des outils d'aide à la décision exécutés sur une plateforme Java Enterprise Edition.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Labeau, Matthieu. "Neural language models : Dealing with large vocabularies". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS313/document.

Texto completo da fonte
Resumo:
Le travail présenté dans cette thèse explore les méthodes pratiques utilisées pour faciliter l'entraînement et améliorer les performances des modèles de langues munis de très grands vocabulaires. La principale limite à l'utilisation des modèles de langue neuronaux est leur coût computationnel: il dépend de la taille du vocabulaire avec laquelle il grandit linéairement. La façon la plus aisée de réduire le temps de calcul de ces modèles reste de limiter la taille du vocabulaire, ce qui est loin d'être satisfaisant pour de nombreuses tâches. La plupart des méthodes existantes pour l'entraînement de ces modèles à grand vocabulaire évitent le calcul de la fonction de partition, qui est utilisée pour forcer la distribution de sortie du modèle à être normalisée en une distribution de probabilités. Ici, nous nous concentrons sur les méthodes à base d'échantillonnage, dont le sampling par importance et l'estimation contrastive bruitée. Ces méthodes permettent de calculer facilement une approximation de cette fonction de partition. L'examen des mécanismes de l'estimation contrastive bruitée nous permet de proposer des solutions qui vont considérablement faciliter l'entraînement, ce que nous montrons expérimentalement. Ensuite, nous utilisons la généralisation d'un ensemble d'objectifs basés sur l'échantillonnage comme divergences de Bregman pour expérimenter avec de nouvelles fonctions objectif. Enfin, nous exploitons les informations données par les unités sous-mots pour enrichir les représentations en sortie du modèle. Nous expérimentons avec différentes architectures, sur le Tchèque, et montrons que les représentations basées sur les caractères permettent l'amélioration des résultats, d'autant plus lorsque l'on réduit conjointement l'utilisation des représentations de mots
This work investigates practical methods to ease training and improve performances of neural language models with large vocabularies. The main limitation of neural language models is their expensive computational cost: it depends on the size of the vocabulary, with which it grows linearly. Despite several training tricks, the most straightforward way to limit computation time is to limit the vocabulary size, which is not a satisfactory solution for numerous tasks. Most of the existing methods used to train large-vocabulary language models revolve around avoiding the computation of the partition function, ensuring that output scores are normalized into a probability distribution. Here, we focus on sampling-based approaches, including importance sampling and noise contrastive estimation. These methods allow an approximate computation of the partition function. After examining the mechanism of self-normalization in noise-contrastive estimation, we first propose to improve its efficiency with solutions that are adapted to the inner workings of the method and experimentally show that they considerably ease training. Our second contribution is to expand on a generalization of several sampling based objectives as Bregman divergences, in order to experiment with new objectives. We use Beta divergences to derive a set of objectives from which noise contrastive estimation is a particular case. Finally, we aim at improving performances on full vocabulary language models, by augmenting output words representation with subwords. We experiment on a Czech dataset and show that using character-based representations besides word embeddings for output representations gives better results. We also show that reducing the size of the output look-up table improves results even more
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Constum, Thomas. "Extractiοn d'infοrmatiοn dans des dοcuments histοriques à l'aide de grands mοdèles multimοdaux". Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMR083.

Texto completo da fonte
Resumo:
Cette thèse porte sur l'extraction automatique d'informations à partir de documents manuscrits historiques, dans le cadre des projets POPP et EXO-POPP. Le projet POPP se concentre sur les tableaux de recensement manuscrits de Paris (1921-1946), tandis qu'EXO-POPP traite des actes de mariage du département de la Seine (1880-1940). L’objectif principal est de développer une architecture de bout en bout pour l’extraction d’information à partir de documents complets, évitant les étapes explicites de segmentation.Dans un premier temps, une chaîne de traitement séquentielle a été développée pour le projet POPP, permettant l’extraction automatique des informations de 9 millions d’individus sur 300 000 pages. Ensuite, une architecture de bout en bout pour l'extraction d'information a été mise en place pour EXO-POPP, s’appuyant sur un encodeur convolutif et un décodeur Transformer, avec insertion de symboles spéciaux encodant les informations à extraire.Par la suite, l’intégration de grands modèles de langue basés sur l’architecture Transformer a conduit à la création du modèle DANIEL, qui a atteint un nouvel état de l’art sur plusieurs jeux de données publics (RIMES 2009 et M-POPP pour la reconnaissance d'écriture, IAM NER pour l'extraction d'information) tout en présentant une vitesse d'inférence supérieure aux approches existantes. Enfin, deux jeux de données publics issus des projets POPP et EXO-POPP ont été mis à disposition, ainsi que le code et les poids du modèle DANIEL
This thesis focuses on automatic information extraction from historical handwritten documents, within the framework of the POPP and EXO-POPP projects. The POPP project focuses on handwritten census tables from Paris (1921-1946), while EXO-POPP deals with marriage records from the Seine department (1880-1940). The main objective is to develop an end-to-end architecture for information extraction from complete documents, avoiding explicit segmentation steps.Initially, a sequential processing pipeline was developed for the POPP project, enabling the automatic extraction of information for 9 million individuals across 300,000 pages. Then, an end-to-end architecture for information extraction was implemented for EXO-POPP, based on a convolutional encoder and a Transformer decoder, with the insertion of special symbols encoding the information to be extracted.Subsequently, the integration of large language models based on the Transformer architecture led to the creation of the DANIEL model, which achieved a new state-of-the-art on several public datasets (RIMES 2009 and M-POPP for handwriting recognition, IAM NER for information extraction), while offering faster inference compared to existing approaches. Finally, two public datasets from the POPP and EXO-POPP projects were made available, along with the code and weights of the DANIEL model
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Krzesaj, Michel. "Modélisation et résolution de problèmes d'optimisation non linéaire de grande taille". Lille 1, 1985. http://www.theses.fr/1985LIL10070.

Texto completo da fonte
Resumo:
Dans le cadre d'une convention de recherche avec USINOR, les modèles d'optimisation des enfournements de la fonderie ont conduit à résoudre le problème de leur modélisation et de leur résolution numérique. Ces modèles constamment actualisés exigent à chaque simulation une réécriture du modèle mathématique. Seule une automatisation de la modélisation et de la résolution numérique de ces problèmes d'optimisation pouvait garantir à l'entreprise des résultats rapides et fiables. Le travail effectué dans cette thèse aboutit à la construction d'un ensemble de programmes répondant aux problèmes que posent aux industriels l'optimisation de leurs modèles. Il comprend un traducteur et un code d'optimisation non linéaire de grande taille. Le traducteur réalise l'interfaçage informatique entre le modèle industriel écrit dans le langage de l'utilisateur et le code de programmation. En particulier, il construit le simulateur, c'est-à-dire le programme FORTRAN permettant le calcul des valeurs des contraintes et leurs dérivées partielles en un point. Le code de programmation non linéaire de grande taille sans exiger la donnée d'un point réalisable, construit sous les hypothèses classiques un point de fonctionnement vérifiant les conditions de stationnarité du premier ordre.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Berthod, Christophe. "Identification paramétrique de grandes structures : réanalyse et méthode évolutionnaire". Phd thesis, Université de Franche-Comté, 1998. http://tel.archives-ouvertes.fr/tel-00011640.

Texto completo da fonte
Resumo:
Les travaux présentés dans ce mémoire ont pour objectif d'apporter une contribution au domaine de l'élastodynamique linéaire et plus particulièrement aux méthodes dites de recalage chargées de réconcilier le modèle analytique d'une structure avec les données expérimentales. Les techniques proposées, en matière de réanalyse et d'identification paramétrique, sont susceptibles d'être appliquées à des modèles industriels de grande taille.

Première partie : Étude de méthodes de réanalyse approchée de structures mécaniques modifiées
Lorsque les paramètres de conception du modèle varient, il est nécessaire d'effectuer une réanalyse afin d'obtenir les solutions propres (modes et fréquences) du système modifié. Une stratégie de réanalyse approchée de type Rayleigh-Ritz est présentée : elle est plus rapide et moins coûteuse qu'une réanalyse exacte, tout en offrant une précision satisfaisante grâce à l'apport des vecteurs de résidus statiques.

Deuxième partie : Application d'une méthode évolutionnaire d'optimisation au recalage de modèles
Dans cette partie, on propose d'adapter une méthode évolutionnaire au problème de l'identification paramétrique. Inspiré par les principes d'évolution des algorithmes génétiques, son fonctionnement repose sur l'information fournie par une fonction coût représentant la distance entre un modèle recalé et la structure réelle. Des opérateurs heuristiques sont introduits afin de favoriser la recherche des solutions qui minimisent la fonction.

Troisième partie : Logiciel Proto–Dynamique
Cette partie vise à présenter l'environnement de travail qui a servi à programmer les techniques formulées dans le mémoire et à réaliser les tests numériques. Proto, écrit en langage Matlab, est une plate-forme de développement regroupant des outils d'analyse et des méthodes de recalage.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Pontes, Miranda James William. "Federation of heterogeneous models with machine learning-assisted model views". Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2025. http://www.theses.fr/2025IMTA0454.

Texto completo da fonte
Resumo:
L’Ingénierie Dirigée par les Modèles (IDM) promeut les modèles comme un élément clé pour répondre à la complexité croissante du cycle de vie des systèmes logiciel. L’ingénierie de systèmes avec l’IDM implique divers modèles représentant différentes aspects du système. Cette hétérogénéité nécessite des capacités de fédération de modèles pour intégrer des points de vue spécifiques à de multiples domaines. Les solutions de Vues sur les Modèles (Model Views) répondent à ce défi mais manquent encore de support à l’automatisation. Cette thèse explore l’intégration de l’Apprentissage Automatique (AA), notamment les Réseaux de Neurones en Graphes (GNN) et Grands Modèles de Langage (LLM), pour améliorer la définition et construction de telles vues. La solution proposée introduit une approche en deux volets dans la solution technique EMF Views. Cela a permis d’automatiser partiellement la définition des vues sur modèles à la conception, et de calculer dynamiquement les liens inter-modèles à l’exécution. Nos résultats indiquent que l’application de techniques d’apprentissage profond (DL), dans ce contexte spécifique de l’IDM, permet déjà d’atteindre un premier niveau d’automatisation intéressant. Plus globalement, cet effort de recherche contribue au développement actuel de solutions plus intelligentes pour l’IDM
Model-driven engineering (MDE) promotes models as a key element in addressing the increasing complexity of the software systems’ lifecycle. Engineering systems with MDE involves various models representing different system aspects. This heterogeneity requires model federation capabilities to integrate viewpoints specific to multiple domains. Model View solutions address this challenge but still lack more automation support. This thesis explores the integration of Machine Learning (ML), notably Graph Neural Networks (GNNs) and Large Language Models (LLMs), in order to improve the definition and building of such views. The proposed solution introduces a twofold approach within the EMF Views technical solution. This allowed to partially automate the definition of model views at design time, and to dynamically compute inter-model links at runtime. Our results indicate that the application of Deep Learning (DL) techniques, in this particular MDE context, already allows to achieve a first relevant level of automation. More globally, this research effort contributes to the ongoing development of more intelligent MDE solutions
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Federici, Dominique. "Simulation de fautes comportementales de systèmes digitaux décrits à haut niveau d'abstraction en VHDL". Corte, 1999. http://www.theses.fr/1999CORT3039.

Texto completo da fonte
Resumo:
L’étude présentée dans ce mémoire entre dans le cadre de la conception des systèmes digitaux à très haute échelle d’intégration. Le but de notre travail est la définition et le développement d'un simulateur de fautes pour des systèmes digitaux décrits à haut niveau d'abstraction selon un point de vue comportemental. Pour accomplir cette tache, nous avons développé une approche intégrant les quatre étapes suivantes : - étude d'une modélisation adéquate explicitant les concepts de base des descriptions comportementales, en particulier la séparation données/commande. - choix d'un modèle de fautes comportementales. - définition d'un principe de simulation de fautes comportementales : notre méthode consiste à propager des listes de fautes à travers les éléments de base du modèle du système étudié - implémentation de ce principe : ces travaux ont été réalisés à partir des concepts de la théorie des objets offrant ainsi la possibilité d’élaborer un outil évolutif. La validation de notre approche est mise en oeuvre à travers l’étude d'un exemple : le registre 8-bit.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Huot, Jean-Claude. "La Dynamique des grands projets". Lyon, INSA, 1990. http://www.theses.fr/1990ISAL0027.

Texto completo da fonte
Resumo:
La conception des grands projets n'est jamais définitive, c'est-à-dire qu'on débute la construction d'un ouvrage avant que sa conception ne soit entièrement achevée. La technologie est en continuelle évolution au cours de la construction d'un grand projet. Le maître de l'ouvrage veut tirer partie des dernières innovations, ce qui entraîne de nombreuses modifications aux plans et cahiers des charges. Toute modification à la conception, passé le début de la construction, entraîne des réfections imprévisibles et agit sur les paramètres interreliés du projet (ressources, productivité, qualité, temps et coûts) pour en compromettre la réalisation. Les grands immeubles sont construits selon une procédure accélérée et présentent des modes de comportements que l'on peut assimiler à ceux des grands projets. Nous proposons un modèle tiré de la théorie des systèmes et nous formulons une hypothèse de la gestion organisationnelle d'un grand projet d'immeuble qui permet de minimiser les délais et les coûts d'impact en choisissant le moment le plus approprié pour débuter les travaux de construction
[The design of large projects is never completed until construction itself has been achieved, i. E. We start their construction and then resume the design. Technology is in continuous if reluctant evolution during the long life cycle of a major project The owner wants to take advantage of the latest innovations. This cause scope changes. Any design change often construction starts, will cause undiscovered rework that will eventually affect the interrelated parameters of the project (resources, productivity, quality, time and cast). Because major building projects are "fast-tracked" they have behaviour modes similar to other major projects. From the theory of systems we are proposing a model and developing a paradigm of organizational management of the realization of a major building that establishes the proper time to start construction and minimizes delays and impacts on costs. ]
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Zervakis, Georgios. "Enriching large language models with semantic lexicons and analogies". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0039.

Texto completo da fonte
Resumo:
Les progrès récents de l'apprentissage profond et des réseaux de neurones ont permis d'aborder des tâches complexes de traitement du langage naturel, qui sont appliquées à une pléthore de problèmes réels allant des assistants intelligents dans les appareils mobiles à la prédiction du cancer. Néanmoins, les systèmes modernes basés sur ces approches présentent plusieurs limitations qui peuvent compromettre leurs performances et leur fiabilité, les rendre injustes envers les minorités ou exposer des données personnelles. Nous sommes convaincus que l'intégration de connaissances et de raisonnement symboliques dans le cadre de l'apprentissage profond est une étape nécessaire vers la résolution de ces limitations. Par exemple, les ressources lexicales peuvent enrichir les réseaux de neurones profonds avec des connaissances sémantiques ou syntaxiques, et les règles logiques peuvent fournir des mécanismes d'apprentissage et de raisonnement. Par conséquent, l'objectif de cette thèse est de développer et d'évaluer des moyens d'intégrer différents types de connaissances et de raisonnement symboliques dans un modèle de langage largement utilisé, le Bidirectional Encoder R presentations from Transformers (BERT). Dans un premier temps, nous considérons le retrofitting, une technique simple et populaire pour raffiner les plongements lexicaux de mots grâce à des relations provenant d'un lexique sémantique. Nous présentons deux méthodes inspirées par cette technique pour incorporer ces connaissances dans des plongements contextuels de BERT. Nous évaluons ces méthodes sur trois jeux de données biomédicales pour l'extraction de relations et un jeu de données de critiques de films pour l'analyse des sentiments, et montrons qu'elles n'ont pas d'impact substantiel sur les performances pour ces tâches. En outre, nous effectuons une analyse qualitative afin de mieux comprendre ce résultat négatif. Dans un second temps, nous intégrons le raisonnement analogique à BERT afin d'améliorer ses performances sur la tâche de vérification du sens d'un mot, et de le rendre plus robuste. Pour cela, nous reformulons la vérification du sens d'un mot comme une tâche de détection d'analogie. Nous présentons un modèle hybride qui combine BERT pour encoder les données d'entrée en quadruplets et un classifieur neuronal convolutif pour décider s'ils constituent des analogies valides. Nous testons notre système sur un jeu de données de référence et montrons qu'il peut surpasser les approches existantes. Notre étude empirique montre l'importance de l'encodage d'entrée pour BERT, et comment cette dépendance est atténuée en intégrant les propriétés axiomatiques des analogies lors de l'apprentissage, tout en préservant les performances et en améliorant la robustesse
Recent advances in deep learning and neural networks have made it possible to address complex natural language processing tasks, which find application in a plethora of real-world problems ranging from smart assistants in mobile devices to the prediction of cancer. Nonetheless, modern systems based on these frameworks exhibit various limitations that may compromise their performance and trustworthiness, render them unfair towards minorities, or subject them to privacy leakage. It is our belief that integrating symbolic knowledge and reasoning into the deep learning framework is a necessary step towards addressing the aforementioned limitations. For example, lexical resources can enrich deep neural networks with semantic or syntactic knowledge, and logical rules can provide learning and reasoning mechanisms. Therefore, the scope of this thesis is to develop and evaluate ways of integrating different types of symbolic knowledge and reasoning into a widely used language model, Bidirectional Encoder Representations from Transformers (BERT). ln a first stage, we consider retrofitting, a simple and popular technique for refining distributional word embeddings based on relations coming from a semantic lexicon. Inspired by this technique, we present two methods for incorporating this knowledge into BERT contextualized embeddings. We evaluate these methods on three biomedical datasets for relation extraction and one movie review dataset for sentiment analysis, and show that they do not substantially impact the performance for these tasks. Furthermore, we conduct a qualitative analysis to provide further insights on this negative result. ln a second stage, we integrate analogical reasoning with BERT as a means to improve its performance on the target sense verification task, and make it more robust. To do so, we reformulate target sense verification as an analogy detection task. We present a hybrid model that combines BERT to encode the input data into quadruples and a convolutional neural classifier to decide whether they constitute valid analogies. We test our system on a benchmark dataset, and show that it can outperform existing approaches. Our empirical study shows the importance of the input encoding for BERT, and how this dependence gets alleviated by integrating the axiomatic properties of analogies during training, while preserving performance and improving robustness
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Bond, Ioan. "Grands réseaux d'interconnexion". Paris 11, 1987. http://www.theses.fr/1987PA112371.

Texto completo da fonte
Resumo:
Les problèmes traités dans cette thèse concernent les réseaux d'interconnexion, qui peuvent être des réseaux de multiprocesseurs ou des réseaux de télécommunications. Ces réseaux peuvent être modélisés par des graphes en cas de liaisons point-à-point ou par des hypergraphes en cas de liaisons par bus. Un problème important est la construction de grands réseaux: ayant un nombre limité de liaisons par processeur et un faible temps de transmission. Ceci se traduit sur le graphe par un degré maximum et un diamètre bornés. Dans la première partie nous étudions le cas des réseaux à liaisons point-à-point. Nous construisons de nouvelles familles de graphes de degré maximum et diamètre donnés. Nous donnons des résultats sur le rayon et les centres dans ces réseaux. Nous étudions aussi comment ajouter des sommets tout en conservant certaines propriétés du réseau. Enfin nous construisons de grands réseaux résistants aux pannes (de faible vulnérabilité) en ce sens que leur diamètre n'augmente pas trop après suppression d'un sommet ou d'une arête. La deuxième partie concerne les réseaux par bus. Comme la charge des bus est limitée nous traitons le cas où le nombre de processeurs par bus est borné. Nous donnons des constructions, en particulier dans le cas où deux nœuds quelconques appartiennent à un bus commun et le cas où tout processeur appartient à deux bus. Ces constructions soulèvent des problèmes de configurations combinatoires. Nous donnons ainsi de nouveaux résultats de décompositions, pavages ou couvertures de graphes complets
This thesis deals with problems related to interconnection networks, which can be multiprocessor or telecommunication networks. These networks are modeled by graphs in case of node-to-node connections and by hypergraphs in case of connection by buses. An important problem is the construction of large networks having a limited number of links per processor and a short message transmission rime. This corresponds in the associated graph to bound the maximum degree and diameter. In part one the case of networks modeled by graphs is discussed. We construct some new large families of networks with given maximum degree and diameter. The radius and related properties of these networks are given. We also study how one can add vertices to existing networks without changing their properties. Final/y we construct large fault tolerant networks (not vulnerable), in the sense that the diameter does not increase too much in case of node or link failures. Part two deals with bus interconnection networks. As result of the limited capacity of the buses, the number of processors per bus is bounded. We give constructions of such networks, especially in the case where any two nodes belong to a common bus, and the case where a node belongs to only two buses. This study gives rise to some interesting problems in combinatorial design theory. We give new results on decompositions, and on packings and coverings of complete graphs
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Alain, Pierre. "Contributions à l'évaluation des modèles de langage". Rennes 1, 2007. http://www.theses.fr/2007REN1S003.

Texto completo da fonte
Resumo:
Ces travaux portent sur l'évaluation des modèles de langages en dehors de toute tâche applicative. Le problème d'une étude comparative entre plusieurs modèles est généralement lié à la fonction dans un système complet. Notre objectif consiste au contraire à s'abstraire au maximum des contraintes liées au système, et ainsi pourvoir comparer effectivement les modèles. Le critère le plus couramment admis pour une comparaison de modèles de langage est la perplexité. Ces travaux reprennent les hypothèses du jeu de Shannon, de manière à poser un cadre d'évaluation des modèles de langage fondée sur leur capacité de prédiction. La méthodologie s'intéresse à la prédiction conjointe de mots, et reste indépendante de toute tâche applicative, de la nature du modèle, ainsi que du nombre de paramètres de ce modèle. Des expériences sont menées sur la modélisation du français et de l'anglais à partir de vocabulaires de taille variable, et différents modèles sont mis en concurrence
This work deals with the evaluation of language models independently of any applicative task. A comparative study between several language models is generally related to the role that a model has into a complete system. Our objective consists in being independant of the applicative system, and thus to provide a true comparison of language models. Perplexity is a widely used criterion as to comparing language models without any task assumptions. However, the main drawback is that perplexity supposes probability distributions and hence cannot compare heterogeneous models. As an evaluation framework, we went back to the definition of the Shannon's game which is based on model prediction performance using rank based statistics. Our methodology is able to predict joint word sequences that are independent of the task or model assumptions. Experiments are carried out on French and English modeling with large vocabularies, and compare different kinds of language models
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Delot, Thierry. "Interrogation d'annuaires étendus : modèles, langage et optimisation". Versailles-St Quentin en Yvelines, 2001. http://www.theses.fr/2001VERS0028.

Texto completo da fonte
Resumo:
Les travaux menés dans cette thèse se concentrent sur les problèmes de partage, d'interrogation et de médiation rencontrés dans les systèmes d'information de nouvelle génération qui s'articulent autour de sources de données, d'objets, et de composants largement distribués. Dans cet environnement, différents systèmes coexistent : des SGBD, des serveurs LDAP et des architectures à objets distribués. Les limites actuelles des services d'annuaires et leur interaction toujours plus grande avec l'environnemnet qui les entoure (SGBDs, objets,. . . ) nous a amené à étudier la définition d'un service d'annuaires capable, tout en conservant la flexibilité et la compatibilité avec les modèles existants, de proposer des fonctionnalités avancées telles que : la manipulation de données riches englobant des valeurs mais également des programmes, le support adapté pour le partage d'objets et des capacités d'interrogation étendues. En effet, les facilités d'interrogation dans LDAP sont relativement pauvres et il serait intéressant de les enrichir pour permettre des recherches plus complexes incluant des parcours de chemin, des calculs d'agrégats, etc. Le challenge consiste ici à trouver le bon compromis entre le pouvoir d'expression du langage et la charge imposée au service d'annuaires. L'introduction de nouvelles fonctionnalités dans le service d'annuaires a un impact important sur les performances du système, aussi bien du point de vue des temps de réponse que des ressources consommées pour évaluer une requête. Un autre aspect de cette intégration des annuaires avec leur environnement concerne le partage de données communes entre ces différents systèmes, comme les données d'identification par exemple. Pour assurer cette intégration, notre solution consiste à mettre en place une couche de médiation entre les deux systèmes, afin de permettre à un utilisateur de manipuler ses données en utilisant soit le modèle relationnel dans le cax des SGBD relationnels, soit le modèle LDAP.
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Oota, Subba Reddy. "Modèles neurocomputationnels de la compréhension du langage : caractérisation des similarités et des différences entre le traitement cérébral du langage et les modèles de langage". Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0080.

Texto completo da fonte
Resumo:
Cette thèse explore la synergie entre l'intelligence artificielle (IA) et la neuroscience cognitive pour faire progresser les capacités de traitement du langage. Elle s'appuie sur l'idée que les avancées en IA, telles que les réseaux neuronaux convolutionnels et des mécanismes comme le « replay d'expérience », s'inspirent souvent des découvertes neuroscientifiques. Cette interconnexion est bénéfique dans le domaine du langage, où une compréhension plus profonde des capacités cognitives humaines uniques, telles que le traitement de structures linguistiques complexes, peut ouvrir la voie à des systèmes de traitement du langage plus sophistiqués. L'émergence de riches ensembles de données neuroimagerie naturalistes (par exemple, fMRI, MEG) aux côtés de modèles de langage avancés ouvre de nouvelles voies pour aligner les modèles de langage computationnels sur l'activité cérébrale humaine. Cependant, le défi réside dans le discernement des caractéristiques du modèle qui reflètent le mieux les processus de compréhension du langage dans le cerveau, soulignant ainsi l'importance d'intégrer des mécanismes inspirés de la biologie dans les modèles computationnels.En réponse à ce défi, la thèse introduit un cadre basé sur les données qui comble le fossé entre le traitement neurolinguistique observé dans le cerveau humain et les mécanismes computationnels des systèmes de traitement automatique du langage naturel (TALN). En établissant un lien direct entre les techniques d'imagerie avancées et les processus de TALN, elle conceptualise le traitement de l'information cérébrale comme une interaction dynamique de trois composantes critiques : le « quoi », le « où » et le « quand », offrant ainsi des perspectives sur la manière dont le cerveau interprète le langage lors de l'engagement avec des récits naturalistes. L'étude fournit des preuves convaincantes que l'amélioration de l'alignement entre l'activité cérébrale et les systèmes de TALN offre des avantages mutuels aux domaines de la neurolinguistique et du TALN. La recherche montre comment ces modèles computationnels peuvent émuler les capacités de traitement du langage naturel du cerveau en exploitant les technologies de réseau neuronal de pointe dans diverses modalités - langage, vision et parole. Plus précisément, la thèse met en lumière comment les modèles de langage pré-entraînés modernes parviennent à un alignement plus étroit avec le cerveau lors de la compréhension de récits. Elle examine le traitement différentiel du langage à travers les régions cérébrales, le timing des réponses (délais HRF) et l'équilibre entre le traitement de l'information syntaxique et sémantique. En outre, elle explore comment différentes caractéristiques linguistiques s'alignent avec les réponses cérébrales MEG au fil du temps et constate que cet alignement dépend de la quantité de contexte passé, indiquant que le cerveau code les mots légèrement en retard par rapport à celui actuel, en attendant plus de contexte futur. De plus, elle met en évidence la plausibilité biologique de l'apprentissage des états de réservoir dans les réseaux à état d'écho, offrant ainsi une interprétabilité, une généralisabilité et une efficacité computationnelle dans les modèles basés sur des séquences. En fin de compte, cette recherche apporte des contributions précieuses à la neurolinguistique, à la neuroscience cognitive et au TALN
This thesis explores the synergy between artificial intelligence (AI) and cognitive neuroscience to advance language processing capabilities. It builds on the insight that breakthroughs in AI, such as convolutional neural networks and mechanisms like experience replay 1, often draw inspiration from neuroscientific findings. This interconnection is beneficial in language, where a deeper comprehension of uniquely human cognitive abilities, such as processing complex linguistic structures, can pave the way for more sophisticated language processing systems. The emergence of rich naturalistic neuroimaging datasets (e.g., fMRI, MEG) alongside advanced language models opens new pathways for aligning computational language models with human brain activity. However, the challenge lies in discerning which model features best mirror the language comprehension processes in the brain, underscoring the importance of integrating biologically inspired mechanisms into computational models. In response to this challenge, the thesis introduces a data-driven framework bridging the gap between neurolinguistic processing observed in the human brain and the computational mechanisms of natural language processing (NLP) systems. By establishing a direct link between advanced imaging techniques and NLP processes, it conceptualizes brain information processing as a dynamic interplay of three critical components: "what," "where," and "when", offering insights into how the brain interprets language during engagement with naturalistic narratives. This study provides compelling evidence that enhancing the alignment between brain activity and NLP systems offers mutual benefits to the fields of neurolinguistics and NLP. The research showcases how these computational models can emulate the brain’s natural language processing capabilities by harnessing cutting-edge neural network technologies across various modalities—language, vision, and speech. Specifically, the thesis highlights how modern pretrained language models achieve closer brain alignment during narrative comprehension. It investigates the differential processing of language across brain regions, the timing of responses (Hemodynamic Response Function (HRF) delays), and the balance between syntactic and semantic information processing. Further, the exploration of how different linguistic features align with MEG brain responses over time and find that the alignment depends on the amount of past context, indicating that the brain encodes words slightly behind the current one, awaiting more future context. Furthermore, it highlights grounded language acquisition through noisy supervision and offers a biologically plausible architecture for investigating cross-situational learning, providing interpretability, generalizability, and computational efficiency in sequence-based models. Ultimately, this research contributes valuable insights into neurolinguistics, cognitive neuroscience, and NLP
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Chauveau, Dominique. "Étude d'une extension du langage synchrone SIGNAL aux modèles probabilistes : le langage SIGNalea". Rennes 1, 1996. http://www.theses.fr/1996REN10110.

Texto completo da fonte
Resumo:
L'absence d'outils ergonomiques pour le traitement de systemes stochastiques complexes, comme on peut en trouver dans de nombreuses applications industrielles, a conduit le projet epatr de l'irisa a envisager la realisation d'une extension du langage de programmation signal pour la manipulation de systemes hybrides stochastiques/non-stochastiques. Developpe depuis une dizaine d'annees par le projet epatr, le langage signal est un langage flot de donnees de type equationnel, appartenant a la famille des langages synchrones et destine a la specification de systemes reactifs temps-reel. Une interface graphique integree a l'environnement signal permet de specifier des programmes de facon modulaire et hierarchique sous la forme de boites interconnectees. L'extension de signal aux modeles aleatoires, que l'on appelle signalea, doit permettre la specification de systemes complexes faisant intervenir des composantes aleatoires et des composantes de nature symbolique. Elle doit egalement fournir a l'utilisateur des methodes efficaces de simulation (simulation rapide d'evenements rares,) et d'estimation (reconnaissance de formes, diagnostic,) generees automatiquement a partir de la specification de depart. La definition de signalea a des le debut souleve des problemes mathematiques complexes, dont une etude approfondie a conduit a la definition du formalisme mathematique css. Le modele css ne s'interesse qu'aux cas ou le systeme etudie met en jeu un nombre fini de variables. Les objets de base de ce modele sont des systemes hybrides stochastiques/non-stochastiques. Nous definissons sur ces systemes une generalisation de la regle de bayes qui nous permet d'obtenir des methodes de simulation et d'estimation incrementales se rapprochant assez fortement des travaux de a. P. Dempster et g. Shafer en statistique et intelligence artificielle sur les fonctions de croyance et reseaux de croyance. La version de signalea que nous presentons dans ce document est sur une generalisation du langage signal qui permet d'inclure des bulles de type css. Elle donne la possibilite de specifier tout systeme dynamique aleatoire de type automate stochastique, ou hidden markov model (hmm). Dans le cas booleen, le calcul des primitives intervenant pour la simulation bayesienne a ete implemente en utilisant des techniques bdd (binary decision diagram). Enfin, nous apportons un element nouveau au modele css qui est la prise en compte de la hierarchie des systemes dans les algorithmes de simulation et d'estimation incrementales
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Fleurey, Franck. "Langage et méthode pour une ingénierie des modèles fiable". Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00538288.

Texto completo da fonte
Resumo:
Ce travail s'inscrit dans un contexte où la taille et la complexité des logiciels augmentent alors que les contraintes de temps de développement, de qualité, de maintenance et d'évolution sont toujours plus fortes. Pour répondre à cette tendance, l'ingénierie dirigée par les modèles constitue une évolution prometteuse des techniques de génie logiciel. Les idées de l'ingénierie dirigée par les modèles sont, d'une part de rendre les modèles productifs, et d'autre part d'automatiser certaines étapes du développement grâce à des transformations de modèles. Une des conditions pour que l'ingénierie dirigée par les modèles tienne ses promesses, en terme de productivité et de qualité, est d'assurer, tout d'abord, la correction des modèles, et ensuite, la correction des transformations utilisées. La contribution de ce travail s'articule autour de ces deux axes et constitue un premier pas vers la fiabilisation des processus de dévelopement dirigés pas les modèles. Le premier axe de ce travail vise à améliorer les possibilités de validation des modèles en proposant une plateforme pour la définition de langages de modélisation. En fonction des expériences et du domaine considéré, les modèles utilisés dans l'ingénierie dirigée par les modèles sont exprimés dans divers langages de modélisation. Comme tout langage, un langage de modélisation est constitué de plusieurs éléments de spécification : une syntaxe abstraite (ou méta-modèle), une sémantique et des contraintes syntaxiques et sémantiques. Pour assurer la précision et la cohérence d'un tel langage, il faut d'une part spécifier sans ambiguïtés chaque élément, et d'autre part assurer la bonne intégration des différents éléments entre eux. Or, les pratiques actuelles de l'ingénierie dirigée par les modèles utilisent des formalismes hétérogènes et parfois difficiles à exploiter (le langage naturel par exemple) pour la spécification de ces éléments. Afin d'améliorer la définition des langages de modélisation, nous proposons l'utilisation d'un coeur sémantique unique et précis. Ce coeur sémantique se présente sous la forme d'un langage appelé Kermeta. Au coeur de la plateforme d'ingénierie dirigée par les modèles développée par l'équipe Triskell, le langage Kermeta a été utilisé dans des contextes variés dont la transformation de modèles, la modélisation orientée-aspects et l'analyse d'exigences logicielles. L'utilisation de Kermeta pour ces applications a permis de valider le langage et de mettre en évidence ses avantages par rapport aux techniques existantes. Le second axe de ce travail concerne la validation des transformations de modèles. Celles-ci sont utilisées pour automatiser les phases du processus de développement qui peuvent l'être. Qu'il s'agisse de raffinement, de composition, de refactoring ou encore de génération de code, la qualité des transformations de modèles est primordiale pour assurer la qualité des logiciels développés. Il suffit en effet qu'une seule transformation utilisée soit erronée pour que l'ensemble du processus de développement soit fragilisé. Dans ce contexte, nous proposons une technique pour la sélection de modèles de test permettant la validation des programmes de transformation de modèles. Cette technique tire avantage du fait que toute transformation de modèles manipule des données dont la structure est décrite par un méta-modèle.
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Adda, Gilles. "Reconnaissance de grands vocabulaires : une étude syntaxique et lexicale". Paris 11, 1987. http://www.theses.fr/1987PA112386.

Texto completo da fonte
Resumo:
Nous présentons dans cette thèse un certain nombre d'expériences menées dans le cadre d'un projet à long terme de dictée vocale. Ces expériences portent sur l'utilisation de grands vocabulaires (contenant entre 10000 et 300000 mots), et de langage aussi bien syntaxiquement que sémantiquement naturel. On a tout d'abord étudié, en utilisant comme support une maquette de transcription sténotypes/graphèmes destinée au sous-titrage d'émissions télévisées, le modèle syntaxique à développer afin de rendre compte des particularités du langage parlé. Ce modèle repose sur des grammaires stochastiques de successions binaires et ternaires. Nous avons ensuite construit un logiciel d'accès à un lexique de très grande taille (270000 mots), à l'aide d'un treillis phonétique erroné. Les résultats ayant montré les limites d'une telle approche, nous avons étudié la possibilité d'une préclasssification du vocabulaire. Nous avons mené une étude lexicale de l'utilisation de traits robustes, en utilisant différents types de préclassification.
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Rodolakis, Georgios. "Modèles analytiques et évaluation de performances dans les grands réseaux mobiles ad hoc". Phd thesis, Ecole Polytechnique X, 2006. http://pastel.archives-ouvertes.fr/pastel-00002950.

Texto completo da fonte
Resumo:
Dans cette thèse, nous étudions les différents aspects des protocoles de communication pour les réseaux mobiles ad hoc. Notre but est d'établir des modèles analytiques pour chacun de ces aspects et de combiner les modèles pour évaluer la performance du système en entier. Nous considérons les protocoles de toutes les couches, à partir de la couche de contrôle d'accès au canal. Nous commençons notre étude avec le protocole IEEE 802.11 et nous démontrons que les délais d'accès au canal suivent une distribution polynomiale. Basés sur ce résultat, nous présentons un protocole inter-couche an d'offrir des garanties de qualité de service de délai dans les réseaux sans l multi-sauts. Le prochain sujet abordé est la scalabilité des protocoles de routage d'état de liens dans les réseaux ad hoc massifs. Nous comparons les résultats théoriques connus sur la capacité des réseaux sans l avec les bornes atteignables quand on tient compte du trac de contrôle des protocoles utilisées. Nous adaptons les bornes théoriques à la communication multicast et nous proposons MOST, un protocole multicast qui atteint des performances asymptotiquement optimales dans les grands réseaux mobiles ad hoc. Ensuite, nous étudions le comportement du protocole TCP et l'impact des délais polynomiaux observés précédemment par rapport aux auto corrélations du trac TCP, toujours dans le contexte de grands réseaux. Finalement, nous nous intéressons à l'organisation et la gestion du réseau, an d'offrir des services de qualité garantie. Notre approche peut être appliquée dans un contexte général et consiste à placer des serveurs répliqués dans le réseau, selon les informations de qualité de service fournies par les couches inferieures.
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Lopes, Marcos. "Modèles inductifs de la sémiotique textuelle". Paris 10, 2002. http://www.theses.fr/2002PA100145.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Eyssautier-Bavay, Carole. "Modèles, langage et outils pour la réutilisation de profils d'apprenants". Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00327198.

Texto completo da fonte
Resumo:
Cette thèse en informatique se place dans le domaine des Environnements Informatiques pour l'Apprentissage Humain. Durant une activité d'apprentissage, de nombreuses informations peuvent être recueillies et interprétées pour constituer un profil, en termes de connaissances, compétences, conceptions ou comportements d'un apprenant ou d'un groupe d'apprenants. Ces profils peuvent différer de part leur intention pédagogique, leur contenu, leur structuration, leur présentation. Par ailleurs, les acteurs de la situation d'apprentissage concernés par ces profils sont divers.

Il n'existe pas à l'heure actuelle de solution technique permettant de réutiliser ces profils hétérogènes. Cette thèse cherche donc à proposer des modèles et des outils permettant la réutilisation pour les différents acteurs de profils d'apprenants créés par d'autres.

Dans nos travaux, nous proposons le modèle de processus de gestion de profils REPro (Reuse of External Profiles). Pour permettre la réutilisation de profils hétérogènes, nous proposons de les réécrire selon un formalisme commun qui prend la forme d'un langage de modélisation de profils, le langage PMDL (Profiles MoDeling Language). Nous définissons ensuite un ensemble d'opérateurs permettant la transformation des profils ainsi harmonisés, ou de leur structure, tels que l'ajout d'éléments dans le profil, ou la création d'un profil de groupe à partir de profils individuels. Ces propositions ont été mises en œuvre au sein de l'environnement EPROFILEA du projet PERLEA (Profils d'Élèves Réutilisés pour L'Enseignant et l'Apprenant), avant d'être mises à l'essai auprès d'enseignants en laboratoire.
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Swaileh, Wassim. "Des modèles de langage pour la reconnaissance de l'écriture manuscrite". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR024/document.

Texto completo da fonte
Resumo:
Cette thèse porte sur le développement d'une chaîne de traitement complète pour réaliser des tâches de reconnaissance d'écriture manuscrite non contrainte. Trois difficultés majeures sont à résoudre: l'étape du prétraitement, l'étape de la modélisation optique et l'étape de la modélisation du langage. Au stade des prétraitements il faut extraire correctement les lignes de texte à partir de l'image du document. Une méthode de segmentation itérative en lignes utilisant des filtres orientables a été développée à cette fin. La difficulté dans l’étape de la modélisation optique vient de la diversité stylistique des scripts d'écriture manuscrite. Les modèles optiques statistiques développés sont des modèles de Markov cachés (HMM-GMM) et les modèles de réseaux de neurones récurrents (BLSTM-CTC). Les réseaux récurrents permettent d’atteindre les performances de l’état de l’art sur les deux bases de référence RIMES (pour le Français) et IAM (pour l’anglais). L'étape de modélisation du langage implique l'intégration d’un lexique et d’un modèle de langage statistique afin de rechercher parmi les hypothèses proposées par le modèle optique, la séquence de mots (phrase) la plus probable du point de vue linguistique. La difficulté à ce stade est liée à l’obtention d’un modèle de couverture lexicale optimale avec un minimum de mots hors vocabulaire (OOV). Pour cela nous introduisons une modélisation en sous-unités lexicales composée soit de syllabes soit de multigrammes. Ces modèles couvrent efficacement une partie importante des mots hors vocabulaire. Les performances du système de reconnaissance avec les unités sous-lexicales dépassent les performances des systèmes de reconnaissance traditionnelles de mots ou de caractères en présence d’un fort taux de mots hors lexique. Elles sont équivalentes aux modèles traditionnels en présence d’un faible taux de mots hors lexique. Grâce à la taille compacte du modèle de langage reposant sur des unités sous-lexicales, un système de reconnaissance multilingue unifié a été réalisé. Le système multilingue unifié améliore les performances de reconnaissance par rapport aux systèmes spécialisés dans chaque langue, notamment lorsque le modèle optique unifié est utilisé
This thesis is about the design of a complete processing chain dedicated to unconstrained handwriting recognition. Three main difficulties are adressed: pre-processing, optical modeling and language modeling. The pre-processing stage is related to extracting properly the text lines to be recognized from the document image. An iterative text line segmentation method using oriented steerable filters was developed for this purpose. The difficulty in the optical modeling stage lies in style diversity of the handwriting scripts. Statistical optical models are traditionally used to tackle this problem such as Hidden Markov models (HMM-GMM) and more recently recurrent neural networks (BLSTM-CTC). Using BLSTM we achieve state of the art performance on the RIMES (for French) and IAM (for English) datasets. The language modeling stage implies the integration of a lexicon and a statistical language model to the recognition processing chain in order to constrain the recognition hypotheses to the most probable sequence of words (sentence) from the language point of view. The difficulty at this stage is related to the finding the optimal vocabulary with minimum Out-Of-Vocabulary words rate (OOV). Enhanced language modeling approaches has been introduced by using sub-lexical units made of syllables or multigrams. The sub-lexical units cover an important portion of the OOV words. Then the language coverage depends on the domain of the language model training corpus, thus the need to train the language model with in domain data. The recognition system performance with the sub-lexical units outperformes the traditional recognition systems that use words or characters language models, in case of high OOV rates. Otherwise equivalent performances are obtained with a compact sub-lexical language model. Thanks to the compact lexicon size of the sub-lexical units, a unified multilingual recognition system has been designed. The unified system performance have been evaluated on the RIMES and IAM datasets. The unified multilingual system shows enhanced recognition performance over the specialized systems, especially when a unified optical model is used
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Yeo, Ténan. "Modèles stochastiques d'épidémies en espace discret et continu : loi des grands nombres et fluctuations". Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0617.

Texto completo da fonte
Resumo:
Le but de cette thèse est d'étudier les modèles stochastiques d'épidémies en tenant compte de la structure spatiale de l'environnement. Dans un premier temps, nous considérons un modèle déterministe et stochastique SIR sur une grille de [0,1]^d, d=1,2 ou 3. D'une part, on prouve qu'en fixant le pas de la grille et en faisant tendre la taille de la population en chaque point de la grille vers l'infini, le modèle stochastique converge vers le modèle déterministe sur la grille. Ce système déterministe d'équations différentielles ordinaires converge vers un système d'équations aux dérivées partielles quand le pas de la maille tend vers zéro. D'autre part, on fait tendre en même temps la taille de la population en chaque point vers l'infini et le pas de maillage vers zéro, avec une restriction sur la vitesse de convergence entre les deux paramètres. Dans ce cas le modèle stochastique converge vers le modèle déterministe en espace continu. Le chapitre 2 étudie dans le cas d=1 les fluctuations du modèle stochastique autour de sa limite loi des grands nombres, à l'aide d'un théorème central limite. Dans le chapitre 3, nous étudions la dynamique de maladie infectieuse au sein d'une population répartie sur un nombre fini d'îlots interconnectés, dans le cadre d'un modèle SIS. A l'aide du théorème central limite, des déviations modérées et des grandes déviations, on donne une estimation du temps mis par les perturbations aléatoires pour éteindre une situation endémique. Nous calculons numériquement le quasi-potentiel qui apparaît dans l'expression du temps d'extinction, que l'on compare avec celui du cas homogène
The aim of this thesis is to study stochastic epidemic models taking into account the spatial structure of the environment. Firstly, we consider a deterministic and a stochastic SIR model on a regular grid of [0,1]^d, d=1, 2 or 3. On the one hand, by letting first the size of the population on each node go to infinity and the mesh size of the grid is kept fixed, we prove that the stochastic model converges to the deterministic model on the spatial grid. This system of ordinary differential equations converges to a system of partial differential equations as the mesh size of the grid goes to zero. On the other hand, we let both the population size go to infinity and the mesh size of the grid go to zero with a restriction on the the speed of convergence between the two parameters. In this case, we show that the stochastic model converges to the deterministic model in the continuous space. Next, we study, in the case d=1, the fluctuations of the stochastic model around its deterministic law of large numbers limit, by using a cental limit theorem. Finally, we study the dynamic of infectious disease within a population distribued on a finite number of interconnected patches. We place ourselves in the context of an SIS model. By using the central limit theorem, the moderate deviations and the large deviations, we give an approximation of the time taken by the random pertubations to extinct an endemic situation. We make numerical calculus for the quasi-potential which appear in the expression of the time of extinction. Comparisons are made with that of the homogeneous model
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Ameur-Boulifa, Rabéa. "Génération de modèles comportementaux des applications réparties". Nice, 2004. http://www.theses.fr/2004NICE4094.

Texto completo da fonte
Resumo:
Nous nous intéressons dans ce document à la vérification de propriétés comportementales d’applications distribuées par la technique du model-checking. En particulier, nous étudions le problème de génération de modèles à partir de programmes Java répartis et représentés par systèmes de transitions communiquant. A partir de la sémantique formelle de programmes ProActive – une librairie 100 % Java pour la programmation parallèle, distribuée et concurrente – nous construisons, de manière compositionnelle et hiérarchique, des modèles comportementaux finis pour des abstractions finies d’applications. Ces modèles sont décrits mathématiquement et graphiquement. Et la procédure de construction, dont nous prouvons la terminaison, est décrite par des règles sémantiques s’appliquant à une forme intermédiaire des programmes obtenue par analyse statique. Ces règles sont ensuite étendues afin de générer des modèles paramétrés pour des applications possiblement infinies. La construction de modèles paramétrés a été, d’abord, faite sur un noyau de Java et la bibliothèque ProActive, puis étendue à des constructions communication de groupe. Des exemples de modèles, générés directement à partir de ces règles implémentées par un prototype, sont également étudiés
From the formal semantics of ProActive – 100 % Java library for concurrent, distributed, and mobile computing -, we build, in a compositional way, finite models of finite abstract applications. These models are described mathematically and graphically. The procedure for building, of which we guaranty the ending, is described by semantics rules applied to an intermediate form of programs obtained by static analysis. Afterwards, these rules are extended so as to build parameterized models of infinite applications. Practically, a prototype for analysing a core of Java and ProActive library is constructed. Moreover, some realistic examples are studied
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Zitouni, Imed. "Modélisation du langage pour les systèmes de reconnaissance de la parole destinés aux grands vocabulaires : application à MAUD". Nancy 1, 2000. http://docnum.univ-lorraine.fr/public/SCD_T_2000_0034_ZITOUNI.pdf.

Texto completo da fonte
Resumo:
Le traitement automatique de la parole suscite actuellement un grand interêt ; il est considéré comme une branche importante de l'interaction homme-machine. En effet, nous éprouvons le besoin de communiquer avec nos ordinateurs, de la facon la plus naturelle et la plus directe qui soit : le langage parle ; l'interaction et l'échange d'informations s'en trouvent grandement facilités. Le marché des logiciels offre aujourd'hui des produits qui prétendent effectuer une reconnaissance de la parole continue avec un vocabulaire important. En réalité, les performances de ces systèmes sont encore largement inférieures à celles de l'être humain, particulièrement au niveau de la modélisation du langage. Le travail que nous présentons dans ce manuscrit s'inscrit dans le cadre de la modélisation du langage pour les systèmes de reconnaissance de la parole continue destinés aux grands vocabulaires. Nous proposons de nouveaux modèles fondés sur des séquences de mots de longueur variable. Ces séquences représentent des structures langagières qui s'apparentent à des syntagmes linguistiques. Elles sont détectées automatiquement, à partir d'importants corpus de textes, en utilisant des mesures issues de la théorie de l'information. Nous proposons également une approche hybride combinant les modèles de langage probabilistes, utilisés dans la plupart des systèmes de reconnaissance actuels, avec des connaissances linguistiques explicites supplementaires. L'évaluation de l'ensemble de ces modèles est effectuée en terme de perplexité et en terme de prédiction à l'aide du jeu de Shannon. Pour tester leurs performances au niveau de la reconnaissance, nous avons développé un système de reconnaissance vocale nommé MAUD : machine automatique à dicter ; il se fonde sur les modèles de Markov cachés de second ordre et utilise un vocabulaire de 20000 mots. Par rapport à la version de base de ce système utilisant un modèle trigrammes, l'intégration de ces modèles de langage a amélioré le taux de reconnaissance d'environ 22%.
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Nguyen, Hong Quang. "Reconnaissance automatique de la parole continue : grand vocabulaire en vietnamien". Avignon, 2008. http://www.theses.fr/2008AVIG0155.

Texto completo da fonte
Resumo:
La reconnaissance de la parole vietnamienne est juste au début de son développement. Nous constatons que les différences entre la langue vietnamienne et les langues occidentales sont telles que les techniques de reconnaissance de la parole communément employées pour ces dernières (anglais, français par exemple. ) ne suffisent pas pour développer directement un système de reconnaissance performant. La prise en compte des caractéristiques de la langue vietnamienne au niveau de la représentation des données (lexique, modèle de langage) et des modèles (modèle de tons) permettent par contre d’obtenir des résultats prometteurs. La première différence est la segmentation des entités sémantiques des phrases. En vietnamien, les mots/concepts peuvent être composés d'une ou plusieurs syllabes qui sont systématiquement découpés en syllabes séparées par un espace (langue syllabique). La segmentation en mots/concepts de la phrase est une tâche importante pour les langues isolantes telles que le mandarin, le cantonais, le thaï mais aussi pour le vietnamien. Pour améliorer les résultats des traitements automatiques de ces langues, nous avons construit un module de segmentation en mots multi syllabiques des phrases syllabiques. Deux approches ont été utilisées pour cela : la première utilise un dictionnaire de mots vietnamiens multi syllabiques alors que la seconde construit automatiquement un lexique multi syllabique à l’aide d’un algorithme utilisant l’information mutuelle des mots comme critère de regroupement, et la programmation dynamique pour simplifier les traitements. La deuxième différence entre ces langues est l’importance du ton dans la langue vietnamienne. La reconnaissance des tons est donc un aspect fondamental du traitement des langues tonales. Dans cette thèse, nous avons étudié en détail différentes méthodes pour représenter de manière optimale la fréquence fondamentale et l’énergie, d’une part, et pour trouver un moyen d’atténuer l’influence du phénomène de coarticulation entre les tons. Nous avons utilisé deux approches pour effectuer cette reconnaissance : une approche trame à trame à l’aide des modèles de Markov caché et une méthode globale à l’aide d’un perceptron multicouche. En cumulant les traitements des caractéristiques linguistiques (lexique multi syllabique) et acoustiques (reconnaissance des tons), les résultats ont été améliorés de pratiquement 50 % (par rapport au système initial). Ces résultats prouvent que l’ajout d’informations supplémentaires, caractéristiques de la langue vietnamienne, améliore considérablement les performances des systèmes de reconnaissance de la parole
Development of the Vietnamese speech recognition has just started. This is due to the differences between Vietnamese language and Western languages, the speech recognition techniques broadly used for these languages (English, French for example. ) are not enough for developing directly a powerful Vietnamese speech recognition system. Taking into consideration the Vietnamese language characteristics in term of data (lexicon, language model) and model (tone model) representation should allow us to obtain promised results and better performances. The first difference is the semantic entities segmentation of the sentence. In Vietnamese, the word/concept consists of one or several syllables which are systematically separated by spaces (syllabic language). The segmentation of the sentence in words/concepts is an important stage for the isolating languages such as the Mandarin, the Cantonese, and the Thai but also for the Vietnamese. To improve the performance of automatic recognition system for Vietnamese, we built a polysyllabic word segmentation module for syllabic sentences. Two approaches were used: the first one uses a Vietnamese polysyllabic word dictionary whereas the second builds automatically this dictionary using the mutual information of the words as the grouping criterion, and a dynamic programming algorithm to simplify the treatments. The second difference is the crucial role of the tone in the Vietnamese language. The tone recognition is thus a fundamental aspect of the tonal language processing. In this thesis, we studied various methods to represent, in an optimal way, the fundamental frequency and the energy. We also were interested in finding a method to reduce the influence of the co-articulation phenomenon between tones. We furthermore used two approaches: an approach in frames by using hidden Markov models and a more general method based on the multi-level perceptrons. By integrating the processing of the linguistic (polysyllabic word lexicon) and acoustic (tone recognition) characteristics, the results were improved by practically 50 % (compared to the baseline system). These results prove that the addition of supplementary information, characteristics of Vietnamese language, improves considerably the performances of the speech recognition system
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Trojet, Mohamed Wassim. "Approche de vérification formelle des modèles DEVS à base du langage Z". Aix-Marseille 3, 2010. http://www.theses.fr/2010AIX30040.

Texto completo da fonte
Resumo:
Le cadre général dans lequel se situe cette thèse concerne l’amélioration de la vérification et la validation des modèles de simulation par l'intégration des méthodes formelles. Notre approche consiste à doter les modèles DEVS d’une approche de vérification formelle basée sur le langage Z. DEVS est un formalisme qui permet la description et l'analyse du comportement des systèmes à évènements discrets, c'est à dire, les systèmes dont le changement d'état dépend de l'occurrence d'un évènement. Un modèle DEVS est essentiellement validé par la simulation qui permet de vérifier si celui ci décrit bien le comportement du système. Cependant, la simulation ne permet pas de détecter la présence d’une éventuelle inconsistance dans le modèle (un conflit, une ambiguïté ou une incomplétude). Pour cela, nous avons intégré un langage de spécification formelle dans le formalisme DEVS connu sous le nom de Z. Cette intégration consiste à: (1) transformer un un modèle DEVS vers une spécification Z équivalente et (2) vérifier la consistance de la spécification résultante utilisant les outils développés par la communauté Z. Ainsi un modèle DEVS est soumis à une vérification formelle automatique avant son passage à la phase de simulation
The general framework of the thesis consists in improving the verification and the validation of simulation models through the integration of formal methods. We offered an approach of formal verification of DEVS models based on Z language. DEVS is a formalism that allows the description and analysis of the behavior of discrete event systems, ie systems whose state change depends on the occurrence of an event. A DEVS model is essentially validated by the simulation which permits to verify if it correctly describes the behavior of the system. However, the simulation does not detect the presence of a possible inconsistency in the model (conflict, ambiguity or incompleteness). For this reason, we have integrated a formal specification language, known as Z, in the DEVS formalism. This integration consists in: (1) transforming a DEVS model into an equivalent Z specification and (2) verifying the consistency of the resulting specification using the tools developed by the Z community. Thus, a DEVS model is subjected to an automatic formal verification before its simulation
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Janiszek, David. "Adaptation des modèles de langage dans le cadre du dialogue homme-machine". Avignon, 2005. http://www.theses.fr/2005AVIG0144.

Texto completo da fonte
Resumo:
Actuellement, la plupart des systèmes de reconnaissance automatique de la parole (SRAP) sont basés sur des modèles de langage statistiques (MLS). Ces modèles sont estimés à partir d'ensembles d'observations. La mise en oeuvre d'un SRAP nécessite un corpus en adéquation avec le domaine de l'application. Or, à cause des difficultés posées par leur collecte, les corpora disponibles peuvent s'avérer insuffisants pour estimer correctement des MLS. Pour surmonter cela, on souhaite utiliser d'autres données et les adapter au contexte applicatif du SRAP afin d'améliorer les performances du système de dialogue correspondant. Dans ce cadre, nous avons défini et mis en oeuvre un nouveau paradigme : la représentation matricielle des données linguistiques. Cette approche, au centre de nos travaux; permet de nouveaux traitements des données linguistiques grâce à l'utilisation de l'algèbre linéaire. Par exemple, on peut définir une similarité sémantico-fonctionnelle entre plusieurs mots. En nous basant sur la représentation matricielle, nous avons étudié et mis au point plusieurs techniques d'adaptation selon plusieurs axes de recherche : Le filtrage des données : basé sur la technique des blocs minimaux. La transformation linéaire : par le calcul d’un opérateur algébrique transformant les données linguistiques. L'augmentation de données : technique réestimant les occurrences d'un mot observé en fonction de sa similarité avec d'autres mots. La combinaison sélective d'historiques : technique généralisant l'interpolation linéaire de différents modèles de langage. Combinaison de techniques : nous avons cherché les meilleures combinaisons. Les résultats expérimentaux obtenus nous donnent des améliorations relatives du taux d'erreur mot sous certaines conditions. En particulier, nos expériences montrent que l'augmentation de données et la combinaison sélective d'historiques, lorsqu'elles sont associées, donnent des résultats intéressants
Currently, most of the automatic speech recognition (ASR) systems are based on statistical language models (SLM). These models are estimated from sets of observations. So, the implementation of an ASR system requires having a corpus in adequacy with the aimed application. Because of the difficulties occurring while collecting these data, the available corpora may be insufficient to estimate SLM correctly. To raise this insufficiency, one may wish to use other data and to adapt them to the application context. The main objective is to improve the performances of the corresponding dialogue system. Within this framework, we've defined and implemented a new paradigm: the matrix representation of the linguistic data. This approach is the basis of our work; it allows a new linguistic data processing thanks to the use of the linear algebra. For example, we've defined a semantic and functional similarity between words. Moreover, we have studied and developed several techniques of adaptation based on the matrix representation. During our study, we've investigated several research orientations: Filtering the data: we've used the technique of the minimal blocks. The linear transformation: this technique consists in defining an algebraic operator to transform the linguistic data. The data augmentation: this technique consists in reestimating the occurrences of a word observed according to its functional similarity with other words. The selective combination of histories: this technique is a generalization of the linear interpolation of language models. Combining techniques: each technique having advantages and drawbacks, we've sought the best combinations. The experimental results obtained within our framework of study give us relative improvements in term of word error rate. In particular, our experiments show that associating the data augmentation and the selective combination of histories gives interesting results
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Oger, Stanislas. "Modèles de langage ad hoc pour la reconnaissance automatique de la parole". Phd thesis, Université d'Avignon, 2011. http://tel.archives-ouvertes.fr/tel-00954220.

Texto completo da fonte
Resumo:
Les trois piliers d'un système de reconnaissance automatique de la parole sont le lexique,le modèle de langage et le modèle acoustique. Le lexique fournit l'ensemble des mots qu'il est possible de transcrire, associés à leur prononciation. Le modèle acoustique donne une indication sur la manière dont sont réalisés les unités acoustiques et le modèle de langage apporte la connaissance de la manière dont les mots s'enchaînent.Dans les systèmes de reconnaissance automatique de la parole markoviens, les modèles acoustiques et linguistiques sont de nature statistique. Leur estimation nécessite de gros volumes de données sélectionnées, normalisées et annotées.A l'heure actuelle, les données disponibles sur le Web constituent de loin le plus gros corpus textuel disponible pour les langues française et anglaise. Ces données peuvent potentiellement servir à la construction du lexique et à l'estimation et l'adaptation du modèle de langage. Le travail présenté ici consiste à proposer de nouvelles approches permettant de tirer parti de cette ressource.Ce document est organisé en deux parties. La première traite de l'utilisation des données présentes sur le Web pour mettre à jour dynamiquement le lexique du moteur de reconnaissance automatique de la parole. L'approche proposée consiste à augmenter dynamiquement et localement le lexique du moteur de reconnaissance automatique de la parole lorsque des mots inconnus apparaissent dans le flux de parole. Les nouveaux mots sont extraits du Web grâce à la formulation automatique de requêtes soumises à un moteur de recherche. La phonétisation de ces mots est obtenue grâce à un phonétiseur automatique.La seconde partie présente une nouvelle manière de considérer l'information que représente le Web et des éléments de la théorie des possibilités sont utilisés pour la modéliser. Un modèle de langage possibiliste est alors proposé. Il fournit une estimation de la possibilité d'une séquence de mots à partir de connaissances relatives à 'existence de séquences de mots sur le Web. Un modèle probabiliste Web reposant sur le compte de documents fourni par un moteur de recherche Web est également présenté. Plusieurs approches permettant de combiner ces modèles avec des modèles probabilistes classiques estimés sur corpus sont proposées. Les résultats montrent que combiner les modèles probabilistes et possibilistes donne de meilleurs résultats que es modèles probabilistes classiques. De plus, les modèles estimés à partir des données Web donnent de meilleurs résultats que ceux estimés sur corpus.
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Fichot, Jean. "Langage et signification : le cas des mathématiques constructives". Paris 1, 2002. http://www.theses.fr/2002PA010653.

Texto completo da fonte
Resumo:
Différentes définitions permettent d'interpréter les théories mathématiques constructives formellement axiomatisées. L'objectif ici est de déterminer si l'une de ces définitions rend compte fidèlement des notions intuitives de vérité et de validité constructives. Nous montrons que l'adéquation de différentes définitions de modèles de la logique intuitionniste (Scott, Beth et Kripke) à ces notions intuitives est douteuse (Partie I). La théorie des constructions (Kreisel, Goodman) et différentes définitions de la réalisabilité récursive (Kleene ), qui cherchent à rendre compte de l'aspect épistémique de la notion intuitive de vérité constructive, sont envisagées dans la partie II. Elles mènent à s'interroger sur la justification d'une réduction de la notion de constructivité humaine à une définition mathématique de la calculabilité mécanique ;justification qui est donnée dans la Partie III en s'appuyant sur des arguments empruntés à la logique mathématique, l'informatique théorique et la philosophie du langage (Prawitz, Dummett et Martin-Lot).
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Lesur, Benoît. "Validations de modèles numériques de grands réseaux pour l'optimisation d'antennes à pointage électronique en bande Ka". Thesis, Limoges, 2017. http://www.theses.fr/2017LIMO0111/document.

Texto completo da fonte
Resumo:
L'essor des communications par satellites et des nouvelles technologies de l'information et de la communication conduisent à une demande croissante de la part des utilisateurs. Ainsi, afin de répondre à ces nouveaux besoins, des services proposant de la connectivité en vol pour les passagers des compagnies aériennes voient le jour. Les travaux présentés dans ce mémoire portent sur la réalisation de modèles numériques rigoureux de grands réseaux d'antennes destinés à couvrir ce champ applicatif. Après une mise en contexte et un rappel des contraintes liées aux réseaux d'antennes, des véhicules de test numériques et expérimentaux, permettant de valider les méthodologies de modélisation, sont réalisés. La modélisation d'un grand panneau rayonnant à bipolarisation circulaire et acceptant d'importants angles de dépointage est enfin abordée. Cette étude permet alors de statuer sur les performances du panneau, en fonction des consignes de pointage et des dispersions éventuelles des chaînes actives
The rapid expansion of satellite communications and information and communications technology led to an increasing demand from end-users. Hence, services offering In-Flight Connectivity for airlines passengers are emerging. This work is focused on the implementation of accurate numerical models of large antenna arrays meant for this scope. After having put things into context and recalled issues linked to antenna arrays, numerical and experimental test vehicles are made, allowing to validate the modelling methodologies. Finally, the modelling of a large, dual circular polarization and wide-angle scanning radiating panel is addressed. This study then allows to estimate the performance of the panel function of steering requirements and possible dispersions from the active channels
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Nguyen, Thi Viet Ha. "Problèmes de graphes motivés par des modèles basse et haute résolution de grands assemblages de protéines". Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4107.

Texto completo da fonte
Resumo:
Pour comprendre les fonctions biologiques d’un assemblage moléculaire (AM), il est utile d’en avoir une représentation structurale. Celle-ci peut avoir deux niveaux de résolution : basse résolution (i.e. interactions moléculaires) et haute résolution (i.e. position relative et orientation de chaque sous-unité, appelée conformation). Cette thèse s’intéresse à trouver de telles représentations à l’aide de graphes.Dans la première partie, nous cherchons des représentations basse résolution. Etant donné la composition des complexes d’un AM, notre but est de déterminer les interactions entre ses différentes sous-unités. Nous modélisons l’AM à l’aide d’un graphe : les sous-unités sont les sommets, les interactions entre elles sont les arêtes et un complexe est un sous-graphe induit. Utilisant le fait qu’une sous-unité n’a qu’un nombre limité d’interactions, nous arrivons au problème suivant. Pour un graphe F et un entier k fixés, étant donné un hypergraphe H et un entier s, MAX (∆ ≤ k)-F - OVERLAY consiste à décider s’il existe un graphe de degré au plus k tel qu’au moins s hyperarêtes de H induisent un sous-graphe contenant F (en tant que sous-graphe). La restriction au cas s = |E(H)| est appelée (∆ ≤ k)-F -OVERLAY . Nous donnons une dichotomie de complexité (P vs. NP-complet) pour MAX (∆ ≤ k)-F -OVERLAY et (∆ ≤ k)-F -OVERLAY en fonction du couple (F, k).Dans la seconde partie, nous nous attaquons à la haute résolution. Nous sont donnés un graphe représentant les interactions entre sous-unités, un ensemble de conformations possibles pour chaque sous-unité et une fonction de poids représentant la qualité de contact entre les conformations de deux sous-unités interagissant dans l’assemblage. Le problème Discrete Optimization of Multiple INteracting Objects (DOMINO) consiste alors à trouver les conformations pour les sous-unités qui maximise une fonction d’utilité globale. Nous proposons une nouvelle approche à ce problème en relâchant la fonction de poids, ce qui mène au problème de graphe CONFLICT COLORING. Nous donnons tout d’abord des résultats de complexité et des algorithmes (d’approximation et à paramètre fixé). Nous menons ensuite des expérimentations sur des instances de CONFLICT COLORING associées à des diagrammes de Voronoi dans le plan. Les statistiques obtenues nous informent sur comment les paramètres de notre montage expérimental influe sur l’existence d’une solution
To explain the biological function of a molecular assembly (MA), one has toknow its structural description. It may be ascribed to two levels of resolution: low resolution (i.e. molecular interactions) and high resolution (i.e. relative position and orientation of each molecular subunit, called conformation). Our thesis aims to address the two problems from graph aspects.The first part focuses on low resolution problem. Assume that the composition (complexes) of a MA is known, we want to determine all interactions of subunits in the MA which satisfies some property. It can be modeled as a graphproblem by representing a subunit as a vertex, then a subunit-interaction is anedge, and a complex is an induced subgraph. In our work, we use the fact thata subunit has a bounded number of interactions. It leads to overlaying graph with bounded maximum degree. For a graph family F and a fixed integer k, given a hypergraph H = (V (H), E(H)) (whose edges are subsets of vertices) and an integer s, MAX (∆ ≤ k)-F -OVERLAY consists in deciding whether there exists a graph with degree at most k such that there are at least s hyperedges in which the subgraph induced by each hyperedge (complex) contains an element of F. When s = |E(H)|, it is called (∆ ≤ k)-F –OVERLAY. We present complexity dichotomy results (P vs. NP-complete) for MAX (∆ ≤ k)-F -OVERLAY and (∆ ≤ k)-F -OVERLAY depending on pairs (F, k).The second part presents our works motivated by high resolution problem.Assume that we are given a graph representing the interactions of subunits, afinite set of conformations for each subunit and a weight function assessing thequality of the contact between two subunits positioned in the assembly. Discrete Optimization of Multiple INteracting Objects (DOMINO) aims to find conformations for the subunits maximizing a global utility function. We propose a new approach based on this problem in which the weight function is relaxed, CONFLICT COLORING. We present studies from both theoretical and experimental points of view. Regarding the theory, we provide a complexity dichotomy result and also algorithmic methods (approximation and fixed parameter tracktability). Regarding the experiments, we build instances of CONFLICT COLORING associated with Voronoi diagrams in the plane. The obtained statistics provide information on the dependencies of the existences of a solution, to parameters used in our experimental setup
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Yun, Mi-Ran. "Echantillonnage des petits et grands déplacements atomiques dans les protéines et complexes moléculaires". Paris 7, 2007. http://www.theses.fr/2007PA077128.

Texto completo da fonte
Resumo:
La connaissance de l'espace conformationnel de protéines est une importance majeure en biologie, en effet, lors de l'association des protéines (au-delà de la notion 'clef-serrure') les changements conformationnels y jouent un rôle important. De nombreuses études, expérimentales (RMN, Rayons X. . . ) et théoriques (Dynamique Moléculaire, Méthode de Monte Carlo. . . ), sont utilisées pour décrire l'espace conformationel de: molécules. La flexibilité des chaînes latérales est bien caractérisée, cependant celle des chaînes principales reste problématique, souvent sous représenté. Nous proposons une méthode activée, ARTIST (Activation-Relaxation Technique for Internai coordinate Space Trajectories) fusionnée et adaptée de deux programmes existants, (ART et LIGAND) capable d'explorer, en coordonnées internes, des déplacements localisés ou collectifs sur les protéines impliquant ainsi le squelette protéique. Nous démontrons la capacité d'ARTIST à explorer les changements conformationnels en passant de petites protéines aux complexes en utilisant les champs de force en tout-atome d'AMBER et de FLEX. Et le programme ARTIST est adapté avec le champ de force gros-grain OPEP, les premiers tests sont réalisé sur une petite protéine
The knowledge of protein conformational space is a major importance in biology, while protein binding (beyond of the notion "lock and key" the conformational changes play an important role. The several experimental (NMR, X-ray crystallography. . . ) and theoretical studies (Molecular Dynamics, Monte Carlo method. . . ), are used for describe molecular conformational space. The side chain flexibility is well characterized, however main chain flexibility rest in problem. We propose an activated method, ARTIST (Activation-Relaxation Technique for Internal coordinate Space Trajectories) fused and adapted from two programs, (ART and LIGAND) capable to sample, in internal coordinates, local or collective displacements on proteins involving protein backbone. We show the capacity of ARTIST to sample conformational changes from small proteins to complexes using AMBER and FLEX ail atom force fields. The ARTIST is adapted with the coarse-grained force field (OPEP), first tests were performed on a small protein
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Sourty, Raphael. "Apprentissage de représentation de graphes de connaissances et enrichissement de modèles de langue pré-entraînés par les graphes de connaissances : approches basées sur les modèles de distillation". Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30337.

Texto completo da fonte
Resumo:
Le traitement du langage naturel (NLP) est un domaine en pleine expansion axé sur le développement d'algorithmes et de systèmes permettant de comprendre et de manipuler les données du langage naturel. La capacité à traiter et à analyser efficacement les données du langage naturel est devenue de plus en plus importante ces dernières années, car le volume de données textuelles générées par les individus, les organisations et la société dans son ensemble continue de croître de façon significative. Les graphes de connaissances sont des structures qui encodent des informations sur les entités et les relations entre elles. Ils constituent un outil puissant qui permet de représenter les connaissances de manière structurée et formalisée, et de fournir une compréhension globale des concepts sous-jacents et de leurs relations. La capacité d'apprendre des représentations de graphes de connaissances a le potentiel de transformer le traitement automatique du langage et d'autres domaines qui reposent sur de grandes quantités de données structurées. Les travaux menés dans cette thèse visent à explorer le concept de distillation des connaissances et, plus particulièrement, l'apprentissage mutuel pour l'apprentissage de représentations d'espace distincts et complémentaires. Notre première contribution est de proposer un nouveau cadre pour l'apprentissage d'entités et de relations sur des bases de connaissances multiples appelé KD-MKB. L'objectif clé de l'apprentissage de représentations multigraphes est d'améliorer les modèles d'entités et de relations avec différents contextes de graphes qui peuvent potentiellement faire le lien entre des contextes sémantiques distincts. Notre approche est basée sur le cadre théorique de la distillation des connaissances et de l'apprentissage mutuel. Elle permet un transfert de connaissances efficace entre les KBs tout en préservant la structure relationnelle de chaque graphe de connaissances. Nous formalisons l'inférence d'entités et de relations entre les bases de connaissances comme un objectif de distillation sur les distributions de probabilité postérieures à partir des connaissances alignées. Sur la base de ces résultats, nous proposons et formalisons un cadre de distillation coopératif dans lequel un ensemble de modèles de KB sont appris conjointement en utilisant les connaissances de leur propre contexte et les softs labels fournies par leurs pairs. Notre deuxième contribution est une méthode permettant d'incorporer des informations riches sur les entités provenant de bases de connaissances dans des modèles de langage pré-entraînés (PLM). Nous proposons un cadre original de distillation coopératif des connaissances pour aligner la tâche de pré-entraînement de modèles de langage masqués et l'objectif de prédiction de liens des modèles de représentation de KB. En exploitant les informations encodées dans les bases de connaissances et les modèles de langage pré-entraînés, notre approche offre une nouvelle direction de recherche pour améliorer la capacité à traiter les entités des systèmes de slot filling basés sur les PLMs
Natural language processing (NLP) is a rapidly growing field focusing on developing algorithms and systems to understand and manipulate natural language data. The ability to effectively process and analyze natural language data has become increasingly important in recent years as the volume of textual data generated by individuals, organizations, and society as a whole continues to grow significantly. One of the main challenges in NLP is the ability to represent and process knowledge about the world. Knowledge graphs are structures that encode information about entities and the relationships between them, they are a powerful tool that allows to represent knowledge in a structured and formalized way, and provide a holistic understanding of the underlying concepts and their relationships. The ability to learn knowledge graph representations has the potential to transform NLP and other domains that rely on large amounts of structured data. The work conducted in this thesis aims to explore the concept of knowledge distillation and, more specifically, mutual learning for learning distinct and complementary space representations. Our first contribution is proposing a new framework for learning entities and relations on multiple knowledge bases called KD-MKB. The key objective of multi-graph representation learning is to empower the entity and relation models with different graph contexts that potentially bridge distinct semantic contexts. Our approach is based on the theoretical framework of knowledge distillation and mutual learning. It allows for efficient knowledge transfer between KBs while preserving the relational structure of each knowledge graph. We formalize entity and relation inference between KBs as a distillation loss over posterior probability distributions on aligned knowledge. Grounded on this finding, we propose and formalize a cooperative distillation framework where a set of KB models are jointly learned by using hard labels from their own context and soft labels provided by peers. Our second contribution is a method for incorporating rich entity information from knowledge bases into pre-trained language models (PLM). We propose an original cooperative knowledge distillation framework to align the masked language modeling pre-training task of language models and the link prediction objective of KB embedding models. By leveraging the information encoded in knowledge bases, our proposed approach provides a new direction to improve the ability of PLM-based slot-filling systems to handle entities
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Nguyen, Thi Thanh Tam. "Codèle : Une Approche de Composition de Modèles pour la Construction de Systèmes à Grande Échelle". Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00399655.

Texto completo da fonte
Resumo:
Depuis "toujours", en Génie Logiciel comme dans toutes les ingénieries, afin réduire la complexité et pour améliorer la réutilisation, le produit à construire est divisé en parties construites indépendamment et ensuite assemblées. L'approche récente de l'Ingénierie Dirigée par les Modèles (IDM, ou MDE pour Model-Driven Engineering), fait de même, en proposant "simplement" que les parties à construire et à assembler soient des modèles et non pas des programmes. C'est ainsi que le problème de la composition de modèles est devenu un thème important de l'IDM, et le sujet de cette thèse. En effet, un système logiciel réel est bien trop complexe pour pouvoir être décrit par un seul modèle. De nombreux modèles devront être créés pour le spécifier, soit à divers niveaux d'abstraction, soit selon divers points de vue, soit encore selon des domaines fonctionnels differents et complémentaires. Dans ce travail, nous partons de l'hypothèse que de tels domaines métiers existent. Un domaine est un champ d'expertise avec 1) les savoir-faire et les connaissances capturés et formalisés sous la forme d'un langage de modélisation dédié au domaine (un Domain-Specific Modeling Language (DSML)), et 2) des outils et des environnements supportant le développement d'applications dans ce domaine. Une application, dans un domaine, est décrite par un modèle (conforme au métamodèle du domaine). Dans ce travail, nous faisons aussi l'hypothèse que ces domaines sont exécutables ; les modèles du domaine sont exécutés par une machine virtuelle du domaine. En IDM, comme dans les autres approches du Génie Logiciel, la réutilisation impose que le processus d'assemblage des parties puisse se faire sans avoir à modifier celles-ci, ni bien sur l'environnement qui les a produit ou qui les exécute. Appliqué à notre contexte, cela signifie qu'il faut être capable de composer des modèles sans les modifier et sans modifier ni l'éditeur ni la machine virtuelle du domaine dont ils sont issus. C'est le problème que nous abordons dans notre travail. Nous montrons que pour atteindre cet objectif, il faut d'abord composer les domaines c'est à dire composer leurs métamodèles et leurs machines virtuelles, puis les modèles. Nous montrons dans ce travail comment ces compositions peuvent être réalisées sans modifier les éléments compos és, en utilisant des relations dites horizontales entre les métamodèles, et des liens entre les modèles. Cette approche est validée d'abord par la réalisation d'un certain nombre de domaines composites, et par de nombreuses compositions de modèles opérationnelles. Une partie importante du travail a consisté à définir Codèle, un langage de composition de modèles et de métamodèles, et à réaliser l'environnement d'assistance correspondant. Codèle assiste les ingénieurs pour composer de façon systématique les domaines, et rend automatique ou semi-automatique la composition de tous modèles provenant de ces domaines. Nous présentons l'outil Codèle et nous évaluons son usage dans divers projets.
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Grange, Sophie. "Le grand dilemme des équidés sauvages : coexister avec les bovidés et éviter les grands prédateurs". Poitiers, 2006. http://www.theses.fr/2006POIT2319.

Texto completo da fonte
Resumo:
Le zèbre de plaine est l’un des équidés sauvages les plus répandus ; il y a cependant peu d’informations concernant la régulation/limitation de leurs populations. A partir d’études comparatives sur l’abondance et la dynamique de populations de zèbres et de bovidés, cette thèse montre que la prédation doit fortement influencer le nombre de zèbres dans les écosystèmes africains, et plus précisément qu’elle peut jouer un rôle important dans la limitation de certaines de leurs populations. Pour confirmer ces résultats, il serait nécessaire de lier les modèles de populations de zèbres et de leurs prédateurs. Cependant le manque de données précises concernant les taux vitaux des zèbres reste un problème majeur. L’étude de la dynamique de population des zèbres de plaine menée à Hwange est la première à utiliser une méthode de capture-marquage-recapture basée sur la photo-identification. Après seulement un an et demi de suivi, cette méthode a déjà fait preuve de son efficacité. Enfin cette thèse montre que le « retour à l’état sauvage » des chevaux domestiques ne conduit pas à une dynamique de population complètement naturelle et que, par conséquent, les chevaux de race « Camargue » ne peuvent être utilisés en tant que substituts d’équidés sauvages pour restaurer des écosystèmes naturels. En terme de conservation des espèces, il est donc dès à présent important d’acquérir une bonne connaissance des facteurs régulant ou limitant les populations d’équidés sauvages afin de faciliter leur translocation ou réintroduction dans leurs écosystèmes naturels
The Plains zebra is currently the most widespread wild equid; however there is still little information on the regulation/limitation of their populations. Comparative studies on the relative abundance and the population dynamics of Plains zebras and grazing bovids support the hypothesis that predation has a greater impact on the number of zebras in African ecosystems, and probably also play an important role in the limitation of some zebra populations. Given these findings, it will be necessary to link population models of zebra and their main predators. However a major problem is the lack of accurate data on zebra survival rates. The study on the population dynamics of Plains zebra in Hwange National Park (Zimbabwe) is the first one to use a capture-mark-recapture method based on photo-identification. After only one year and a half, this method already proves to be promising to study zebra population dynamics. This thesis also shows that the feralization of domestic horses leads to an unnatural population dynamics, which means that Camargue horses cannot be used as surrogates of wild equids to restore natural ecosystems. In terms of species conservation it is therefore now important to acquire a good knowledge on the regulating/limiting factors acting on current wild equid populations in order to facilitate translocations and reintroductions in their natural ecosystems
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Nini, Robert. "Cartographie de la susceptibilité aux "Grands Glissements de Terrain" au Liban". Châtenay-Malabry, Ecole centrale de Paris, 2004. http://www.theses.fr/2004ECAP0964.

Texto completo da fonte
Resumo:
Plusieurs glissements impressionnants se sont récemment produits au Liban. Une prédiction basée sur une cartographie de la susceptibilité aux grands glissements de terrain sera nécessaire afin de réduire ces dégâts énormes résultants de ces glissements. Notre travail constitue une première tentative de cartographie de la susceptibilité aux grands glissements de terrain au Liban par une méthode qui est un compromis entre deux approches : l’approche par expertise et l’approche analytique. Une première collection de données sur les facteurs permanents est présentée à partir des documents existants, d’enquêtes, et de campagnes d’investigation du sol. Ces glissements seront le sujet d’une étude de stabilité par le logiciel Talren. Notre étude est basée sur l’analyse des paramètres causaux de cinq glissements comme la géomorphologie, la géologie, l’hydrogéologie, la tectonique, le sol, le climat-pluviomètrie et la végétation tout en évoquant leur modèle de terrain et leur modèle de glissement avec leur possible mécanisme de rupture. Cette étude permet de dresser des cartes de cartographie des modalités critiques des facteurs causaux. Le croisement de ces plans de cartographie des différentes modalités critiques associées aux facteurs causaux permanents, nous aide à localiser les zones présentant des risques élevés d’instabilité. L’approche probabiliste sera appliquée à ces cinq glissements à l’aide du logiciel Phimeca. Les résultats directs du Phimeca comme la probabilité de ruine et l’indice de fiabilité, permettent de comparer le facteur de sécurité calculé par Talren avec ces deux valeurs
Many impressive landslides have recently occured Lebanon. A prediction based on the susceptibility mapping will be of such importance in order to reduce their damages. This work constitutes a first attempt of mapping the susceptibility of landslides in Lebanon by a method which is a compromise between the two known approaches: the expert method and the analytical method. A first data on these landslides and their permanent causes is presented based on the existing documents, investigations, and soil investigation campaign. These landslides will be analysed by Talren software in order to calculate their factor of safety against sliding. Our study is based on the analysis of different causal factors of these landslides, such the geomorphology, geology, hydrogeology, tectonic, soil, pluviometry, and vegetation. For each one, their ground model and sliding model will be evokated with their possible mecanism of failure. This study permits to map the critical modalities of different causal factors. The superposition of these maps of different factors will be beneficial to localize the zones presenting high risk of instability. The probabilistic approach will be applied on these cases by Phimeca software. The Phimeca results such the reliability index and the probability of failure permits to compare the safety factor obtained by Talren with these two values
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Declerck, Philippe. "Analyse structurale et fonctionnelle des grands systèmes : applications à une centrale PWR 900 MW". Lille 1, 1991. http://www.theses.fr/1991LIL10153.

Texto completo da fonte
Resumo:
La conception des systèmes de surveillance est difficile pour les grands systèmes car leur complexité est souvent le résultat d'une structure qui interconnecte un grand nombre d'objets industriels. Ainsi, nous avons effectué l'analyse structurale du système et développé une procédure d'inclusion qui englobe le système initial dans une sur-structure particulière. Ses caractéristiques permettent la génération de nombreux résultats structuraux. Des manipulations simples donnent la décomposition canonique du graphe et les parties surveillables du processus. Cette complexité rend aussi délicate les tâches de supervision et fait ressentir les besoins d'une assistance aux personnels humains. Après étude de la méthode Flow-model, nous avons développer les concepts de la méthode SADT (Structured Analysis and Design Technic) à travers une nouvelle lecture des diagrammes. De même, nous avons proposer un modèle dérivé pour l'analyse fonctionnelle des processus physiques et de contrôle commande
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Boyarm, Aristide. "Contribution à l'élaboration d'un langage de simulation à événements discrets pour modèles continus". Aix-Marseille 3, 1999. http://www.theses.fr/1999AIX30050.

Texto completo da fonte
Resumo:
Le travail presente dans cette these concerne la modelisation et la simulation a evenements discrets de systemes continus a trajectoires d'entree - sortie lineaires par morceaux. Il s'agit principalement de concevoir un langage de simulation a evenements discrets pour modeles continus dont l'objectif est de proposer une alternative prometteuse a la simulation des systemes continus. Le langage de simulation que nous proposons, comporte sous la forme de modeles atomique a evenements discrets les trois classes d'instructions (instructions fonctions du temps, instantanees, et memoires) utilisees pour decrire les modeles continus. Il comporte aussi des instructions qui permettent des descriptions de modeles couples. Ces descriptions pouvant etre gardees dans une base de modele et reutilisees lors de descriptions de modeles plus complexes. Les algorithmes de simulation du langage sont bases sur l'utilisation du concept de simulateur conceptuel introduit par zeigler pour realiser l'execution des modeles en respectant leur structure modulaire et hierarchique. Des exemples de simulation a evenements discrets de systemes continus sont traites dans la these pour illustrer l'interet du langage.
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Nogier, Jean-François. "Un système de production de langage fondé sur le modèles des graphes conceptuels". Paris 7, 1990. http://www.theses.fr/1990PA077157.

Texto completo da fonte
Resumo:
Cette thèse porte sur la conception d'une architecture de production de langage, c'est-à-dire la mise en oeuvre informatique de la traduction des idées en mots (comment le dire ?). L'accent a été mis sur deux aspects du problème : le choix des mots et la linéarisation en phrase des représentations syntaxiques intermédiaires. Le modèle de représentation des connaissances : les graphes conceptuels, est unique tout au long du processus. En effet, il permet de modéliser à la fois la structure manipulée par le programme (aux stades conceptuels et syntaxiques) et les connaissances déclaratives nécessaires (définitions sémantiques des mots, propriétés syntaxiques. . . ). Le système sélectionne simultanément les mots et les structures syntaxiques. Bénéficiant d'une même modélisation pour la signification d'un mot ou d'une phrase (le graphe conceptuel), un mot est choisi parce qu'il y a recouvrement en son graphe conceptuel (définition sémantique du mot) et le graphe conceptuel initial représentant la sémantique de la phrase à engendrer. Plusieurs mots peuvent être candidats. Le système peut revenir sur ses choix, sélectionner un des autres mots possibles et ainsi paraphraser (paraphrase sémantique) la phrase précédente. La génération de paraphrases se fait donc automatiquement par retour en arrière. Le graphe syntaxique obtenu après le choix des mots et une représentation syntaxique de la phrase à engendrer. Il est transmis au composant syntaxique. La linéarisation en phrase suit trois étapes : 1) Construction progressive de l'arbre syntaxique ; 2) Transformations de l'arbre ; 3) Déclinaison. Chaque étape de la linéarisation tient compte des propriétés syntaxiques des mots en présence. A ce stade, il est également possible d'obtenir des paraphrases par retour en arrière
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Strub, Florian. "Développement de modèles multimodaux interactifs pour l'apprentissage du langage dans des environnements visuels". Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I030.

Texto completo da fonte
Resumo:
Alors que nous nous représentons le monde au travers de nos sens, de notre langage et de nos interactions, chacun de ces domaines a été historiquement étudié de manière indépendante en apprentissage automatique. Heureusement, ce cloisonnement tend à se défaire grâce aux dernières avancées en apprentissage profond, ce qui a conduit à l'uniformisation de l'extraction des données au travers des communautés. Cependant, les architectures neuronales multimodales n'en sont qu'à leurs premiers balbutiements et l’apprentissage par renforcement profond est encore souvent restreint à des environnements limités. Idéalement, nous aimerions pourtant développer des modèles multimodaux et interactifs afin qu’ils puissent correctement appréhender la complexité du monde réel. Dans cet objectif, cette thèse s’attache à la compréhension du langage combiné à la vision pour trois raisons : (i) ce sont deux modalités longuement étudiées aux travers des différentes communautés scientifiques (ii) nous pouvons bénéficier des dernières avancées en apprentissage profond pour les modèles de langues et de vision (iii) l’interaction entre l’apprentissage du langage et notre perception a été validé en science cognitives. Ainsi, nous avons conçu le jeu GuessWhat?! (KéZaKo) afin d’évaluer la compréhension de langue combiné à la vision de nos modèles : deux joueurs doivent ainsi localiser un objet caché dans une image en posant une série de questions. Nous introduisons ensuite le principe de modulation comme un nouveau module d’apprentissage profond multimodal. Nous montrons qu’une telle approche permet de fusionner efficacement des représentations visuelles et langagières en prenant en compte la structure hiérarchique propre aux réseaux de neurones. Enfin, nous explorons comment l'apprentissage par renforcement permet l’apprentissage de la langue et cimente l'apprentissage des représentations multimodales sous-jacentes. Nous montrons qu’un tel apprentissage interactif conduit à des stratégies langagières valides mais donne lieu à de nouvelles problématiques de recherche
While our representation of the world is shaped by our perceptions, our languages, and our interactions, they have traditionally been distinct fields of study in machine learning. Fortunately, this partitioning started opening up with the recent advents of deep learning methods, which standardized raw feature extraction across communities. However, multimodal neural architectures are still at their beginning, and deep reinforcement learning is often limited to constrained environments. Yet, we ideally aim to develop large-scale multimodal and interactive models towards correctly apprehending the complexity of the world. As a first milestone, this thesis focuses on visually grounded language learning for three reasons (i) they are both well-studied modalities across different scientific fields (ii) it builds upon deep learning breakthroughs in natural language processing and computer vision (ii) the interplay between language and vision has been acknowledged in cognitive science. More precisely, we first designed the GuessWhat?! game for assessing visually grounded language understanding of the models: two players collaborate to locate a hidden object in an image by asking a sequence of questions. We then introduce modulation as a novel deep multimodal mechanism, and we show that it successfully fuses visual and linguistic representations by taking advantage of the hierarchical structure of neural networks. Finally, we investigate how reinforcement learning can support visually grounded language learning and cement the underlying multimodal representation. We show that such interactive learning leads to consistent language strategies but gives raise to new research issues
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Roque, Matthieu. "Contribution à la définition d'un langage générique de modélisation d'entreprise". Bordeaux 1, 2005. http://www.theses.fr/2005BOR13059.

Texto completo da fonte
Resumo:
Cette thèse traite de la définition d'un langage unifié de modélisation d'entreprise (UEML). Celle‑ci aborde, dans un premier temps, l'existant en modélisation d'entreprise. Nous exposons différentes approches et langages qui au cours des années ont eu pour objectif d'unifier des langages et nous montrons, qu'à l'heure actuelle, ils ne permettent pas de répondre à notre problématique. Par la suite, un exemple simple de traduction entre une activité SADT et une activité GRAI des réseaux GRAI est traité par une approche empirique. Il permet de faire ressortir un ensemble de difficultés inhérentes à la définition d'UEML, et, à partir de celui‑ci, nous exposons notre point de vue ainsi qu'un ensemble de principes auxquels nous adhérons. Ensuite, nous proposons une approche basée sur la méta‑modélisation des langages, en utilisant le langage UML, ainsi que sur la théorie des ensembles. Cette approche permet l'identification des composants élémentaires nécessaires à la définition de notre langage unifié. Enfin, nous présentons un exemple complet d'élaboration d'un UEML, en partant de trois langages de modélisation d'entreprise (GRAI, IEM et EEML) et en procédant par une approche ascendante. Ces travaux ont été réalisés dans le cadre du réseau thématique UEML. Nous exposons, finalement, les différences entre les deux approches et les éléments importants que l'on peut en dégager.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Benaid, Brahim. "Convergence en loi d'intégrales stochastiques et estimateurs des moindres carrés de certains modèles statistiques instables". Toulouse, INSA, 2001. http://www.theses.fr/2001ISAT0030.

Texto completo da fonte
Resumo:
La motivation de cette thèse est d'étudier les lois asymptotiques des estimateurs des moindres carrés des paramètres de certains modèles linéaires instables plus généraux que les AR considérés par Chan Wei (1988) et ARMA par Truong-Van et Larramendy (1996). Comme les statistiques définissant ces estimateurs peuvent être considérés comme des intégrales stochastiques discrètes, nous avons commence "par mettre en place un outil d'étude asymptotique" : L'étude de la convergence en loi de certaines intégrales stochastiques discrètes, d'une part en nous inspirant des résultats de Kurtz et Protter (1991) sur la convergence en loi de semi-martingales et d'autre part en introduisant une nouvelle technique d'approximation différente de celle classique par des martingales. On a appliqué ensuite ces résultats de convergence en distribution à l'étude des lois asymptotiques des estimateurs des moindres carrés des paramètres AR des modèles ARMAX(p,r,q) avec q>0 et IARCH purement instables
In many recent applications, statistics are under the form of discrete stochastic integrals. In this work, we establish a basic theorem on the convergence in distribution of a sequence of discrete stochastic integrals. This result extends earlier corresponding theorems in Chan & Wei (1988) and in Truong-van & Larramendy (1996). Its proof is not based on the classical martingale approximation technique, but from a derivation of Kurtz & Protter's theorem (1991) on the convergence in distribution of sequences of Itô stochastic integrals relative to two semi-martigales and another approximation technique. Furthermore, various applications to asymptotic statistics are also given, mainly those concerning least squares estimators for ARMAX(p,r,q) models and purely unstable integrated ARCH models
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Scala, Paolo Maria. "Implémentations d'optimisation-simulation pour l'harmonisation des opérations dans les grands aéroports". Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30120.

Texto completo da fonte
Resumo:
L'augmentation constante du trafic aérien, spécialement en Europe, exerce une pression sur les aéroports, qui en conséquence sont souvent congestionnés. La zone aérienne entourant les aéroports, l'aire de manœuvre terminale (TMA), est particulièrement encombrée, puisqu'elle accueille tout le trafic aéroportuaire. Outre la zone aérienne, le partie sol fait aussi face à des problèmes d'encombrement, ainsi l'inefficacité des opérations en zone aérienne est transférée au sol. Cet encombrement des zones aériennes et terrestres des aéroports a pour conséquence de générer des retards, qui sont ensuite reportés sur les autres aéroports du réseau. Le problème d'encombrement affecte également la charge de travail des contrôleurs aériens qui doivent gérer ce large trafic. Cette thèse porte sur l'optimisation des opérations intégrées aux aéroports, en considérant l'aéroport d'un point de vue holistique et en incluant les activités aériennes et terrestres. Contrairement aux autres études dans ce domaine, cette thèse apporte sa contribution en appuyant les décisions des contrôleurs aériens en terme de séquencement des avions et en atténuant l'encombrement de la partie sol des aéroports. Les activités terrestres et aériennes peuvent être abordées avec deux différents niveaux d'abstractions, macroscopique, ou microscopique, en raison de différent délais de prise de décision. Dans cette thèse, les activités sont modélisées au niveau macroscopique. Le problème est formulé comme un modèle d'optimisation en identifiant une fonction objective qui prend en compte le nombre de conflits dans l'espace aérien et la surcharge au sol des aéroports; contraintes données par la régulation sur le minimum de séparation entre des avions consécutifs dans la zone aérienne et sur la piste de décollage; variables de décision liées au temps d'entrée de l'avion et à la vitesse d'entrée dans l'espace arien, au choix de la piste d'atterrissage et de la piste au départ et à l'heure de push-back. Le modèle d'optimisation est résolu en implémentant une approche par fenêtre glissante et par une version adaptée de la métaheuristique de recuit simulé. Des incertitudes sont ajoutées dans les activités en développant un modèle de simulation et en incluant des variables stochastiques représentant des sources d'incertitudes comme une variation de l'heure d'entrée dans l'espace aérien de l'aéroport, une variation de l'heure moyenne de temps du roulage ou encore une variation dans l'heure de push-back des avions
The constant growth of air traffic, especially in Europe, is putting pressure on airports, which, in turn, are suffering congestion problems. The airspace surrounding airport, terminal manoeuvring area (TMA), is particularly congested, since it accommodates all the converging traffic to and from airports. Besides airspace, airport ground capacity is also facing congestion problems, as the inefficiencies coming from airspace operations are transferred to airport ground and vice versa. The main consequences of congestion at airport airspace and ground, is given by the amount of delay generated, which is, in turn, transferred to other airports within the network. Congestion problems affect also the workload of air traffic controllers that need to handle this big amount of traffic. This thesis deals with the optimization of the integrated airport operations, considering the airport from a holistic point of view, by including operations such as airspace and ground together. Unlike other studies in this field of research, this thesis contributes by supporting the decisions of air traffic controllers regarding aircraft sequencing and by mitigating congestion on the airport ground area. The airport ground operations and airspace operations can be tackled with two different levels of abstractions, macroscopic or microscopic, based on the time-frame for decision-making purposes. In this thesis, the airport operations are modeled at a macroscopic level. The problem is formulated as an optimization model by identifying an objective function that considers the amount of conflicts in the airspace and capacity overload on the airport ground; constraints given by regulations on separation minima between consecutive aircraft in the airspace and on the runway; decision variables related to aircraft entry time and entry speed in the airspace, landing runway and departing runway choice and pushback time. The optimization model is solved by implementing a sliding window approach and an adapted version of the metaheuristic simulated annealing. Uncertainty is included in the operations by developing a simulation model and by including stochastic variables that represent the most significant sources of uncertainty when considering operations at a macroscopic level, such as deviation from the entry time in the airspace, deviation in the average taxi time and deviation in the pushback time
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Tron, Cécile. "Modèles quantitatifs de machines parallèles : les réseaux d'interconnexion". Grenoble INPG, 1994. http://www.theses.fr/1994INPG0179.

Texto completo da fonte
Resumo:
Cette thèse s'inscrit dans le cadre de la conception et de la réalisation de l'environnement alpes (algorithmes parallèles et évaluation de systèmes), dédié à l'évaluation des performances des systèmes parallèles. Son objectif est de permettre d'évaluer différents programmes, différentes machines et différentes stratégies d'implémentation (placement, répartition dynamique) avec le même outil, en émulant le comportement de l'ensemble sur la même machine, appelée machine cible. Pour cela notre approche se fonde sur deux modèles: le modèle de programmes et le modèle de machines. Le travail présente porte essentiellement sur le modèle de machine. Ce modèle comprend des paramètres quantitatifs représentant la vitesse des composants (processeurs, réseau) dans le cas d'une exécution réelle. Nous avons débuté par l'étude des communications et cette thèse propose une méthodologie, basée sur un jeu d'essais, pour évaluer les performances des communications point-à-point sous des contraintes de charge. Cette méthodologie a été appliquée au meganode de Telmat et a la paragon d'intel. Nous proposons un modèle des durées de communication en fonction de la charge du réseau pour chacune de ces deux machines. Nous présentons ensuite le projet alpes dans ses grandes lignes et nous décrivons le modèle de machines que nous avons défini pour cet environnement. Nous explicitons les modifications que l'on peut apporter au programme synthétique pour qu'il émule une machine ayant des paramètres différents de ceux de la machine cible. Enfin la dernière partie de cette thèse étudie les performances de diverses stratégies de placement, et analyse si l'utilisation d'estimations précises des coûts de communication améliore la qualité des placements
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Kettani, Omar. "Modèles du calcul sans changement d'état : quelques développements et résultats". Aix-Marseille 2, 1989. http://www.theses.fr/1989AIX24005.

Texto completo da fonte
Resumo:
Le modele etudie, voisin de la machine de turing fait disparaitre l expression de l etat dans l algorithme par notation sur le ruban. La methode consiste a se munir d alphabets riches pour noter a la fois donnees et structures algorithmiques. L auteur presente d abord deux demonstrations d equivalence avec la machine de turing. Il envisage ensuite un modele dit parallele qui consiste a se deplacer en bloc sur une suite de cases, et en donne quelques applications sur des problemes classiques. La caracteristique de ces machines est de deplacer la tete de lecture a cheval sur deux cellules de memoire. Quand on considere un decalage maximun, la partie commune ne peut plus conserver que deux valeurs possibles, et l auteur montre que la puissance de telles machines est encore celle du calculable. Il montre encore dans ce cas l existence d une machine universelle, et enfin il etablit une relation avec les automates cellulaires
Turing machine takes his information in a box marked between severl others. Taking informationat once on parts of two contiguous boxes makes state desappear from algorithm. Correspondent information is else noted in each contiguous part of the two boxes. It becomes so necessary to employ large set of symbols. Here is proved equivalence of such machines with turing machines. Author imagines now parallel machines in whic a plenty of contiguous boxes can be marked simultaneously, and the travelling of marks scan part of box all at once. He applie it to several classical problems. In marking at once two contiguous boxes, it is possible to take at once half part of the first and half part of the second one, third part of the first and two thrid part of the second one, and so on. On the bound, at the utmost shift, it rests two values in common, and in this case author proves again equivalence of such machine with turing machine he proves so existence of an unviersal machine and establishes relation with cellular automata
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Fauthoux, David. "Des grains aux aspects, proposition pour un modèle de programmation orientée-aspect". Toulouse 3, 2004. http://www.theses.fr/2004TOU30100.

Texto completo da fonte
Resumo:
Le développement des programmes rencontre actuellement des difficultés pour la séparation des préoccupations qui le composent. Elles sont entrelacées et leur code est éparpillé dans le programme. La programmation orientée-aspect a pour but de rendre modulaires les préoccupations et de fournir les outils pour les mélanger entre elles et au programme. Après avoir analysé en détail quatre systèmes orientés-aspect majeurs, ce mémoire présente un modèle à grains fins, les " lentilles ". Elles sont regroupées par niveaux d'abstraction. Le premier stade est le " flot " qui peut entrer en intersection avec d'autres flots. Le second stade est l' " aspect " qui est appliqué de façon clairement localisée au programme. L'objectif principal ici est l'expression de la structure du programme, afin de la rendre visible et modifiable dynamiquement. Le modèle permet d'avancer d'un pas dans la distinction entre architecturation du programme et développement des composants. Le métier d'architecte des programmes, qui possède l'outil de composition, et séparé de celui de développeur, qui manipule le langage de programmation
Current programming technologies do not able to clearly separate crosscutting concerns. The code of a concern is scattered into the program components. After having detailed and analysed four main aspect-oriented systems, this report presents a fine-grained model. These grains, the "lenses", are grouped to create more abstract components. The first step of the report describes a "flow" as a chain of lenses. A program can be defined as a set of intersecting flows. The second step of the report comes to the "aspect" concept, applied onto specified points of the program. These abstract groups (flows and aspects) are exactly shaped like lenses. Thus the model is consistent from the bottom level (classes) to the more abstract ones (groups, and groups of groups). The main goal of this report is to enable to express as brightly as possible the structure of the program. The model walks on the way which aims at splitting the program architecture building phase from the component writing phase. Architect is a job which requires composition skills and tools. It is to be separated from the developer job which uses and manipulates the program language to write components
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Le, Gloahec Vincent. "Un langage et une plateforme pour la définition et l’exécution de bonnes pratiques de modélisation". Lorient, 2011. http://www.theses.fr/2011LORIS239.

Texto completo da fonte
Resumo:
Le capital le plus précieux d’une entreprise d’ingénierie réside dans les connaissances et le savoir-faire acquis au fils des ans par ses employés. Malheureusement, faute de moyens qu’elles jugent adéquats, la plupart des entreprises ne rationalisent pas la gestion de ce type de connaissance. Dans le domaine de l’ingénierie des logiciels, ce savoir est généralement rassemblé sous la forme de bonnes pratiques documentées de manière informelle, peu propice à un usage effectif et adéquat de ces pratiques. Dans ce domaine, les activités de modélisation sont devenues prépondérantes, favorisant la réduction des efforts et des coûts de développement. La mise en oeuvre effective des bonnes pratiques liées aux activités de modélisation permettrait d’améliorer la productivité des développeurs et la qualité finale des logiciels. L’objectif de cette thèse, fruit d’une collaboration entre la société Alkante et le laboratoire VALORIA, est d’offrir un cadre à la fois théorique et pratique favorisant la capitalisation ainsi que la mise en application des bonnes pratiques de modélisation. Une démarche de gestion des bonnes pratiques de modélisation (BPM) est proposée. Celle-ci s’appuie sur les principes de l’ingénierie dirigée par les modèles (IDM), en proposant un découpage selon deux niveaux d’abstraction : un niveau PIM (Platform Independent Model) dédié à la capitalisation des BPM de manière indépendante de plateformes spécifiques et assurant ainsi la pérennité du savoir, et un niveau PSM (Platform Specific Model) destiné à la vérification du respect des BPM au sein des outils de modélisation. Pour assurer la capitalisation des bonnes pratiques (au niveau PIM), un langage spécifique dédié à la description des BPM a été élaboré, sur la base de caractéristiques communes identifiées par une étude approfondie portant sur deux principaux types de bonnes pratiques : celles centrées sur des aspects processus, et d’autres d’avantage focalisées sur le style ou la forme des modèles. Ce langage, dénommé GooMod, est défini par sa syntaxe abstraite, représentée par un métamodèle conforme au MOF (Meta Object Facility), une description de sa sémantique et une syntaxe concrète graphique. Une plateforme fournit les deux outils nécessaires à la fois à la définition de BPM (conforment au langage GooMod) et à leur mise en application effective au sein d’outils de modélisation. L’outil BPM Définition est un éditeur graphique qui facilite la description de BPM ciblant n’importe quel langage de modélisation (UML par exemple), mais de manière indépendante des outils de modélisation. L’outil BPM Exécution fournit une implémentation de niveau PSM, ciblant spécifiquement les outils de modélisation basés sur le framework GMF (Graphical Modeling Framework) de l’environnement de développement Eclipse. Lors des activités de modélisation effectuées par les concepteurs, cet outil automatise la vérification du respect de BPM décrites en GooMod. Ce travail a fait l’objet d’une validation portant sur deux aspects de l’approche proposée. Une étude de cas industriel illustre la définition en GooMod d’une BPM spécifique à la modélisation d’applications Web développées par la société Alkante. Une expérimentation portant sur l’évaluation de l’efficacité et de l’utilisabilité de l’outil d’exécution des BPM a été menée auprès d’étudiants
The most valuable asset of an IT company lies in knowledge and know-how acquired over the years by its employees. Unfortunately, lacking means they deem appropriate, most companies do not streamline the management of such knowledge. In the field of software engineering, this knowledge is usually collected in the form of best practices documented in an informal way, rather unfavorable to the effective and adequate use of these practices. In this area, the modeling activities have become predominant, favoring the reduction of effort and development costs. The effective implementation of best practices related to modeling activities would help improve developer productivity and the final quality of software. The objective of this thesis, as part of a collaboration between the Alkante company and the VALORIA laboratory, is to provide a both theoretical and practical framework favoring the capitalization of best modeling practices. An approach for the management of good modeling practices (GMPs) is proposed. This approach relies on the principles of model-driven engineering (MDE), by proposing a division into two levels of abstraction: a PIM level (Platform Independent Model) dedicated to the capitalization of GMPs independently of any specific platform, ensuring the sustainability of knowledge, and a PSM level (Platform Specific Model) dedicated to the verification of compliance of GMPs in modeling tools. To ensure the capitalization of good practices (GPs), a specific language dedicated to the description of GMPs has been developed on the basis of common characteristics identified by a detailed study of two types of GPs : those focusing on process aspects, and others more focused on style or shape of models. This langage, called GooMod, is defined by its abstract syntax, represented as a MOF compliant metamodel (MOF stands for Meta Object Facility), a description of its semantics, and a graphical concrete syntax. A platform provides the two necessary tools for both the definition of GMPs (that conforms to the GooMod language) and their effective application in modeling tools. The GMP Definition Tool is a graphical editor that facilitates the description of GMPs targeting any modeling language (e. G. GMPs for the UML), but independently of modeling tools. The GMP Execution Tool is a PSM level implementation specifically targeting modeling tools based on the Graphical Modeling Framework (GMF) of the Eclipse integrated development environment. During modeling activities performed by designers, this tool automates the verification of compliance of GMPs originally described in GooMod. This work has been validated on two aspects of the proposed approach. An industrial case study illustrates the definition, using the GooMod language, of a GMP specific to the modeling of Web applications developed by the Alkante company. An experiment on the evaluation of the effectiveness and usability of the GMP Execution Tool was conducted among students
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Sidaoui, Assann. "Contribution à l'optimisation hiérarchisée des grands systèmes complexes : poursuite d'objectifs et prise en compte de l'imprécision des modèles". Grenoble INPG, 1992. http://www.theses.fr/1992INPG0037.

Texto completo da fonte
Resumo:
L'etude porte sur la resolution de problemes d'optimisation des grands systemes complexes. Deux types de difficultes sont abordes: difficultes de calcul, et difficultes liees a l'imprecision des modeles qui decrivent les systemes a optimiser. Adoptant des structures hierarchisees de resolution, on rappelle tout d'abord les principes generaux de la commande hierarchisee. Ensuite, on presente une synthese des principales methodes de decomposition-coordination en utilisant l'approche poursuite d'objectifs. Des nouveaux developpements algorithmiques qui entrainent une amelioration sensible de l'efficacite des structures de resolution sont egalement presentes. Ces developpements sont valides en association avec des structures multi-niveaux de coordination sur un probleme de gestion d'un systeme hydrothermique. Dans la seconde partie de l'etude, on developpe des structures d'optimisation hierarchisee qui prennent en compte l'imprecision des modeles mathematiques. Un nouvel algorithme de poursuite d'objectifs introduisant la technique de retours d'informations a partir du systeme reel est developpe. Ensuite, les outils de la logique floue sont employes pour elaborer une methodologie d'optimisation des systemes representes par des modeles flous
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Guihal, David. "Modélisation en langage VHDL-AMS des systèmes pluridisciplinaires". Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00157570.

Texto completo da fonte
Resumo:
Ce travail de thèse porte sur la problématique d'élaboration de modèles de systèmes hétérogènes. Il a associé le laboratoire de recherche LAAS-CNRS et la société MENTOR GRAPHICS. Il prend place au sein d'un processus de conception qui se fonde sur les recommandations de l'EIA-632 et sur une ingénierie guidée par les modèles. L'objectif de notre travail est de montrer en quoi le langage VHDL-AMS est adapté à la problématique de modélisation et de simulation de la solution physique au sens des recommandations de l'EIA-632. Dans un premier temps, ce manuscrit présente un état de l'art sur les besoins en modélisation pour la conception système, et dresse un bilan sur les différents langages de modélisation susceptibles d'y répondre. Afin de proposer la norme VHDL-AMS (IEEE 1076.1-1999) comme solution, notre travail s'est attaché à présenter et proposer une méthode à mettre en oeuvre pour converger vers cette norme. Notre démarche s'appuie sur l'ingénierie guidée par les modèles avec une place prépondérante jouée par les transformations de modèle. Nous avons développé ce concept de transformation en vue d'une convergence vers le VHDL-AMS : nous développons la notion de meta modèle avec, entre autre, la création d'un meta modèle du langage VHDL-AMS. Celui-ci va permettre une vérification de la conformité des modèles créés, mais aussi l'écriture de règles de transformations au niveau meta modèle. L'intérêt des industriels possédant un existant de modèles écrits dans un langage de description de matériel propriétaire autre (par exemple le langage MAST) en vue d'une migration vers la norme VHDL-AMS, nous a permis d'éprouver cette méthodologie dans de nombreux cas concrets. Nous avons aussi comparé cette approche à une méthodologie que nous avions précédemment définie, nécessitant une expertise dans les deux langages source et cible. Cela nous a permis de conclure positivement sur la faisabilité d'une telle transformation avec une semi-automatisation et une expertise encore n écessaire à certaines étapes. A titre de démonstration, nous avons développé de nombreux modèles mixtes confirmant les aptitudes du VHDL-AMS à pouvoir être le support principal du prototypage virtuel, ainsi que la validité de notre méthode de transformation. Nous avons notamment réalisé la modélisation VHDL-AMS d'un système très hétérogène de mise à feu d'une charge pyrotechnique, qui valide notre méthodologie. La validation des modèles en conformité avec les spécifications est une des perspectives identifiées de nos travaux, à approfondir.
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Ramadour, Philippe. "Modèles et langage pour la conception et la manipulation de composants réutilisables de domaine". Aix-Marseille 3, 2001. http://www.theses.fr/2001AIX30092.

Texto completo da fonte
Resumo:
Le domaine de la conception des systèmes d'information est un secteur très demandeur en techniques et méthodes nouvelles visant à améliorer la qualité des produits et la performance des processus de conception. Ces besoins ont tait émerger des méthodes et outils innovants, aujourd'hui largement adoptés et utilisés. II est maintenant possible d'envisager une approche de développement basée sur la réutilisation de composants existants et éprouvés. Une telle approche doit permettre de réduire le temps de conception des systèmes d information, d'en améliorer la qualité et d'en faciliter la maintenance. . . Cinq résultats essentiels ont été produits à l'issue de ce travail de recherche. Une démarche de conception de systèmes de réutilisation permet d'identifier les connaissances de domaine à réutiliser, de les abstraire afin de taire apparaître la variabilité du domaine et de les discriminer. Cette démarche s'appuie sur un méta-modèle de domaine. Celui-ci offre un ensemble de concepts pour spécifier les buts, activités et objets d'un domaine. II peut être utilisé aussi bien lors de la modélisation de champs d'application que de méthodes d'ingénierie des systèmes d' information. Un modèle de composants réutilisables de domaine permet d'opérationnaliser, en vue de leur réutilisation, les connaissances ainsi formalisées en les structurant sous forme de composants de domaine. Des opérateurs et un processus de manipulation de composants sont décrits. Ils visent à supporter et guider l'ingénierie par réutilisation. Enfin, une plate-forme logicielle pour la conception et la manipulation de composants de domaine a été spécifiée et développée pour supporter l'ensemble de la démarche.
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Woehrling, Cécile. "Accents régionaux en français : perception, analyse et modélisation à partir de grands corpus". Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00617248.

Texto completo da fonte
Resumo:
De grands corpus oraux comprenant des accents régionaux du français deviennent aujourd'hui disponibles : leurs données offrent une bonne base pour entreprendre l'étude des accents. Les outils de traitement automatique de la parole permettent de traiter des quantités de données plus importantes que les échantillons que peuvent examiner les experts linguistes, phonéticiens ou dialectologues. La langue française est parlée dans de nombreux pays à travers le monde. Notre étude porte sur le français d'Europe continentale, excluant ainsi des territoires comme le Québec, l'Afrique francophone ou encore les départements d'Outre-Mer. Nous étudierons des accents régionaux de France, de Belgique et de Suisse romande. Quelles sont les limites géographiques à l'intérieur desquelles il est possible d'affirmer que les locuteurs ont le même accent ? La réponse à cette question n'est pas évidente. Nous avons adopté la terminologie suivante, adaptée à nos données : nous parlerons d'accent lorsque nous ferons référence à une localisation précise telle qu'une ville ou une région donnée ; nous utiliserons le terme variété pour désigner un ensemble plus vaste. Bien que de nombreuses études décrivent les particularités des accents du français, il existe moins de travaux décrivant la variation de la langue dans son ensemble, et encore moins du point de vue du traitement automatique. De nombreuses questions restent ouvertes. Combien d'accents un auditeur natif du français peut-il identifier ? Quelles performances un système automatique pourrait-il atteindre pour une tâche identique? Les indices décrits dans la littérature linguistique comme caractéristiques de certains accents peuvent-ils être mesurés de manière automatique ? Sont-ils pertinents pour différencier des variétés de français ? Découvrirons-nous d'autres indices mesurables sur nos corpus ? Ces indices pourront-ils être mis en relation avec la perception ? Au cours de notre thèse, nous avons abordé l'étude de variétés régionales du français du point de vue de la perception humaine aussi bien que de celui du traitement automatique de la parole. Traditionnellement, nombre d'études en linguistique se focalisent sur l'étude d'un accent précis. Le traitement automatique de la parole permet d'envisager l'étude conjointe de plusieurs variétés de français : nous avons voulu exploiter cette possibilité. Nous pourrons ainsi examiner ce qui diffère d'une variété à une autre, ce qui n'est pas possible lorsqu'une seule variété est décrite. Nous avons la chance d'avoir à notre disposition un système performant d'alignement automatique de la parole. Cet outil, qui permet de segmenter le flux sonore suivant une transcription phonémique, peut se révéler précieux pour l'étude de la variation. Le traitement automatique nous permet de prendre en considération plusieurs styles de parole et de nombreux locuteurs sur des quantités de données importantes par rapport à celles qui ont pu être utilisées dans des études linguistiques menées manuellement. Nous avons automatiquement extrait des caractéristiques du signal par différentes méthodes ; nous avons cherché à valider nos résultats sur deux corpus avec accents. Les paramètres que nous avons retenus ont permis de classifier automatiquement les locuteurs de nos deux corpus.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia