Segui questo link per vedere altri tipi di pubblicazioni sul tema: Modèles de langage protéique.

Tesi sul tema "Modèles de langage protéique"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Modèles de langage protéique".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Vander, Meersche Yann. "Étude de la flexibilité des protéines : analyse à grande échelle de simulations de dynamique moléculaire et prédiction par apprentissage profond". Electronic Thesis or Diss., Université Paris Cité, 2024. http://www.theses.fr/2024UNIP5147.

Testo completo
Abstract (sommario):
Les protéines sont essentielles aux processus biologiques. Comprendre leur dynamique est crucial pour élucider leurs fonctions biologiques et leurs interactions. Cependant, mesurer expérimentalement cette flexibilité reste un défi en raison des limitations techniques et des coûts associés. Cette thèse vise à approfondir la compréhension des propriétés dynamiques des protéines et à proposer des méthodes bioinformatique permettant de prédire leur flexibilité directement à partir de leur séquence. Ces travaux s'organisent en quatre axes principaux : 1) Prédiction de la flexibilité des protéines en termes de B-facteurs. Nous avons développé MEDUSA, une méthode de prédiction de la flexibilité basée sur l'apprentissage profond, qui exploite les informations physico-chimiques et évolutives des acides aminés pour prédire des classes de flexibilité expérimentale à partir des séquences protéiques. MEDUSA s'est révélé plus performant que les outils précédemment disponibles, mais présente des limitations en raison de la variabilité des données expérimentales. 2) Analyse à grande échelle de la dynamique protéique in silico. Nous avons mis à disposition ATLAS, une base de données de simulations de dynamique moléculaire tout-atome standardisées, fournissant des informations détaillées sur la flexibilité des protéines pour plus de 1500 structures représentatives. ATLAS permet une analyse interactive de la dynamique des protéines à différents niveaux et offre des informations précieuses sur les protéines présentant des comportements dynamiques atypiques, tels que les fragments à double personnalité. 3) Analyse approfondie du score pLDDT d'AlphaFold 2 et sa relation avec la flexibilité des protéines. Nous avons évalué la corrélation du pLDDT avec différents descripteurs de flexibilité dérivés de simulations de dynamique moléculaire et d'ensembles RMN, et démontré que la confiance dans la prédiction de la structure 3D ne reflète pas nécessairement la flexibilité attendue de la région protéique, en particulier pour les fragments protéiques impliqués dans des interactions moléculaires. 4) Prédiction des descripteurs de flexibilité dérivés de la dynamique moléculaire à partir des embeddings de langages protéiques. Nous présentons PEGASUS, un nouvel outil de prédiction de la flexibilité développé à partir de la base de données ATLAS. En utilisant l'encodage des séquences protéiques par des modèles de langage protéique et un modèle d'apprentissage profond simple, PEGASUS fournit des prédictions précises des métriques de flexibilité et capture efficacement l'impact des mutations sur la dynamique des protéines. Les perspectives de ce travail incluent l'enrichissement des simulations avec des environnements variés et l'intégration des protéines membranaires pour améliorer PEGASUS et réaliser de nouvelles analyses. Nous évoquons également l'émergence des méthodes capables de prédire des ensembles conformationnels, offrant des avancées prometteuses pour mieux capturer la dynamique des protéines. Cette thèse ouvre de nouvelles perspectives pour la prédiction et l'analyse de la flexibilité des protéines, ouvrant la voie à des avancées dans des domaines tels que la recherche biomédicale, l'étude des mutations et la conception de médicaments
Proteins are essential to biological processes. Understanding their dynamics is crucial for elucidating their biological functions and interactions. However, experimentally measuring protein flexibility remains challenging due to technical limitations and associated costs. This thesis aims to deepen the understanding of protein dynamic properties and to propose computational methods for predicting their flexibility directly from their sequence. This work is organised in four main contributions: 1) Protein flexibility prediction in terms of B-factors. We have developed MEDUSA, a flexibility prediction method based on deep learning, which leverages the physicochemical and evolutionary information of amino acids to predict experimental flexibility classes from protein sequences. MEDUSA has outperformed previously available tools but shows limitations due to the variability of experimental data. 2) Large-scale analysis of in silico protein dynamics. We have released ATLAS, a database of standardised all-atom molecular dynamics simulations providing detailed information on protein flexibility for over 1.5k representative protein structures. ATLAS enables interactive analysis of protein dynamics at different levels and offers valuable insights into proteins exhibiting atypical dynamical behaviour, such as dual personality fragments. 3) An in-depth analysis of AlphaFold 2's pLDDT score and its relation to protein flexibility. We have assessed pLDDT correlation with different flexibility descriptors derived from molecular dynamics simulations and from NMR ensembles and demonstrated that confidence in 3D structure prediction does not necessarily reflect expected flexibility of the protein region, in particular, for protein fragments involved in molecular interaction. 4) Prediction of MD-derived flexibility descriptors using protein language embeddings. We introduce PEGASUS, a novel flexibility prediction tool developed using ATLAS database. Using protein sequence encoding by protein language models and a simple deep learning model, PEGASUS provides precise predictions of flexibility metrics and effectively captures the impact of mutations on protein dynamics. The perspectives of this work include enriching simulations with varied environments and integrating membrane proteins to enhance PEGASUS and enable new analyses. We also highlight the emergence of methods capable of predicting conformational ensembles, offering promising advances for better capturing protein dynamics. This thesis offers new perspectives for the prediction and analysis of protein flexibility, paving the way for advances in areas such as biomedical research, mutation studies, and drug design
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Hladiš, Matej. "Réseaux de neurones en graphes et modèle de langage des protéines pour révéler le code combinatoire de l'olfaction". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ5024.

Testo completo
Abstract (sommario):
Les mammifères identifient et interprètent une myriade de stimuli olfactifs par un mécanisme de codage complexe reposant sur la reconnaissance des molécules odorantes par des centaines de récepteurs olfactifs (RO). Ces interactions génèrent des combinaisons uniques de récepteurs activés, appelées code combinatoire, que le cerveau humain interprète comme la sensation que nous appelons l'odeur. Jusqu'à présent, le grand nombre de combinaisons possibles entre les récepteurs et les molécules a empêché une étude expérimentale à grande échelle de ce code et de son lien avec la perception des odeurs. La révélation de ce code est donc cruciale pour répondre à la question à long terme de savoir comment nous percevons notre environnement chimique complexe. Les RO appartiennent à la classe A des récepteurs couplés aux protéines G (RCPG) et constituent la plus grande famille multigénique connue. Pour étudier de façon systématique le codage olfactif, nous avons développé M2OR, une base de données exhaustive compilant les 25 dernières années d'essais biologiques sur les RO. À l'aide de cet ensemble de données, un modèle d'apprentissage profond sur mesure a été conçu et entraîné. Il combine l'intégration de jetons [CLS] d'un modèle de langage des protéines avec des réseaux de neurones en graphes et un mécanisme d'attention multi-têtes. Ce modèle prédit l'activation des RO par les odorants et révèle le code combinatoire résultant pour toute molécule odorante. Cette approche est affinée en développant un nouveau modèle capable de prédire l'activité d'un odorant à une concentration spécifique, permettant alors d'estimer la valeur d'EC50 de n'importe quelle paire OR-odorant. Enfin, les codes combinatoires dérivés des deux modèles sont utilisés pour prédire la perception olfactive des molécules. En incorporant des biais inductifs inspirés par la théorie du codage olfactif, un modèle d'apprentissage automatique basé sur ces codes est plus performant que l'état de l'art actuel en matière de prédiction d'odeurs. À notre connaissance, il s'agit de l'application la plus aboutie liant le code combinatoire à la prédiction de l'odeur d'une molécule. Dans l'ensemble, ce travail établit un lien entre les interactions complexes molécule odorante-récepteur et la perception humaine
Mammals identify and interpret a myriad of olfactory stimuli using a complex coding mechanism involving interactions between odorant molecules and hundreds of olfactory receptors (ORs). These interactions generate unique combinations of activated receptors, called the combinatorial code, which the human brain interprets as the sensation we call smell. Until now, the vast number of possible receptor-molecule combinations have prevented a large-scale experimental study of this code and its link to odor perception. Therefore, revealing this code is crucial to answering the long-term question of how we perceive our intricate chemical environment. ORs belong to the class A of G protein-coupled receptors (GPCRs) and constitute the largest known multigene family. To systematically study olfactory coding, we develop M2OR, a comprehensive database compiling the last 25 years of OR bioassays. Using this dataset, a tailored deep learning model is designed and trained. It combines the [CLS] token embedding from a protein language model with graph neural networks and multi-head attention. This model predicts the activation of ORs by odorants and reveals the resulting combinatorial code for any odorous molecule. This approach is refined by developing a novel model capable of predicting the activity of an odorant at a specific concentration, subsequently allowing the estimation of the EC50 value for any OR-odorant pair. Finally, the combinatorial codes derived from both models are used to predict the odor perception of molecules. By incorporating inductive biases inspired by olfactory coding theory, a machine learning model based on these codes outperforms the current state-of-the-art in smell prediction. To the best of our knowledge, this is the most comprehensive and successful application of combinatorial coding to odor quality prediction. Overall, this work provides a link between the complex molecule-receptor interactions and human perception
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Alain, Pierre. "Contributions à l'évaluation des modèles de langage". Rennes 1, 2007. http://www.theses.fr/2007REN1S003.

Testo completo
Abstract (sommario):
Ces travaux portent sur l'évaluation des modèles de langages en dehors de toute tâche applicative. Le problème d'une étude comparative entre plusieurs modèles est généralement lié à la fonction dans un système complet. Notre objectif consiste au contraire à s'abstraire au maximum des contraintes liées au système, et ainsi pourvoir comparer effectivement les modèles. Le critère le plus couramment admis pour une comparaison de modèles de langage est la perplexité. Ces travaux reprennent les hypothèses du jeu de Shannon, de manière à poser un cadre d'évaluation des modèles de langage fondée sur leur capacité de prédiction. La méthodologie s'intéresse à la prédiction conjointe de mots, et reste indépendante de toute tâche applicative, de la nature du modèle, ainsi que du nombre de paramètres de ce modèle. Des expériences sont menées sur la modélisation du français et de l'anglais à partir de vocabulaires de taille variable, et différents modèles sont mis en concurrence
This work deals with the evaluation of language models independently of any applicative task. A comparative study between several language models is generally related to the role that a model has into a complete system. Our objective consists in being independant of the applicative system, and thus to provide a true comparison of language models. Perplexity is a widely used criterion as to comparing language models without any task assumptions. However, the main drawback is that perplexity supposes probability distributions and hence cannot compare heterogeneous models. As an evaluation framework, we went back to the definition of the Shannon's game which is based on model prediction performance using rank based statistics. Our methodology is able to predict joint word sequences that are independent of the task or model assumptions. Experiments are carried out on French and English modeling with large vocabularies, and compare different kinds of language models
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Delot, Thierry. "Interrogation d'annuaires étendus : modèles, langage et optimisation". Versailles-St Quentin en Yvelines, 2001. http://www.theses.fr/2001VERS0028.

Testo completo
Abstract (sommario):
Les travaux menés dans cette thèse se concentrent sur les problèmes de partage, d'interrogation et de médiation rencontrés dans les systèmes d'information de nouvelle génération qui s'articulent autour de sources de données, d'objets, et de composants largement distribués. Dans cet environnement, différents systèmes coexistent : des SGBD, des serveurs LDAP et des architectures à objets distribués. Les limites actuelles des services d'annuaires et leur interaction toujours plus grande avec l'environnemnet qui les entoure (SGBDs, objets,. . . ) nous a amené à étudier la définition d'un service d'annuaires capable, tout en conservant la flexibilité et la compatibilité avec les modèles existants, de proposer des fonctionnalités avancées telles que : la manipulation de données riches englobant des valeurs mais également des programmes, le support adapté pour le partage d'objets et des capacités d'interrogation étendues. En effet, les facilités d'interrogation dans LDAP sont relativement pauvres et il serait intéressant de les enrichir pour permettre des recherches plus complexes incluant des parcours de chemin, des calculs d'agrégats, etc. Le challenge consiste ici à trouver le bon compromis entre le pouvoir d'expression du langage et la charge imposée au service d'annuaires. L'introduction de nouvelles fonctionnalités dans le service d'annuaires a un impact important sur les performances du système, aussi bien du point de vue des temps de réponse que des ressources consommées pour évaluer une requête. Un autre aspect de cette intégration des annuaires avec leur environnement concerne le partage de données communes entre ces différents systèmes, comme les données d'identification par exemple. Pour assurer cette intégration, notre solution consiste à mettre en place une couche de médiation entre les deux systèmes, afin de permettre à un utilisateur de manipuler ses données en utilisant soit le modèle relationnel dans le cax des SGBD relationnels, soit le modèle LDAP.
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Oota, Subba Reddy. "Modèles neurocomputationnels de la compréhension du langage : caractérisation des similarités et des différences entre le traitement cérébral du langage et les modèles de langage". Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0080.

Testo completo
Abstract (sommario):
Cette thèse explore la synergie entre l'intelligence artificielle (IA) et la neuroscience cognitive pour faire progresser les capacités de traitement du langage. Elle s'appuie sur l'idée que les avancées en IA, telles que les réseaux neuronaux convolutionnels et des mécanismes comme le « replay d'expérience », s'inspirent souvent des découvertes neuroscientifiques. Cette interconnexion est bénéfique dans le domaine du langage, où une compréhension plus profonde des capacités cognitives humaines uniques, telles que le traitement de structures linguistiques complexes, peut ouvrir la voie à des systèmes de traitement du langage plus sophistiqués. L'émergence de riches ensembles de données neuroimagerie naturalistes (par exemple, fMRI, MEG) aux côtés de modèles de langage avancés ouvre de nouvelles voies pour aligner les modèles de langage computationnels sur l'activité cérébrale humaine. Cependant, le défi réside dans le discernement des caractéristiques du modèle qui reflètent le mieux les processus de compréhension du langage dans le cerveau, soulignant ainsi l'importance d'intégrer des mécanismes inspirés de la biologie dans les modèles computationnels.En réponse à ce défi, la thèse introduit un cadre basé sur les données qui comble le fossé entre le traitement neurolinguistique observé dans le cerveau humain et les mécanismes computationnels des systèmes de traitement automatique du langage naturel (TALN). En établissant un lien direct entre les techniques d'imagerie avancées et les processus de TALN, elle conceptualise le traitement de l'information cérébrale comme une interaction dynamique de trois composantes critiques : le « quoi », le « où » et le « quand », offrant ainsi des perspectives sur la manière dont le cerveau interprète le langage lors de l'engagement avec des récits naturalistes. L'étude fournit des preuves convaincantes que l'amélioration de l'alignement entre l'activité cérébrale et les systèmes de TALN offre des avantages mutuels aux domaines de la neurolinguistique et du TALN. La recherche montre comment ces modèles computationnels peuvent émuler les capacités de traitement du langage naturel du cerveau en exploitant les technologies de réseau neuronal de pointe dans diverses modalités - langage, vision et parole. Plus précisément, la thèse met en lumière comment les modèles de langage pré-entraînés modernes parviennent à un alignement plus étroit avec le cerveau lors de la compréhension de récits. Elle examine le traitement différentiel du langage à travers les régions cérébrales, le timing des réponses (délais HRF) et l'équilibre entre le traitement de l'information syntaxique et sémantique. En outre, elle explore comment différentes caractéristiques linguistiques s'alignent avec les réponses cérébrales MEG au fil du temps et constate que cet alignement dépend de la quantité de contexte passé, indiquant que le cerveau code les mots légèrement en retard par rapport à celui actuel, en attendant plus de contexte futur. De plus, elle met en évidence la plausibilité biologique de l'apprentissage des états de réservoir dans les réseaux à état d'écho, offrant ainsi une interprétabilité, une généralisabilité et une efficacité computationnelle dans les modèles basés sur des séquences. En fin de compte, cette recherche apporte des contributions précieuses à la neurolinguistique, à la neuroscience cognitive et au TALN
This thesis explores the synergy between artificial intelligence (AI) and cognitive neuroscience to advance language processing capabilities. It builds on the insight that breakthroughs in AI, such as convolutional neural networks and mechanisms like experience replay 1, often draw inspiration from neuroscientific findings. This interconnection is beneficial in language, where a deeper comprehension of uniquely human cognitive abilities, such as processing complex linguistic structures, can pave the way for more sophisticated language processing systems. The emergence of rich naturalistic neuroimaging datasets (e.g., fMRI, MEG) alongside advanced language models opens new pathways for aligning computational language models with human brain activity. However, the challenge lies in discerning which model features best mirror the language comprehension processes in the brain, underscoring the importance of integrating biologically inspired mechanisms into computational models. In response to this challenge, the thesis introduces a data-driven framework bridging the gap between neurolinguistic processing observed in the human brain and the computational mechanisms of natural language processing (NLP) systems. By establishing a direct link between advanced imaging techniques and NLP processes, it conceptualizes brain information processing as a dynamic interplay of three critical components: "what," "where," and "when", offering insights into how the brain interprets language during engagement with naturalistic narratives. This study provides compelling evidence that enhancing the alignment between brain activity and NLP systems offers mutual benefits to the fields of neurolinguistics and NLP. The research showcases how these computational models can emulate the brain’s natural language processing capabilities by harnessing cutting-edge neural network technologies across various modalities—language, vision, and speech. Specifically, the thesis highlights how modern pretrained language models achieve closer brain alignment during narrative comprehension. It investigates the differential processing of language across brain regions, the timing of responses (Hemodynamic Response Function (HRF) delays), and the balance between syntactic and semantic information processing. Further, the exploration of how different linguistic features align with MEG brain responses over time and find that the alignment depends on the amount of past context, indicating that the brain encodes words slightly behind the current one, awaiting more future context. Furthermore, it highlights grounded language acquisition through noisy supervision and offers a biologically plausible architecture for investigating cross-situational learning, providing interpretability, generalizability, and computational efficiency in sequence-based models. Ultimately, this research contributes valuable insights into neurolinguistics, cognitive neuroscience, and NLP
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Chauveau, Dominique. "Étude d'une extension du langage synchrone SIGNAL aux modèles probabilistes : le langage SIGNalea". Rennes 1, 1996. http://www.theses.fr/1996REN10110.

Testo completo
Abstract (sommario):
L'absence d'outils ergonomiques pour le traitement de systemes stochastiques complexes, comme on peut en trouver dans de nombreuses applications industrielles, a conduit le projet epatr de l'irisa a envisager la realisation d'une extension du langage de programmation signal pour la manipulation de systemes hybrides stochastiques/non-stochastiques. Developpe depuis une dizaine d'annees par le projet epatr, le langage signal est un langage flot de donnees de type equationnel, appartenant a la famille des langages synchrones et destine a la specification de systemes reactifs temps-reel. Une interface graphique integree a l'environnement signal permet de specifier des programmes de facon modulaire et hierarchique sous la forme de boites interconnectees. L'extension de signal aux modeles aleatoires, que l'on appelle signalea, doit permettre la specification de systemes complexes faisant intervenir des composantes aleatoires et des composantes de nature symbolique. Elle doit egalement fournir a l'utilisateur des methodes efficaces de simulation (simulation rapide d'evenements rares,) et d'estimation (reconnaissance de formes, diagnostic,) generees automatiquement a partir de la specification de depart. La definition de signalea a des le debut souleve des problemes mathematiques complexes, dont une etude approfondie a conduit a la definition du formalisme mathematique css. Le modele css ne s'interesse qu'aux cas ou le systeme etudie met en jeu un nombre fini de variables. Les objets de base de ce modele sont des systemes hybrides stochastiques/non-stochastiques. Nous definissons sur ces systemes une generalisation de la regle de bayes qui nous permet d'obtenir des methodes de simulation et d'estimation incrementales se rapprochant assez fortement des travaux de a. P. Dempster et g. Shafer en statistique et intelligence artificielle sur les fonctions de croyance et reseaux de croyance. La version de signalea que nous presentons dans ce document est sur une generalisation du langage signal qui permet d'inclure des bulles de type css. Elle donne la possibilite de specifier tout systeme dynamique aleatoire de type automate stochastique, ou hidden markov model (hmm). Dans le cas booleen, le calcul des primitives intervenant pour la simulation bayesienne a ete implemente en utilisant des techniques bdd (binary decision diagram). Enfin, nous apportons un element nouveau au modele css qui est la prise en compte de la hierarchie des systemes dans les algorithmes de simulation et d'estimation incrementales
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Fleurey, Franck. "Langage et méthode pour une ingénierie des modèles fiable". Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00538288.

Testo completo
Abstract (sommario):
Ce travail s'inscrit dans un contexte où la taille et la complexité des logiciels augmentent alors que les contraintes de temps de développement, de qualité, de maintenance et d'évolution sont toujours plus fortes. Pour répondre à cette tendance, l'ingénierie dirigée par les modèles constitue une évolution prometteuse des techniques de génie logiciel. Les idées de l'ingénierie dirigée par les modèles sont, d'une part de rendre les modèles productifs, et d'autre part d'automatiser certaines étapes du développement grâce à des transformations de modèles. Une des conditions pour que l'ingénierie dirigée par les modèles tienne ses promesses, en terme de productivité et de qualité, est d'assurer, tout d'abord, la correction des modèles, et ensuite, la correction des transformations utilisées. La contribution de ce travail s'articule autour de ces deux axes et constitue un premier pas vers la fiabilisation des processus de dévelopement dirigés pas les modèles. Le premier axe de ce travail vise à améliorer les possibilités de validation des modèles en proposant une plateforme pour la définition de langages de modélisation. En fonction des expériences et du domaine considéré, les modèles utilisés dans l'ingénierie dirigée par les modèles sont exprimés dans divers langages de modélisation. Comme tout langage, un langage de modélisation est constitué de plusieurs éléments de spécification : une syntaxe abstraite (ou méta-modèle), une sémantique et des contraintes syntaxiques et sémantiques. Pour assurer la précision et la cohérence d'un tel langage, il faut d'une part spécifier sans ambiguïtés chaque élément, et d'autre part assurer la bonne intégration des différents éléments entre eux. Or, les pratiques actuelles de l'ingénierie dirigée par les modèles utilisent des formalismes hétérogènes et parfois difficiles à exploiter (le langage naturel par exemple) pour la spécification de ces éléments. Afin d'améliorer la définition des langages de modélisation, nous proposons l'utilisation d'un coeur sémantique unique et précis. Ce coeur sémantique se présente sous la forme d'un langage appelé Kermeta. Au coeur de la plateforme d'ingénierie dirigée par les modèles développée par l'équipe Triskell, le langage Kermeta a été utilisé dans des contextes variés dont la transformation de modèles, la modélisation orientée-aspects et l'analyse d'exigences logicielles. L'utilisation de Kermeta pour ces applications a permis de valider le langage et de mettre en évidence ses avantages par rapport aux techniques existantes. Le second axe de ce travail concerne la validation des transformations de modèles. Celles-ci sont utilisées pour automatiser les phases du processus de développement qui peuvent l'être. Qu'il s'agisse de raffinement, de composition, de refactoring ou encore de génération de code, la qualité des transformations de modèles est primordiale pour assurer la qualité des logiciels développés. Il suffit en effet qu'une seule transformation utilisée soit erronée pour que l'ensemble du processus de développement soit fragilisé. Dans ce contexte, nous proposons une technique pour la sélection de modèles de test permettant la validation des programmes de transformation de modèles. Cette technique tire avantage du fait que toute transformation de modèles manipule des données dont la structure est décrite par un méta-modèle.
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Laborde-Huguet, Bénédicte. "Recherche sur les mécanismes moléculaires de l'instabilité protéique des vins blancs". Bordeaux 2, 2006. http://www.theses.fr/2006BOR21381.

Testo completo
Abstract (sommario):
Les protéines solubles des vins blancs sont instables et peuvent précipiter au cours de la conservation des vins sous l'influence d'une augmentation de température. Nous proposons un nouveau modèle réactionnel de la casse protéique qui résulte principalement non pas de la dénaturation des protéines mais de l'intervention de composés non protéiques capables de les faire troubler. Ces molécules très probablement d'origine pelliculaire sont présentes dans les moûts et les vins sous forme de précurseurs qui par chauffage vont se transformer en molécules actives réagissant avec les protéines par des interactions qui pourraient être de nature ionique. La mise en place d'une cascade de purification a permis de montrer que ces molécules ne font très probablement pas partie des familles moléculaires suivantes : les composés phénoliques, les aldéhydes et les cétones ou peut-être les peptides
Soluble proteins of white wines are heat unstable and can precepitate during conservation. We propose a new reactional model for protein haze formation, which implies not only protein denaturation but essentially non-proteinaceous compounds involvement. These molecules, probably localized in grape skin, are present in must and wine as precursors. Heat transformes these molecules into active factors able to react with proteins probably through ionic interactions. A purification chain showed that these molecules do not seem to belong to the following molecular families : phenolic compounds, aldehydes and ketones, and probably peptides
Gli stili APA, Harvard, Vancouver, ISO e altri
9

LABAT, GILLES. "Modélisation d'hémoprotéines, cytochrome P-450, chloroperoxydase et lignine peroxydase : modèles efficaces de la lignine peroxydase et développement de procédés d'oxydation par catalyse biomimétique". Toulouse 3, 1989. http://www.theses.fr/1989TOU30175.

Testo completo
Abstract (sommario):
Ce memoire montre l'interet des metalloporphyrines synthetiques dans la modelisation d'hemoproteines. Dans une premiere partie, des essais de synthese de complexes porphyriniques modelisant le cytochrome p-450 sont decrits. Dans une deuxieme partie, la modelisation de la chloroperoxydase par des metalloporphyrines encombrees anioniques de fer et de manganese libres en solution ou immobilisees sur support (adsorbees sur resine echangeuse d'ions ou fixees sur un polymere poly-vinylpyridine) est decrite. Dans une troisieme partie, la modelisation de la lignine peroxydase est etudiee. Ces memes modeles associes a des donneurs d'oxygene (monopersulfate de potassium, eau oxygenee et le sel de l'acide monoperoxyphtalique) permettent d'atteindre des activites catalytiques de 10 a 20 cycles par seconde lors de l'oxydation de composes modeles de la lignine. Ces catalyseurs biomimetiques originaux associes a plusieurs peroxydes organiques ou inorganiques sont a l'origine de l'elaboration de noueaux systemes catalytiques libres et supportes, resistants en milieu oxydant et du developpement de plusieurs procedes d'oxydation
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Lopes, Marcos. "Modèles inductifs de la sémiotique textuelle". Paris 10, 2002. http://www.theses.fr/2002PA100145.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Eyssautier-Bavay, Carole. "Modèles, langage et outils pour la réutilisation de profils d'apprenants". Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00327198.

Testo completo
Abstract (sommario):
Cette thèse en informatique se place dans le domaine des Environnements Informatiques pour l'Apprentissage Humain. Durant une activité d'apprentissage, de nombreuses informations peuvent être recueillies et interprétées pour constituer un profil, en termes de connaissances, compétences, conceptions ou comportements d'un apprenant ou d'un groupe d'apprenants. Ces profils peuvent différer de part leur intention pédagogique, leur contenu, leur structuration, leur présentation. Par ailleurs, les acteurs de la situation d'apprentissage concernés par ces profils sont divers.

Il n'existe pas à l'heure actuelle de solution technique permettant de réutiliser ces profils hétérogènes. Cette thèse cherche donc à proposer des modèles et des outils permettant la réutilisation pour les différents acteurs de profils d'apprenants créés par d'autres.

Dans nos travaux, nous proposons le modèle de processus de gestion de profils REPro (Reuse of External Profiles). Pour permettre la réutilisation de profils hétérogènes, nous proposons de les réécrire selon un formalisme commun qui prend la forme d'un langage de modélisation de profils, le langage PMDL (Profiles MoDeling Language). Nous définissons ensuite un ensemble d'opérateurs permettant la transformation des profils ainsi harmonisés, ou de leur structure, tels que l'ajout d'éléments dans le profil, ou la création d'un profil de groupe à partir de profils individuels. Ces propositions ont été mises en œuvre au sein de l'environnement EPROFILEA du projet PERLEA (Profils d'Élèves Réutilisés pour L'Enseignant et l'Apprenant), avant d'être mises à l'essai auprès d'enseignants en laboratoire.
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Swaileh, Wassim. "Des modèles de langage pour la reconnaissance de l'écriture manuscrite". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR024/document.

Testo completo
Abstract (sommario):
Cette thèse porte sur le développement d'une chaîne de traitement complète pour réaliser des tâches de reconnaissance d'écriture manuscrite non contrainte. Trois difficultés majeures sont à résoudre: l'étape du prétraitement, l'étape de la modélisation optique et l'étape de la modélisation du langage. Au stade des prétraitements il faut extraire correctement les lignes de texte à partir de l'image du document. Une méthode de segmentation itérative en lignes utilisant des filtres orientables a été développée à cette fin. La difficulté dans l’étape de la modélisation optique vient de la diversité stylistique des scripts d'écriture manuscrite. Les modèles optiques statistiques développés sont des modèles de Markov cachés (HMM-GMM) et les modèles de réseaux de neurones récurrents (BLSTM-CTC). Les réseaux récurrents permettent d’atteindre les performances de l’état de l’art sur les deux bases de référence RIMES (pour le Français) et IAM (pour l’anglais). L'étape de modélisation du langage implique l'intégration d’un lexique et d’un modèle de langage statistique afin de rechercher parmi les hypothèses proposées par le modèle optique, la séquence de mots (phrase) la plus probable du point de vue linguistique. La difficulté à ce stade est liée à l’obtention d’un modèle de couverture lexicale optimale avec un minimum de mots hors vocabulaire (OOV). Pour cela nous introduisons une modélisation en sous-unités lexicales composée soit de syllabes soit de multigrammes. Ces modèles couvrent efficacement une partie importante des mots hors vocabulaire. Les performances du système de reconnaissance avec les unités sous-lexicales dépassent les performances des systèmes de reconnaissance traditionnelles de mots ou de caractères en présence d’un fort taux de mots hors lexique. Elles sont équivalentes aux modèles traditionnels en présence d’un faible taux de mots hors lexique. Grâce à la taille compacte du modèle de langage reposant sur des unités sous-lexicales, un système de reconnaissance multilingue unifié a été réalisé. Le système multilingue unifié améliore les performances de reconnaissance par rapport aux systèmes spécialisés dans chaque langue, notamment lorsque le modèle optique unifié est utilisé
This thesis is about the design of a complete processing chain dedicated to unconstrained handwriting recognition. Three main difficulties are adressed: pre-processing, optical modeling and language modeling. The pre-processing stage is related to extracting properly the text lines to be recognized from the document image. An iterative text line segmentation method using oriented steerable filters was developed for this purpose. The difficulty in the optical modeling stage lies in style diversity of the handwriting scripts. Statistical optical models are traditionally used to tackle this problem such as Hidden Markov models (HMM-GMM) and more recently recurrent neural networks (BLSTM-CTC). Using BLSTM we achieve state of the art performance on the RIMES (for French) and IAM (for English) datasets. The language modeling stage implies the integration of a lexicon and a statistical language model to the recognition processing chain in order to constrain the recognition hypotheses to the most probable sequence of words (sentence) from the language point of view. The difficulty at this stage is related to the finding the optimal vocabulary with minimum Out-Of-Vocabulary words rate (OOV). Enhanced language modeling approaches has been introduced by using sub-lexical units made of syllables or multigrams. The sub-lexical units cover an important portion of the OOV words. Then the language coverage depends on the domain of the language model training corpus, thus the need to train the language model with in domain data. The recognition system performance with the sub-lexical units outperformes the traditional recognition systems that use words or characters language models, in case of high OOV rates. Otherwise equivalent performances are obtained with a compact sub-lexical language model. Thanks to the compact lexicon size of the sub-lexical units, a unified multilingual recognition system has been designed. The unified system performance have been evaluated on the RIMES and IAM datasets. The unified multilingual system shows enhanced recognition performance over the specialized systems, especially when a unified optical model is used
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Beaufrere, Bernard. "Modèles d'étude du métabolisme protéique in vivo à l'aide de leucine marquée aux isotopes stables et radioactifs". Lyon 1, 1990. http://www.theses.fr/1990LYO1T074.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Ameur-Boulifa, Rabéa. "Génération de modèles comportementaux des applications réparties". Nice, 2004. http://www.theses.fr/2004NICE4094.

Testo completo
Abstract (sommario):
Nous nous intéressons dans ce document à la vérification de propriétés comportementales d’applications distribuées par la technique du model-checking. En particulier, nous étudions le problème de génération de modèles à partir de programmes Java répartis et représentés par systèmes de transitions communiquant. A partir de la sémantique formelle de programmes ProActive – une librairie 100 % Java pour la programmation parallèle, distribuée et concurrente – nous construisons, de manière compositionnelle et hiérarchique, des modèles comportementaux finis pour des abstractions finies d’applications. Ces modèles sont décrits mathématiquement et graphiquement. Et la procédure de construction, dont nous prouvons la terminaison, est décrite par des règles sémantiques s’appliquant à une forme intermédiaire des programmes obtenue par analyse statique. Ces règles sont ensuite étendues afin de générer des modèles paramétrés pour des applications possiblement infinies. La construction de modèles paramétrés a été, d’abord, faite sur un noyau de Java et la bibliothèque ProActive, puis étendue à des constructions communication de groupe. Des exemples de modèles, générés directement à partir de ces règles implémentées par un prototype, sont également étudiés
From the formal semantics of ProActive – 100 % Java library for concurrent, distributed, and mobile computing -, we build, in a compositional way, finite models of finite abstract applications. These models are described mathematically and graphically. The procedure for building, of which we guaranty the ending, is described by semantics rules applied to an intermediate form of programs obtained by static analysis. Afterwards, these rules are extended so as to build parameterized models of infinite applications. Practically, a prototype for analysing a core of Java and ProActive library is constructed. Moreover, some realistic examples are studied
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Vantelon, Nadine. "Effet d'une acidose lactique sur la phase d'initiation de la synthèse protéique dans des primocultures d'astrocytes de rats". Poitiers, 2007. http://www.theses.fr/2007POIT1801.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Trojet, Mohamed Wassim. "Approche de vérification formelle des modèles DEVS à base du langage Z". Aix-Marseille 3, 2010. http://www.theses.fr/2010AIX30040.

Testo completo
Abstract (sommario):
Le cadre général dans lequel se situe cette thèse concerne l’amélioration de la vérification et la validation des modèles de simulation par l'intégration des méthodes formelles. Notre approche consiste à doter les modèles DEVS d’une approche de vérification formelle basée sur le langage Z. DEVS est un formalisme qui permet la description et l'analyse du comportement des systèmes à évènements discrets, c'est à dire, les systèmes dont le changement d'état dépend de l'occurrence d'un évènement. Un modèle DEVS est essentiellement validé par la simulation qui permet de vérifier si celui ci décrit bien le comportement du système. Cependant, la simulation ne permet pas de détecter la présence d’une éventuelle inconsistance dans le modèle (un conflit, une ambiguïté ou une incomplétude). Pour cela, nous avons intégré un langage de spécification formelle dans le formalisme DEVS connu sous le nom de Z. Cette intégration consiste à: (1) transformer un un modèle DEVS vers une spécification Z équivalente et (2) vérifier la consistance de la spécification résultante utilisant les outils développés par la communauté Z. Ainsi un modèle DEVS est soumis à une vérification formelle automatique avant son passage à la phase de simulation
The general framework of the thesis consists in improving the verification and the validation of simulation models through the integration of formal methods. We offered an approach of formal verification of DEVS models based on Z language. DEVS is a formalism that allows the description and analysis of the behavior of discrete event systems, ie systems whose state change depends on the occurrence of an event. A DEVS model is essentially validated by the simulation which permits to verify if it correctly describes the behavior of the system. However, the simulation does not detect the presence of a possible inconsistency in the model (conflict, ambiguity or incompleteness). For this reason, we have integrated a formal specification language, known as Z, in the DEVS formalism. This integration consists in: (1) transforming a DEVS model into an equivalent Z specification and (2) verifying the consistency of the resulting specification using the tools developed by the Z community. Thus, a DEVS model is subjected to an automatic formal verification before its simulation
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Janiszek, David. "Adaptation des modèles de langage dans le cadre du dialogue homme-machine". Avignon, 2005. http://www.theses.fr/2005AVIG0144.

Testo completo
Abstract (sommario):
Actuellement, la plupart des systèmes de reconnaissance automatique de la parole (SRAP) sont basés sur des modèles de langage statistiques (MLS). Ces modèles sont estimés à partir d'ensembles d'observations. La mise en oeuvre d'un SRAP nécessite un corpus en adéquation avec le domaine de l'application. Or, à cause des difficultés posées par leur collecte, les corpora disponibles peuvent s'avérer insuffisants pour estimer correctement des MLS. Pour surmonter cela, on souhaite utiliser d'autres données et les adapter au contexte applicatif du SRAP afin d'améliorer les performances du système de dialogue correspondant. Dans ce cadre, nous avons défini et mis en oeuvre un nouveau paradigme : la représentation matricielle des données linguistiques. Cette approche, au centre de nos travaux; permet de nouveaux traitements des données linguistiques grâce à l'utilisation de l'algèbre linéaire. Par exemple, on peut définir une similarité sémantico-fonctionnelle entre plusieurs mots. En nous basant sur la représentation matricielle, nous avons étudié et mis au point plusieurs techniques d'adaptation selon plusieurs axes de recherche : Le filtrage des données : basé sur la technique des blocs minimaux. La transformation linéaire : par le calcul d’un opérateur algébrique transformant les données linguistiques. L'augmentation de données : technique réestimant les occurrences d'un mot observé en fonction de sa similarité avec d'autres mots. La combinaison sélective d'historiques : technique généralisant l'interpolation linéaire de différents modèles de langage. Combinaison de techniques : nous avons cherché les meilleures combinaisons. Les résultats expérimentaux obtenus nous donnent des améliorations relatives du taux d'erreur mot sous certaines conditions. En particulier, nos expériences montrent que l'augmentation de données et la combinaison sélective d'historiques, lorsqu'elles sont associées, donnent des résultats intéressants
Currently, most of the automatic speech recognition (ASR) systems are based on statistical language models (SLM). These models are estimated from sets of observations. So, the implementation of an ASR system requires having a corpus in adequacy with the aimed application. Because of the difficulties occurring while collecting these data, the available corpora may be insufficient to estimate SLM correctly. To raise this insufficiency, one may wish to use other data and to adapt them to the application context. The main objective is to improve the performances of the corresponding dialogue system. Within this framework, we've defined and implemented a new paradigm: the matrix representation of the linguistic data. This approach is the basis of our work; it allows a new linguistic data processing thanks to the use of the linear algebra. For example, we've defined a semantic and functional similarity between words. Moreover, we have studied and developed several techniques of adaptation based on the matrix representation. During our study, we've investigated several research orientations: Filtering the data: we've used the technique of the minimal blocks. The linear transformation: this technique consists in defining an algebraic operator to transform the linguistic data. The data augmentation: this technique consists in reestimating the occurrences of a word observed according to its functional similarity with other words. The selective combination of histories: this technique is a generalization of the linear interpolation of language models. Combining techniques: each technique having advantages and drawbacks, we've sought the best combinations. The experimental results obtained within our framework of study give us relative improvements in term of word error rate. In particular, our experiments show that associating the data augmentation and the selective combination of histories gives interesting results
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Oger, Stanislas. "Modèles de langage ad hoc pour la reconnaissance automatique de la parole". Phd thesis, Université d'Avignon, 2011. http://tel.archives-ouvertes.fr/tel-00954220.

Testo completo
Abstract (sommario):
Les trois piliers d'un système de reconnaissance automatique de la parole sont le lexique,le modèle de langage et le modèle acoustique. Le lexique fournit l'ensemble des mots qu'il est possible de transcrire, associés à leur prononciation. Le modèle acoustique donne une indication sur la manière dont sont réalisés les unités acoustiques et le modèle de langage apporte la connaissance de la manière dont les mots s'enchaînent.Dans les systèmes de reconnaissance automatique de la parole markoviens, les modèles acoustiques et linguistiques sont de nature statistique. Leur estimation nécessite de gros volumes de données sélectionnées, normalisées et annotées.A l'heure actuelle, les données disponibles sur le Web constituent de loin le plus gros corpus textuel disponible pour les langues française et anglaise. Ces données peuvent potentiellement servir à la construction du lexique et à l'estimation et l'adaptation du modèle de langage. Le travail présenté ici consiste à proposer de nouvelles approches permettant de tirer parti de cette ressource.Ce document est organisé en deux parties. La première traite de l'utilisation des données présentes sur le Web pour mettre à jour dynamiquement le lexique du moteur de reconnaissance automatique de la parole. L'approche proposée consiste à augmenter dynamiquement et localement le lexique du moteur de reconnaissance automatique de la parole lorsque des mots inconnus apparaissent dans le flux de parole. Les nouveaux mots sont extraits du Web grâce à la formulation automatique de requêtes soumises à un moteur de recherche. La phonétisation de ces mots est obtenue grâce à un phonétiseur automatique.La seconde partie présente une nouvelle manière de considérer l'information que représente le Web et des éléments de la théorie des possibilités sont utilisés pour la modéliser. Un modèle de langage possibiliste est alors proposé. Il fournit une estimation de la possibilité d'une séquence de mots à partir de connaissances relatives à 'existence de séquences de mots sur le Web. Un modèle probabiliste Web reposant sur le compte de documents fourni par un moteur de recherche Web est également présenté. Plusieurs approches permettant de combiner ces modèles avec des modèles probabilistes classiques estimés sur corpus sont proposées. Les résultats montrent que combiner les modèles probabilistes et possibilistes donne de meilleurs résultats que es modèles probabilistes classiques. De plus, les modèles estimés à partir des données Web donnent de meilleurs résultats que ceux estimés sur corpus.
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Fichot, Jean. "Langage et signification : le cas des mathématiques constructives". Paris 1, 2002. http://www.theses.fr/2002PA010653.

Testo completo
Abstract (sommario):
Différentes définitions permettent d'interpréter les théories mathématiques constructives formellement axiomatisées. L'objectif ici est de déterminer si l'une de ces définitions rend compte fidèlement des notions intuitives de vérité et de validité constructives. Nous montrons que l'adéquation de différentes définitions de modèles de la logique intuitionniste (Scott, Beth et Kripke) à ces notions intuitives est douteuse (Partie I). La théorie des constructions (Kreisel, Goodman) et différentes définitions de la réalisabilité récursive (Kleene ), qui cherchent à rendre compte de l'aspect épistémique de la notion intuitive de vérité constructive, sont envisagées dans la partie II. Elles mènent à s'interroger sur la justification d'une réduction de la notion de constructivité humaine à une définition mathématique de la calculabilité mécanique ;justification qui est donnée dans la Partie III en s'appuyant sur des arguments empruntés à la logique mathématique, l'informatique théorique et la philosophie du langage (Prawitz, Dummett et Martin-Lot).
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Sourty, Raphael. "Apprentissage de représentation de graphes de connaissances et enrichissement de modèles de langue pré-entraînés par les graphes de connaissances : approches basées sur les modèles de distillation". Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30337.

Testo completo
Abstract (sommario):
Le traitement du langage naturel (NLP) est un domaine en pleine expansion axé sur le développement d'algorithmes et de systèmes permettant de comprendre et de manipuler les données du langage naturel. La capacité à traiter et à analyser efficacement les données du langage naturel est devenue de plus en plus importante ces dernières années, car le volume de données textuelles générées par les individus, les organisations et la société dans son ensemble continue de croître de façon significative. Les graphes de connaissances sont des structures qui encodent des informations sur les entités et les relations entre elles. Ils constituent un outil puissant qui permet de représenter les connaissances de manière structurée et formalisée, et de fournir une compréhension globale des concepts sous-jacents et de leurs relations. La capacité d'apprendre des représentations de graphes de connaissances a le potentiel de transformer le traitement automatique du langage et d'autres domaines qui reposent sur de grandes quantités de données structurées. Les travaux menés dans cette thèse visent à explorer le concept de distillation des connaissances et, plus particulièrement, l'apprentissage mutuel pour l'apprentissage de représentations d'espace distincts et complémentaires. Notre première contribution est de proposer un nouveau cadre pour l'apprentissage d'entités et de relations sur des bases de connaissances multiples appelé KD-MKB. L'objectif clé de l'apprentissage de représentations multigraphes est d'améliorer les modèles d'entités et de relations avec différents contextes de graphes qui peuvent potentiellement faire le lien entre des contextes sémantiques distincts. Notre approche est basée sur le cadre théorique de la distillation des connaissances et de l'apprentissage mutuel. Elle permet un transfert de connaissances efficace entre les KBs tout en préservant la structure relationnelle de chaque graphe de connaissances. Nous formalisons l'inférence d'entités et de relations entre les bases de connaissances comme un objectif de distillation sur les distributions de probabilité postérieures à partir des connaissances alignées. Sur la base de ces résultats, nous proposons et formalisons un cadre de distillation coopératif dans lequel un ensemble de modèles de KB sont appris conjointement en utilisant les connaissances de leur propre contexte et les softs labels fournies par leurs pairs. Notre deuxième contribution est une méthode permettant d'incorporer des informations riches sur les entités provenant de bases de connaissances dans des modèles de langage pré-entraînés (PLM). Nous proposons un cadre original de distillation coopératif des connaissances pour aligner la tâche de pré-entraînement de modèles de langage masqués et l'objectif de prédiction de liens des modèles de représentation de KB. En exploitant les informations encodées dans les bases de connaissances et les modèles de langage pré-entraînés, notre approche offre une nouvelle direction de recherche pour améliorer la capacité à traiter les entités des systèmes de slot filling basés sur les PLMs
Natural language processing (NLP) is a rapidly growing field focusing on developing algorithms and systems to understand and manipulate natural language data. The ability to effectively process and analyze natural language data has become increasingly important in recent years as the volume of textual data generated by individuals, organizations, and society as a whole continues to grow significantly. One of the main challenges in NLP is the ability to represent and process knowledge about the world. Knowledge graphs are structures that encode information about entities and the relationships between them, they are a powerful tool that allows to represent knowledge in a structured and formalized way, and provide a holistic understanding of the underlying concepts and their relationships. The ability to learn knowledge graph representations has the potential to transform NLP and other domains that rely on large amounts of structured data. The work conducted in this thesis aims to explore the concept of knowledge distillation and, more specifically, mutual learning for learning distinct and complementary space representations. Our first contribution is proposing a new framework for learning entities and relations on multiple knowledge bases called KD-MKB. The key objective of multi-graph representation learning is to empower the entity and relation models with different graph contexts that potentially bridge distinct semantic contexts. Our approach is based on the theoretical framework of knowledge distillation and mutual learning. It allows for efficient knowledge transfer between KBs while preserving the relational structure of each knowledge graph. We formalize entity and relation inference between KBs as a distillation loss over posterior probability distributions on aligned knowledge. Grounded on this finding, we propose and formalize a cooperative distillation framework where a set of KB models are jointly learned by using hard labels from their own context and soft labels provided by peers. Our second contribution is a method for incorporating rich entity information from knowledge bases into pre-trained language models (PLM). We propose an original cooperative knowledge distillation framework to align the masked language modeling pre-training task of language models and the link prediction objective of KB embedding models. By leveraging the information encoded in knowledge bases, our proposed approach provides a new direction to improve the ability of PLM-based slot-filling systems to handle entities
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Halabi, Amira. "Formules infantiles modèles : relation entre structures protéiques et comportement en digestion". Thesis, Rennes, Agrocampus Ouest, 2020. http://www.theses.fr/2020NSARB340.

Testo completo
Abstract (sommario):
Les traitements thermiques appliqués pendant la fabrication des préparations pour nourrissons (PPNs) peuvent altérer les structures des protéines et donc leur comportement au cours de la digestion. L'objectif de ce projet de thèse était d'étudier la relation entre la structure des protéines au sein de PPNs modèles et leur comportement au cours de leur digestion in vitro.Trois PPNs modèles ont été développées, se différenciant par leur profil en protéines du lactosérum (PS) afin de se rapprocher du profil protéique du lait maternel. Les PPNs, avec différentes teneurs en matière sèche et donc concentration protéique (1.3% ou 5.5%), ont été traitées thermiquement entre 67.5°C et 80°C. La cinétique de dénaturation thermique des PS a été étudiée puis les structures protéiques générées ont été caractérisées pour un même taux de dénaturation des PS (65%).La cinétique de digestion protéique a été évaluée en digestion in vitro statique puis dynamique, simulant les conditions physiologiques du nourrisson.Les résultats ont montré que la cinétique de dénaturation des PS était ralentie pour la PPN proche du lait maternel, de par l’absence de ß-LG et ce indépendamment de la teneur en matière sèche. Pour un même taux de dénaturation des PS, la structure protéique des PPNs variait selon la composition protéique des PPNs, leur teneur en matière sèche et les conditions thermiques, ce qui, in fine, impactait le devenir des protéines au cours de la digestion in vitro.La structure des protéines pourrait donc être un levier pour l’optimisation des PPNs. Ces résultats doivent être complétés par l'évaluation de l'impact physiologique de ces différentes structures
The heat treatments applied during the manufacture of infant milk formulas (IMFs) may alter the protein structures and so their behaviour during digestion. The aim of this PhD project was to study the relationship between protein structure within model IMFs and their behaviour during in vitro digestion.Three model IMFs were formulated, differing only in their whey protein (WP) profile to be as close as possible to the protein profile of human milk. The IMFs, with different dry matter contents and therefore protein concentration (1.3% or 5.5%), were heat-treated between 67.5°C and 80°C. The kinetics of heat-induced WP denaturation were studied, then the protein structures generated were characterised for an identical extent of WP denaturation (65%). The kinetics of protein hydrolysis were evaluated using static then dynamic in vitro digestion methods at the infant stage.The results showed that the denaturation kinetics of WPs were slowed down for IMF close to human milk, due to the absence of ß-LG, regardless of the dry matter content. For an identical extent of WP denaturation, the heat-induced protein structures varied according to the protein profile, the dry matter of IMFs, and the heating conditions, which ultimately impacted the protein behaviour during in vitro digestion.The protein structure could therefore be a lever for the IMF optimisation. These results must be complemented by the evaluation of the physiological impact of these different structures
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Fourty, Guillaume. "Recherche de contraintes structurales pour la modélisation ab initio du repliement protéique". Paris 7, 2006. http://www.theses.fr/2006PA077101.

Testo completo
Abstract (sommario):
La compréhension du processus de repliement protéique et la détermination de la structure tridimensionnelle à partir de la seule information de séquence sont des problématiques majeures de la biologie structurale. Nous observons, tout d'abord, la proximité quasi-systématique des extrémités N- et C-terminales des domaines protéiques qui pourrait être liée aux premières étapes du repliement. Puis, nous abordons le repliement de polymères sur des réseaux réguliers. L'énumération des orbites et des orbites cycliques hamiltoniennes sur des réseaux carrés n x n permet d'évaluer la réduction de l'espace conformationnel associée à la proximité des extrémités des chaînes. L'exploration exhaustive de ces structures de compacité maximale fournit une limite énergétique pour les algorithmes de recherche de minima pour des séquences HP. Enfin, nous étudions des alignements multiples à faible identité de séquence et nous introduisons une mesure de la conservation de l'hydrophobie, que nous appelons topohydrophobie généralisée. A l'aide d'arbres de décision, nous prédisons des caractéristiques structurales telles que la position Central/Bord des brins becta dans les feuillets et l'accessibilité au solvant (RAPT - Relative Accessibility Prédiction Tool). Ces informations peuvent être intégrées dans des approches de prédiction ab initio du repliement protéique
Understanding the protein folding process and predicting protein structures from sequence data only remain two challenging questions for structural biologists. In this work, we first observe highly frequent proximities between N- and C-termini of protein domain, probably reflecting early stages of folding. Then we address the problem of polymer folding on regular lattices. We enumerate Hamiltonian Orbits and Cyclic Hamiltonian Orbits on n x n square lattices to evaluate the conformational space reduction associated to the termini contact constraint. Exhaustive Exploration of those maximally compact structures provides a baseline for minimum search algorithm in the HP- folding problem. Finally, we study multiple alignments at low sequence identity and introduce topohydrophobicity, a measure of topohydrophobicity conservation. We use it through decision tree to predict structural features such as Central/Edge position of beta strands in beta sheets and solvent accessibility (RAPT - Relative Accessibility Prediction Tool). These data can be used in ab initio prediction procedures of protein structures
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Boyarm, Aristide. "Contribution à l'élaboration d'un langage de simulation à événements discrets pour modèles continus". Aix-Marseille 3, 1999. http://www.theses.fr/1999AIX30050.

Testo completo
Abstract (sommario):
Le travail presente dans cette these concerne la modelisation et la simulation a evenements discrets de systemes continus a trajectoires d'entree - sortie lineaires par morceaux. Il s'agit principalement de concevoir un langage de simulation a evenements discrets pour modeles continus dont l'objectif est de proposer une alternative prometteuse a la simulation des systemes continus. Le langage de simulation que nous proposons, comporte sous la forme de modeles atomique a evenements discrets les trois classes d'instructions (instructions fonctions du temps, instantanees, et memoires) utilisees pour decrire les modeles continus. Il comporte aussi des instructions qui permettent des descriptions de modeles couples. Ces descriptions pouvant etre gardees dans une base de modele et reutilisees lors de descriptions de modeles plus complexes. Les algorithmes de simulation du langage sont bases sur l'utilisation du concept de simulateur conceptuel introduit par zeigler pour realiser l'execution des modeles en respectant leur structure modulaire et hierarchique. Des exemples de simulation a evenements discrets de systemes continus sont traites dans la these pour illustrer l'interet du langage.
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Nogier, Jean-François. "Un système de production de langage fondé sur le modèles des graphes conceptuels". Paris 7, 1990. http://www.theses.fr/1990PA077157.

Testo completo
Abstract (sommario):
Cette thèse porte sur la conception d'une architecture de production de langage, c'est-à-dire la mise en oeuvre informatique de la traduction des idées en mots (comment le dire ?). L'accent a été mis sur deux aspects du problème : le choix des mots et la linéarisation en phrase des représentations syntaxiques intermédiaires. Le modèle de représentation des connaissances : les graphes conceptuels, est unique tout au long du processus. En effet, il permet de modéliser à la fois la structure manipulée par le programme (aux stades conceptuels et syntaxiques) et les connaissances déclaratives nécessaires (définitions sémantiques des mots, propriétés syntaxiques. . . ). Le système sélectionne simultanément les mots et les structures syntaxiques. Bénéficiant d'une même modélisation pour la signification d'un mot ou d'une phrase (le graphe conceptuel), un mot est choisi parce qu'il y a recouvrement en son graphe conceptuel (définition sémantique du mot) et le graphe conceptuel initial représentant la sémantique de la phrase à engendrer. Plusieurs mots peuvent être candidats. Le système peut revenir sur ses choix, sélectionner un des autres mots possibles et ainsi paraphraser (paraphrase sémantique) la phrase précédente. La génération de paraphrases se fait donc automatiquement par retour en arrière. Le graphe syntaxique obtenu après le choix des mots et une représentation syntaxique de la phrase à engendrer. Il est transmis au composant syntaxique. La linéarisation en phrase suit trois étapes : 1) Construction progressive de l'arbre syntaxique ; 2) Transformations de l'arbre ; 3) Déclinaison. Chaque étape de la linéarisation tient compte des propriétés syntaxiques des mots en présence. A ce stade, il est également possible d'obtenir des paraphrases par retour en arrière
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Strub, Florian. "Développement de modèles multimodaux interactifs pour l'apprentissage du langage dans des environnements visuels". Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I030.

Testo completo
Abstract (sommario):
Alors que nous nous représentons le monde au travers de nos sens, de notre langage et de nos interactions, chacun de ces domaines a été historiquement étudié de manière indépendante en apprentissage automatique. Heureusement, ce cloisonnement tend à se défaire grâce aux dernières avancées en apprentissage profond, ce qui a conduit à l'uniformisation de l'extraction des données au travers des communautés. Cependant, les architectures neuronales multimodales n'en sont qu'à leurs premiers balbutiements et l’apprentissage par renforcement profond est encore souvent restreint à des environnements limités. Idéalement, nous aimerions pourtant développer des modèles multimodaux et interactifs afin qu’ils puissent correctement appréhender la complexité du monde réel. Dans cet objectif, cette thèse s’attache à la compréhension du langage combiné à la vision pour trois raisons : (i) ce sont deux modalités longuement étudiées aux travers des différentes communautés scientifiques (ii) nous pouvons bénéficier des dernières avancées en apprentissage profond pour les modèles de langues et de vision (iii) l’interaction entre l’apprentissage du langage et notre perception a été validé en science cognitives. Ainsi, nous avons conçu le jeu GuessWhat?! (KéZaKo) afin d’évaluer la compréhension de langue combiné à la vision de nos modèles : deux joueurs doivent ainsi localiser un objet caché dans une image en posant une série de questions. Nous introduisons ensuite le principe de modulation comme un nouveau module d’apprentissage profond multimodal. Nous montrons qu’une telle approche permet de fusionner efficacement des représentations visuelles et langagières en prenant en compte la structure hiérarchique propre aux réseaux de neurones. Enfin, nous explorons comment l'apprentissage par renforcement permet l’apprentissage de la langue et cimente l'apprentissage des représentations multimodales sous-jacentes. Nous montrons qu’un tel apprentissage interactif conduit à des stratégies langagières valides mais donne lieu à de nouvelles problématiques de recherche
While our representation of the world is shaped by our perceptions, our languages, and our interactions, they have traditionally been distinct fields of study in machine learning. Fortunately, this partitioning started opening up with the recent advents of deep learning methods, which standardized raw feature extraction across communities. However, multimodal neural architectures are still at their beginning, and deep reinforcement learning is often limited to constrained environments. Yet, we ideally aim to develop large-scale multimodal and interactive models towards correctly apprehending the complexity of the world. As a first milestone, this thesis focuses on visually grounded language learning for three reasons (i) they are both well-studied modalities across different scientific fields (ii) it builds upon deep learning breakthroughs in natural language processing and computer vision (ii) the interplay between language and vision has been acknowledged in cognitive science. More precisely, we first designed the GuessWhat?! game for assessing visually grounded language understanding of the models: two players collaborate to locate a hidden object in an image by asking a sequence of questions. We then introduce modulation as a novel deep multimodal mechanism, and we show that it successfully fuses visual and linguistic representations by taking advantage of the hierarchical structure of neural networks. Finally, we investigate how reinforcement learning can support visually grounded language learning and cement the underlying multimodal representation. We show that such interactive learning leads to consistent language strategies but gives raise to new research issues
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Roque, Matthieu. "Contribution à la définition d'un langage générique de modélisation d'entreprise". Bordeaux 1, 2005. http://www.theses.fr/2005BOR13059.

Testo completo
Abstract (sommario):
Cette thèse traite de la définition d'un langage unifié de modélisation d'entreprise (UEML). Celle‑ci aborde, dans un premier temps, l'existant en modélisation d'entreprise. Nous exposons différentes approches et langages qui au cours des années ont eu pour objectif d'unifier des langages et nous montrons, qu'à l'heure actuelle, ils ne permettent pas de répondre à notre problématique. Par la suite, un exemple simple de traduction entre une activité SADT et une activité GRAI des réseaux GRAI est traité par une approche empirique. Il permet de faire ressortir un ensemble de difficultés inhérentes à la définition d'UEML, et, à partir de celui‑ci, nous exposons notre point de vue ainsi qu'un ensemble de principes auxquels nous adhérons. Ensuite, nous proposons une approche basée sur la méta‑modélisation des langages, en utilisant le langage UML, ainsi que sur la théorie des ensembles. Cette approche permet l'identification des composants élémentaires nécessaires à la définition de notre langage unifié. Enfin, nous présentons un exemple complet d'élaboration d'un UEML, en partant de trois langages de modélisation d'entreprise (GRAI, IEM et EEML) et en procédant par une approche ascendante. Ces travaux ont été réalisés dans le cadre du réseau thématique UEML. Nous exposons, finalement, les différences entre les deux approches et les éléments importants que l'on peut en dégager.
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Juillet, Barbara. "Modélisation comportementale du métabolisme interrégional de l'azote alimentaire et des cinétiques de l'urée à l'état nourri non stationnaire chez l'homme". Phd thesis, INAPG (AgroParisTech), 2006. http://pastel.archives-ouvertes.fr/pastel-00002662.

Testo completo
Abstract (sommario):
L'assimilation des protéines du repas met en jeu une cascade d'événements métaboliques, dynamiques et transitoires, contrôlant la distribution des acides aminés alimentaires dans les zones splanchnique et périphérique de l'organisme. Le recours à la modélisation compartimentale permet d'analyser les données cliniques obtenues sur ce système physiologique complexe afin de comprendre son fonctionnement par le biais d'une approche intégrée. Les travaux pionniers récemment opérés à ce sujet se sont heurtés à une difficulté majeure : la difficulté de mener à bien l'identification numérique de modèles multi-compartimentaux, qui consiste à trouver les valeurs de leurs paramètres permettant d'ajuster leurs prédictions aux observations disponibles sur le système, en particulier lorsque ces données sont rares ou parcellaires. Dans la continuité de cette démarche, nos travaux de thèse ont consisté à améliorer les techniques et à rationaliser les méthodes de modélisation disponibles au laboratoire, puis à utiliser ces développements méthodologiques afin d'étudier les phénomènes métaboliques impliqués dans la valorisation postprandiale spécifique de différentes sources protéiques sous différentes conditions nutritionnelles chez l'homme. Nous nous sommes d'abord intéressés aux différentes étapes du processus de développement d'un modèle multi-compartimental complexe décrivant la distribution inter-régionale de l'azote alimentaire en phase postprandiale chez l'homme, depuis l'obtention de données expérimentales sur le système étudié jusqu'à l'identification structurelle et numérique du modèle et sa validation. En particulier, nous avons cherché à simplifier l'étape critique de l'identification numérique des modèles compartimentaux, et nous avons développé une nouvelle méthode qui permet, grâce à une analyse de sensibilité préalable du modèle, de diviser le problème d'optimisation de grande taille en plusieurs sous-problèmes emboîtés de taille réduite, plus faciles à résoudre par les algorithmes classiques de recherche. Ces développement méthodologiques nous ont permis de construire un nouveau modèle global du métabolisme de l'azote alimentaire chez l'homme, décrivant les processus majeurs de son utilisation postprandiale depuis son absorption jusqu'à son assimilation régionale et son élimination par l'organisme. Ce modèle a été développé à partir de données expérimentales concernant l'apparition de l'azote alimentaire dans certains pools métaboliques de l'intestin, du sang et des urines obtenues chez des sujets sains au cours des 8 heures suivant l'ingestion d'un repas mixte solide contenant des protéines de blé marquées au 15N. Puis, ce modèle a été utilisé et/ou adapté afin de rendre compte de données supplémentaires, obtenues après l'ingestion de repas mixtes à base de protéines de lait ou de soja (repas liquides) ou de protéines de blé (repas solide) selon un protocole similaire, mais mené en deux occasions successives chez des sujets sains préalablement adaptés à un régime normoprotéique puis hyperprotéique. Les modèles ainsi développés ont permis de prédire les cinétiques gastro-intestinales de l'azote alimentaire dans le cadre physiologique de l'ingestion de repas mixtes (bolus), et d'étudier leur impact sur le métabolisme ultérieur de l'azote alimentaire, en particulier sur son utilisation anabolique et catabolique splanchniques. Ces modèles ont aussi permis d'étudier l'influence de facteurs qualitatifs (nature de la source protéique) ou quantitatifs (niveau habituel d'apport protéique) de l'apport protéique sur la valorisation postprandiale spécifique des protéines du repas. En particulier, ces travaux ont montré l'importance du phénomène de recyclage entéro-hépatique de l'azote alimentaire après l'ingestion d'une protéine de qualité nutritionnelle moyenne comme le blé. Ces résultats nous ont amenés à nous intéresser plus particulièrement aux cinétiques postprandiales de l'urée, ainsi qu'à leur modulation par différents facteurs alimentaires. Pour cela, nous avons développé un modèle régional spécifique des phénomènes métaboliques splanchniques de désamination et de recyclage entéro-hépatique, qui est en réalité un sous-système des modèles globaux précédents. Ce modèle a permis, à partir de données obtenues uniquement aux niveaux sanguin et urinaire, d'étudier l'influence de facteurs qualitatifs et quantitatifs de l'apport protéique sur les cinétiques postprandiales de production, d'excrétion et d'hydrolyse de l'urée d'origine alimentaire et endogène. Nos travaux de modélisation ont permis d'apporter des informations originales et nouvelles concernant l'influence de différents facteurs alimentaires sur le devenir métabolique postprandial de l'azote alimentaire chez l'homme. Ces travaux pourraient être renouvelés et poursuivis par l'analyse de nouvelles données obtenues sous différentes conditions physiopathologiques afin de définir des stratégies nutritionnelles adaptées à ces situations.
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Brault, Julie. "Nouveaux modèles d’étude de la Granulomatose Septique Chronique grâce aux cellules souches pluripotentes induites – Application au développement de la thérapie protéique". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAS020/document.

Testo completo
Abstract (sommario):
La Granulomatose Septique Chronique (CGD) est une maladie génétique rare de l’immunodéficience innée affectant les cellules phagocytaires (neutrophiles, macrophages). Elle est causée par des mutations dans les sous-unités du complexe NADPH oxydase formé du cytochrome b558 membranaire (NOX2 associé à p22phox) et de facteurs cytosoliques (p47phox, p67phox et p40phox). La déficience de ce complexe enzymatique va conduire à l’absence de formation de formes réactives de l’oxygène (FRO) microbicides et donc à l’apparition d’infections graves et récurrentes très tôt dans l’enfance. La chimioprophylaxie à vie permet de protéger ces patients mais peut être responsable d’effets indésirables. La seule thérapie curative est la transplantation de moelle osseuse mais tous les patients ne peuvent en bénéficier, et la thérapie génique n’est pas encore envisageable. Il y a donc un manque réel de nouvelles thérapies pour cette maladie. Cependant pour développer de nouveaux traitements, il faut disposer de modèles physiopathologiques pertinents. Or, les modèles existants sont imparfaits ou manquants. Le but de notre travail est donc de produire des modèles cellulaires et animaux de la CGD pour développer dans un second temps, une nouvelle approche thérapeutique basée sur l’utilisation de protéoliposomes.Grâce à leurs propriétés de pluripotence et d’auto-renouvellement à l’infini, les cellules souches pluripotentes induites (iPS) sont un outil puissant pour la modélisation physiopathologique. Ainsi, à partir de fibroblastes de patients atteints de CGD reprogrammés en cellules iPS, nous avons mis au point un protocole efficace de différenciation hématopoïétique in vitro en neutrophiles et macrophages. Nous avons montré que ces cellules phagocytaires sont matures et reproduisent parfaitement le phénotype déficient en FRO des patients CGD. Nous avons donc obtenu des modèles cellulaires pertinent modélisant trois formes génétiques de CGD, la CGD liée à l’X et deux formes autosomiques récessives, CGDAR22 et CGDAR47.Nous avons ensuite réalisé la preuve du concept de l’efficacité de protéoliposomes thérapeutiques sur les macrophages modélisés de la forme CGDX, la forme génétique la plus fréquente (70 % des cas) due à l’absence du cytochrome b558 membranaire (NOX2/p22phox). Grâce à une collaboration avec la start-up Synthelis SAS, des liposomes contenant le cytochrome b558 au niveau de la membrane lipidique ont été produits dans un système d’expression acellulaire basé sur l’utilisation d’extraits d’Escherichia coli. Ces liposomes NOX2/p22phox sont capables de reconstituer une enzyme NADPH oxydase fonctionnelle in vitro et de délivrer le cytochrome b558 à la membrane plasmique des macrophages CGDX qui présentent alors une restauration de l’activité NADPH oxydase avec la production de FRO.Enfin, nous nous sommes proposés de générer des souris dites « humanisées » par transplantation de cellules souches hématopoïétiques CD34+ capables de prise de greffe et de reconstitution hématopoïétique dans des souris immunodéficientes. A partir de cellules iPS saines, nous avons réussi à produire des cellules hématopoïétiques CD34+ possédant un potentiel hématopoïétique in vitro. Cependant, malgré des résultats encourageants, aucune prise de greffe in vivo n’a pu être réellement confirmée à ce jour.Pour conclure, nous avons donc montré au cours de ce projet, la production de modèles cellulaires de trois formes génétiques de CGD à partir de cellules iPS. Puis le modèle de macrophages CGDX nous a permis de faire la preuve de l’efficacité d’une nouvelle thérapie in vitro, une « enzymothérapie substitutive liposomale », qui pourrait à terme, offrir une alternative thérapeutique pour le traitement des infections aigües pulmonaires des patients CGD réfractaires aux traitements antibiotiques et antifongiques conventionnels
Chronic Granulomatous Disease (CGD) is a rare inherited pathology of the innate immune system that affects the phagocytic cells (neutrophils, macrophages). This disease is caused by mutations in the subunits of the NADPH oxidase complex composed of the membrane cytochrome b558 (NOX2 associated with p22phox) and the cytosolic components (p47phox, p67phox et p40phox). Dysfunction in this enzymatic complex leads to the absence of microbicidal reactive oxygen species (ROS) and therefore to the development of recurrent and life-threatening infections in early childhood. Life-long prophylaxis is used to protect these patients but it may be responsible for side effects. Bone marrow transplantation is the only curative treatment but it can not be proposed to all the patients. In addition, gene therapy is not possible up to now. So there is a real lack of new therapies for this disease. However, to develop new therapeutic approaches, relevant physiopathological models must be available. Actually, existing models are imperfect or missing. Thus, the goal of our work is to produce cellular and animal models of CGD to develop a new proteoliposome-based therapy.Induced pluripotent stem cells (iPSCs) are a powerful tool for physiopathologic modeling due to their pluripotency and self-renewal properties. Using CGD patient-specific iPSCs regrogrammed from fibroblasts, we developped an efficient protocol for in vitro hematopoietic differentiation into neutrophils and macrophages. We showed that the phagocytic cells produced are mature and reproduce the ROS-deficient phenotype found in CGD patients. Thus, we obtained relevant cellular models for three genetic forms of CGD: X-linked CGD and the two autosomal recessive forms AR22CGD and AR47CGD.Then, we demonstrated the proof-of-concept of the efficacy of therapeutic proteoliposomes on X-CGD iPS-derived macrophages. Indeed, X-CGD is the main form of the disease (70% of cases) and is caused by the absence of the membrane cytochrome b558 (NOX2/p22phox). Thanks to a collaboration with the start-up Synthelis SAS, liposomes integrating the cytochrome b558 into lipid bilayers were produced in an E. coli-based cell-free protein expression system. These NOX2/p22phox liposomes were able to reconstitute a functional NADPH oxidase enzyme in vitro and to deliver the cytochrome b558 at the plasma membrane of X-CGD macrophages, leading to restore the NADPH oxidase activity with a ROS production.Finally, we proposed to generate « humanized » mice models with a human immune system after transplantation of CD34+ hematopoietic stem cells able to engraft and reconstitute long-term hematopoiesis in immunodeficient mice. Using healthy iPSCs, we successfuly produced CD34+ hematopoietic cells with in vitro hematopoietic potential. However, no in vivo engraftment was really confirmed yet.In conclusion, during this project, we produced cellular models of three genetic forms of CGD using patient-specific iPSCs. Then, X-CGD macrophages were used to demonstrate in vitro the efficacy of a new therapy. This « liposomal replacement enzymotherapy » could, in the future, represents a curative alternative against life-threatening lung infections refractory to conventional antibiotic and antifungal therapy
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Tron, Cécile. "Modèles quantitatifs de machines parallèles : les réseaux d'interconnexion". Grenoble INPG, 1994. http://www.theses.fr/1994INPG0179.

Testo completo
Abstract (sommario):
Cette thèse s'inscrit dans le cadre de la conception et de la réalisation de l'environnement alpes (algorithmes parallèles et évaluation de systèmes), dédié à l'évaluation des performances des systèmes parallèles. Son objectif est de permettre d'évaluer différents programmes, différentes machines et différentes stratégies d'implémentation (placement, répartition dynamique) avec le même outil, en émulant le comportement de l'ensemble sur la même machine, appelée machine cible. Pour cela notre approche se fonde sur deux modèles: le modèle de programmes et le modèle de machines. Le travail présente porte essentiellement sur le modèle de machine. Ce modèle comprend des paramètres quantitatifs représentant la vitesse des composants (processeurs, réseau) dans le cas d'une exécution réelle. Nous avons débuté par l'étude des communications et cette thèse propose une méthodologie, basée sur un jeu d'essais, pour évaluer les performances des communications point-à-point sous des contraintes de charge. Cette méthodologie a été appliquée au meganode de Telmat et a la paragon d'intel. Nous proposons un modèle des durées de communication en fonction de la charge du réseau pour chacune de ces deux machines. Nous présentons ensuite le projet alpes dans ses grandes lignes et nous décrivons le modèle de machines que nous avons défini pour cet environnement. Nous explicitons les modifications que l'on peut apporter au programme synthétique pour qu'il émule une machine ayant des paramètres différents de ceux de la machine cible. Enfin la dernière partie de cette thèse étudie les performances de diverses stratégies de placement, et analyse si l'utilisation d'estimations précises des coûts de communication améliore la qualité des placements
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Kettani, Omar. "Modèles du calcul sans changement d'état : quelques développements et résultats". Aix-Marseille 2, 1989. http://www.theses.fr/1989AIX24005.

Testo completo
Abstract (sommario):
Le modele etudie, voisin de la machine de turing fait disparaitre l expression de l etat dans l algorithme par notation sur le ruban. La methode consiste a se munir d alphabets riches pour noter a la fois donnees et structures algorithmiques. L auteur presente d abord deux demonstrations d equivalence avec la machine de turing. Il envisage ensuite un modele dit parallele qui consiste a se deplacer en bloc sur une suite de cases, et en donne quelques applications sur des problemes classiques. La caracteristique de ces machines est de deplacer la tete de lecture a cheval sur deux cellules de memoire. Quand on considere un decalage maximun, la partie commune ne peut plus conserver que deux valeurs possibles, et l auteur montre que la puissance de telles machines est encore celle du calculable. Il montre encore dans ce cas l existence d une machine universelle, et enfin il etablit une relation avec les automates cellulaires
Turing machine takes his information in a box marked between severl others. Taking informationat once on parts of two contiguous boxes makes state desappear from algorithm. Correspondent information is else noted in each contiguous part of the two boxes. It becomes so necessary to employ large set of symbols. Here is proved equivalence of such machines with turing machines. Author imagines now parallel machines in whic a plenty of contiguous boxes can be marked simultaneously, and the travelling of marks scan part of box all at once. He applie it to several classical problems. In marking at once two contiguous boxes, it is possible to take at once half part of the first and half part of the second one, third part of the first and two thrid part of the second one, and so on. On the bound, at the utmost shift, it rests two values in common, and in this case author proves again equivalence of such machine with turing machine he proves so existence of an unviersal machine and establishes relation with cellular automata
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Boisson, Jean-Charles. "Modélisation et résolution par métaheuristiques coopératives : de l'atome à la séquence protéique". Electronic Thesis or Diss., Lille 1, 2008. http://www.theses.fr/2008LIL10154.

Testo completo
Abstract (sommario):
Dans cette thèse, nous montrons l'importance de la modélisation et de la coopération de métaheuristiques pour la résolution de problèmes réels en bioinformatique. Deux problèmes ont été étudiés: l'identification de protéines à partir de données spectrales en protéomique et le problème du docking moléculaire flexible en analyse structurale des molécules. Pour le premier problème, un nouveau modèle basé sur une comparaison directe des bases de données protéiques avec les données expérimentales brutes a été mise en place. L'approche associée a été intégrée au sein d'un moteur d'identification par empreinte de masse peptide appelé ASCQ_ME. Ce modèle d'identification a permis ensuite de proposer et de valider une modélisation pour le problème de de novo protein sequencing qui consiste à retrouver la séquence d'une protéine à partir des données expérimentales seules. Il s'agit d'un modèle en trois étapes appelé SSO pour Sequence, Shape et Order. SSO a été implémenté et testé à travers trois métaheuristiques collaborant de manière séquentielle. Pour le second problème, une étude des nouvelles modélisations multi-objectif a été menée et a conduit à la définition de huit modèles différents testés à l'aide d'algorithmes génétiques multi-objectif parallèles. Les tests réalisés ont mis en évidence l'efficacité de l'hybridation des algorithmes génétiques avec des recherches locales. Nos développement furent réalisé sur la plateforme ParadisEO et notamment sur la partie ParadisEO-MO pour laquelle nous avons grandement contribués. L'ensemble de ces travaux a été soutenu par le PPF Bio-Informatique de l'Université des Sciences et Technologies de Lille et le projet ANR Dock
Ln this thesis, we show the importance of the modeling and the cooperation of metaheuristics for solving real problems in Bioinformatics. Two problems are studied: the first in the Proteomics domain for the protein identification from spectral data analysis and the second in the domain of the structural analysis of molecules for the flexible molecular docking problem. So, for the first problem, a new model has been designed based on a direct comparison of a raw experimental spectrum with protein from databases. This model has been included in an identification engine by peptide mass fingerprinting called ASCQ_ME. From this model, an approach for the de novo protein sequencing problem has been proposed and validated. ln this problem, a protein sequence has to be found with only spectral information. Our model is a three step approach called SSO for Sequence, Shape and Order. After a study of each step, SSO has been implemented and tested with three metaheuristics collaborating sequentially. For the second problem, a study of new multi-objective models has been made and has allowed to design eight different models tested with parallel multi-objective genetic algorithms. Twelve configurations of genetic operators has been tested in order to prove the efficiency of the hybridizing of genetic algorithms with local searches. For each part of this work, the ParadisEO platform has been used and more particularly the ParadisEO-MO part dedicated to single solution based metaheuristics for which we have substantially contributed. All this work has been funded by the "PPF Bio-Informatique" of the "Université des Sciences et Technologies de Lille" and by the ANR Dock project
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Le, Gloahec Vincent. "Un langage et une plateforme pour la définition et l’exécution de bonnes pratiques de modélisation". Lorient, 2011. http://www.theses.fr/2011LORIS239.

Testo completo
Abstract (sommario):
Le capital le plus précieux d’une entreprise d’ingénierie réside dans les connaissances et le savoir-faire acquis au fils des ans par ses employés. Malheureusement, faute de moyens qu’elles jugent adéquats, la plupart des entreprises ne rationalisent pas la gestion de ce type de connaissance. Dans le domaine de l’ingénierie des logiciels, ce savoir est généralement rassemblé sous la forme de bonnes pratiques documentées de manière informelle, peu propice à un usage effectif et adéquat de ces pratiques. Dans ce domaine, les activités de modélisation sont devenues prépondérantes, favorisant la réduction des efforts et des coûts de développement. La mise en oeuvre effective des bonnes pratiques liées aux activités de modélisation permettrait d’améliorer la productivité des développeurs et la qualité finale des logiciels. L’objectif de cette thèse, fruit d’une collaboration entre la société Alkante et le laboratoire VALORIA, est d’offrir un cadre à la fois théorique et pratique favorisant la capitalisation ainsi que la mise en application des bonnes pratiques de modélisation. Une démarche de gestion des bonnes pratiques de modélisation (BPM) est proposée. Celle-ci s’appuie sur les principes de l’ingénierie dirigée par les modèles (IDM), en proposant un découpage selon deux niveaux d’abstraction : un niveau PIM (Platform Independent Model) dédié à la capitalisation des BPM de manière indépendante de plateformes spécifiques et assurant ainsi la pérennité du savoir, et un niveau PSM (Platform Specific Model) destiné à la vérification du respect des BPM au sein des outils de modélisation. Pour assurer la capitalisation des bonnes pratiques (au niveau PIM), un langage spécifique dédié à la description des BPM a été élaboré, sur la base de caractéristiques communes identifiées par une étude approfondie portant sur deux principaux types de bonnes pratiques : celles centrées sur des aspects processus, et d’autres d’avantage focalisées sur le style ou la forme des modèles. Ce langage, dénommé GooMod, est défini par sa syntaxe abstraite, représentée par un métamodèle conforme au MOF (Meta Object Facility), une description de sa sémantique et une syntaxe concrète graphique. Une plateforme fournit les deux outils nécessaires à la fois à la définition de BPM (conforment au langage GooMod) et à leur mise en application effective au sein d’outils de modélisation. L’outil BPM Définition est un éditeur graphique qui facilite la description de BPM ciblant n’importe quel langage de modélisation (UML par exemple), mais de manière indépendante des outils de modélisation. L’outil BPM Exécution fournit une implémentation de niveau PSM, ciblant spécifiquement les outils de modélisation basés sur le framework GMF (Graphical Modeling Framework) de l’environnement de développement Eclipse. Lors des activités de modélisation effectuées par les concepteurs, cet outil automatise la vérification du respect de BPM décrites en GooMod. Ce travail a fait l’objet d’une validation portant sur deux aspects de l’approche proposée. Une étude de cas industriel illustre la définition en GooMod d’une BPM spécifique à la modélisation d’applications Web développées par la société Alkante. Une expérimentation portant sur l’évaluation de l’efficacité et de l’utilisabilité de l’outil d’exécution des BPM a été menée auprès d’étudiants
The most valuable asset of an IT company lies in knowledge and know-how acquired over the years by its employees. Unfortunately, lacking means they deem appropriate, most companies do not streamline the management of such knowledge. In the field of software engineering, this knowledge is usually collected in the form of best practices documented in an informal way, rather unfavorable to the effective and adequate use of these practices. In this area, the modeling activities have become predominant, favoring the reduction of effort and development costs. The effective implementation of best practices related to modeling activities would help improve developer productivity and the final quality of software. The objective of this thesis, as part of a collaboration between the Alkante company and the VALORIA laboratory, is to provide a both theoretical and practical framework favoring the capitalization of best modeling practices. An approach for the management of good modeling practices (GMPs) is proposed. This approach relies on the principles of model-driven engineering (MDE), by proposing a division into two levels of abstraction: a PIM level (Platform Independent Model) dedicated to the capitalization of GMPs independently of any specific platform, ensuring the sustainability of knowledge, and a PSM level (Platform Specific Model) dedicated to the verification of compliance of GMPs in modeling tools. To ensure the capitalization of good practices (GPs), a specific language dedicated to the description of GMPs has been developed on the basis of common characteristics identified by a detailed study of two types of GPs : those focusing on process aspects, and others more focused on style or shape of models. This langage, called GooMod, is defined by its abstract syntax, represented as a MOF compliant metamodel (MOF stands for Meta Object Facility), a description of its semantics, and a graphical concrete syntax. A platform provides the two necessary tools for both the definition of GMPs (that conforms to the GooMod language) and their effective application in modeling tools. The GMP Definition Tool is a graphical editor that facilitates the description of GMPs targeting any modeling language (e. G. GMPs for the UML), but independently of modeling tools. The GMP Execution Tool is a PSM level implementation specifically targeting modeling tools based on the Graphical Modeling Framework (GMF) of the Eclipse integrated development environment. During modeling activities performed by designers, this tool automates the verification of compliance of GMPs originally described in GooMod. This work has been validated on two aspects of the proposed approach. An industrial case study illustrates the definition, using the GooMod language, of a GMP specific to the modeling of Web applications developed by the Alkante company. An experiment on the evaluation of the effectiveness and usability of the GMP Execution Tool was conducted among students
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Boisson, Jean-Charles. "Modélisation et résolution par métaheuristiques coopératives : de l'atome à la séquence protéique". Phd thesis, Lille 1, 2008. http://tel.archives-ouvertes.fr/tel-00842054.

Testo completo
Abstract (sommario):
A travers cette thèse, nous montrons l'importance de la modélisation et de la coopération de métaheuristiques pour la résolution de problèmes réels en bioinformatique. Pour ce faire, deux problèmes ont été étudiés : le premier dans le domaine de la protéomique pour l'identification de protéines à partir de données spectrales et le second dans le domaine de l'analyse structurale de molécules pour le problème du docking moléculaire flexible. Ainsi, pour le premier problème, un nouveau modèle basé sur une comparaison directe des bases de données protéiques avec les données expérimentales brutes a été mise en place. L'approche associée a été intégrée au sein d'un moteur d'identification par empreinte de masse peptide appelé ASCQ_ME. Ce modèle d'identification a permis ensuite de proposer et de valider une modélisation pour le problème de " de novo protein sequencing " qui consiste à retrouver la séquence d'une protéine à partir seulement des données expérimentales. Il s'agit d'un modèle en trois étapes appelé SSO pour " Sequence ", " Shape " et " Order ". Après une étude de chacune de ces étapes, SSO a été implémenté et testé à travers trois métaheuristiques collaborant de manière séquentielle. Pour le second problème, une étude des nouvelles modélisations multi-objectives a été menée et a conduit à la définition d'un ensemble de huit modèles différents testés à l'aide d'algorithmes génétiques multi-objectifs parallèles. Une douzaine de configuration d'opérateurs génétiques ont été testé afin de mettre en évidence l'efficacité de l'hybridation des algorithmes génétiques avec des recherches locales. Pour chacune des parties, l'implémentation et la mise en place des collaborations fut possible grâce à la plateforme ParadisEO et notamment grâce à mes contributions à la partie ParadisEO-MO dédiée aux métaheuristiques à base de solution unique. L'ensemble de ces travaux a été soutenu par le PPF BioInformatique de l'Université des Sciences et Technologies de Lille et le projet ANR Dock.
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Guihal, David. "Modélisation en langage VHDL-AMS des systèmes pluridisciplinaires". Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00157570.

Testo completo
Abstract (sommario):
Ce travail de thèse porte sur la problématique d'élaboration de modèles de systèmes hétérogènes. Il a associé le laboratoire de recherche LAAS-CNRS et la société MENTOR GRAPHICS. Il prend place au sein d'un processus de conception qui se fonde sur les recommandations de l'EIA-632 et sur une ingénierie guidée par les modèles. L'objectif de notre travail est de montrer en quoi le langage VHDL-AMS est adapté à la problématique de modélisation et de simulation de la solution physique au sens des recommandations de l'EIA-632. Dans un premier temps, ce manuscrit présente un état de l'art sur les besoins en modélisation pour la conception système, et dresse un bilan sur les différents langages de modélisation susceptibles d'y répondre. Afin de proposer la norme VHDL-AMS (IEEE 1076.1-1999) comme solution, notre travail s'est attaché à présenter et proposer une méthode à mettre en oeuvre pour converger vers cette norme. Notre démarche s'appuie sur l'ingénierie guidée par les modèles avec une place prépondérante jouée par les transformations de modèle. Nous avons développé ce concept de transformation en vue d'une convergence vers le VHDL-AMS : nous développons la notion de meta modèle avec, entre autre, la création d'un meta modèle du langage VHDL-AMS. Celui-ci va permettre une vérification de la conformité des modèles créés, mais aussi l'écriture de règles de transformations au niveau meta modèle. L'intérêt des industriels possédant un existant de modèles écrits dans un langage de description de matériel propriétaire autre (par exemple le langage MAST) en vue d'une migration vers la norme VHDL-AMS, nous a permis d'éprouver cette méthodologie dans de nombreux cas concrets. Nous avons aussi comparé cette approche à une méthodologie que nous avions précédemment définie, nécessitant une expertise dans les deux langages source et cible. Cela nous a permis de conclure positivement sur la faisabilité d'une telle transformation avec une semi-automatisation et une expertise encore n écessaire à certaines étapes. A titre de démonstration, nous avons développé de nombreux modèles mixtes confirmant les aptitudes du VHDL-AMS à pouvoir être le support principal du prototypage virtuel, ainsi que la validité de notre méthode de transformation. Nous avons notamment réalisé la modélisation VHDL-AMS d'un système très hétérogène de mise à feu d'une charge pyrotechnique, qui valide notre méthodologie. La validation des modèles en conformité avec les spécifications est une des perspectives identifiées de nos travaux, à approfondir.
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Ramadour, Philippe. "Modèles et langage pour la conception et la manipulation de composants réutilisables de domaine". Aix-Marseille 3, 2001. http://www.theses.fr/2001AIX30092.

Testo completo
Abstract (sommario):
Le domaine de la conception des systèmes d'information est un secteur très demandeur en techniques et méthodes nouvelles visant à améliorer la qualité des produits et la performance des processus de conception. Ces besoins ont tait émerger des méthodes et outils innovants, aujourd'hui largement adoptés et utilisés. II est maintenant possible d'envisager une approche de développement basée sur la réutilisation de composants existants et éprouvés. Une telle approche doit permettre de réduire le temps de conception des systèmes d information, d'en améliorer la qualité et d'en faciliter la maintenance. . . Cinq résultats essentiels ont été produits à l'issue de ce travail de recherche. Une démarche de conception de systèmes de réutilisation permet d'identifier les connaissances de domaine à réutiliser, de les abstraire afin de taire apparaître la variabilité du domaine et de les discriminer. Cette démarche s'appuie sur un méta-modèle de domaine. Celui-ci offre un ensemble de concepts pour spécifier les buts, activités et objets d'un domaine. II peut être utilisé aussi bien lors de la modélisation de champs d'application que de méthodes d'ingénierie des systèmes d' information. Un modèle de composants réutilisables de domaine permet d'opérationnaliser, en vue de leur réutilisation, les connaissances ainsi formalisées en les structurant sous forme de composants de domaine. Des opérateurs et un processus de manipulation de composants sont décrits. Ils visent à supporter et guider l'ingénierie par réutilisation. Enfin, une plate-forme logicielle pour la conception et la manipulation de composants de domaine a été spécifiée et développée pour supporter l'ensemble de la démarche.
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Raibon, Audrey. "Le facteur d'initiation de la traduction eIF3f dans le muscle squelettique : étude in vitro et obtention de modèles animaux". Thesis, Montpellier 1, 2013. http://www.theses.fr/2013MON1T023/document.

Testo completo
Abstract (sommario):
Le facteur d'initiation de la traduction eIF3f est une des sous-unités constituant le facteur d'initiation de la traduction eIF3. Au niveau musculaire la surexpression de eIF3f dans les myotubes induit une hypertrophie associée à une augmentation de la synthèse protéique. A l'inverse, l'inhibition de l'expression de eIF3f entraîne une atrophie associée à une diminution de la synthèse protéique. Ce travail de thèse a permis (i) in vitro de mettre en évidence les fonctions inhibitrices du facteur eIF3f au cours de la prolifération des myoblastes C2C12 et par une étude transcriptomique sur les fractions polysomales de caractériser les ARNm recrutés par eIF3f dans des conditions hypertrophiques; et (ii) de créer des lignées de souris inactivées pour eIF3f (souris KO eIF3f) et surexprimant eIF3f dans le muscle (souris transgénique eIF3f K5-10R) afin d'étudier in vivo l'impact de la modification de l'expression de eIF3f sur la régulation de la masse musculaire
The eukaryotic initiation factor eIF3f is one of the subunits of the translation initiator complex eIF3 required for several steps in the initiation of mRNA translation. In skeletal muscle, recent studies have demonstrated that eIF3f overexpression in myotubes exerts a hypertrophic activity associated to an increase in protein synthesis. This thesis shed light on muscle eIF3f functions by (i) characterizing in vitro the antiproliferative activity of this factor in C2C12 myoblasts and the RNAs recruited by eIF3f on polysomal fractions in hypertrophied myotubes and (ii) generating mice strains inactivated for eIF3f (eIF3f KO mice) and overexpressing eIF3f specifically in muscle (eIF3f K5-10R transgenic mice) to study in vivo the impact of eIF3f modulation on the muscular mass homeostasis
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Beaumont, Jean-François. "Adaptation non supervisée des modèles de langage pour le sous-titrage de bulletins de nouvelles". Thesis, McGill University, 2004. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=79997.

Testo completo
Abstract (sommario):
This thesis presents an approach to create topic dependent language models. It is shown that a gain of 5% was reached using speech recognition for news broadcast. First, this document presents the theory, on which language models are based and the problem of sparse data which is one of the biggest problems associated with the creation of adequate language models. Next, general guidelines are presented in regard of the choices and techniques implied in the creation and the adaptation of language models. Finally, experimental results are presented and commented on to sustain the concept of topic dependent language models.
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Nemo, Clémentine. "Construction et validation de modèles guidées par l'application idempotente de transformations". Nice, 2010. http://www.theses.fr/2010NICE4090.

Testo completo
Abstract (sommario):
Les systèmes d’information d’entreprise (SIE) visent à mettre à disposition des développeurs un ensemble d’éléments hétérogènes (politiques, composants sur étagère, patrons de conception,…) communs à tous les projets de l’entreprise. Le développement des logiciels se fait ainsi par l’alternance d’intégrations des briques logicielles et de modifications manuelles des codes. Lorsque les briques logicielles correspondent à l’introduction de politiques, telle que le contrôle d’accès, les assemblages de composants résultants respectent les contraintes imposées par la politique. Or, l’intégration d’autres politiques et les modifications de l’utilisateur peuvent violer ces contraintes et introduire des incohérences dans le modèle. Assurer et éventuellement établir la cohérence des assemblages construits par introductions de politiques est la problématique abordée par ce travail de thèse. Dans cette thèse, nous appréhendons une politique comme une transformation de modèle à modèle où son application, par des propriétés d’idempotence, modifie uniquement les éléments de modélisation nécessaires. Nous proposons alors une spécification des transformations afin de définir par construction des transformations idempotentes que nous nommons ITC. Cette formalisation consiste à spécifier la sémantique des actions élémentaires composant l’expression d’une ITC à spécifier le processus d’application d’une ITC. Les applications d’ITCs deviennent alors la base pour construite, valider et réparer un modèle. Nous définissons alors un algorithme de rejeu d’un ensemble d’applications d’ITCs afin de construire un modèle validant un ensemble de contraintes liées à un ensemble de politiques. L’écriture de l’expression des ITCs à partir d’actions élémentaires, l’application des ITCs et l’algorithme de rejeu sont mises en œuvre dans un moteur d’applications implémenté en Prolog. Nous illustrons cette contribution à travers une étude de cas où nous mettons en avant la nécessité de permettre les introductions séquentielles et ensemblistes des politiques
Model transformations play a critical role in Model Driven Development because they automate recurrent software development tasks. Some of these transformations are refinement of models by adding or retracting elements to produce new models conforming to additional constraints. For example, such transformations are used to integrate non functional properties. But modifications of the resulting model can break the conformity to those functional properties. Our challenge is to detect and restore this conformity applying the same transformation again. In this thesis, we defend that model transformation is the key concept to validate and restore models and we establish a system to define idempotent transformations
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Lokpo, Brahima. "Étude de la réutilisation dans les modèles parallèles à processus communicants". Toulouse, INPT, 1992. http://www.theses.fr/1992INPT033H.

Testo completo
Abstract (sommario):
Les difficultes pour exploiter efficacement les calculateurs paralleles augmentent de plus en plus avec leur puissance. Un effort important aussi bien dans la recherche d'algorithmes et de methodes que dans le developpement d'environnements de programmation adequats doit etre fourni afin de surmonter ces difficultes. La presente these se veut une contribution aux aspects methodologiques de la programmation parallele fondee sur le modele des processus communicants. Trois principes de conception facilitant la structuration et la reutilisation dans ce modele particulier y sont etudies. Le premier principe propose une conception dans laquelle il est possible de decrire d'une maniere generique les topologies de reseau de communication suivant lesquels les processus echangent les messages. Le second principe consiste a definir des regles de compatibilite entre des protocoles de communication afin de donner la possibilite a tout processus d'evoluer dans un environnement de communication proche mais distinct de son environnement initial. Le dernier principe porte sur une conception prevoyant le partage ou la duplication generique d'un service dans un schema de client-serveur. Ces principes ont ete mis en uvre dans le langage occam qui est une des references les plus utilisees du modele des processus communicants. Cette mise en uvre a conduit d'une part a etendre occam avec les mecanismes de processus generique et d'extension de protocole, d'autre part, a realiser un environnement de programmation (decor) qui facilite l'implantation des principes methodologiques proposes
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Lespagne, Christian. "Traitement statistique de modèles numériques du terrain topographique". Paris 11, 1985. http://www.theses.fr/1985PA112376.

Testo completo
Abstract (sommario):
La thèse porte sur la compréhension analytique des modèles numériques du terrain topographique, ainsi que sur l'analyse post-compensation des canevas observés ramenés à la géométrie simplifiée d'un "Espace Topométrique". Son exposé présente diverses possibilités d'apport des méthodes statistiques pour une meilleure évaluation qualitative post compensation de ces modèles et proposé une méthode de correction des variances-covariances qui tient compte de l'effet des appuis fixes soumis à variance. Compensation et analyse de variances des grandeurs observées sont traitées dans l'esprit probabiliste de la régression linéaire et de la théorie des erreurs d'observations. Une application numérique, traitée par informatique sur la base des propositions de l'étude, complète cet exposé. Cette application révèle l'influence considérable de l'effet variant des appuis sur le modèle statistique, et met en évidence la nécessité de lui appliquer les corrections préconisées pour assurer la vraisemblance de l'évaluation qualitative post-compensation.
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Tissot, Régis. "Contribution à la génération automatique de tests à partir de modèles et de schémas de test comme critères de sélection dynamiques". Besançon, 2009. http://www.theses.fr/2009BESA2015.

Testo completo
Abstract (sommario):
Cette thèse est une contribution à la conception d'une méthode de génération automatique de tests à partir de modèles (ou MBT -Model Based Testing). Le contexte de nos travaux se situe dans la continuité de ceux effectués autour de l'outil BZ- TT (BZ- Testing Tools) qui permet d'engendrer des tests fonctionnels à partir de modèles décrits en langage B. Les critères de sélection de tests implémentés dans l'outil BZ- TT reposent sur la couverture structurelle du modèle du système à valider en prenant en compte les structures de données et de contrôle de celui-ci. Cette approche ne permet pas de générer de tests à partir de propriétés liées au comportement dynamique du système, par exemple en tenant compte de propriétés basées sur des enchaînements d'opérations. Afin de répondre à cette problématique, un certain nombre de travaux proposent des méthodes où l'expertise humaine est exploitée afin de définir des critères de sélection de tests "dynamiques". De tels critères de sélection permettent, à l'ingénieur de définir des stratégies basées sur des propriétés et des aspects du système qu'il souhaite valider. Nos contributions s'inscrivent dans cette voie, tout en visant la complémentarité par rapport à la génération automatique de tests par couverture structurelle du modèle dans un objectif de valorisation des technologies et ressources déployées à cette fin. Notre première contribution est la définition d'un langage de formalisation d'objectifs de tests qui permet d'exprimer des ensembles de scénarios de tests inspirés de propriétés à valider sur le système. Ce langage permet de décrire des schémas de tests à partir d'un formalisme, basé sur celui des expressions régulières, qui permet de décrire des ensembles de scénarios principalement par des enchaînements d'appels d'opération et d'états symboliques. Nous définissons une méthode de génération de tests intégrée à l'outil BZ- TT, afin que celui-ci prenne en compte ce nouveau critère de sélection de tests. Cette méthode permet de réutiliser les technologies d'animation symbolique et de résolution de contraintes de cet outil, ainsi que de conserver les fonctionnalités d'exportation et de concrétisation des tests produits. Dans cette méthode, la seule charge supplémentaire pour l'ingénieur de validation est la définition des schémas de test utilisés comme critère de sélection. Nos dernières contributions, visent à évaluer la complémentarité de notre méthode avec celle de génération automatique de tests par couverture structurelle du modèle. Nous proposons une méthode d'évaluation de la complémentarité entre deux suites de tests. Cette méthode est basée sur le calcul de la couverture d'états et de transitions des suites de tests sur une abstraction du système. Enfin, nous appliquons cette méthode à trois études de cas (deux applications de type carte à puce et un système de gestion de fichiers Posix), et nous montrons la complémentarité qu'elle apporte
This PhD thesis is a contribution to the conception of an automatic Model Based Testing (MBT) approach for test generation. The framework of our works is the BZ-TT (BZ-Testing Tools) technology, that allows for generating functional tests from models written in B. The test selection criteria implemented in BZ- TT ensure structural coverage of the model of the system to validate. It takes into account the data and control structures of the model. This approach does not allow for generating tests from properties expressing dynamic behaviors of the system such as properties based on operations sequencing. To address this problem, some works propose to involve human expertise to define "dynamic" selection criteria. Such selection criteria make it possible for the validation engineer to define strategies based on properties and aspects of the system thet he wants to validate. Our contributions explore this way, and target the complementarity with respect to the tests generated from the structural coverage of the model, in order to benefit from the resources and technology previously deployed for this goal. Our first contribution is the definition of a language for the formalization of test purposes, that allows for expressing test scenarios inspired by the properties to validate on the system. This language is based on a regular expressions-like formalism, and aims at describing scenarios by means of operation calls and symbolic states. We define a test generation method integrated to BZ- TT, so that these tools can take these new selection criteria into account. This way, we can re-use the technics of symbolic animation and of constraint solving of BZ- TT. We also benefit from the functionalities of export and concretization of the produced tests. With this method, the only additional work for the validation engineer is to define the test schemas used as selection criteria. Our last contribution is to assess the complementarity of our method with the automatic generation of tests by structural coverage of the model. We propose a method to assess the complementarity of two test suites. It is based on the computing of the coverage in terms of states and transitions of an abstraction of the system by th test suites. Finally, we apply this method to three case studies (two smart card applications and the POSIX fil management system), and we show the complementarity brought by the method
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Delaunay, Jérôme. "Contribution à l'analyse d'un mécanisme de répression traductionnelle conservé entre le xénope et la drosophile : identification et caractérisation du facteur protéique Bru3 de liaison à l'élément EDEN". Montpellier 1, 2004. http://www.theses.fr/2004MON1T001.

Testo completo
Abstract (sommario):
LA REGULATION TRADUCTIONNELLE JOUE UN ROLE ESSENTIEL DANS LE CONTROLE DE L'EXPRESSION GENIQUE, EN PARTICULIER DANS L'OVOCYTE ET L'OEUF. LE TRAVAIL REALISE AU COURS DE MA THESE S'INSCRIT DANS UNE ANALYSE D'UN MECANISME DE REGULATION TRADUCTIONNELLE DES ARN MESSAGERS MATERNELS CONSERVE ENTRE LA DROSOPHILE ET LE XENOPE. CE MECANISME A D'ABORD ETE DECRIT CHEZ LE XENOPE POUR UNE CLASSE D'ARNm MATERNELS, DONT L'ARNm DU PROTO-ONCOGENE C-MOS DONT LA TRADUCTION EST CRITIQUE POUR LA MATURATION MEIOTIQUE. CES ARNm PORTENT UN ELEMENT DANS LEUR 3'UTR QUI JOUE UN ROLE ESSENTIEL DANS LEUR REPRESSION TRADUCTIONNELLE APRES FECONDATION. IL S'AGIT DE L'ELEMENT EDEN (EMBRYONIC DEADENYLATION ELEMENT) SUR LEQUEL SE FIXE UN FACTEUR PROTEIQUE AGISSANT EN TRANS, LE FACTEUR EDEN-BP. NOTRE EQUIPE A MONTRE QUE L'ELEMENT EDEN EST FONCTIONNEL CHEZ LA DROSOPHILE COMME ELEMENT DE REPRESSION TRADUCTIONNELLE (EZZEDDINE ET AL. , 2002). MON TRAVAIL A PORTE PRECISEMENT SUR L'IDENTIFICATION DU FACTEUR TRANS DE DROSOPHILE HOMOLOGUE AU FACTEUR EDEN-BP DE XENOPE, PAR UNE COMBINAISON D'APPROCHES EXPERIMENTALES ET BIOINFORMATIQUES. LE FACTEUR BRU3 QUE J'AI IDENTIFIE ET DONT J'AI MENE L'ANALYSE, PRESENTE DES PROPRIETES STRUCTURALES QU'ON RETROUVE EN PARTICULIER DANS LA PROTEINE EDEN-BP DE XENOPE ET SON HOMOLOGUE HUMAIN, LA CUG-BP, IMPLIQUEE DANS LA DYSTROPHIE MYOTONIQUE DE STEINERT. DE PLUS, IL PRESENTE LA MEME SPECIFICITE DE LIAISON AUX ARN QUE LES PROTEINES EDEN-BP ET CUG-BP.
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Brun, Armelle. "Détection de thème et adaptation des modèles de langage pour la reconnaissance automatique de la parole". Nancy 1, 2003. http://www.theses.fr/2003NAN10003.

Testo completo
Abstract (sommario):
Une des façons de procéder pour l'amélioration de la qualité des systèmes de Reconnaissance Automatique de la Parole (RAP) consiste à adapter le modèle de langage utilisé au thème du texte en cours de traitement. Nous proposons dans cette thèse une nouvelle approche de la sélection devocabulaire pour la détection de thème, qui permet d'améliorer légèrement les performances. Nous proposons également une méthode originale de détection de thème qui atteint des performances comparables à celles de l'état de l'art en exploitant un vocabulaire réduit. Nous avons également étudié la combinaison des méthodes de détection de thème. Celle-ci nous permet d'améliorer les performances de 10%, atteignant ainsi plus de 93\% de détection de thème correcte. Dans le cadre de l'intégration dans un système de RAP, nous avons montré amélioration conséquente de la perplexité
One way to improve performance of Automatic Speech Recognition (ASR) systems, consists in adapting language models to the topic treated in data. In this thesis, we propose a new vocabulary selection principle, resulting in a slight improvement of the performance. We also present anew topic identification method, WSIM, based on the similarity between words and topics, reaching performance similar to state of the art one. We have studied the evolution of the performance when methods are combined, reaching more than 93% correct topic identification. In the framework of ASR, adapting language model to the topic results in a large improvement of the perplexity
Gli stili APA, Harvard, Vancouver, ISO e altri
44

Lamine, Elyes. "Définition d'un modèle de propriété et proposition d'un langage de spécification associé : LUSP". Montpellier 2, 2001. http://www.theses.fr/2001MON20205.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Barbier, Guillaume. "Contribution de l'ingénierie dirigée par les modèles à la conception de modèles grande culture". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00914318.

Testo completo
Abstract (sommario):
Cette thèse, à caractère industriel, vise à répondre à une problématique de production de l'entreprise ITK. Par la mise en oeuvre des techniques de l'ingénierie dirigée par les modèles, nous proposons un environnement de modélisation et de simulation pour la croissance des plantes. Outre sa facilité d'utilisation pour les agronomes, le prototype obtenu permet la génération automatique de code Java des modèles à intégrer dans des outils d'aide à la décision exécutés sur une plateforme Java Enterprise Edition.
Gli stili APA, Harvard, Vancouver, ISO e altri
46

Maran, Abdalhmed. "Une approche formelle pour la transformation de modèles UML-XML". Versailles-St Quentin en Yvelines, 2005. http://www.theses.fr/2005VERS0007.

Testo completo
Abstract (sommario):
UML (Unified Modeling Language) allows modeling of structure and behavior of systems and offers several kinds of diagrams. XML (eXtensible Markup Language) is a data format and it has a schema definition language which is also in XML. In XML, there are a clear separation between XML Data and their schemas, descriptions and ontology and several possible representations. From early beginning of XML, there had been associations between UML and XML and complementarities had been shown between them. Our goal is to define a new and formal approach for model transformation and use it in case of UML to XML Schemas conversion. Data and model transformations are not limited to UML and XML and exist before those languages. In data bases, model and data transformations are frequently used. Reputation and popularity of a language is a motivation to define transformations to and from it (this remains true for UML and XML). Our approach contains two main points. First of all, we define transformation rules in the meta-model lever. Secondly, we use ADT (Abstract Data Types) to write transformation rules and also to specify converted models. ADT introduces an abstraction to specified models and keep them independent from languages and implementation platforms. They are based on mathematical foundations and allow the verification of specified models and also of the transformation rules. The formal transformation framework we defined includes three libraries of ADT. The first (respectively second) library specify the UML models (respectively XML Schemas). The last ADTs' library describes transformation rules. We used LOTOS language for the implementation of our formal framework. In order to convert UML models created using CASE tools, we adopt XMI format and we programmed XSLT transformations to convert XMI documents to LOTOS representation of models. Consequently, UML models produced by CASE tools could be formally transformed using LOTOS conversions. The XML Schemas resulting from formal transformation of UML are also in LOTOS. A syntactic analyzer is programmed in Java in order to convert XML Schemas from LOTOS to their XML representation. Our approach is not limited to UML and XML Schemas and their transformations and its framework could be used in other situations with different source and target models. In particular, retro-generation of UML models from XML Schemas is possible. Model engineering based on transformations is a hot point research subject. Its normalization is a work in progress illustrated by MDA (Model Driven Architecture) and QVT (Query View Transformation). Our formal approach of model transformation conforms to the OMG's proposal about transformations and its layered architecture. Moreover, ADT introduces formalism to specified models and to transformations rules
UML (Unified Modeling Language) offre un ensemble de diagrammes permettant de décrire la structure des objets et leurs comportements. XML (eXtensible Markup Language) est un format de données. Il propose un langage pour décrire la structure (schéma) des documents et il distingue et sépare les données de leurs schémas, de leurs descriptions et ontologies et de leurs éventuelles représentations. Il est apparu très rapidement que les deux standards sont complémentaires et que le passage de l'un vers l'autre s'impose. L'objectif de cette thèse et de proposer une approche innovante et formelle pour la transformation entre modèles UML et Schémas XML. Les transformations ne se limitent pas à UML et aux Schémas XML et nous remarquons qu'elles sont antérieures à ces notations. Les bases de données forment un domaine où les conversions entre différents niveaux d'abstraction abondent. La popularité d'un langage ou d'un format (c'est le cas pour UML et XML) est une forte motivation pour développer des conversions de et vers ceux-ci. Notre approche s'appuie sur deux points principaux. Elle consiste en la définition des règles de conversion au niveau des méta-modèles pour transformer les modèles. Et elle adopte les TADs (Types Abstraits de Données) pour écrire les transformations ainsi que pour spécifier les modèles à convertir. Les TADs introduisent une abstraction dans les systèmes qu'ils spécifient et procurent, donc, une indépendance par rapport aux langages et aux plate-formes d'implémentation. Ils sont basés sur des fondements mathématiques et permettent de vérifier les propriétés autant des modèles que nous transformons que celles des conversions. La machine des transformations que nous avons créée consiste en trois bibliothèques de TADs : une première pour spécifier les modèles UML, une deuxième pour spécifier les Schémas XML et une troisième définissant les transformations. Nous avons implémenté cette architecture dans le langage LOTOS. Afin d'intégrer, dans le processus de transformation formelles, des modèles UML générés par les différents AGL disponibles, nous avons adopté le format XMI et implémenté des conversion en XSLT permettant la conversion de modèles UML de XMI vers une représentation LOTOS. Nous avons également programmé, en Java, un analyseur syntaxique permettant de transformer des Schémas XML de leurs représentation LOTOS vers XML. L'approche que nous avons adoptée n'est pas exclusive aux transformations de UML vers les Schémas XML et elle peut être utilisée avec d'autres modèles sources et destinations et en particulier pour la rétro-génération de Schémas XML à partir de modèles UML. L'ingénierie des modèles basée sur les transformations est un champ de recherche actif et les efforts de normalisations sont en cours et sont illustrés par MDA (Model Driven Architecture) et QVT (Query View Transformation). Notre approche des transformations formelles est conforme à la vision de l'OMG des transformations et à son architecture en couches. De plus, par le biais des (TADs), elle introduit un formalisme à la spécifications de modèles et des transformations
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Dumery, Jean-Jacques. "Un langage de spécification pour la conception structurée de la commande des systèmes à évènements discrets". Châtenay-Malabry, Ecole centrale de Paris, 1999. http://www.theses.fr/1999ECAP0644.

Testo completo
Abstract (sommario):
Dans le cadre de l'ingénierie des systèmes automatisés de production, concevoir une commande de système à évènements discrets est une activité complexe. Elle nécessite souvent l'utilisation de méthodes qui mettent en œuvre un ensemble de langages de spécification. Par ailleurs, on observe que les représentations graphiques sont de plus en plus privilégiées par rapport aux représentations littérales et algébriques du fait de leur aptitude à servir de support de communication entre tous les intervenants. C'est dans cet esprit que le Grafcet a été conçu. Il est aujourd'hui largement enseigné, utilisé dans l'industrie, normalisé, et il est servi par de nombreuses publications. Toutefois, une critique classiquement faite au Grafcet est qu'il porte peu d'informations de structuration et qu'il permet difficilement d'exprimer formellement de la sémantique application. C'est cette problématique qui nous a amené à définir un langage de spécification du comportement de la commande des systèmes à évènements discrets basé sur le Grafcet, s'inspirant des Statecharts, appelé HyperGrafcet. Ce langage, s'appuyant sur le concept d'hyperétape, permet d'exprimer formellement la hiérarchie structurelle grâce à un mécanisme d'encapsulation et de la sémantique application (ou externe) grâce à des étiquettes. Un Meta modèle statique de l'HyperGrafcet a été élaboré. L'objectif de ce méta-modèle est de formaliser la syntaxe de l'HyperGrafcet, en mettant en évidence les concepts de base de ce langage de spécification et les liens entre ces différents concepts, et d'éviter les imprécisions dues à une description en langage naturel. Apres la formalisation statique de l'HyperGrafcet, une formalisation dynamique est proposée. Ceci nécessite la définition d'un cadre temporel à plusieurs échelles de temps, des règles d'évolution du langage, ainsi que d'un algorithme d'interprétation des règles d'évolution. Ces règles et l'algorithme d'interprétation associé privilégient le concept de situation. Nous avons en conséquence développé une algèbre permettant de manipuler les situations d'un développement d'Hyperétape et de les combiner. Nous définissons une fonction appelée test qui permet d'associer une valeur de vérité à l'établissement d'une situation ou d'une combinaison de tests sur situations. Ainsi, nous avons pu formaliser les mécanismes de positionnement de développement lors d'évolutions. Ce langage de spécification a été testé avec succès, notamment dans le cas de l'expression des modes de marche, sur diverses applications industrielles caractéristiques de productions de type continu, batch et manufacturier
Gli stili APA, Harvard, Vancouver, ISO e altri
48

Séguéla, Patrick. "Construction de modèles de connaissances par analyse lingustiques de relations lexicales dans les documents techniques". Toulouse 3, 2001. http://www.theses.fr/2001TOU30210.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Sardet, Éric. "Intégration des approches modélisation conceptuelle et structuration documentaire pour la saisie, la représentation, l'échange et l'exploitation d'informations ; application aux catalogues de composants industriels". Poitiers, 1999. http://www.theses.fr/1999POIT2311.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Watrin, David. "Formalisation des modèles d'information d'administration de réseaux à l'aide de la méthode B : Application au langage GDMO". Ecole Nationale Supérieure des télécommunications, 2001. http://www.theses.fr/2001ENST0039.

Testo completo
Abstract (sommario):
Suite à la libéralisation des marchés de télécommunications et à la multiplication de l'offre de services, l'Administration de Réseaux de Télécommunications connaît un réel essor. A l'exception de SNMP, les différentes technologies qui adressent cette activité ont fait le choix de langages orientés objets afin de décrire leurs modèles d'information. Ce choix est motivé par des considérations d'évolutivité bien connues. Cependant une constante se dégage à travers ces langages: I'utilisation du langage naturel pour décrire les contraintes et les comportements des objets gérés, des attributs et autres "templates". Ce choix induit l'introduction d'ambigui͏̈tés dans la spécification et n'autorise pas de traitement automatique afin de simuler ou tester le comportement, de vérifier la cohérence du modèle ou de produire un code exécutable. Enfin les modèles sont difficiles à appréhender en raison d'une distribution anarchique de l'inforrnation. Ce travail de thèse propose une solution basée sur la formalisation des modèles à l'aide de la méthode B. Cette dernière offre en effet un langage rigoureux et automatise les concepts de preuve formelle et de raffinement. Afin de définir une solution générique, les propriétés communes aux modèles d'information de gestion de réseaux ont été isolées. Un ensemble de règles de traduction vers le formalisme B couvrant les structures de données et les modèles statique et dynamique est proposé. Des variantes sont avancées et analysées lorsque aucune règle n'est pleinement satisfaisante. Ces règles ont été appliquées avec succès à un modèle GDMO. La spécification B obtenue permet de prouver la cohérence interne du modèle et d'amorcer le processus de raffinement. En outre, un traducteur automatique depuis un modèle GDMO vers une spécification B a été développé. Il offre une large couverture du langage et permet de saisir des propriétés formelles via une interface graphique. Il contribue à un enrichissement du modèle d'information.
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia