To see the other types of publications on this topic, follow the link: Modèles de langage de protéines.

Dissertations / Theses on the topic 'Modèles de langage de protéines'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèles de langage de protéines.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Hladiš, Matej. "Réseaux de neurones en graphes et modèle de langage des protéines pour révéler le code combinatoire de l'olfaction." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ5024.

Full text
Abstract:
Les mammifères identifient et interprètent une myriade de stimuli olfactifs par un mécanisme de codage complexe reposant sur la reconnaissance des molécules odorantes par des centaines de récepteurs olfactifs (RO). Ces interactions génèrent des combinaisons uniques de récepteurs activés, appelées code combinatoire, que le cerveau humain interprète comme la sensation que nous appelons l'odeur. Jusqu'à présent, le grand nombre de combinaisons possibles entre les récepteurs et les molécules a empêché une étude expérimentale à grande échelle de ce code et de son lien avec la perception des odeurs. La révélation de ce code est donc cruciale pour répondre à la question à long terme de savoir comment nous percevons notre environnement chimique complexe. Les RO appartiennent à la classe A des récepteurs couplés aux protéines G (RCPG) et constituent la plus grande famille multigénique connue. Pour étudier de façon systématique le codage olfactif, nous avons développé M2OR, une base de données exhaustive compilant les 25 dernières années d'essais biologiques sur les RO. À l'aide de cet ensemble de données, un modèle d'apprentissage profond sur mesure a été conçu et entraîné. Il combine l'intégration de jetons [CLS] d'un modèle de langage des protéines avec des réseaux de neurones en graphes et un mécanisme d'attention multi-têtes. Ce modèle prédit l'activation des RO par les odorants et révèle le code combinatoire résultant pour toute molécule odorante. Cette approche est affinée en développant un nouveau modèle capable de prédire l'activité d'un odorant à une concentration spécifique, permettant alors d'estimer la valeur d'EC50 de n'importe quelle paire OR-odorant. Enfin, les codes combinatoires dérivés des deux modèles sont utilisés pour prédire la perception olfactive des molécules. En incorporant des biais inductifs inspirés par la théorie du codage olfactif, un modèle d'apprentissage automatique basé sur ces codes est plus performant que l'état de l'art actuel en matière de prédiction d'odeurs. À notre connaissance, il s'agit de l'application la plus aboutie liant le code combinatoire à la prédiction de l'odeur d'une molécule. Dans l'ensemble, ce travail établit un lien entre les interactions complexes molécule odorante-récepteur et la perception humaine
Mammals identify and interpret a myriad of olfactory stimuli using a complex coding mechanism involving interactions between odorant molecules and hundreds of olfactory receptors (ORs). These interactions generate unique combinations of activated receptors, called the combinatorial code, which the human brain interprets as the sensation we call smell. Until now, the vast number of possible receptor-molecule combinations have prevented a large-scale experimental study of this code and its link to odor perception. Therefore, revealing this code is crucial to answering the long-term question of how we perceive our intricate chemical environment. ORs belong to the class A of G protein-coupled receptors (GPCRs) and constitute the largest known multigene family. To systematically study olfactory coding, we develop M2OR, a comprehensive database compiling the last 25 years of OR bioassays. Using this dataset, a tailored deep learning model is designed and trained. It combines the [CLS] token embedding from a protein language model with graph neural networks and multi-head attention. This model predicts the activation of ORs by odorants and reveals the resulting combinatorial code for any odorous molecule. This approach is refined by developing a novel model capable of predicting the activity of an odorant at a specific concentration, subsequently allowing the estimation of the EC50 value for any OR-odorant pair. Finally, the combinatorial codes derived from both models are used to predict the odor perception of molecules. By incorporating inductive biases inspired by olfactory coding theory, a machine learning model based on these codes outperforms the current state-of-the-art in smell prediction. To the best of our knowledge, this is the most comprehensive and successful application of combinatorial coding to odor quality prediction. Overall, this work provides a link between the complex molecule-receptor interactions and human perception
APA, Harvard, Vancouver, ISO, and other styles
2

Alain, Pierre. "Contributions à l'évaluation des modèles de langage." Rennes 1, 2007. http://www.theses.fr/2007REN1S003.

Full text
Abstract:
Ces travaux portent sur l'évaluation des modèles de langages en dehors de toute tâche applicative. Le problème d'une étude comparative entre plusieurs modèles est généralement lié à la fonction dans un système complet. Notre objectif consiste au contraire à s'abstraire au maximum des contraintes liées au système, et ainsi pourvoir comparer effectivement les modèles. Le critère le plus couramment admis pour une comparaison de modèles de langage est la perplexité. Ces travaux reprennent les hypothèses du jeu de Shannon, de manière à poser un cadre d'évaluation des modèles de langage fondée sur leur capacité de prédiction. La méthodologie s'intéresse à la prédiction conjointe de mots, et reste indépendante de toute tâche applicative, de la nature du modèle, ainsi que du nombre de paramètres de ce modèle. Des expériences sont menées sur la modélisation du français et de l'anglais à partir de vocabulaires de taille variable, et différents modèles sont mis en concurrence
This work deals with the evaluation of language models independently of any applicative task. A comparative study between several language models is generally related to the role that a model has into a complete system. Our objective consists in being independant of the applicative system, and thus to provide a true comparison of language models. Perplexity is a widely used criterion as to comparing language models without any task assumptions. However, the main drawback is that perplexity supposes probability distributions and hence cannot compare heterogeneous models. As an evaluation framework, we went back to the definition of the Shannon's game which is based on model prediction performance using rank based statistics. Our methodology is able to predict joint word sequences that are independent of the task or model assumptions. Experiments are carried out on French and English modeling with large vocabularies, and compare different kinds of language models
APA, Harvard, Vancouver, ISO, and other styles
3

Delot, Thierry. "Interrogation d'annuaires étendus : modèles, langage et optimisation." Versailles-St Quentin en Yvelines, 2001. http://www.theses.fr/2001VERS0028.

Full text
Abstract:
Les travaux menés dans cette thèse se concentrent sur les problèmes de partage, d'interrogation et de médiation rencontrés dans les systèmes d'information de nouvelle génération qui s'articulent autour de sources de données, d'objets, et de composants largement distribués. Dans cet environnement, différents systèmes coexistent : des SGBD, des serveurs LDAP et des architectures à objets distribués. Les limites actuelles des services d'annuaires et leur interaction toujours plus grande avec l'environnemnet qui les entoure (SGBDs, objets,. . . ) nous a amené à étudier la définition d'un service d'annuaires capable, tout en conservant la flexibilité et la compatibilité avec les modèles existants, de proposer des fonctionnalités avancées telles que : la manipulation de données riches englobant des valeurs mais également des programmes, le support adapté pour le partage d'objets et des capacités d'interrogation étendues. En effet, les facilités d'interrogation dans LDAP sont relativement pauvres et il serait intéressant de les enrichir pour permettre des recherches plus complexes incluant des parcours de chemin, des calculs d'agrégats, etc. Le challenge consiste ici à trouver le bon compromis entre le pouvoir d'expression du langage et la charge imposée au service d'annuaires. L'introduction de nouvelles fonctionnalités dans le service d'annuaires a un impact important sur les performances du système, aussi bien du point de vue des temps de réponse que des ressources consommées pour évaluer une requête. Un autre aspect de cette intégration des annuaires avec leur environnement concerne le partage de données communes entre ces différents systèmes, comme les données d'identification par exemple. Pour assurer cette intégration, notre solution consiste à mettre en place une couche de médiation entre les deux systèmes, afin de permettre à un utilisateur de manipuler ses données en utilisant soit le modèle relationnel dans le cax des SGBD relationnels, soit le modèle LDAP.
APA, Harvard, Vancouver, ISO, and other styles
4

Oota, Subba Reddy. "Modèles neurocomputationnels de la compréhension du langage : caractérisation des similarités et des différences entre le traitement cérébral du langage et les modèles de langage." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0080.

Full text
Abstract:
Cette thèse explore la synergie entre l'intelligence artificielle (IA) et la neuroscience cognitive pour faire progresser les capacités de traitement du langage. Elle s'appuie sur l'idée que les avancées en IA, telles que les réseaux neuronaux convolutionnels et des mécanismes comme le « replay d'expérience », s'inspirent souvent des découvertes neuroscientifiques. Cette interconnexion est bénéfique dans le domaine du langage, où une compréhension plus profonde des capacités cognitives humaines uniques, telles que le traitement de structures linguistiques complexes, peut ouvrir la voie à des systèmes de traitement du langage plus sophistiqués. L'émergence de riches ensembles de données neuroimagerie naturalistes (par exemple, fMRI, MEG) aux côtés de modèles de langage avancés ouvre de nouvelles voies pour aligner les modèles de langage computationnels sur l'activité cérébrale humaine. Cependant, le défi réside dans le discernement des caractéristiques du modèle qui reflètent le mieux les processus de compréhension du langage dans le cerveau, soulignant ainsi l'importance d'intégrer des mécanismes inspirés de la biologie dans les modèles computationnels.En réponse à ce défi, la thèse introduit un cadre basé sur les données qui comble le fossé entre le traitement neurolinguistique observé dans le cerveau humain et les mécanismes computationnels des systèmes de traitement automatique du langage naturel (TALN). En établissant un lien direct entre les techniques d'imagerie avancées et les processus de TALN, elle conceptualise le traitement de l'information cérébrale comme une interaction dynamique de trois composantes critiques : le « quoi », le « où » et le « quand », offrant ainsi des perspectives sur la manière dont le cerveau interprète le langage lors de l'engagement avec des récits naturalistes. L'étude fournit des preuves convaincantes que l'amélioration de l'alignement entre l'activité cérébrale et les systèmes de TALN offre des avantages mutuels aux domaines de la neurolinguistique et du TALN. La recherche montre comment ces modèles computationnels peuvent émuler les capacités de traitement du langage naturel du cerveau en exploitant les technologies de réseau neuronal de pointe dans diverses modalités - langage, vision et parole. Plus précisément, la thèse met en lumière comment les modèles de langage pré-entraînés modernes parviennent à un alignement plus étroit avec le cerveau lors de la compréhension de récits. Elle examine le traitement différentiel du langage à travers les régions cérébrales, le timing des réponses (délais HRF) et l'équilibre entre le traitement de l'information syntaxique et sémantique. En outre, elle explore comment différentes caractéristiques linguistiques s'alignent avec les réponses cérébrales MEG au fil du temps et constate que cet alignement dépend de la quantité de contexte passé, indiquant que le cerveau code les mots légèrement en retard par rapport à celui actuel, en attendant plus de contexte futur. De plus, elle met en évidence la plausibilité biologique de l'apprentissage des états de réservoir dans les réseaux à état d'écho, offrant ainsi une interprétabilité, une généralisabilité et une efficacité computationnelle dans les modèles basés sur des séquences. En fin de compte, cette recherche apporte des contributions précieuses à la neurolinguistique, à la neuroscience cognitive et au TALN
This thesis explores the synergy between artificial intelligence (AI) and cognitive neuroscience to advance language processing capabilities. It builds on the insight that breakthroughs in AI, such as convolutional neural networks and mechanisms like experience replay 1, often draw inspiration from neuroscientific findings. This interconnection is beneficial in language, where a deeper comprehension of uniquely human cognitive abilities, such as processing complex linguistic structures, can pave the way for more sophisticated language processing systems. The emergence of rich naturalistic neuroimaging datasets (e.g., fMRI, MEG) alongside advanced language models opens new pathways for aligning computational language models with human brain activity. However, the challenge lies in discerning which model features best mirror the language comprehension processes in the brain, underscoring the importance of integrating biologically inspired mechanisms into computational models. In response to this challenge, the thesis introduces a data-driven framework bridging the gap between neurolinguistic processing observed in the human brain and the computational mechanisms of natural language processing (NLP) systems. By establishing a direct link between advanced imaging techniques and NLP processes, it conceptualizes brain information processing as a dynamic interplay of three critical components: "what," "where," and "when", offering insights into how the brain interprets language during engagement with naturalistic narratives. This study provides compelling evidence that enhancing the alignment between brain activity and NLP systems offers mutual benefits to the fields of neurolinguistics and NLP. The research showcases how these computational models can emulate the brain’s natural language processing capabilities by harnessing cutting-edge neural network technologies across various modalities—language, vision, and speech. Specifically, the thesis highlights how modern pretrained language models achieve closer brain alignment during narrative comprehension. It investigates the differential processing of language across brain regions, the timing of responses (Hemodynamic Response Function (HRF) delays), and the balance between syntactic and semantic information processing. Further, the exploration of how different linguistic features align with MEG brain responses over time and find that the alignment depends on the amount of past context, indicating that the brain encodes words slightly behind the current one, awaiting more future context. Furthermore, it highlights grounded language acquisition through noisy supervision and offers a biologically plausible architecture for investigating cross-situational learning, providing interpretability, generalizability, and computational efficiency in sequence-based models. Ultimately, this research contributes valuable insights into neurolinguistics, cognitive neuroscience, and NLP
APA, Harvard, Vancouver, ISO, and other styles
5

Marcou, Gilles. "Modèles dynamiques aux grandes échelles des protéines." Bordeaux 1, 2003. http://www.theses.fr/2003BOR12653.

Full text
Abstract:
La dynamique des protéines est domínée par des mouvements lents, amples et impliquant un grand nombre d'atomes. Ces mouvements sont responsables des transitions entre des conformations très différentes d'une même protéine. Il a été montré que ces mouvements pouvaient être décrits par un petit nombre de degrés de liberté. Ceux-ci sont bien représentés par un sous-ensemble restreint des modes normaux des protéines. Dans cette thèse sont présentées des tentatives pour réaliser à partir d'un modèle complet de dynamique moléculaire appliqué aux protéines, un modèle réduit à ces mouvements de grande échelle. Il y est montré l'importance des mouvements rapides. Ces mouvements sont réintroduits dans nos modèles d'une part par un facteur d'échelle introduit dans les paramètres liés du champ de force d'origine et d'autre part, par un terme stochastique dit de Langevin Généralisé. La thèse décrit également des méthodes pour déterminer les paramètres de ce nouveau modèle. Une approche dérivée de ce modèle est ensuite présentée parmettant de diviser une protéine en un ensemble de corps en interaction chacun étant décrits par le modèle dévelopé précédemment. Enfin, des exemples de calcul efficace des interactions non liées sont présentés tirant parti des caractéristiques des nouveaux modèles
The dynamic of proteins is dominated by slow and large movements involving a large number of atoms. These movements are responsible for the transitions between two very different forms of the same protein. Il was shown that those movements could be described by a small number of degrees of liberty. These were well described by a small sub-ensemble of normal modes of the proteins. In this thesis are presented some bids to relealize from a complete molecular modelling model of proteins, a model reduced to those large cale movements. The importance of the fast movements is shown. Those are reintroduced in the model by two means ; first a scaling factor is applied to the parameters of the bonded interactions of the original force field and second, a stochastic teerm called Generalized Langevin term, is introduced. The thesis explains how to obtain the parameters of this new model. A derived approach is also presented, in which the protein is decomposed in several blocks each being described with the model previously developed. At last, somme examples of efficient calculation of the non bonded interactions are presented using the characteristics of the new model
APA, Harvard, Vancouver, ISO, and other styles
6

Hemery, Mathieu. "Modèles d'évolution de protéines en environnement variable." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066665/document.

Full text
Abstract:
Cette thèse étudie l’influence des fluctuations de l’environnement au cours de l’évolution sur l’architecture fonctionnelle des protéines.L’apparition de groupes restreints d’acides aminés – les secteurs, possédant des propriétés particulières tant du point de vue structurel et évolutif que fonctionnel ne trouve en effet pas d’explication simple dans le paradigme classique de la physique des protéines. Nous avons donc choisi d’étudier le rôle de l’histoire évolutive dans la construction de cette architecture particulière et des propriétés qui en découlent.Nous avons pour cela construit un modèle de protéine fonctionnelle inspiré des modèles de réseaux élastiques, que nous avons soumis à une évolution in silico en variant au cours du temps, avec différentes fréquences, la fonction recherchée. Nous avons montré que ces fluctuations induisent une concentration semblable à celle observée dans les protéines et avons pu déterminer les paramètres clés contrôlant ce phénomène. Nous avons finalement abordé le lien entre la statistique temporelle de l’environnement et l’apparition de différents secteurs indépendants
This thesis studies the influence of an evolutionary fluctuating environment on the functional architecture of proteins.The appearance of restricted groups of amino acids – sectors, with particular functional, evolutional and structural properties has no simple explanation in the classical paradigm of proteins physics. So we choose to study the role of evolutionary history on the construction of this particular architecture and the resulting properties.We have thus constructed a model of functional protein inspired by the elastic network models, that we have evolved in silico while temporarily varying the targeted function with various frequencies. We have shown that these fluctuations induce a form of sparsity close to that observed in proteins and has identified the key parameters of this phenomenon. We finally investigate the link between the temporal statistics of the environment and the appearance of different independent sectors
APA, Harvard, Vancouver, ISO, and other styles
7

Chauveau, Dominique. "Étude d'une extension du langage synchrone SIGNAL aux modèles probabilistes : le langage SIGNalea." Rennes 1, 1996. http://www.theses.fr/1996REN10110.

Full text
Abstract:
L'absence d'outils ergonomiques pour le traitement de systemes stochastiques complexes, comme on peut en trouver dans de nombreuses applications industrielles, a conduit le projet epatr de l'irisa a envisager la realisation d'une extension du langage de programmation signal pour la manipulation de systemes hybrides stochastiques/non-stochastiques. Developpe depuis une dizaine d'annees par le projet epatr, le langage signal est un langage flot de donnees de type equationnel, appartenant a la famille des langages synchrones et destine a la specification de systemes reactifs temps-reel. Une interface graphique integree a l'environnement signal permet de specifier des programmes de facon modulaire et hierarchique sous la forme de boites interconnectees. L'extension de signal aux modeles aleatoires, que l'on appelle signalea, doit permettre la specification de systemes complexes faisant intervenir des composantes aleatoires et des composantes de nature symbolique. Elle doit egalement fournir a l'utilisateur des methodes efficaces de simulation (simulation rapide d'evenements rares,) et d'estimation (reconnaissance de formes, diagnostic,) generees automatiquement a partir de la specification de depart. La definition de signalea a des le debut souleve des problemes mathematiques complexes, dont une etude approfondie a conduit a la definition du formalisme mathematique css. Le modele css ne s'interesse qu'aux cas ou le systeme etudie met en jeu un nombre fini de variables. Les objets de base de ce modele sont des systemes hybrides stochastiques/non-stochastiques. Nous definissons sur ces systemes une generalisation de la regle de bayes qui nous permet d'obtenir des methodes de simulation et d'estimation incrementales se rapprochant assez fortement des travaux de a. P. Dempster et g. Shafer en statistique et intelligence artificielle sur les fonctions de croyance et reseaux de croyance. La version de signalea que nous presentons dans ce document est sur une generalisation du langage signal qui permet d'inclure des bulles de type css. Elle donne la possibilite de specifier tout systeme dynamique aleatoire de type automate stochastique, ou hidden markov model (hmm). Dans le cas booleen, le calcul des primitives intervenant pour la simulation bayesienne a ete implemente en utilisant des techniques bdd (binary decision diagram). Enfin, nous apportons un element nouveau au modele css qui est la prise en compte de la hierarchie des systemes dans les algorithmes de simulation et d'estimation incrementales
APA, Harvard, Vancouver, ISO, and other styles
8

Fleurey, Franck. "Langage et méthode pour une ingénierie des modèles fiable." Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00538288.

Full text
Abstract:
Ce travail s'inscrit dans un contexte où la taille et la complexité des logiciels augmentent alors que les contraintes de temps de développement, de qualité, de maintenance et d'évolution sont toujours plus fortes. Pour répondre à cette tendance, l'ingénierie dirigée par les modèles constitue une évolution prometteuse des techniques de génie logiciel. Les idées de l'ingénierie dirigée par les modèles sont, d'une part de rendre les modèles productifs, et d'autre part d'automatiser certaines étapes du développement grâce à des transformations de modèles. Une des conditions pour que l'ingénierie dirigée par les modèles tienne ses promesses, en terme de productivité et de qualité, est d'assurer, tout d'abord, la correction des modèles, et ensuite, la correction des transformations utilisées. La contribution de ce travail s'articule autour de ces deux axes et constitue un premier pas vers la fiabilisation des processus de dévelopement dirigés pas les modèles. Le premier axe de ce travail vise à améliorer les possibilités de validation des modèles en proposant une plateforme pour la définition de langages de modélisation. En fonction des expériences et du domaine considéré, les modèles utilisés dans l'ingénierie dirigée par les modèles sont exprimés dans divers langages de modélisation. Comme tout langage, un langage de modélisation est constitué de plusieurs éléments de spécification : une syntaxe abstraite (ou méta-modèle), une sémantique et des contraintes syntaxiques et sémantiques. Pour assurer la précision et la cohérence d'un tel langage, il faut d'une part spécifier sans ambiguïtés chaque élément, et d'autre part assurer la bonne intégration des différents éléments entre eux. Or, les pratiques actuelles de l'ingénierie dirigée par les modèles utilisent des formalismes hétérogènes et parfois difficiles à exploiter (le langage naturel par exemple) pour la spécification de ces éléments. Afin d'améliorer la définition des langages de modélisation, nous proposons l'utilisation d'un coeur sémantique unique et précis. Ce coeur sémantique se présente sous la forme d'un langage appelé Kermeta. Au coeur de la plateforme d'ingénierie dirigée par les modèles développée par l'équipe Triskell, le langage Kermeta a été utilisé dans des contextes variés dont la transformation de modèles, la modélisation orientée-aspects et l'analyse d'exigences logicielles. L'utilisation de Kermeta pour ces applications a permis de valider le langage et de mettre en évidence ses avantages par rapport aux techniques existantes. Le second axe de ce travail concerne la validation des transformations de modèles. Celles-ci sont utilisées pour automatiser les phases du processus de développement qui peuvent l'être. Qu'il s'agisse de raffinement, de composition, de refactoring ou encore de génération de code, la qualité des transformations de modèles est primordiale pour assurer la qualité des logiciels développés. Il suffit en effet qu'une seule transformation utilisée soit erronée pour que l'ensemble du processus de développement soit fragilisé. Dans ce contexte, nous proposons une technique pour la sélection de modèles de test permettant la validation des programmes de transformation de modèles. Cette technique tire avantage du fait que toute transformation de modèles manipule des données dont la structure est décrite par un méta-modèle.
APA, Harvard, Vancouver, ISO, and other styles
9

Taly, Jean-François. "Evaluation de la structure des modèles de protéines par dynamique moléculaire." Paris 7, 2007. http://www.theses.fr/2007PA077138.

Full text
Abstract:
Dans ce projet nous avons analysé différentes caractéristiques structurales le long de trajectoires de dynamique moléculaire (DM) dans le but de discriminer des modèles similaires de modèles dissimilaires. Ces modèles sont basés sur des alignements séquence-structure fournis par notre méthode de reconnaissance de repliements, FRO5T. Les modèles similaires ont été construits à partir d'alignements de séquences avec des structures similaires à leur structure native et les modèles dissimilaires à partir d'alignements de séquences avec des structures sans relations avec leur structure native. Nous avons construit un jeu de modèles couvrant l'ensemble de la gamme pouvant être générée : d'un modèle parfait, Le. , la structure native, à un mauvais modèle, i. E. , un alignement de la séquence cible sur une structure appartenant à une autre classe structurale, en passant par plusieurs modèles intermédiaires basés sur des alignements de FROST. Nous avons soumis ces modèles à des simulations de DM de 11 ns à 3 températures. Nous avons analysé les moyennes du «Root-Mean-Square déviation» (RMSd) par rapport à la conformation initiale, les fluctuations du RMSd, le nombre de familles conformationnelles, l'évolution des structures secondaires, et les scores d'un nouveau potentiel statistique fondé sur les surfaces atomiques d'interaction. Aucun de ces critères est capable, seul, de discriminer les modèles similaires des modèles dissimilaires. Cependant cette discrimination est possible si nous les combinons. La capacité à discriminer les modèles similaires des modèles dissimilaires nous permet d'augmenter la spécificité et la sensibilité de FRQST dans les cas ambiguës
In this study we monitor different protein structural properties along molecular dynamics (MD) trajectories to discriminate correct from erroneous models. These models are based on the sequence-structure alignments provided by our fold recognition method, FROST. We define correct models as being built from alignments of sequences with structures similar to their native structures and erroneous models from alignments of sequences with structures unrelated to their native structures. We built a set of models intended to cover the whole spectrum: from a perfect model, i. E. , the native structure, to a very poor model, i. E. , a random alignment of the test sequence with a structure belonging to another structural class, including several intermediate models based on fold recognition alignments. We submitted these models to 11 ns of MD simulations at 3 different temperatures. We monitored along the corresponding trajectories the mean of the Root-Mean-Square deviations (RMSd) with respect to the initial conformation, the RMSd fluctuations, the number of conformation clusters, the evolution of secondary structures, and new statistical potential scores based on atomic interaction surface areas. None of these criteria alone is 100% efficient in discriminating correct from erroneous models. However if we consider these criteria in combination it is straightforward to discriminate thé two types of models. The ability of discriminating correct from erroneous models allows us to improve the specificity and sensitivity of our fold recognition method for a number of ambiguous cases
APA, Harvard, Vancouver, ISO, and other styles
10

Lopes, Marcos. "Modèles inductifs de la sémiotique textuelle." Paris 10, 2002. http://www.theses.fr/2002PA100145.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Eyssautier-Bavay, Carole. "Modèles, langage et outils pour la réutilisation de profils d'apprenants." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00327198.

Full text
Abstract:
Cette thèse en informatique se place dans le domaine des Environnements Informatiques pour l'Apprentissage Humain. Durant une activité d'apprentissage, de nombreuses informations peuvent être recueillies et interprétées pour constituer un profil, en termes de connaissances, compétences, conceptions ou comportements d'un apprenant ou d'un groupe d'apprenants. Ces profils peuvent différer de part leur intention pédagogique, leur contenu, leur structuration, leur présentation. Par ailleurs, les acteurs de la situation d'apprentissage concernés par ces profils sont divers.

Il n'existe pas à l'heure actuelle de solution technique permettant de réutiliser ces profils hétérogènes. Cette thèse cherche donc à proposer des modèles et des outils permettant la réutilisation pour les différents acteurs de profils d'apprenants créés par d'autres.

Dans nos travaux, nous proposons le modèle de processus de gestion de profils REPro (Reuse of External Profiles). Pour permettre la réutilisation de profils hétérogènes, nous proposons de les réécrire selon un formalisme commun qui prend la forme d'un langage de modélisation de profils, le langage PMDL (Profiles MoDeling Language). Nous définissons ensuite un ensemble d'opérateurs permettant la transformation des profils ainsi harmonisés, ou de leur structure, tels que l'ajout d'éléments dans le profil, ou la création d'un profil de groupe à partir de profils individuels. Ces propositions ont été mises en œuvre au sein de l'environnement EPROFILEA du projet PERLEA (Profils d'Élèves Réutilisés pour L'Enseignant et l'Apprenant), avant d'être mises à l'essai auprès d'enseignants en laboratoire.
APA, Harvard, Vancouver, ISO, and other styles
12

Swaileh, Wassim. "Des modèles de langage pour la reconnaissance de l'écriture manuscrite." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR024/document.

Full text
Abstract:
Cette thèse porte sur le développement d'une chaîne de traitement complète pour réaliser des tâches de reconnaissance d'écriture manuscrite non contrainte. Trois difficultés majeures sont à résoudre: l'étape du prétraitement, l'étape de la modélisation optique et l'étape de la modélisation du langage. Au stade des prétraitements il faut extraire correctement les lignes de texte à partir de l'image du document. Une méthode de segmentation itérative en lignes utilisant des filtres orientables a été développée à cette fin. La difficulté dans l’étape de la modélisation optique vient de la diversité stylistique des scripts d'écriture manuscrite. Les modèles optiques statistiques développés sont des modèles de Markov cachés (HMM-GMM) et les modèles de réseaux de neurones récurrents (BLSTM-CTC). Les réseaux récurrents permettent d’atteindre les performances de l’état de l’art sur les deux bases de référence RIMES (pour le Français) et IAM (pour l’anglais). L'étape de modélisation du langage implique l'intégration d’un lexique et d’un modèle de langage statistique afin de rechercher parmi les hypothèses proposées par le modèle optique, la séquence de mots (phrase) la plus probable du point de vue linguistique. La difficulté à ce stade est liée à l’obtention d’un modèle de couverture lexicale optimale avec un minimum de mots hors vocabulaire (OOV). Pour cela nous introduisons une modélisation en sous-unités lexicales composée soit de syllabes soit de multigrammes. Ces modèles couvrent efficacement une partie importante des mots hors vocabulaire. Les performances du système de reconnaissance avec les unités sous-lexicales dépassent les performances des systèmes de reconnaissance traditionnelles de mots ou de caractères en présence d’un fort taux de mots hors lexique. Elles sont équivalentes aux modèles traditionnels en présence d’un faible taux de mots hors lexique. Grâce à la taille compacte du modèle de langage reposant sur des unités sous-lexicales, un système de reconnaissance multilingue unifié a été réalisé. Le système multilingue unifié améliore les performances de reconnaissance par rapport aux systèmes spécialisés dans chaque langue, notamment lorsque le modèle optique unifié est utilisé
This thesis is about the design of a complete processing chain dedicated to unconstrained handwriting recognition. Three main difficulties are adressed: pre-processing, optical modeling and language modeling. The pre-processing stage is related to extracting properly the text lines to be recognized from the document image. An iterative text line segmentation method using oriented steerable filters was developed for this purpose. The difficulty in the optical modeling stage lies in style diversity of the handwriting scripts. Statistical optical models are traditionally used to tackle this problem such as Hidden Markov models (HMM-GMM) and more recently recurrent neural networks (BLSTM-CTC). Using BLSTM we achieve state of the art performance on the RIMES (for French) and IAM (for English) datasets. The language modeling stage implies the integration of a lexicon and a statistical language model to the recognition processing chain in order to constrain the recognition hypotheses to the most probable sequence of words (sentence) from the language point of view. The difficulty at this stage is related to the finding the optimal vocabulary with minimum Out-Of-Vocabulary words rate (OOV). Enhanced language modeling approaches has been introduced by using sub-lexical units made of syllables or multigrams. The sub-lexical units cover an important portion of the OOV words. Then the language coverage depends on the domain of the language model training corpus, thus the need to train the language model with in domain data. The recognition system performance with the sub-lexical units outperformes the traditional recognition systems that use words or characters language models, in case of high OOV rates. Otherwise equivalent performances are obtained with a compact sub-lexical language model. Thanks to the compact lexicon size of the sub-lexical units, a unified multilingual recognition system has been designed. The unified system performance have been evaluated on the RIMES and IAM datasets. The unified multilingual system shows enhanced recognition performance over the specialized systems, especially when a unified optical model is used
APA, Harvard, Vancouver, ISO, and other styles
13

Roth, Eberhard. "Protéines fer-soufre : caractérisation et études physicochimiques de modèles biomimétiques." Grenoble 1, 1990. http://www.theses.fr/1990GRE10147.

Full text
Abstract:
Les proteines fer-soufre representent une classe d'enzymes tres repandue en biologie. La decouverte d'une nouvelle famille dont le site actif comporte trois atomes de fer rendait necessaire l'obtention d'analogues synthetiques, reproduisant les proprietes structurales, magnetiques et spectroscopiques des sites actifs correspondants. Deux approches synthetiques differentes ont ete poursuivies: 1) l'oxydation d'un agregat a 4fe peut entrainer la labilisation et l'ejection d'un atome de fer, de sorte que celui-ci peut etre remplace par du cobalt; 2) un trimere lineaire de fer, deja connu auparavant, se transforme en pseudocubane lorsqu'on effectue un echange de ligands avec un thiolate steriquement encombre. L'espece pseudo-cubique ainsi formee est capable d'incorporer du co et du mn. Les proprietes reox, magnetiques et optiques des composes obtenus sont presentees, ainsi qu'une etude magnetique approfondie de l'agregat a 4fe oxyde, mettant en jeu un nouvel hamiltonien de spin
APA, Harvard, Vancouver, ISO, and other styles
14

Barrat-Charlaix, Pierre. "Comprendre et améliorer les modèles statistiques de séquences de protéines." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS378.

Full text
Abstract:
Dans les dernières décennies, les progrès des techniques expérimentales ont permis une augmentation considérable du nombre de séquences d'ADN et de protéines connues. Cela a incité au développement de méthodes statistiques variées visant à tirer parti de cette quantité massive de données. Les méthodes dites co-évolutives en font partie, utilisant des idées de physique statistique pour construire un modèle global de la variabilité des séquences de protéines. Ces méthodes se sont montrées très efficaces pour extraire des informations pertinentes des seules séquences, comme des contacts structurels ou les effets mutationnels. Alors que les modèles co-évolutifs sont pour l'instant utilisés comme outils prédictifs, leur succès plaide pour une meilleure compréhension de leur fonctionnement. Dans cette thèse, nous proposons des élaborations sur les méthodes déjà existantes tout en questionnant leur fonctionnement. Nous étudions premièrement sur la capacité de l'Analyse en Couplages Directs (DCA) à reproduire les motifs statistiques rencontrés dans les séquences des familles de protéines. La possibilité d'inclure d'autres types d'information comme des effets mutationnels dans cette méthode est présentée, suivie de corrections potentielles des biais phylogénétiques présents dans les données utilisées. Finalement, des considérations sur les limites des modèles co-évolutifs actuels sont développées, de même que des suggestions pour les surmonter
In the last decades, progress in experimental techniques have given rise to a vast increase in the number of known DNA and protein sequences. This has prompted the development of various statistical methods in order to make sense of this massive amount of data. Among those are pairwise co-evolutionary methods, using ideas coming from statistical physics to construct a global model for protein sequence variability. These methods have proven to be very effective at extracting relevant information from sequences, such as structural contacts or effects of mutations. While co-evolutionary models are for the moment used as predictive tools, their success calls for a better understanding of they functioning. In this thesis, we propose developments on existing methods while also asking the question of how and why they work. We first focus on the ability of the so-called Direct Coupling Analysis (DCA) to reproduce statistical patterns found in sequences in a protein family. We then discuss the possibility to include other types of information such as mutational effects in this method, and then potential corrections for the phylogenetic biases present in available data. Finally, considerations about limitations of current co-evolutionary models are presented, along with suggestions on how to overcome them
APA, Harvard, Vancouver, ISO, and other styles
15

Igel, Angélique. "Mécanismes d'inactivation des protéines amyloïdes." Paris 7, 2013. http://www.theses.fr/2013PA077101.

Full text
Abstract:
Les fibres amyloïdes correspondent à des assemblages protéiques insolubles associés aux maladies neurodégénératives. En tenant compte des propriétés biophysiques de ces fibres qui leur confèrent une très grande résistance, et du spectre de leur transmissibilité, tout laisse suggérer que des actes médico-chirurgicaux pourraient potentiellement induire ou transmettre des amyloïdoses par l'inoculation de noyaux de nucléation. L'objectif de ce travail est d'évaluer les mécanismes d'inactivation des assemblages d'Ap et de prion, afin de comprendre les mécanismes d'inactivation des protéines amyloïdes. Dans un premier temps, nous avons évalué l'évolution de la structure quaternaire des assemblages de prion issus de 3 souches (263K, vCJD et 139A) après des traitements de décontamination. L'ensemble des résultats obtenus montrent que l'inactivation du prion sont souche-dépendants. Cette propriété intrinsèque des souches serait due à une structuration différente des protomères de PrP au sein des assemblages. Enfin, des approches similaires à celles employées dans le champ des prions ont été utilisées afin d'évaluer la résistance des assemblages amyloïdes issus de la maladie d'Alzheimer (peptide Aß). Nos résultats préliminaires d'inactivation du peptide synthétique Ap, montrent que ce peptide, dans son état fïbrillaire, possède des propriétés lui conférant une haute résistance. Afin d'approfondir nos résultats dans un modèle de peptide ayant subit une maturation de repliement in-vivo, nous avons mis au point un nouveau modèle cellulaire exprimant le peptide Aß40. Ce nouvel outil d'étude est opérationnel depuis peu et semble prometteur pour l'étude des propriétés du peptide Aß
Amyloides fibers correspond to insoluble protein assemblies associated to the neurodegenerative diseases. By taking into account properties biophysics of these fibers which confer them a very high resistance, and the spectre of their transmissibility, everything lets suggest that medical surgical acts could potentially lead or transmit amyloidoses by the inoculation of nucleation seed. The objective of this work is to estimate mechanisms of inactivation of A ß and prion assemblies, to understand the mechanisms of inactivation of amyloides proteins. At first, we estimated the evolution of the quaternary structure of the assemblies of prion stemming from 3 strains (263K, vCJD and 139A) after decontamination treatments. Ail results demonstrate that the inactivation of prion are strain dependent. This intrinsic property of strain would be due to different structuring of PrP protomers within the assemblies. Finally, similar approaches to those used on the field of prions were used to estimate the résistance of amyloide assemblies stemming from the Alzheimer's disease (peptide A ß). Our preliminary results of synthetic peptide A ß inactivation, show that this peptide, in its fibrillar state, possesses properties conferring it a high strength. To deepenour results in a model of peptide having sudden a maturation of in-vivo withdrawal, we have designed a new cellular model expressing the peptide A640. This new tool is operational recently and seems promising for the study of the properties of the peptide Aß
APA, Harvard, Vancouver, ISO, and other styles
16

Giard, Aude. "Étude quantique de sites métalliques dans des peptides et protéines modèles." Thesis, Montpellier, Ecole nationale supérieure de chimie, 2014. http://www.theses.fr/2014ENCM0008/document.

Full text
Abstract:
La nicotianamine est une molécule naturelle qui joue un rôle essentiel dans la régulation des concentrations en métaux de transition dans les plantes. Sa structure comprend trois acides carboxyliques et trois fonctions amines. L'objectif du travail présenté dans ce manuscrit est d'établir un protocole permettant de reproduire les propriétés de chélation de cette molécule grâce à des calculs de chimie quantique. L'intérêt est d'appliquer ce protocole à des analogues synthétiques de la nicotianamine, afin de prédire leurs propriétés.Le protocole que nous avons mis au point s'articule autour de quatre axes : le calcul des pKa, l'étude des propriétés de chélation, le calcul de tenseur g de résonance paramagnétique électronique et l'analyse des propriétés vibrationnelles. Ces différents points ont nécessité le développement de méthodes de calcul et d'outils innovants. Les calculs de chimie quantique qui ont été effectués sont basés sur la théorie de la fonctionnelle de la densité. On a utilisé des fonctionnelles hybrides, associées à un modèle de solvant implicite ou semi-explicite qui permet de prendre en compte l'effet du milieu.Nous avons proposé une méthode graphique originale adaptée à la nicotianamine permettant le calcul de ses six pKa ainsi que celui des pka des complexes formés avec les métaux de transition. Cette méthode conduit à une bonne précision sur les calcul de pKa dans l'intervalle de pH physiologique. Ces pKa renseignent sur le comportement de la nicotianamine dans différents milieux végétaux. Nous avons aussi envisagé plusieurs protocoles pour l'étude des propriétés de chélation de la nicotianamine.Pour compléter l'étude des complexes de la nicotianamine, nous avons paramétré une méthode simple et rapide de calcul du tenseur g de systèmes moléculaires contenant du cuivre paramagnétique. Enfin, nous avons développé un programme graphique permettant l'analyse des modes de vibration infrarouges de systèmes moléculaires comme les complexes métal-nicotianamine étudiés
Nicotianamine is a triamino acid that plays an essential role in regulation and transportation of transition metals in plants by a chelation process. Functional analogues of this molecule have already been synthesised that we hope to use for selective soil decontamination thanks to their property changes with respect to nicotianamine. Therefore, the aim of the present work is to find a predictive protocol for the chelating properties of these analogues, using the know example of nicotianamine. We worked out a predictive protocol focusing on the four following points : pKas, chelation, EPR tensors and vibrational properties. It uses quantum chemistry methods such as hybrid DFT functionals and implicit solvent models.The pKa calculations for nicotianamine and metal-nicotianamine complexes were performed using a novel graphical method well suited to these systems. The pKas are useful to understand the effect of the various plants pHs on the complexes. Then we computed the chelation constants and the structures of metal-nicotianamine complexes. As a complement to the study of these complexes, we set up protocols to calculate the EPR tensors of the copper-nicotianamine complex and to analyse the infra-red vibrations of the complexes, using respectively a parametrised method and a local code
APA, Harvard, Vancouver, ISO, and other styles
17

Bettan, Mickaël. "Transfert de gènes par électrotransfert dans le muscle squelettique et dans des modèles de tumeurs." Paris, Muséum national d'histoire naturelle, 2000. http://www.theses.fr/2000MNHN0032.

Full text
Abstract:
De nombreuses maladies sont liées à l'absence ou à une concentration insuffisante d'une protéine plasmatique. Actuellement, deux approches sont proposées pour corriger ces déficiences : l'injection répétée de protéines recombinantes ou la thérapie génique utilisant des vecteurs viraux ou non viraux. Les travaux présentés ici montrent une sécrétion élevée et prolongée de différentes protéines secrétées par le muscle de souris. Ces résultats ont été obtenus par l'application d'impulsions électriques d'onde carrée, de faible champ électrique (200 v/cm) et de longue durée (20 ms) à travers le muscle squelettique préalablement injecté avec un plasmide codant la protéine secrétée. Cette méthode d'électrotransfert intramusculaire permet d'augmenter de 30 à 150 fois la sécrétion d'une protéine rapporteuse comparée à l'injection d'ADN nu. Cette augmentation permet d'obtenir des taux élevés de protéines secrétées (2200 ng/ml de HSE AP). De plus, cette sécrétion élevée reste stable pendant plusieurs mois (au moins 12 mois). Grâce à cette technologie, nous avons pu obtenir des effets physiologiques et thérapeutiques en utilisant des plasmides codant l'érythropoietine ou l'hormone de croissance. L'électrotransfert de 200 g de plasmide COdant l'HGH dans le muscle de rats déficients en hormone de croissance a significativement accéléré leur croissance. De même, nous avons montré une amélioration du phénotype d'un modèle de -thalassémie après un seul électrotransfert de 20 g d'un plasmide codant l'érythropoietine dans le muscle de souris malades. Nous avons aussi montre qu'il était possible, en utilisant cette technologie, d'augmenter le transfert d'un gène rapporteur de 10 à 1200 fois dans différents modèles de tumeurs implantées par rapport à l'injection d'ADN nu. Toutefois, cette amplification du transfert de gènes n'a pas permis d'obtenir un effet antitumoral lors de l'électrotransfert d'un gène codant un peptide antiangiogénique, le fragment amino-terminal de l'urokinase
APA, Harvard, Vancouver, ISO, and other styles
18

Ameur-Boulifa, Rabéa. "Génération de modèles comportementaux des applications réparties." Nice, 2004. http://www.theses.fr/2004NICE4094.

Full text
Abstract:
Nous nous intéressons dans ce document à la vérification de propriétés comportementales d’applications distribuées par la technique du model-checking. En particulier, nous étudions le problème de génération de modèles à partir de programmes Java répartis et représentés par systèmes de transitions communiquant. A partir de la sémantique formelle de programmes ProActive – une librairie 100 % Java pour la programmation parallèle, distribuée et concurrente – nous construisons, de manière compositionnelle et hiérarchique, des modèles comportementaux finis pour des abstractions finies d’applications. Ces modèles sont décrits mathématiquement et graphiquement. Et la procédure de construction, dont nous prouvons la terminaison, est décrite par des règles sémantiques s’appliquant à une forme intermédiaire des programmes obtenue par analyse statique. Ces règles sont ensuite étendues afin de générer des modèles paramétrés pour des applications possiblement infinies. La construction de modèles paramétrés a été, d’abord, faite sur un noyau de Java et la bibliothèque ProActive, puis étendue à des constructions communication de groupe. Des exemples de modèles, générés directement à partir de ces règles implémentées par un prototype, sont également étudiés
From the formal semantics of ProActive – 100 % Java library for concurrent, distributed, and mobile computing -, we build, in a compositional way, finite models of finite abstract applications. These models are described mathematically and graphically. The procedure for building, of which we guaranty the ending, is described by semantics rules applied to an intermediate form of programs obtained by static analysis. Afterwards, these rules are extended so as to build parameterized models of infinite applications. Practically, a prototype for analysing a core of Java and ProActive library is constructed. Moreover, some realistic examples are studied
APA, Harvard, Vancouver, ISO, and other styles
19

Trojet, Mohamed Wassim. "Approche de vérification formelle des modèles DEVS à base du langage Z." Aix-Marseille 3, 2010. http://www.theses.fr/2010AIX30040.

Full text
Abstract:
Le cadre général dans lequel se situe cette thèse concerne l’amélioration de la vérification et la validation des modèles de simulation par l'intégration des méthodes formelles. Notre approche consiste à doter les modèles DEVS d’une approche de vérification formelle basée sur le langage Z. DEVS est un formalisme qui permet la description et l'analyse du comportement des systèmes à évènements discrets, c'est à dire, les systèmes dont le changement d'état dépend de l'occurrence d'un évènement. Un modèle DEVS est essentiellement validé par la simulation qui permet de vérifier si celui ci décrit bien le comportement du système. Cependant, la simulation ne permet pas de détecter la présence d’une éventuelle inconsistance dans le modèle (un conflit, une ambiguïté ou une incomplétude). Pour cela, nous avons intégré un langage de spécification formelle dans le formalisme DEVS connu sous le nom de Z. Cette intégration consiste à: (1) transformer un un modèle DEVS vers une spécification Z équivalente et (2) vérifier la consistance de la spécification résultante utilisant les outils développés par la communauté Z. Ainsi un modèle DEVS est soumis à une vérification formelle automatique avant son passage à la phase de simulation
The general framework of the thesis consists in improving the verification and the validation of simulation models through the integration of formal methods. We offered an approach of formal verification of DEVS models based on Z language. DEVS is a formalism that allows the description and analysis of the behavior of discrete event systems, ie systems whose state change depends on the occurrence of an event. A DEVS model is essentially validated by the simulation which permits to verify if it correctly describes the behavior of the system. However, the simulation does not detect the presence of a possible inconsistency in the model (conflict, ambiguity or incompleteness). For this reason, we have integrated a formal specification language, known as Z, in the DEVS formalism. This integration consists in: (1) transforming a DEVS model into an equivalent Z specification and (2) verifying the consistency of the resulting specification using the tools developed by the Z community. Thus, a DEVS model is subjected to an automatic formal verification before its simulation
APA, Harvard, Vancouver, ISO, and other styles
20

Janiszek, David. "Adaptation des modèles de langage dans le cadre du dialogue homme-machine." Avignon, 2005. http://www.theses.fr/2005AVIG0144.

Full text
Abstract:
Actuellement, la plupart des systèmes de reconnaissance automatique de la parole (SRAP) sont basés sur des modèles de langage statistiques (MLS). Ces modèles sont estimés à partir d'ensembles d'observations. La mise en oeuvre d'un SRAP nécessite un corpus en adéquation avec le domaine de l'application. Or, à cause des difficultés posées par leur collecte, les corpora disponibles peuvent s'avérer insuffisants pour estimer correctement des MLS. Pour surmonter cela, on souhaite utiliser d'autres données et les adapter au contexte applicatif du SRAP afin d'améliorer les performances du système de dialogue correspondant. Dans ce cadre, nous avons défini et mis en oeuvre un nouveau paradigme : la représentation matricielle des données linguistiques. Cette approche, au centre de nos travaux; permet de nouveaux traitements des données linguistiques grâce à l'utilisation de l'algèbre linéaire. Par exemple, on peut définir une similarité sémantico-fonctionnelle entre plusieurs mots. En nous basant sur la représentation matricielle, nous avons étudié et mis au point plusieurs techniques d'adaptation selon plusieurs axes de recherche : Le filtrage des données : basé sur la technique des blocs minimaux. La transformation linéaire : par le calcul d’un opérateur algébrique transformant les données linguistiques. L'augmentation de données : technique réestimant les occurrences d'un mot observé en fonction de sa similarité avec d'autres mots. La combinaison sélective d'historiques : technique généralisant l'interpolation linéaire de différents modèles de langage. Combinaison de techniques : nous avons cherché les meilleures combinaisons. Les résultats expérimentaux obtenus nous donnent des améliorations relatives du taux d'erreur mot sous certaines conditions. En particulier, nos expériences montrent que l'augmentation de données et la combinaison sélective d'historiques, lorsqu'elles sont associées, donnent des résultats intéressants
Currently, most of the automatic speech recognition (ASR) systems are based on statistical language models (SLM). These models are estimated from sets of observations. So, the implementation of an ASR system requires having a corpus in adequacy with the aimed application. Because of the difficulties occurring while collecting these data, the available corpora may be insufficient to estimate SLM correctly. To raise this insufficiency, one may wish to use other data and to adapt them to the application context. The main objective is to improve the performances of the corresponding dialogue system. Within this framework, we've defined and implemented a new paradigm: the matrix representation of the linguistic data. This approach is the basis of our work; it allows a new linguistic data processing thanks to the use of the linear algebra. For example, we've defined a semantic and functional similarity between words. Moreover, we have studied and developed several techniques of adaptation based on the matrix representation. During our study, we've investigated several research orientations: Filtering the data: we've used the technique of the minimal blocks. The linear transformation: this technique consists in defining an algebraic operator to transform the linguistic data. The data augmentation: this technique consists in reestimating the occurrences of a word observed according to its functional similarity with other words. The selective combination of histories: this technique is a generalization of the linear interpolation of language models. Combining techniques: each technique having advantages and drawbacks, we've sought the best combinations. The experimental results obtained within our framework of study give us relative improvements in term of word error rate. In particular, our experiments show that associating the data augmentation and the selective combination of histories gives interesting results
APA, Harvard, Vancouver, ISO, and other styles
21

Oger, Stanislas. "Modèles de langage ad hoc pour la reconnaissance automatique de la parole." Phd thesis, Université d'Avignon, 2011. http://tel.archives-ouvertes.fr/tel-00954220.

Full text
Abstract:
Les trois piliers d'un système de reconnaissance automatique de la parole sont le lexique,le modèle de langage et le modèle acoustique. Le lexique fournit l'ensemble des mots qu'il est possible de transcrire, associés à leur prononciation. Le modèle acoustique donne une indication sur la manière dont sont réalisés les unités acoustiques et le modèle de langage apporte la connaissance de la manière dont les mots s'enchaînent.Dans les systèmes de reconnaissance automatique de la parole markoviens, les modèles acoustiques et linguistiques sont de nature statistique. Leur estimation nécessite de gros volumes de données sélectionnées, normalisées et annotées.A l'heure actuelle, les données disponibles sur le Web constituent de loin le plus gros corpus textuel disponible pour les langues française et anglaise. Ces données peuvent potentiellement servir à la construction du lexique et à l'estimation et l'adaptation du modèle de langage. Le travail présenté ici consiste à proposer de nouvelles approches permettant de tirer parti de cette ressource.Ce document est organisé en deux parties. La première traite de l'utilisation des données présentes sur le Web pour mettre à jour dynamiquement le lexique du moteur de reconnaissance automatique de la parole. L'approche proposée consiste à augmenter dynamiquement et localement le lexique du moteur de reconnaissance automatique de la parole lorsque des mots inconnus apparaissent dans le flux de parole. Les nouveaux mots sont extraits du Web grâce à la formulation automatique de requêtes soumises à un moteur de recherche. La phonétisation de ces mots est obtenue grâce à un phonétiseur automatique.La seconde partie présente une nouvelle manière de considérer l'information que représente le Web et des éléments de la théorie des possibilités sont utilisés pour la modéliser. Un modèle de langage possibiliste est alors proposé. Il fournit une estimation de la possibilité d'une séquence de mots à partir de connaissances relatives à 'existence de séquences de mots sur le Web. Un modèle probabiliste Web reposant sur le compte de documents fourni par un moteur de recherche Web est également présenté. Plusieurs approches permettant de combiner ces modèles avec des modèles probabilistes classiques estimés sur corpus sont proposées. Les résultats montrent que combiner les modèles probabilistes et possibilistes donne de meilleurs résultats que es modèles probabilistes classiques. De plus, les modèles estimés à partir des données Web donnent de meilleurs résultats que ceux estimés sur corpus.
APA, Harvard, Vancouver, ISO, and other styles
22

Fichot, Jean. "Langage et signification : le cas des mathématiques constructives." Paris 1, 2002. http://www.theses.fr/2002PA010653.

Full text
Abstract:
Différentes définitions permettent d'interpréter les théories mathématiques constructives formellement axiomatisées. L'objectif ici est de déterminer si l'une de ces définitions rend compte fidèlement des notions intuitives de vérité et de validité constructives. Nous montrons que l'adéquation de différentes définitions de modèles de la logique intuitionniste (Scott, Beth et Kripke) à ces notions intuitives est douteuse (Partie I). La théorie des constructions (Kreisel, Goodman) et différentes définitions de la réalisabilité récursive (Kleene ), qui cherchent à rendre compte de l'aspect épistémique de la notion intuitive de vérité constructive, sont envisagées dans la partie II. Elles mènent à s'interroger sur la justification d'une réduction de la notion de constructivité humaine à une définition mathématique de la calculabilité mécanique ;justification qui est donnée dans la Partie III en s'appuyant sur des arguments empruntés à la logique mathématique, l'informatique théorique et la philosophie du langage (Prawitz, Dummett et Martin-Lot).
APA, Harvard, Vancouver, ISO, and other styles
23

Sourty, Raphael. "Apprentissage de représentation de graphes de connaissances et enrichissement de modèles de langue pré-entraînés par les graphes de connaissances : approches basées sur les modèles de distillation." Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30337.

Full text
Abstract:
Le traitement du langage naturel (NLP) est un domaine en pleine expansion axé sur le développement d'algorithmes et de systèmes permettant de comprendre et de manipuler les données du langage naturel. La capacité à traiter et à analyser efficacement les données du langage naturel est devenue de plus en plus importante ces dernières années, car le volume de données textuelles générées par les individus, les organisations et la société dans son ensemble continue de croître de façon significative. Les graphes de connaissances sont des structures qui encodent des informations sur les entités et les relations entre elles. Ils constituent un outil puissant qui permet de représenter les connaissances de manière structurée et formalisée, et de fournir une compréhension globale des concepts sous-jacents et de leurs relations. La capacité d'apprendre des représentations de graphes de connaissances a le potentiel de transformer le traitement automatique du langage et d'autres domaines qui reposent sur de grandes quantités de données structurées. Les travaux menés dans cette thèse visent à explorer le concept de distillation des connaissances et, plus particulièrement, l'apprentissage mutuel pour l'apprentissage de représentations d'espace distincts et complémentaires. Notre première contribution est de proposer un nouveau cadre pour l'apprentissage d'entités et de relations sur des bases de connaissances multiples appelé KD-MKB. L'objectif clé de l'apprentissage de représentations multigraphes est d'améliorer les modèles d'entités et de relations avec différents contextes de graphes qui peuvent potentiellement faire le lien entre des contextes sémantiques distincts. Notre approche est basée sur le cadre théorique de la distillation des connaissances et de l'apprentissage mutuel. Elle permet un transfert de connaissances efficace entre les KBs tout en préservant la structure relationnelle de chaque graphe de connaissances. Nous formalisons l'inférence d'entités et de relations entre les bases de connaissances comme un objectif de distillation sur les distributions de probabilité postérieures à partir des connaissances alignées. Sur la base de ces résultats, nous proposons et formalisons un cadre de distillation coopératif dans lequel un ensemble de modèles de KB sont appris conjointement en utilisant les connaissances de leur propre contexte et les softs labels fournies par leurs pairs. Notre deuxième contribution est une méthode permettant d'incorporer des informations riches sur les entités provenant de bases de connaissances dans des modèles de langage pré-entraînés (PLM). Nous proposons un cadre original de distillation coopératif des connaissances pour aligner la tâche de pré-entraînement de modèles de langage masqués et l'objectif de prédiction de liens des modèles de représentation de KB. En exploitant les informations encodées dans les bases de connaissances et les modèles de langage pré-entraînés, notre approche offre une nouvelle direction de recherche pour améliorer la capacité à traiter les entités des systèmes de slot filling basés sur les PLMs
Natural language processing (NLP) is a rapidly growing field focusing on developing algorithms and systems to understand and manipulate natural language data. The ability to effectively process and analyze natural language data has become increasingly important in recent years as the volume of textual data generated by individuals, organizations, and society as a whole continues to grow significantly. One of the main challenges in NLP is the ability to represent and process knowledge about the world. Knowledge graphs are structures that encode information about entities and the relationships between them, they are a powerful tool that allows to represent knowledge in a structured and formalized way, and provide a holistic understanding of the underlying concepts and their relationships. The ability to learn knowledge graph representations has the potential to transform NLP and other domains that rely on large amounts of structured data. The work conducted in this thesis aims to explore the concept of knowledge distillation and, more specifically, mutual learning for learning distinct and complementary space representations. Our first contribution is proposing a new framework for learning entities and relations on multiple knowledge bases called KD-MKB. The key objective of multi-graph representation learning is to empower the entity and relation models with different graph contexts that potentially bridge distinct semantic contexts. Our approach is based on the theoretical framework of knowledge distillation and mutual learning. It allows for efficient knowledge transfer between KBs while preserving the relational structure of each knowledge graph. We formalize entity and relation inference between KBs as a distillation loss over posterior probability distributions on aligned knowledge. Grounded on this finding, we propose and formalize a cooperative distillation framework where a set of KB models are jointly learned by using hard labels from their own context and soft labels provided by peers. Our second contribution is a method for incorporating rich entity information from knowledge bases into pre-trained language models (PLM). We propose an original cooperative knowledge distillation framework to align the masked language modeling pre-training task of language models and the link prediction objective of KB embedding models. By leveraging the information encoded in knowledge bases, our proposed approach provides a new direction to improve the ability of PLM-based slot-filling systems to handle entities
APA, Harvard, Vancouver, ISO, and other styles
24

Galvez, Thierry. "Oligomérisation et activation des récepteurs couplés aux protéines G : ce que révèle l'étude du récepteur GABAb." Montpellier 2, 2001. http://www.theses.fr/2001MON20068.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Boyarm, Aristide. "Contribution à l'élaboration d'un langage de simulation à événements discrets pour modèles continus." Aix-Marseille 3, 1999. http://www.theses.fr/1999AIX30050.

Full text
Abstract:
Le travail presente dans cette these concerne la modelisation et la simulation a evenements discrets de systemes continus a trajectoires d'entree - sortie lineaires par morceaux. Il s'agit principalement de concevoir un langage de simulation a evenements discrets pour modeles continus dont l'objectif est de proposer une alternative prometteuse a la simulation des systemes continus. Le langage de simulation que nous proposons, comporte sous la forme de modeles atomique a evenements discrets les trois classes d'instructions (instructions fonctions du temps, instantanees, et memoires) utilisees pour decrire les modeles continus. Il comporte aussi des instructions qui permettent des descriptions de modeles couples. Ces descriptions pouvant etre gardees dans une base de modele et reutilisees lors de descriptions de modeles plus complexes. Les algorithmes de simulation du langage sont bases sur l'utilisation du concept de simulateur conceptuel introduit par zeigler pour realiser l'execution des modeles en respectant leur structure modulaire et hierarchique. Des exemples de simulation a evenements discrets de systemes continus sont traites dans la these pour illustrer l'interet du langage.
APA, Harvard, Vancouver, ISO, and other styles
26

Nogier, Jean-François. "Un système de production de langage fondé sur le modèles des graphes conceptuels." Paris 7, 1990. http://www.theses.fr/1990PA077157.

Full text
Abstract:
Cette thèse porte sur la conception d'une architecture de production de langage, c'est-à-dire la mise en oeuvre informatique de la traduction des idées en mots (comment le dire ?). L'accent a été mis sur deux aspects du problème : le choix des mots et la linéarisation en phrase des représentations syntaxiques intermédiaires. Le modèle de représentation des connaissances : les graphes conceptuels, est unique tout au long du processus. En effet, il permet de modéliser à la fois la structure manipulée par le programme (aux stades conceptuels et syntaxiques) et les connaissances déclaratives nécessaires (définitions sémantiques des mots, propriétés syntaxiques. . . ). Le système sélectionne simultanément les mots et les structures syntaxiques. Bénéficiant d'une même modélisation pour la signification d'un mot ou d'une phrase (le graphe conceptuel), un mot est choisi parce qu'il y a recouvrement en son graphe conceptuel (définition sémantique du mot) et le graphe conceptuel initial représentant la sémantique de la phrase à engendrer. Plusieurs mots peuvent être candidats. Le système peut revenir sur ses choix, sélectionner un des autres mots possibles et ainsi paraphraser (paraphrase sémantique) la phrase précédente. La génération de paraphrases se fait donc automatiquement par retour en arrière. Le graphe syntaxique obtenu après le choix des mots et une représentation syntaxique de la phrase à engendrer. Il est transmis au composant syntaxique. La linéarisation en phrase suit trois étapes : 1) Construction progressive de l'arbre syntaxique ; 2) Transformations de l'arbre ; 3) Déclinaison. Chaque étape de la linéarisation tient compte des propriétés syntaxiques des mots en présence. A ce stade, il est également possible d'obtenir des paraphrases par retour en arrière
APA, Harvard, Vancouver, ISO, and other styles
27

Strub, Florian. "Développement de modèles multimodaux interactifs pour l'apprentissage du langage dans des environnements visuels." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I030.

Full text
Abstract:
Alors que nous nous représentons le monde au travers de nos sens, de notre langage et de nos interactions, chacun de ces domaines a été historiquement étudié de manière indépendante en apprentissage automatique. Heureusement, ce cloisonnement tend à se défaire grâce aux dernières avancées en apprentissage profond, ce qui a conduit à l'uniformisation de l'extraction des données au travers des communautés. Cependant, les architectures neuronales multimodales n'en sont qu'à leurs premiers balbutiements et l’apprentissage par renforcement profond est encore souvent restreint à des environnements limités. Idéalement, nous aimerions pourtant développer des modèles multimodaux et interactifs afin qu’ils puissent correctement appréhender la complexité du monde réel. Dans cet objectif, cette thèse s’attache à la compréhension du langage combiné à la vision pour trois raisons : (i) ce sont deux modalités longuement étudiées aux travers des différentes communautés scientifiques (ii) nous pouvons bénéficier des dernières avancées en apprentissage profond pour les modèles de langues et de vision (iii) l’interaction entre l’apprentissage du langage et notre perception a été validé en science cognitives. Ainsi, nous avons conçu le jeu GuessWhat?! (KéZaKo) afin d’évaluer la compréhension de langue combiné à la vision de nos modèles : deux joueurs doivent ainsi localiser un objet caché dans une image en posant une série de questions. Nous introduisons ensuite le principe de modulation comme un nouveau module d’apprentissage profond multimodal. Nous montrons qu’une telle approche permet de fusionner efficacement des représentations visuelles et langagières en prenant en compte la structure hiérarchique propre aux réseaux de neurones. Enfin, nous explorons comment l'apprentissage par renforcement permet l’apprentissage de la langue et cimente l'apprentissage des représentations multimodales sous-jacentes. Nous montrons qu’un tel apprentissage interactif conduit à des stratégies langagières valides mais donne lieu à de nouvelles problématiques de recherche
While our representation of the world is shaped by our perceptions, our languages, and our interactions, they have traditionally been distinct fields of study in machine learning. Fortunately, this partitioning started opening up with the recent advents of deep learning methods, which standardized raw feature extraction across communities. However, multimodal neural architectures are still at their beginning, and deep reinforcement learning is often limited to constrained environments. Yet, we ideally aim to develop large-scale multimodal and interactive models towards correctly apprehending the complexity of the world. As a first milestone, this thesis focuses on visually grounded language learning for three reasons (i) they are both well-studied modalities across different scientific fields (ii) it builds upon deep learning breakthroughs in natural language processing and computer vision (ii) the interplay between language and vision has been acknowledged in cognitive science. More precisely, we first designed the GuessWhat?! game for assessing visually grounded language understanding of the models: two players collaborate to locate a hidden object in an image by asking a sequence of questions. We then introduce modulation as a novel deep multimodal mechanism, and we show that it successfully fuses visual and linguistic representations by taking advantage of the hierarchical structure of neural networks. Finally, we investigate how reinforcement learning can support visually grounded language learning and cement the underlying multimodal representation. We show that such interactive learning leads to consistent language strategies but gives raise to new research issues
APA, Harvard, Vancouver, ISO, and other styles
28

Roque, Matthieu. "Contribution à la définition d'un langage générique de modélisation d'entreprise." Bordeaux 1, 2005. http://www.theses.fr/2005BOR13059.

Full text
Abstract:
Cette thèse traite de la définition d'un langage unifié de modélisation d'entreprise (UEML). Celle‑ci aborde, dans un premier temps, l'existant en modélisation d'entreprise. Nous exposons différentes approches et langages qui au cours des années ont eu pour objectif d'unifier des langages et nous montrons, qu'à l'heure actuelle, ils ne permettent pas de répondre à notre problématique. Par la suite, un exemple simple de traduction entre une activité SADT et une activité GRAI des réseaux GRAI est traité par une approche empirique. Il permet de faire ressortir un ensemble de difficultés inhérentes à la définition d'UEML, et, à partir de celui‑ci, nous exposons notre point de vue ainsi qu'un ensemble de principes auxquels nous adhérons. Ensuite, nous proposons une approche basée sur la méta‑modélisation des langages, en utilisant le langage UML, ainsi que sur la théorie des ensembles. Cette approche permet l'identification des composants élémentaires nécessaires à la définition de notre langage unifié. Enfin, nous présentons un exemple complet d'élaboration d'un UEML, en partant de trois langages de modélisation d'entreprise (GRAI, IEM et EEML) et en procédant par une approche ascendante. Ces travaux ont été réalisés dans le cadre du réseau thématique UEML. Nous exposons, finalement, les différences entre les deux approches et les éléments importants que l'on peut en dégager.
APA, Harvard, Vancouver, ISO, and other styles
29

Bouchmarina, Natalia. "L'étude du mécanisme du repliement des protéines par les méthodes biophysiques sur deux protéines modèles : l'α-lactalbumine et l'anhydrase carbonique B." Université Joseph Fourier (Grenoble), 2004. http://www.theses.fr/2004GRE10204.

Full text
Abstract:
Le repliement des protéines est un des problèmes centraux de la biologie. La dénaturation et le repliement des protéines de plus de cent acides aminés ne sont pas coopératifs et passent par l'accumulation d'états intermédiaires. La caractérisation structurale de ces intermédiaires est essentielle pour une meilleure compréhension de la réaction de repliement et des possibles déviations qui peuvent mener au développement de maladies graves. Les mécanismes de repliement et de dénaturation ont été étudiés pour deux protéines modèles: l'a-lactalbumine et l'anhydrase carbonique. Dans le cas de l'anhydrase carbonique, plusieurs intermédiaires ont été détectés pendant la dénaturation à l'équilibre dans différentes conditions. Ces intermédiaires diffèrent notamment par leur tendance à former des agrégats. Dans le cas de l'a-lactalbumine bovine, les effets des métaux sur les cinétiques de repliement ont été caractérisés en détail. Les aspects thermodynamiques de la liaisor des métaux sur différents états intermédiaires de l'a-lactalbumine sont discutés. Ensuite, la résonance magnétique nucléaire et la spectroscopie infrarouge ont été associées pour étudier les changements de structures secondaires et tertiaires qui interviennent penda la réaction de repliement de l'a-lactalbumine. Une méthode de spectroscopie de corrélation a été utilisée pour permettre la comparaison des observations faites par les deux types de spectroscopie et pour une description très détaillée de tous les changements de structure impliqués dans la réaction
Protein folding is one of the central problems in biology. Denaturation and folding of the proteins with more than 100 amino acids is not cooperative and goes through the accumulation of stable intermediates. Structural characterization of such intermediates is essential for better understanding of protein folding reaction and possible deviations that can lead to the development of severe diseases. The folding and denaturation mechanisms have been studied for two model proteins alpha-lactalbumin and carbonic anhydrase B. Several intermediates have been discovered during the equilibrium denaturation of carbonic anhydrase in different denaturating conditions. These intermediates differ by their capability to aggregate and associate. In the case of alpha-Iactalbumin, metal effects on the refolding kinetics have been characterized in detail. Thermodynamic aspects of metal binding to different intermediate states of the alpha lactalbumin are discussed. Then, nuclear magnetic resonance and infrared spectroscopy were associated for study the secondary and tertiary structure changes that occur during the folding reaction of alpha-lactalbumin. A method of correlation spectroscopy has been usee to compare the observations done by the two types of spectroscopy and for a very detailed description of ail the structural changes implied in the reaction
APA, Harvard, Vancouver, ISO, and other styles
30

Marcil, Josée. "Étude des protéines G couplées au système adénylyl cyclase dans différents modèles d'hypertension." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1996. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/nq21488.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Gambin, Yann. "Dynamique en milieux confinés : peptides et protéines en interaction avec des bicouches modèles." Paris 6, 2006. http://www.theses.fr/2006PA066609.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Cheynet, Valérie. "De la détection du virus VIH-1 : protéines recombinantes et modèles cellulaires d'infection." Lyon 1, 1994. http://www.theses.fr/1994LYO1T211.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Dedieu, Alain. "Exploration des modifications post-traductionnelles des protéines : nouvelles approches et nouveaux modèles biologiques." Thesis, Montpellier 1, 2014. http://www.theses.fr/2014MON13516/document.

Full text
Abstract:
L'étude des modifications post-traductionnelles a connu au cours des dernières années un regain d'intérêt notable. Tout d'abord car elle s'effectue aujourd'hui au travers d'approches basées sur la spectrométrie de masse, technique qui pendant cette période a connu de profonds bouleversements, conduisant à des études plus aisées et systématiques.Mais aussi car tant par leur variété que par le rôle qu'elles jouent dans la vie et la régulation cellulaire, ces modifications ne peuvent plus être négligées. Par ailleurs au cours de ces quinze dernières années, nous avons assisté concernant les procaryotes à un changement total de paradigme. En effet à la fin des années 90, l'idée dominante était que ces modifications pouvaient exister chez ceux-ci mais de façon très partielle et/ou très particulière.Dans ce travail, les divers degrés d'iodation de la tyrosine ont été sondés par une approche de type «shotgun » sur un organe entier, la thyroïde de souris. L'efficacité de ce type d'approche démontrée, les modifications post-traductionnelles potentiellement présentes dans des organismes modèles radiorésistants, la bactérie Deinococcus deserti et l'archée Thermococcus gammatolerans ont été analysées. Dans le premier cas, les données de protéomique montrent que de nombreuses acétylations N-terminales portent sur un motif spécifique (essentiellement des thréonines et sérines), cas très atypique pour une bactérie. Chez Thermococcus gammatolerans les acétylations N-terminales sont rares, mais la présence d'acétylations sur les chaînes latérales des lysines est notable. La présence de phosphorylations sur ces mêmes protéines, laisse entrevoir un possible phénomène de « cross talk » entre les lysines acétylées et les sérines et/ou thréonines phosphorylées.Ici, nous démontrons que la complexité du protéome chez les procaryotes par le biais des MPT est bien réelle et que de possibles interdépendances entre MPT mériteraient un regard nouveau
Recently, the study of post-translational modifications has greatly evolved, mainly because of crucial progresses in mass spectrometry methodology which have allowed high-throughput, high resolution analysis. Their variety and their role in the regulation of key molecular mechanisms are increasingly documented. In this work, the different degrees of iodination of tyrosine were probed with a "shotgun" approach carried out from an entire organ, the mice thyroid. Post-translational modifications present in two radioresistant organism models, the bacterium Deinococcus deserti and the archaeon Thermococcus gammatolerans, were analyzed. The large scale exploration of N-terminal acetylation in D. deserti indicates a specific pattern of this modification on serine and threonine, as well as an atypical, high propension to acetylation with 50% of modified N-termini. In T. gammatolerans, N-terminal acetylation is rare, but the presence of acetylation on lysine side chains is significant. The presence of phosphorylation on these proteins suggests a potential "cross talk" between the acetylated lysine and phosphorylated serine or threonine residues. This work demonstrates that the complexity of the proteome in prokaryotes through post-translational modifications is higher than expected when extremophiles are scrutinized compared to classical prokaryote models. Interdependencies between post-translational modifications definitively deserve a fresher look
APA, Harvard, Vancouver, ISO, and other styles
34

Debret, Gaëlle. "Etude par Modélisation Moléculaire des Propriétés Mécaniques d'un Système Membranaire : le Canal mécanosensible Mscl au sein de Bicouches Lipidiques Modèles." Paris 7, 2007. https://tel.archives-ouvertes.fr/tel-00189606.

Full text
Abstract:
Les canaux mécanosensibles de large conductance (MscL) sont des protéines membranaires intégrales permettant à la bactérie de survivre lors de chocs hypo-osmotiques. Leur principale caractéristique est de s'ouvrir en réponse à un stress mécanique : une tension de la membrane. La compréhension de leur mode d'activation est un prérequis pour élaborer un modèle global de la sensibilité à la tension membranaire. Nous avons étudié les premières étapes du mécanisme d'ouverture du MscL induites par une diminution de l'épaisseur membranaire, ainsi que les interactions gouvernant ces changements conformationnels par des simulations de dynamique moléculaire. La comparaison des analyses en composantes principales des trajectoires et en modes normaux nous a permis de mettre en évidence l'influence de la membrane sur la dynamique intrinsèque du canal. Nous avons ensuite étudié des canaux MscL issus de différents organismes et présentant des sensibilités mécaniques différentes. Des différences significatives de comportement des deux systèmes plongés dans des membranes d'épaisseur variable ont été mises en évidence. Ces différences nous ont conduits à exploré le rôle des différentes régions et notamment le rôle des boucles périplasmiques en construisant des canaux hybrides par combinaison de régions provenant d'organismes différents. Les résultats obtenus confirment le rôle primordial des boucles périplasmiques dans la sensibilité du MscL
Mechanosensitive channels of large conductance are integral membrane proteins that permit the bacterium to survive when hypo-osmotic shock occurs. Their principal characteristic is to open in response to a mechanical stress : a tension of the membrane. Understanding their mode of activation is necessary to work out a global model of the mechanism of sensitivity to membrane tension. We studied the first stages of the gating mechanism of MscL induced by membrane thinning, as well as the interactions controlling these conformational changes by moleculardynamics simulations. The comparison of principal component analysis of the trajectories and the directions given by the normal modes enabled us to highlight the influence of the membrane on the intrinsic dynamics of the channel. We then studied MscL channels from various organisms and having different sensitivities. Significant differences between the behaviours of the two Systems plunged in membranes of variable thickness were highlighted. These differences led us to explore the role of the various domains and in particular the role of the periplasmic loops by building hybrid channels by combination of domains from different organisms. The results obtained confirm the fundamental role of the periplasmic loops in the sensitivity of the MscL
APA, Harvard, Vancouver, ISO, and other styles
35

Chaari, Ali. "Modulation de l'agrégation des protéines amyloïdes par de petites molécules : modèle du lysozyme." Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS0003.

Full text
Abstract:
Au moins vingt protéines humaines peuvent s’agréger anormalement pour former des dépôts pathologiques qui sont associés à plusieurs maladies dégénératives. Malgré les nombreuses études concernant l’agrégation des amyloïdes et leurs toxicité, la base moléculaire de ce mécanisme reste inconnu. Au cours de ma thèse, j’ai analysé le processus d'agrégation du lysozyme à pH 2 et à 57°C par différents techniques. D’autre part, une attention particulière a été concentrée sur l'exploration de l'activité inhibitrice, de certains produits naturels, de la formation des fibrilles du lysozyme d’œuf de poulet en utilisant la spectroscopie de fluorescence, la microscopie de force atomique, la spectroscopie infra rouge et la diffusion dynamique de la lumière. Nous avons constaté que la formation des fibrilles in vitro a été inhiber par tous les produits de manière dose dépendante. De plus, ces molécules ont la capacité de désintégrer les fibrilles déjà préformés. Basé sur l'analyse de structure et de morphologie nous avons constaté que ces produits inhibent l’agrégation avec la même efficacité mais ils remodèlent différemment les oligomères. Aussi nous avons évalué l'effet de ces produits sur l’agrégation de l’alpha synucleine et les résultats montrent que ces produits inhibent son agrégation d’une manière dose dépendante. Ainsi, il apparaît que nicotine, dopamine, resvératrol, rutine et tyrosol sont des inhibiteurs génériques de la formation de fibrilles et peuvent remodeler différents de protéines amyloïdes
At least twenty human proteins can fold abnormally to form pathological deposits that are associated with several degenerative diseases. Despite extensive investigation on amyloid fibrillogenesis and toxicity of certain aggregate forms, its detailed molecular mechanisms remain unknown. During my PhD, I was analysed the aggregation process of lysozyme at pH 2 and 57°C by different techniques. Particular attention has been focused on the exploring the inhibitory activity of natural products such us nicotine, dopamine, resveratrol, rutine and tyrosol against the fibrillation of hen lysozyme by using fluoresecence spectroscopy, atomic force microscopy, infra rouge spectroscopy and dynamic light scattering. We found that the formation of amyloid fibrils in vitro was inhibited by all products in a dose dependent manner. Moreover, they were also capable of robustly disaggregating pre-formed oligomers. Based upon structure analysis we demonstrate that natural products inhibit the aggregation with the same efficacity but they remodel differently oligomers and amyloid fibrils. Also we have tested the effect of these products in the aggregation of alpha synuclein and results demonstrate that the formation of alpha synuclein amyloid fibrils was inhibited by all products in a dose dependent manner. Thus, it appears that nicotine; dopamine, resveratrol, rutine and tyrosol are generic inhibitors of amyloid fibril formation and can remodel different conformers of amyloid proteins
APA, Harvard, Vancouver, ISO, and other styles
36

Tron, Cécile. "Modèles quantitatifs de machines parallèles : les réseaux d'interconnexion." Grenoble INPG, 1994. http://www.theses.fr/1994INPG0179.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de la conception et de la réalisation de l'environnement alpes (algorithmes parallèles et évaluation de systèmes), dédié à l'évaluation des performances des systèmes parallèles. Son objectif est de permettre d'évaluer différents programmes, différentes machines et différentes stratégies d'implémentation (placement, répartition dynamique) avec le même outil, en émulant le comportement de l'ensemble sur la même machine, appelée machine cible. Pour cela notre approche se fonde sur deux modèles: le modèle de programmes et le modèle de machines. Le travail présente porte essentiellement sur le modèle de machine. Ce modèle comprend des paramètres quantitatifs représentant la vitesse des composants (processeurs, réseau) dans le cas d'une exécution réelle. Nous avons débuté par l'étude des communications et cette thèse propose une méthodologie, basée sur un jeu d'essais, pour évaluer les performances des communications point-à-point sous des contraintes de charge. Cette méthodologie a été appliquée au meganode de Telmat et a la paragon d'intel. Nous proposons un modèle des durées de communication en fonction de la charge du réseau pour chacune de ces deux machines. Nous présentons ensuite le projet alpes dans ses grandes lignes et nous décrivons le modèle de machines que nous avons défini pour cet environnement. Nous explicitons les modifications que l'on peut apporter au programme synthétique pour qu'il émule une machine ayant des paramètres différents de ceux de la machine cible. Enfin la dernière partie de cette thèse étudie les performances de diverses stratégies de placement, et analyse si l'utilisation d'estimations précises des coûts de communication améliore la qualité des placements
APA, Harvard, Vancouver, ISO, and other styles
37

Kettani, Omar. "Modèles du calcul sans changement d'état : quelques développements et résultats." Aix-Marseille 2, 1989. http://www.theses.fr/1989AIX24005.

Full text
Abstract:
Le modele etudie, voisin de la machine de turing fait disparaitre l expression de l etat dans l algorithme par notation sur le ruban. La methode consiste a se munir d alphabets riches pour noter a la fois donnees et structures algorithmiques. L auteur presente d abord deux demonstrations d equivalence avec la machine de turing. Il envisage ensuite un modele dit parallele qui consiste a se deplacer en bloc sur une suite de cases, et en donne quelques applications sur des problemes classiques. La caracteristique de ces machines est de deplacer la tete de lecture a cheval sur deux cellules de memoire. Quand on considere un decalage maximun, la partie commune ne peut plus conserver que deux valeurs possibles, et l auteur montre que la puissance de telles machines est encore celle du calculable. Il montre encore dans ce cas l existence d une machine universelle, et enfin il etablit une relation avec les automates cellulaires
Turing machine takes his information in a box marked between severl others. Taking informationat once on parts of two contiguous boxes makes state desappear from algorithm. Correspondent information is else noted in each contiguous part of the two boxes. It becomes so necessary to employ large set of symbols. Here is proved equivalence of such machines with turing machines. Author imagines now parallel machines in whic a plenty of contiguous boxes can be marked simultaneously, and the travelling of marks scan part of box all at once. He applie it to several classical problems. In marking at once two contiguous boxes, it is possible to take at once half part of the first and half part of the second one, third part of the first and two thrid part of the second one, and so on. On the bound, at the utmost shift, it rests two values in common, and in this case author proves again equivalence of such machine with turing machine he proves so existence of an unviersal machine and establishes relation with cellular automata
APA, Harvard, Vancouver, ISO, and other styles
38

Navizet, Isabelle. "Modélisation et analyse des propriétés mécaniques des protéines." Paris 6, 2004. http://www.theses.fr/2004PA066309.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Le, Gloahec Vincent. "Un langage et une plateforme pour la définition et l’exécution de bonnes pratiques de modélisation." Lorient, 2011. http://www.theses.fr/2011LORIS239.

Full text
Abstract:
Le capital le plus précieux d’une entreprise d’ingénierie réside dans les connaissances et le savoir-faire acquis au fils des ans par ses employés. Malheureusement, faute de moyens qu’elles jugent adéquats, la plupart des entreprises ne rationalisent pas la gestion de ce type de connaissance. Dans le domaine de l’ingénierie des logiciels, ce savoir est généralement rassemblé sous la forme de bonnes pratiques documentées de manière informelle, peu propice à un usage effectif et adéquat de ces pratiques. Dans ce domaine, les activités de modélisation sont devenues prépondérantes, favorisant la réduction des efforts et des coûts de développement. La mise en oeuvre effective des bonnes pratiques liées aux activités de modélisation permettrait d’améliorer la productivité des développeurs et la qualité finale des logiciels. L’objectif de cette thèse, fruit d’une collaboration entre la société Alkante et le laboratoire VALORIA, est d’offrir un cadre à la fois théorique et pratique favorisant la capitalisation ainsi que la mise en application des bonnes pratiques de modélisation. Une démarche de gestion des bonnes pratiques de modélisation (BPM) est proposée. Celle-ci s’appuie sur les principes de l’ingénierie dirigée par les modèles (IDM), en proposant un découpage selon deux niveaux d’abstraction : un niveau PIM (Platform Independent Model) dédié à la capitalisation des BPM de manière indépendante de plateformes spécifiques et assurant ainsi la pérennité du savoir, et un niveau PSM (Platform Specific Model) destiné à la vérification du respect des BPM au sein des outils de modélisation. Pour assurer la capitalisation des bonnes pratiques (au niveau PIM), un langage spécifique dédié à la description des BPM a été élaboré, sur la base de caractéristiques communes identifiées par une étude approfondie portant sur deux principaux types de bonnes pratiques : celles centrées sur des aspects processus, et d’autres d’avantage focalisées sur le style ou la forme des modèles. Ce langage, dénommé GooMod, est défini par sa syntaxe abstraite, représentée par un métamodèle conforme au MOF (Meta Object Facility), une description de sa sémantique et une syntaxe concrète graphique. Une plateforme fournit les deux outils nécessaires à la fois à la définition de BPM (conforment au langage GooMod) et à leur mise en application effective au sein d’outils de modélisation. L’outil BPM Définition est un éditeur graphique qui facilite la description de BPM ciblant n’importe quel langage de modélisation (UML par exemple), mais de manière indépendante des outils de modélisation. L’outil BPM Exécution fournit une implémentation de niveau PSM, ciblant spécifiquement les outils de modélisation basés sur le framework GMF (Graphical Modeling Framework) de l’environnement de développement Eclipse. Lors des activités de modélisation effectuées par les concepteurs, cet outil automatise la vérification du respect de BPM décrites en GooMod. Ce travail a fait l’objet d’une validation portant sur deux aspects de l’approche proposée. Une étude de cas industriel illustre la définition en GooMod d’une BPM spécifique à la modélisation d’applications Web développées par la société Alkante. Une expérimentation portant sur l’évaluation de l’efficacité et de l’utilisabilité de l’outil d’exécution des BPM a été menée auprès d’étudiants
The most valuable asset of an IT company lies in knowledge and know-how acquired over the years by its employees. Unfortunately, lacking means they deem appropriate, most companies do not streamline the management of such knowledge. In the field of software engineering, this knowledge is usually collected in the form of best practices documented in an informal way, rather unfavorable to the effective and adequate use of these practices. In this area, the modeling activities have become predominant, favoring the reduction of effort and development costs. The effective implementation of best practices related to modeling activities would help improve developer productivity and the final quality of software. The objective of this thesis, as part of a collaboration between the Alkante company and the VALORIA laboratory, is to provide a both theoretical and practical framework favoring the capitalization of best modeling practices. An approach for the management of good modeling practices (GMPs) is proposed. This approach relies on the principles of model-driven engineering (MDE), by proposing a division into two levels of abstraction: a PIM level (Platform Independent Model) dedicated to the capitalization of GMPs independently of any specific platform, ensuring the sustainability of knowledge, and a PSM level (Platform Specific Model) dedicated to the verification of compliance of GMPs in modeling tools. To ensure the capitalization of good practices (GPs), a specific language dedicated to the description of GMPs has been developed on the basis of common characteristics identified by a detailed study of two types of GPs : those focusing on process aspects, and others more focused on style or shape of models. This langage, called GooMod, is defined by its abstract syntax, represented as a MOF compliant metamodel (MOF stands for Meta Object Facility), a description of its semantics, and a graphical concrete syntax. A platform provides the two necessary tools for both the definition of GMPs (that conforms to the GooMod language) and their effective application in modeling tools. The GMP Definition Tool is a graphical editor that facilitates the description of GMPs targeting any modeling language (e. G. GMPs for the UML), but independently of modeling tools. The GMP Execution Tool is a PSM level implementation specifically targeting modeling tools based on the Graphical Modeling Framework (GMF) of the Eclipse integrated development environment. During modeling activities performed by designers, this tool automates the verification of compliance of GMPs originally described in GooMod. This work has been validated on two aspects of the proposed approach. An industrial case study illustrates the definition, using the GooMod language, of a GMP specific to the modeling of Web applications developed by the Alkante company. An experiment on the evaluation of the effectiveness and usability of the GMP Execution Tool was conducted among students
APA, Harvard, Vancouver, ISO, and other styles
40

Guihal, David. "Modélisation en langage VHDL-AMS des systèmes pluridisciplinaires." Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00157570.

Full text
Abstract:
Ce travail de thèse porte sur la problématique d'élaboration de modèles de systèmes hétérogènes. Il a associé le laboratoire de recherche LAAS-CNRS et la société MENTOR GRAPHICS. Il prend place au sein d'un processus de conception qui se fonde sur les recommandations de l'EIA-632 et sur une ingénierie guidée par les modèles. L'objectif de notre travail est de montrer en quoi le langage VHDL-AMS est adapté à la problématique de modélisation et de simulation de la solution physique au sens des recommandations de l'EIA-632. Dans un premier temps, ce manuscrit présente un état de l'art sur les besoins en modélisation pour la conception système, et dresse un bilan sur les différents langages de modélisation susceptibles d'y répondre. Afin de proposer la norme VHDL-AMS (IEEE 1076.1-1999) comme solution, notre travail s'est attaché à présenter et proposer une méthode à mettre en oeuvre pour converger vers cette norme. Notre démarche s'appuie sur l'ingénierie guidée par les modèles avec une place prépondérante jouée par les transformations de modèle. Nous avons développé ce concept de transformation en vue d'une convergence vers le VHDL-AMS : nous développons la notion de meta modèle avec, entre autre, la création d'un meta modèle du langage VHDL-AMS. Celui-ci va permettre une vérification de la conformité des modèles créés, mais aussi l'écriture de règles de transformations au niveau meta modèle. L'intérêt des industriels possédant un existant de modèles écrits dans un langage de description de matériel propriétaire autre (par exemple le langage MAST) en vue d'une migration vers la norme VHDL-AMS, nous a permis d'éprouver cette méthodologie dans de nombreux cas concrets. Nous avons aussi comparé cette approche à une méthodologie que nous avions précédemment définie, nécessitant une expertise dans les deux langages source et cible. Cela nous a permis de conclure positivement sur la faisabilité d'une telle transformation avec une semi-automatisation et une expertise encore n écessaire à certaines étapes. A titre de démonstration, nous avons développé de nombreux modèles mixtes confirmant les aptitudes du VHDL-AMS à pouvoir être le support principal du prototypage virtuel, ainsi que la validité de notre méthode de transformation. Nous avons notamment réalisé la modélisation VHDL-AMS d'un système très hétérogène de mise à feu d'une charge pyrotechnique, qui valide notre méthodologie. La validation des modèles en conformité avec les spécifications est une des perspectives identifiées de nos travaux, à approfondir.
APA, Harvard, Vancouver, ISO, and other styles
41

Ramadour, Philippe. "Modèles et langage pour la conception et la manipulation de composants réutilisables de domaine." Aix-Marseille 3, 2001. http://www.theses.fr/2001AIX30092.

Full text
Abstract:
Le domaine de la conception des systèmes d'information est un secteur très demandeur en techniques et méthodes nouvelles visant à améliorer la qualité des produits et la performance des processus de conception. Ces besoins ont tait émerger des méthodes et outils innovants, aujourd'hui largement adoptés et utilisés. II est maintenant possible d'envisager une approche de développement basée sur la réutilisation de composants existants et éprouvés. Une telle approche doit permettre de réduire le temps de conception des systèmes d information, d'en améliorer la qualité et d'en faciliter la maintenance. . . Cinq résultats essentiels ont été produits à l'issue de ce travail de recherche. Une démarche de conception de systèmes de réutilisation permet d'identifier les connaissances de domaine à réutiliser, de les abstraire afin de taire apparaître la variabilité du domaine et de les discriminer. Cette démarche s'appuie sur un méta-modèle de domaine. Celui-ci offre un ensemble de concepts pour spécifier les buts, activités et objets d'un domaine. II peut être utilisé aussi bien lors de la modélisation de champs d'application que de méthodes d'ingénierie des systèmes d' information. Un modèle de composants réutilisables de domaine permet d'opérationnaliser, en vue de leur réutilisation, les connaissances ainsi formalisées en les structurant sous forme de composants de domaine. Des opérateurs et un processus de manipulation de composants sont décrits. Ils visent à supporter et guider l'ingénierie par réutilisation. Enfin, une plate-forme logicielle pour la conception et la manipulation de composants de domaine a été spécifiée et développée pour supporter l'ensemble de la démarche.
APA, Harvard, Vancouver, ISO, and other styles
42

Rossi, Claire. "Construction et validation de modèles membranaires biomimétiques supportés pour l'étude des interactions protéines/membranes." Compiègne, 2005. http://www.theses.fr/2005COMP1611.

Full text
Abstract:
L'objectif de ces travaux est de développer des membranes biomimétiques facilitant les études des interactions protéines-membranes. Ces systèmes membranaires artificiels sont assemblés et ancrés sur des substrats solides afin de permettre l'application de mesures physico-chimiques (SPR, FRAP, AFM). Afin de réaliser des membranes biologiques synthétiques couplées au support et délimitant deux compartiments distincts (cis/in et trans/out), notre approche consiste à coupler de façon covalente une bicouche de lipides à une surface plane (or, verre, etc. ) préalablement activée, par l'intermédiaire de lipides fonctionnalisés incorporés directement dans des vésicules lipidiques. Une étude par plan d'expérience Doehlert a permis de contrôler la formation de ces bicouches supportées. Ces membranes biomimétiques ont été appliquées à l'étude des interactions calcium-dépendantes de deux protéines : la neurocalcine myristoylée et la toxine Adénylate cyclase de Bordetella pertussis
Our aim is to develop biomimetic membrane systems for protein-membrane interactions studies. These artificial membrane systems are assembled and anchored on solid substrates in order to allow the application of physicochemical measurements (SPR, FRAP, AFM). Ln order to create tethered lipid membrane, which delimit two distinct compartments (cis/in and trans/out), the selected approach is to anchor a lipid bilayer on a functionalized planar surface : (gold, glass, etc. ) in a covalent way, via functionalized lipids which are directly incorporated in lipids vesic1es. A experimental design Doelhert study allowed us to control the formation way of these tethered lipid bilayers. These biomimetic membranes were applied to the study of the calcium-dependent interactions on two proteins: the Myr-neurocalcine, a myristoyled protein and a bacterial toxin, the Adenylate cyc1ase of Bordetella pertussis
APA, Harvard, Vancouver, ISO, and other styles
43

Morin, Bénédicte. "Systèmes modèles pour l'étude de la formation de pontages ADN-protéines induits par photosensibilisation." Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10099.

Full text
Abstract:
Le materiel genetique peut-etre l'objet de nombreuses agressions chimiques, en particulier de type oxydatif lors de l'exposition a la lumiere solaire. Les modifications ainsi induites dans le materiel genetique appartiennent a quatre categories: modifications des bases, cassures simples et doubles de la chaine d'adn, sites abasiques et pontages avec des proteines. Nous nous sommes interesses aux mecanismes de formation et a la structure des pontages adn-proteines induits par la lumiere solaire. Differents systemes modeles ont ete synthetises pour simuler l'action de la chaine laterale, non engagee dans des liaisons peptidiques, des acides amines comme la serine, la threonine, et la lysine. La 2'-desoxyguanosine a ete utilisee comme modele de l'adn. L'irradiation des systemes modeles a 350 nm en presence d'un photosensibilisateur conduit dans tous les cas a l'addition nucleophile du compose mimant l'acide amine sur le carbone 8 de la guanine. Les differents photoproduits ont ete isoles par chromatographie liquide a haute performance et caracterises au moyen de diverses methodes spectroscopiques (uv, spectrometrie de masse, rmn du proton et du carbone, dichroisme circulaire). Les adduits guanine-methanol ont ensuite ete recherches dans l'adn isole par une technique sensible de detection, la chromatographie gazeuse couplee a la spectrometrie de masse. Un autre volet du travail concerne la synthese d'un oligonucleotide, le d(tpgpt). Cette etude realisee sur un court oligonucleotide non modifie a permis d'introduire dans le laboratoire une sequence recente de rmn 2d (soft-cosy) ainsi qu'une simulation des resultats experimentaux. Cette methode a permis d'obtenir des valeurs precises pour les constantes de couplage des protons du sucre et d'apporter ainsi des informations interessantes concernant la conformation de l'oligonucleotide
APA, Harvard, Vancouver, ISO, and other styles
44

Mimouni, Arnaud. "Cristallisation du lactose et épaississement dans les lactosérums concentrés." Rennes, Agrocampus Ouest, 2007. http://www.theses.fr/2007NSARB177.

Full text
Abstract:
Les poudres de lactosérums et dérivés sont aujourd’hui très diverses et la maîtrise leurs process de fabrication reste un enjeu important pour l’industrie. L’opération unitaire de cristallisation est une étape clé du procédé. Elle implique d’abord un changement d’état, celui du lactose, dont certains aspects de la cinétique restent encore mal connus. C’est notamment le cas lorsque la cristallisation se produit dans les milieux très riches en lactose et de composition chimique complexe. Cette opération unitaire est aussi le théâtre de modifications physico-chimiques secondaires des concentrés de lactosérums acides conduisant à des augmentations massives et incontrôlées de viscosité dont le mécanisme était jusqu’à présent inconnu
Lactose crystallization is a key step in the manufacture of whey powders and derivates. Both crystal size and mass of crystals producted affect the subsequent step of spray drying and whey powder quality. Consequently it is essential to control crystallization kinetics, crystal quality and how these properties are affected by whey components. A simple method to measure lactose crystal size on line by laser light scattering was developed. Whey proteins were shown to enhance lactose nucleation rate and to have a large lowering effect on final size of crystals during unseeded crystallization process. At industrial scale, high lactose supersaturations prevail during scrystallization step so that nucleation cystal growth and mutarotation simultaneously occurred
APA, Harvard, Vancouver, ISO, and other styles
45

Meuriot, Frédéric. "Etude et modélisation des effets de l'intensité de la coupe et du niveau des réserves organiques initiales sur la dynamique de l'azote et du carbone au cours de la repousse chez la luzerne (Medicago sativa L. )." Caen, 2004. http://www.theses.fr/2004CAEN2016.

Full text
Abstract:
Les effets de la réduction de i) l'alimentation azotée, de ii) la hauteur de coupe, et de iii) la surface foliaire résiduelle, ont été suivis, notamment au travers d'un modèle mécaniste quantitatif, sur la dynamique de l'azote (et du carbone) ainsi que sur la production lors de la repousse chez la luzerne. Le niveau des réserves azotées initiales est prépondérant vis-à-vis de la production finale. Le modèle suggère que ce rôle déterminant passe par une offre accrue en azote vers les parties aériennes en croissance pendant les 9 premiers jours de la repousse. La seconde variable explicative est ensuite représentée par la hauteur de coupe. Enfin, il apparaît que la surface foliaire résiduelle n'ait un effet significatif que lorsque les feuilles des chaumes sont remises dans des conditions de fort éclairement après la coupe. L'ensemble de ces résultats montre que la luzerne optimise sa production au travers d'une gestion dynamique de l'utilisation et du recyclage de l'azote.
APA, Harvard, Vancouver, ISO, and other styles
46

Bitard, Tristan. "Méthode de prédiction ab initio de la structure tertiaire des protéines dans l'espace des angles dièdres." Paris 7, 2012. http://www.theses.fr/2012PA077264.

Full text
Abstract:
Les protéines sont des composantes indispensables du fonctionnement cellulaire. L'obtention d'une séquence protéique est un travail relativement aisé. La compréhension fine du fonctionnement d'une protéine nécessite l'acquisition et l'analyse de sa structure tri-dimensionnelle. L'acquisition d'une structure par des méthodes biochimiques est un travail long et coûteux. De plus certaines structures protéiques peuvent être très difficiles à obtenir. La mise en place de méthodologies informatiques pour prédire la structure d'une protéine à partir de sa séquence est donc un travail de première importance dans le monde de la bioinformatique. Deux grands types de méthodes existent. Les méthodes qui utilisent une structure de référence pour réaliser une prédiction et les méthodes sans références dites ab initio. Ce travail de thèse s'intéresse aux méthodes ab initio. Ces méthodes requièrent la mise au point: d'un modèle protéique, d'une fonction d'énergies et de divers algorithmes. Ce travail de thèse effectue un retour historique sur les différents modèles et fonctions utilisés. Un modèle mixte, chaîne latérales non aromatiques des résidus simplifiés et chaînes principales tout atomes, est proposé. Le potentiel statistique est composé de différents termes, issus de la littérature ou de nos analyses. Différents algorithmes d'exploration sont mis en place, dont un dit de rotation concertée, permettant le déplacement dans l'espace des angles sans perturbation global de la topologie. Enfin un algorithme de sélection de structures candidates, issues d'une simulation, basé sur la densité des points d'un graphe est proposé. Des premiers résultats de simulations sont présentés
Proteins are essential components of cellular function. Obtaining a protein sequence is a relatively easy job. However a detailed understanding of the functioning of a protein requires the acquisition and analysis of its three-dimensional structure. The acquisition of a structure by biochemical methods is a long and expensive work. In addition, some protein structures can be very difficult to obtain. The implementation of computational methodologies for predicting protein structure from its sequence is a work of major importance in the world of bioinformatics. Two major types of methods exist. Methods that use a reference structure to make a prediction and methods without reference, also called ab initio methods. This thesis focuses on ab initio methods. These methods require: a protein model, a function of energy and varions algorithms. This thesis makes a historic return on varions models and functions used. A mixed model, non-aromatic side chain residues coarse-grained and backbones chains all atoms, is proposed. The statistical potential is composed of different terms from the literature or from our analyzes. Different mining algorithms are implemented, including a concerted rotation algorithm, allowing movement in space angles without disturbing the overall topology. Finally an algorithm for selecting candidate structures, from a simulation, based on the density of points on a graph is proposed. The first results of simulations are presented
APA, Harvard, Vancouver, ISO, and other styles
47

Beaumont, Jean-François. "Adaptation non supervisée des modèles de langage pour le sous-titrage de bulletins de nouvelles." Thesis, McGill University, 2004. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=79997.

Full text
Abstract:
This thesis presents an approach to create topic dependent language models. It is shown that a gain of 5% was reached using speech recognition for news broadcast. First, this document presents the theory, on which language models are based and the problem of sparse data which is one of the biggest problems associated with the creation of adequate language models. Next, general guidelines are presented in regard of the choices and techniques implied in the creation and the adaptation of language models. Finally, experimental results are presented and commented on to sustain the concept of topic dependent language models.
APA, Harvard, Vancouver, ISO, and other styles
48

Chebaro, Yassmine. "Agrégation des peptides et protéines amyloïdes par simulations numériques." Paris 7, 2010. http://www.theses.fr/2010PA077120.

Full text
Abstract:
L'agrégation des peptides en fibres et oligomères amyloïdes est la cause principale des maladies neurodégénératives. Nous nous intéressons dans cette thèse aux maladies à prions et Alzheimer. Les deux protéines impliquées dans ces pathologies sont respectivement les peptides Abeta et la protéine prion. Le processus d'auto-assemblage de ces protéines en oligomères toxiques est difficilement caractérisable par les techniques expérimentales à l'heure actuelle et la formation de fibres amyloïdes est un phénomène très lent, in vitro et in vivo. L'utilisation des simulations in silico est alors être un outil important pour une meilleure compréhension de l'assemblage pathologique. Dans ce travail, nous utilisons un champ de force (OPEP) basé sur un modèle de représentation réduite des acides aminés, permettant l'accès à des temps de simulations longs afin d'identifier les modifications structurales associées à l'assemblage amyloïde. Dans un premier temps, la présentation du modèle et de la fonction énergétique associée sont décrits, suivies de leurs validations sur des systèmes tests. Ensuite nous présentons les résultats de OPEP dans l'identification des propriétés structurales et thermodynamiques du peptide amyloïde Abeta(16-35), l'étude du mécanisme d'inhibition et de dissociation de fibrilles préformées en présence de peptides N-méthylés, et l'étude de deux systèmes modèles pour l'agrégation amyloïde. La troisième partie porte sur l'étude du mutant T183A de la protéine prion, responsable de la maladie de Creutzfeld-Jacob, sous formes de monomère et dimère, ainsi que sur l'agrégation de l'hélice Hl de la protéine prion, sous formes monomériques, dimériques et tétramériques
The aggregation of amyloid peptides and proteins is the hallmark of neurodegenerative disease. In this thesis, we were interested in the Alzheimer disease and the prion related diseases. The two proteins implicated in those pathologies are the Abeta peptides and the prion protein respectively. The self-assembly of these soluble proteins into toxix oligomers is difficult to caracterize using the actual experimental techniques and the formation of amyloid fibrils is a very slow process in vitro and in vivo. The use of in silico simulation methods is therefore a useful tool to a better understanding of the pathological assembly. In this work, we used the coarse-grained force field (OPEP) based on a reduced representation of the amino-acids, allowing the acccess to longer simulation times in order to identify the structural modifications associated with the amyloid assembly. First, we review the coarse-grained model and the energy function associated to it, followed by its validation on numerous Systems. Then, we present the results of OPEP on the identification of the structural and thermodynamical properties of the amyloid peptide Abeta(16-35), the study of the inhibition mechanism on a preformed fibril in the presence of N-methylated inhibitors, and finally the study of de novo synthesized model peptides of the amyloid aggregation. The last part of the work concerns the study of the prion protein and the effect of the T183A mutation, causing Creutzfeld-Jacob disease, on its structure and stability, in the monomeric and dimeric forms of the protein, as well as the aggregation properties of the Hl helix of the prion protein in its monomeric, dimeric and tetrameric states
APA, Harvard, Vancouver, ISO, and other styles
49

Ruffiot, Pauline. "Développement de systèmes membranaires modèles pour la vacuole parasitophore de Toxoplasma gondii : intéractions des protéines de granules denses (protéines GRA) avec des vésicules unilamellaires." Phd thesis, Grenoble 1, 2007. http://www.theses.fr/2007GRE10104.

Full text
Abstract:
Les protéines GRA sont sécrétées par le parasite intracellulaire Toxoplasma gondii dans la vacuole parasitophore, où elles interagissent pour la plupart avec deux systèmes de membranes tubulaires: les tubules séquestrant des organites de l'hôte (HaSTs) et le réseau de nanotubes membranaires (RNM). Bien que la plupart des protéines GRA contiennent des domaines transmembranaires potentiels, elles sont sécrétées sous des formes solubles et ne s'associent à des membranes qu'une fois qu'elles ont atteint leurs membranes-cibles dans la vacuole. Cette propriété inhabituelle nous a amenés à les considérer comme des modèles intéressants pour l'étude d'interactions protéine-membrane. J'ai développé deux approches expérimentales pour étudier les interactions des protéines GRA, extraites du parasite ou de la vacuole, avec des membranesmodèles. Premièrement, des approches biochimiques m'ont amenée à caractériser les formes de solubilisation des protéines GRA et leur association avec les membranes des petites vésicules unilamellaires (SUVs). Deuxièmement, j'ai développé une approche par spectroscopie de fluorescence, de protéines GRA associées aux membranes de vésicules unilamellaires géantes (GUVs). Les résultats fournissent des éléments de réponse qui (1) aident à décrypter le trafic des protéines dans le parasite et dans la vacuole et (2) ouvrent la voie pour la mise en place d'un système in vitro pour l'étude de la maturation de la vacuole parasitophore et de ses membranes tubulaires internes
GRA proteins are secreted by the intracellular parasite Toxoplasma gondii into the parasitophorous vacuole, where most of them interact with two systems of tubular membranes: the Host Organelle Sequestering Tubules (HaSTs) and the Membrane Nanotubules Network (RNM). Although most of the GRA proteins contain potential transmembrane domains, they are secreted as soluble forms and become membrane-associated only when they reach their target membranes. This unusual property led to consider them as attractive models of protein-membrane interactions. 1 developed two experimental approaches to study the interactions of GRA proteins, extracted trom the parasite or trom the vacuole, with model membranes. Firstly, biochemical approaches using Small Unilamellar Vesic1es (SUVs) led to characterize the solubilisation forms of GRA proteins and their association with SUVs membranes. Secondly, 1 developed a Giant Unilamellar Vesic1es (GUVs) model to study the interactions of GRA proteins with membranes by fluorescence spectroscopy methods. The results provide elements 1) which help to decipher the traffic of GRA proteins within the parasite and the PV, and 2) which open the way to set up an in vitro minimal system to study the building up of the parasitophorous vacuole and of its associated tubular membranes
APA, Harvard, Vancouver, ISO, and other styles
50

Martin, Juliette. "Prédiction de la structure locale des protéines par des modèles de chaîne de Markov cachées." Paris 7, 2005. http://www.theses.fr/2005PA077154.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography