Dissertations / Theses on the topic 'Protéines – Séparation – Simulation par ordinateur'

To see the other types of publications on this topic, follow the link: Protéines – Séparation – Simulation par ordinateur.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 41 dissertations / theses for your research on the topic 'Protéines – Séparation – Simulation par ordinateur.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Irankunda, Rachel. "Nickel Chelating Peptides & Chromatography : From Peptides Separation Simulation up to their Antioxidant Activities - related Applications." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0213.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les peptides chélateurs de métaux (PCMs), issus d'hydrolysats de protéines, présentent diverses applications dans les domaines de la nutrition, de la pharmacie, des cosmétiques, etc. Cependant, l'approche empirique généralement utilisée pour découvrir des peptides bioactifs à partir d'hydrolysats est longue et coûteuse en raison de nombreuses étapes de fractionnement, de séparation et d'évaluation des activités biologiques. Cette thèse a donc pour but de développer une nouvelle approche pour la prédiction de la séparation des PCMs en utilisant la modélisation et la simulation chromatographiques basées sur l'analogie entre la chromatographie d'affinité sur ions métalliques immobilisés (IMAC) et la résonance plasmonique de surface (SPR). Pour la première fois, l'analogie SPR-IMAC a été étudiée expérimentalement sur 22 peptides et 70% d'entre eux ont validé cette analogie, puisque les peptides bien retenus en IMAC étaient également dotés d'une bonne affinité pour Ni2+ en SPR. Dans un deuxième temps, des peptides ayant une forte affinité pour Ni2+ (c'est-à-dire une faible constante de dissociation KD en SPR et un temps de rétention élevé en IMAC) ont été utilisés pour étudier la simulation des profils de concentration de peptides à la sortie de la colonne en IMAC. La connaissance des isothermes d'adsorption étant nécessaire pour effectuer la simulation, il a fallu développer une méthodologie pour prédire les paramètres de l'isotherme de Langmuir en IMAC à partir des données SPR. La simulation a été évaluée en comparant les temps de rétention expérimentaux et simulés qui devraient être proches pour une prédiction fiable. Par conséquent, plusieurs approches ont été étudiées pour déterminer les paramètres de sorption de Langmuir. L‘approche la plus intéressante a introduit un facteur correctif sur la capacité d'adsorption maximale qmax seulement. En effet, l'affinité des peptides pour le Ni2+ immobilisé étant supposée constante quelle que soit technologie utilisée (SPR vs. IMAC), la constante d'affinité KA n'a pas été modifiée. Parallèlement, les applications industrielles des PCMs et des hydrolysats peptidiques ont été étudiées. Tout d'abord, des hydrolysats de protéines de pois ont été produits par protéolyse enzymatique soit avec l'Alcalase® suivi de la Flavourzyme® (Alc+Flav≤1kDa), soit par la Protamex® suivi de la Flavourzyme® (Prot+Flav≤1kDa). La technologie SwitchSENSE® a mis en évidence la présence de peptides chélateurs de Ni2+ et les tests antioxydants ont montré que l'hydrolysat Prot+Flav≤1kDa avait une activité antiradicalaire et un pouvoir réducteur plus élevés, liés à son degré d'hydrolyse plus élevé et à la quantité de peptides de petite taille. Les hydrolysats de protéines de pois et les PCMs ont ensuite été étudiés pour leur capacité à inhiber l'oxydation des lipides dans les émulsions. Ils ont ralenti l'oxydation des lipides par chélation des métaux pro-oxydants (tels que Fe2+) en réduisant les produits d'oxydation primaires et secondaires, responsables de la détérioration des produits contenant des lipides. Ainsi, les hydrolysats de pois et les PCMs pourraient être utilisés comme antioxydants dans les produits alimentaires et cosmétiques, comme alternatives aux produits chimiques tels que l'EDTA, le BHT et le TBHQ
Metal-Chelating Peptides (MCPs), from protein hydrolysates, present various applications in nutrition, pharmacy, cosmetic etc. Yet, the empirical approach generally used to discover bioactive peptides from hydrolysates is time consuming and expensive due to many steps of fractionation, separation and biological activities evaluation. Thus, this PhD aimed to develop a novel approach for MCPs separation prediction using chromatography modelling and simulation based on the analogy between Immobilized Metal ion Affinity Chromatography (IMAC) and Surface Plasmon Resonance (SPR). For the first time, the SPR-IMAC analogy was experimentally investigated on 22 peptides and 70% of them validated this analogy, since peptides well retained in IMAC were also endowed with a good affinity for Ni2+ in SPR. In the second time, peptides with high affinity for Ni2+ (i.e low dissociation constant KD in SPR and a high retention time in IMAC) were used to study the modelling and simulation of peptide concentration profiles at the column outlet in IMAC. Since knowledge of adsorption isotherms was required to perform simulation, it was necessary to develop a methodology for predicting Langmuir isotherm parameters in IMAC from SPR data. The validity of simulation was evaluated by comparing experimental and simulated retention times that should be close for reliable prediction. Therefore, several approaches were evaluated to determine Langmuir sorption parameters, the most interesting one introduces a correction factor on the maximum adsorption capacity qmax alone, assuming that the affinity of peptides for immobilized Ni2+ did not change depending on the technology used (SPR vs. IMAC), thus affinity constant KA was not modified. Meanwhile, industrial application of MCPs and hydrolysates were studied. First, pea protein hydrolysates were produced by either Alcalase® followed by Flavourzyme® (Alc+Flav≤1kDa) or Protamex® followed by Flavourzyme® (Prot+Flav≤1kDa). SwitchSENSE® technology evidences the presence of Ni2+ chelating peptides and antioxidants tests showed that Prot+Flav≤1kDa has higher radical scavenging and reducing power, related to its higher degree of hydrolysis and small-size peptides quantity. Secondly, pea hydrolysates and MCPs were investigated for their ability to inhibit the lipid oxidation in emulsions. They slowed down lipid oxidation through chelation of prooxidant (metals such as Fe2+) reducing primary and secondary oxidation products responsible of deterioration of lipid containing products. Thus, pea hydrolysates and MCPs could be used as antioxidants in food and cosmetic products, as alternative to chemicals such as EDTA, BHT and TBHQ
2

Chlendi, Mohamed. "Séparation de gaz par adsorption modulée en pression." Vandoeuvre-les-Nancy, INPL, 1993. http://www.theses.fr/1993INPL048N.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de ce travail est la conception, l'étude et le dimensionnement d'opérations multicolonnes et multiadsorbants. Le travail présenté est surtout de nature méthodologique: il s'agit de développer et de tester des nouveaux outils et des nouvelles méthodes ayant un caractère assez géneral. Néanmoins, l'ensemble de cette étude s'appuiera sur une application proposée par le partenaire industriel de cette recherche: il s'agit de la production d'hydrogène pur par adsorption modulée en pression (PSA), à partir de gaz de cracking du gaz naturel. On a développé les modèles mathématiques utilisés pour simuler le procédé PSA ainsi que les méthodes de résolution adéquates. La description du logiciel de simulation PSASIM et ses différentes fonctionnalités sont illustrées par un exemple de procédé à 6 étapes et 2 colonnes. On a utilise PSASIM pour déterminer la longueur des couches d'adsorbant et la durée des étapes isobares. La caractérisation du fonctionnement global d'un procédé PSA est développée dans le dernier chapitre. On spécifie les différents critères de performance à étudier ainsi que les paramètres influents. On y développe deux démarches: plan d'expériences et réseau de neurones, qui conduisent à des polynômes ou des procédures simples donnant les performances en fonction des paramètres opératoires
3

Joulia, Xavier. "Simulation des procédés chimiques en régime permanent : formulation et convergence." Toulouse, INPT, 1987. http://www.theses.fr/1987INPT021G.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Définition de la stratégie de calcul optimal, à adopter pour simuler le procédé considéré. Une étude comparative est faite entre les performances des approches modulantes simultanées et séquentielles. On applique cette étude plus précisément aux procédés de séparation diphasique multiétage et multicomposant et plus particulièrement à une installation liquide liquide multiétagée à contrecourant. Finalement on propose un système de sélection automatique de la méthode en fonction du problème considéré.
4

Hénin, Jérôme. "Simulations moléculaires d'événements rares dans les systèmes biologiques membranaires." Nancy 1, 2006. http://www.theses.fr/2006NAN10007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les processus lents ou non spontanés impliquant les macromolécules du vivant peuvent être étudiés par simulations de dynamique moléculaire, pourvu qu'un algorithme assiste l'exploration par le système d'une coordonnée de réaction bien choisie. Nous avons mis en place un tel algorithme dans le programme NAMD destiné aux simulations à grande échelle des systèmes biomoléculaires. Il nous est ainsi possible d'explorer le repliement de peptides en hélice alpha, la reconnaissance et l'association de protéines au sein de la membrane, ou encore le transport spécifique d'une petite molécule, le glycérol, par un canal transmembranaire bactérien
Slow or non spontaneously occurring processes involving biological macromolecules may still be studied through molecular dynamics simulations, provided that an algorithm promotes the exploration of a well–chosen reaction coordinate by the system. We implemented such an algorithm in the NAMD program, designed for large–scale simulations of biomolecular systems. We can then investigate the folding of peptides into alpha–helices, the recognition and association of proteins inside the membrane, as well as the specific transport of a small molecule, glycerol, by a bacterial transmembrane channel
5

Henry, Daniel. "Simulation numérique 3D des mouvements de convection thermosolutale d'un mélange binaire : étude paramétrique de l'influence de la convection sur la séparation des espèces du mélange par effet Soret, dans un cylindre incliné." Lyon 1, 1986. http://www.theses.fr/1986LYO10029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Rottereau, Manuel. "Agrégation, percolation et séparation de phase d'une assemblée de sphères dures browniennes adhésives : approche par simulation hors réseau." Le Mans, 2005. http://cyberdoc.univ-lemans.fr/theses/2005/2005LEMA1003.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les fluides et systèmes complexes constituent une classe de " matériaux " au sens large dont l'originalité des propriétés statiques et dynamiques résulte a la fois de la structure chimique des particules élémentaires qui les constituent et de leur organisation dans l'espace en particulier aux échelles mésoscopiques. Ces systèmes sont souvent le lieu de phénomènes d'agrégation, de gélification et/ou de séparation de phase dus aux interactions entre les entités constituantes. L'objectif de cette thèse est de comprendre la formation de ces structures et leur façon de remplir l'espace par modélisation des processus à l'aide de la simulation numérique. Le modèle numérique développé est basé sur un système de sphères dures hors réseau qui modélise par exemple un ensemble de micelles sphériques en interaction (attraction, répulsion)
The complex fluids form a class of materials exhibiting a large originality in their static and dynamic properties which results from the chemical structure of the constituting elementary particles and their spatial organization in particular on mesoscopic scales. These systems often involve phenomena of aggregation, gelation and/or phase separation due to the interactions between their constituents. The objective of this thesis is to understand and model the formation of these structures and their way of filling the space by monitoring these processes by computer simulations. These simulations are based on off-lattice hard spheres models which can mimic for example an assembly of spherical micelles in attractive or repulsive interactions
7

Chouikhi, Najib. "Production de biométhane à partir de biogaz par technologie de séparation par adsorption PSA : optimisation numérique par approche multi-échelle." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPAST043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A mesure que l'intérêt mondial pour les énergies renouvelables s'intensifie, la production de biogaz ne cesse de croître, car elle est une source renouvelable et propre. La technologie de séparation par adsorption modulée en pression (Pressure Swing Adsorption ou PSA) se présente alors comme une des technologies intéressantes permettant la valorisation du biogaz en biométhane. La grande flexibilité du procédé PSA est liée en une certaine manière à sa complexité avec plusieurs paramètres de design et opératoires contrôlant les performances de l’unité de séparation. L’identification de ces paramètres par une approche expérimentale est pratiquement impossible et une phase d’étude numérique est primordiale pour dimensionner l’unité, concevoir le cycle de pression et déterminer les conditions optimales de fonctionnement, avant tout essai expérimental. L’objectif général de la thèse a été centré sur le développement d’outils de simulation d’un procédé de purification de biométhane par technologie PSA.Dans un premier temps, une simulation basée sur une modélisation dynamique monodimensionnelle non isotherme a été mise en place. Elle fait appel à un modèle cinétique d’adsorption de double force motrice (bi-LDF) pour décrire les échanges de matière intragranulaires. Le choix de l’adsorbant s’est porté sur un tamis moléculaire de carbone (CMS-3K) permettant d’assurer une grande sélectivité cinétique du dioxyde de carbone vis à vis du méthane (CH4). Le cycle PSA a été optimisé pour obtenir une récupération du CH4 de 92 % avec une consommation d'énergie spécifique modérée de 0,35 kWh/Nm3, tout en respectant les spécifications de pureté d’injection dans le réseau national (97 % de CH4). Les performances obtenues sont ainsi compatibles avec une exploitation industrielle. Ce cycle est composé de cinq colonnes et de quinze étapes incluant trois équilibrages et un recyclage de gaz de purge.Le développement d’un modèle numérique multidimensionnel (3D) et multi-échelle (colonne/grain/cristal) permettrait d’estimer les limites des hypothèses et des corrélations utilisées dans les simulateurs usuels. La première étape consiste à simuler l’écoulement du gaz dans un lit d’adsorbant ayant une morphologie la plus réaliste possible. Ainsi, lors de la seconde partie du travail de thèse, un lit constitué de billes inertes a été généré numériquement par calcul DEM (modélisation par éléments discrets) pour une colonne de taille de laboratoire. L’emploi d’OpenFOAM (logiciel CFD) a permis de calculer l’écoulement tridimensionnel d’un traceur dans la colonne. En parallèle une étude expérimentale du front de percée a été menée pour un lit de mêmes dimension et caractéristiques. Les temps de percée et les coefficients de dispersion-diffusion calculés et mesurés sont similaires. Cependant la simulation présente quelques divergences de la concentration du traceur localement dans la colonne, en raison de difficultés de maillage. L’étape suivante consistera à prendre en compte des interactions grains-fluide en considérant des grains poreux d’adsorbant
As global interest in renewable energy intensifies, biogas production continues to grow as a clean, renewable source. Pressure Swing Adsorption (PSA) is considered as one of the most interesting technologies for the valorization of biogas into biomethane. The great flexibility of the PSA process is linked in some way to its complexity with several design and operating parameters which control the performance of the separation unit. The identification of these parameters by an experimental approach is practically impossible. A numerical study stage is essential for sizing the unit, designing the pressure cycle and identifying the optimal operating conditions before any experimental test.The general objective of the thesis was focused on the development of simulation tools for a biomethane purification process using PSA technology.In a first stage, a simulation based on one-dimensional non-isothermal dynamic model, where the intragranular mass transfer kinetics was modelled using a double driving force (bi-LDF) approximation, was implemented. A carbon molecular sieve (CMS-3K) was selected. This adsorbent ensures a high kinetic selectivity of carbon dioxide with respect to methane (CH4). The optimized cycle, composed of five columns and fifteen steps including three equalization steps and a purge gas recycling allowed a CH4 recovery of 92% with a moderate specific energy consumption of 0.35 kWh/Nm3 , at the same time respecting the grid injection specifications (97% CH4 purity ). The performance obtained is thus compatible with industrial operation.The development of a multidimensional (3D) and multi-scale (column/grain/crystal) numerical model would serve to evaluate the limits of the assumptions and correlations used in usual simulators. The first step consists in simulating the gas flow in an adsorbent bed having a reaslistic stacking.. Thus, an inert packed bed was numerically generated by DEM calculation (discrete element modeling) for a column of laboratory size. The use of OpenFOAM (CFD software) allowed to calculate the three-dimensional tracer gas flow in the column. In parallel an experimental study of the breakthrough curves was carried out using a bed having the same dimensions and characteristics. The breakthrough times and the dispersion-diffusion coefficients calculated and measured were similar. However the simulation showed some divergences in the concentration of the tracer locally in the column, due to difficulties in meshing. The next step will consist in taking into account grain-fluid interactions by considering porous adsorbent grains
8

Rhioui, Saloua. "Nouvelles approches pour la séparation de sources." Toulon, 2006. http://www.theses.fr/2006TOUL0020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La séparation aveugle de source est un domaine en pleine effervescence dans la communauté du traitement du signal en raison de ces nombreuses applications potentielles en télécommunications, bio-médicale, géophysique, traitement du son, traitement d'images, radar, etc. . . . Ceci explique en partie la grande popularité de cette thématique. Cette thèse propose de nouvelles approches pour la séparation de sources aléatoires. Deux grands problèmes sont abordés. Le premier concerné la séparation de mélange instantané de signaux sources cyclestationnaires et le second, plus conséquent, concerne la séparation de mélange convolutif de signaux stationnaires. Nous développons des nouveaux critères et algorithmes basés sur l'utilisation des statistiques à différents ordres. Plus précisément nous proposons d'abord une méthode de séparation basée sur la décomposition d'un opérateur linéaire et 1'utilisâtion d'une méthode de classification. Les performances sont comparées par simulations informatiques avec une méthode utilisation la décomposition PARAFAC. Ensuite on s'intéresse à de nouvelles fonctions de contraste par utilisation de signaux de référence dans le cadre d'une séparation d'un mélange convolutif. Un contraste MISO est proposé dont le grand avantage est de permettre une optimisation quadratique. Puis des contrastes MIMO sont proposés généralisant des contrastes existants dans la littérature
The blind source separation is widely studied problem in the community of signal processing because of its numerous potential applications in telecommunications, biomedical, geophysics, speech processing, image processing, radar, sonar, etc. This partly explains the great popularity of this set of themes. This thesis proposes new approaches for random sources separation. Two major problems are tackled. The first relates to the instantaneous mixture separation of cyclostationnary sources and the second, more consequent, adresses the problem of the separation of convolutive mixtures stationary signals. He develop new criteria and algorithms based on the use of various orders statistics. More precisely we propose a separation method based on the decomposition of a linear operator combined with a classification method. The performances are compared by computer simulations with PARAFAC decomposition method. Then we are interested in new contrast functions using reference signals within the framework of convolutive mixtures. A MISO contrast is proposed whose great advantage is to allow a quadratic optimization. Then MIMO contrasts are proposed generalizing the existing contrasts in the literature
9

Youssef, Siham. "Conception de colonnes de rectification complexes par une méthode short-cut : application aux cascades de séparation." Toulouse, INPT, 1989. http://www.theses.fr/1989INPT042G.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce memoire est consacre a une methode short-cut de dimensionnement d'une colonne de rectification comportant plusieurs alimentations et soutirages lateraux pour la separation de melanges multi-constituants. La procedure est fondee sur un principe de decomposition de la colonne en plusieurs sections pour chacune desquelles il est possible de determiner le reflux minimum ainsi que le nombre de plateaux minimum a partir de formules classiques de fenske, underwood, gilliland. L'algorithme fournit tres rapidement le reflux operatoire, le nombre de plateaux theoriques, les debits et compositions des soutirages lateraux, la position des alimentations et des soutirages. Plusieurs exemples de nature differente sont presentes afin d'illustrer la mise en uvre de la procedure et du code de calcul. Les resultats fournis par cette methode short-cut sont compares avec ceux d'un programme rigoureux de simulation. L'accord qui est tres satisfaisant, permet de valider cette procedure rapide et tres interessante pour le dimensionnement de ce type de separation complexes ou l'initialisation de logiciels de simulation. Dans une deuxieme partie, on s'interesse a la synthese optimale de cascades de colonnes t a l'opportunite d'introduire des colonnes comportant au moins un soutirage intermediaire. Cette approche, a caractere evolutif permet de reduire le nombre de colonnes et l'energie totale necessaire a la separation. Apres une analyse des cascades complexes, on presente plusieurs exemples d'illustration justifiant le developpement d'une telle demarche
10

Achir, Samira. "Etude des mécanismes de stabilisation des protéines par spectroscopie Raman et dynamique moléculaire." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10022/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est une contribution à l’étude des mécanismes de stabilisation des protéines en solution et à l’état sec. Un nombre considérable de biomolécules thérapeutiques émanant des avancées de la technologie ADN recombinant sont porteuses de nouvelles approches thérapeutiques, mais ne peuvent pas être utilisées à cause de leur très faible stabilité. Celle-ci est améliorée à l’état sec, après lyophilisation qui est toutefois source de nombreux stress pour la protéine. Les travaux ont principalement focalisé sur l’étude de la stabilité de l’état physique de protéines modèles, par micro-spectroscopie Raman in-situ au cours d’une procédure de lyophilisation. Cette analyse a permis de déterminer les sources et le processus de dénaturation, ainsi que les transformations structurales de la protéine inhérente à la lyophilisation. Des cartographies Raman réalisées aux différentes étapes d’un cycle de lyophilisation, ont conduit à la description des interactions entre protéine, solvant et co-solvant et au décryptage des mécanismes de stabilisation de la protéine pendant l’opération de lyophilisation. La stabilité de l’état physique des protéines, lyophilisées en utilisant différents agents bioprotecteurs, a également été analysée lors de vieillissements accélérés, révélant l’efficacité bioprotectrice du tréhalose, exacerbée par l’ajout d’une faible quantité de glycérol. Des simulations de dynamique moléculaire ont aussi été réalisées sur les matrices vitreuses bioprotectrices tréhalose-glycérol pour lesquelles les effets plastifiants/anti-plastifiants de l’eau résiduelle ont été étudiés
The mechanisms of protein stabilization in solution and dry state have been investigated in this thesis. New therapeutic approaches are developing from many therapeutic biomolecules related to advances in recombinant DNA technology. Although we are not able to use them because of their low stability. The latter is improved in the dry state albeit freeze-drying gets a source of stress for many proteins. This work has mainly focused on the stability of model proteins, by in-situ Raman micro-spectroscopy during freeze-drying. The analysis identified the origin and the process of denaturation and the structural transformations of the inherent protein freeze-drying. Raman mapping was implemented at different stages of drying cycle, leading to the description of the protein/solvent/co-solvent interactions and decrypting the protein stabilizing mechanisms during the whole freeze-drying process. The protein stability was also analyzed during accelerated aging, by using several biopreservers. It revealed that the bioprotective efficiency of trehalose is enhanced by adding a small amount of glycerol. Molecular dynamics simulations were also carried out on trehalose-glycerol glassy matrices and the plasticizing / anti- plasticizing effects of the residual water were studied
11

Santini, Sébastien. "Flexibilité et changements topologiques de la protéine prion et du peptide β-amyloi͏̈de d'Alzheimer par simulations numériques." Aix-Marseille 1, 2004. http://www.theses.fr/2004AIX11029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les amyloi͏̈doses sont des maladies neuro-dégénératives caractérisées par l'accumulation de fibres protéiques dans le système nerveux. Nous avons choisi d'étudier les mécanismes d'agrégation en fibre pour deux des protéines amyloi͏̈des les plus connues : la protéine prion (fragment PrP90-231) et le peptide Aß d'Alzheimer (fragment 16-22). Les études de la protéine prion ont été menées par dynamique moléculaire pour appréhender les changements topologiques impliqués lors de la conversion de PrP[C] en PrP[Sc]. Ainsi, nous avons mis en évidence que la dynamique du coeur structuré (124-226) de PrP est indépendante de la longueur de la queue amino-terminale (Nt). A pH neutre, les mutations G131V et M129V propagent un feuillet ß à trois brins successifs antiparallèles impliquant les résidus 112-130 et 115-130 respectivement. Ce feuillet pourrait constituer un point de départ pour le changement de conformation décrit expérimentalement. Les simulations de délétions des brins S1 et S2 de PrP confirment l'existence d'un intermédiaire de type globule fondu. L'hélice H1 est très stable sur l'ensemble des simulations et ne semble pas se déplier dans les étapes précoces du mécanisme de conversion de PrP. Pour comprendre le phénomène d'agrégation des fibres amyloi͏̈des, nous avons choisi d'utiliser la technique d'activation relaxation combinée au potentiel OPEP sur des dimères et trimères de Aß[16-22]. En accord avec la RMN du solide, nous montrons que le dimère et le trimère Aß[16-22] adoptent préférentiellement un arrangement antiparallèle et que l'agrégation se fait par de multiples chemins n'impliquant pas forcément un intermédiaire en hélice α. Nos simulations montrent que la conformation obtenue dans la fibre Aß[16-22] nécessite un plus grand nombre de chaînes et mettent en évidence, lors du repliement, des pièges cinétiques qui peuvent être surmontés par le mouvement de reptation des chaînes.
12

Lelimousin, Mickaël. "Traitement des interactions électrostatiques dans les systèmes moléculaires : étude par simulation numérique de protéines fluorescentes." Grenoble 1, 2009. http://www.theses.fr/2009GRE10075.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les processus réactionnels des systèmes biologiques sont désormais modélisés par des méthodes de plus en plus précises de mécanique quantique (MQ) associées aux champs de force de mécanique moléculaire (MM). Cette amélioration induit des complications dans le traitement habituel des interactions électrostatiques MQ/MM. Dans la première partie de cette thèse, nous avons développé une approche plus cohérente pour le calcul de ces interactions. Dans une seconde partie, nous avons appliqué certaines méthodes de simulation numérique aux protéines fluorescentes. Une étude de dynamique moléculaire a révélé de fines interactions de van der Waals qui conditionnent l'amélioration des propriétés de fluorescence dans la Cerulean par rapport à l'ECFP (Enhanced Cyan Fluorescent Protein). Nous avons également étudié le mécanisme de photoconversion de la protéine fluorescente EosFP par l'utilisation de potentiels MQ/MM appropriés au traitement des états excités. Finalement, la stabilité thermodynamique des différents états structuraux de la protéine IrisFP a été évaluée. Ces études de modélisation moléculaire améliorent notre compréhension des protéines fluorescentes afin de contribuer à leur développement pour l'imagerie cellulaire
Reaction processes in biological systems are henceforth modeled by more and more advanced quantum mechanics (QM) methods coupled with force fields of molecular mechanics (MM). This improvement involves problems in the usual treatment of the QM/MM electrostatic interactions. In the first part of the thesis, we have developed a more consistent approach for the calculation of these interactions. In a second part, we have applied some computational methods to fluorescent proteins. A molecular dynamics study has revealed weak van der Waals interactions which control the improved fluorescence for Cerulean, a variant of ECFP (Enhanced Cyan Fluorescent Protein). We have also investigated the photoconversion mechanism of the fluorescent protein EosFP using predictive QM/MM potentials for excited states. Finally, thermodynamic stability of different structures in IrisFP has been estimated. These molecular modeling studies improve our knowledge about fluorescent proteins in order to develop more advanced highlighters for cell imaging
13

Salmon, Joseph. "Agrégation d'estimateurs et méthodes à patchs pour le débruitage d'images numériques." Paris 7, 2010. http://www.theses.fr/2010PA077195.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème étudié dans cette thèse est celui du débruitage d'images numériques corrompues par un bruit blanc gaussien. Les méthodes utilisées pour récupérer une meilleure image reposent sur les patchs et sont des variantes des Non-Local Means. Les contributions de la thèse sont à la fois pratiques et théoriques. Tout d'abord, on étudie précisément l'influence des divers paramètres de la méthode. On met ensuite en lumière une limite observée sur le traitement des bords par les méthodes à patchs habituelles. On donne alors une meilleure façon de combiner l'information fournie à partir des patchs pour estimer pixel par pixel. D'un point de vue théorique, on présente un cadre non asymptotique pour contrôler notre estimateur. On donne alors des résultats de type inégalités oracles pour des estimateurs vérifiant des propriétés plus restrictives. Les techniques utilisées reposent sur l'agrégation d'estimateurs, et plus particulièrement sur l'agrégation à poids exponentiels. La méthode requiert typiquement une mesure du risque, obtenue à travers un estimateur sans biais de celui-ci, par exemple par la méthode de Stein. Les méthodes de débruitage étudiées sont analysées numériquement par simulations
The problem studied in this thesis is denoising images corrupted by additive Gaussian white noise. The methods we use to get a better picture from a noisy one, are based on patches and are variations of the well known Non-Local Means. The contributions of this thesis are both practical and theoretical. First, we study precisely the influence of various parameters of the method. We highlight a limit observed on the treatment of edges by the usual patches based methods. Then, we give a better method to get pixel estimates by combining information from patches estimates. From a theoretical point of view we provide a non-asymptotic control of our estimators. The results proved are oracle inequalities, holding for a restrictive class of estimators, close to the form of the Non-Local Means estimetes. The techniques we use are based on aggregation of estimators, and more precisely on exponentially weighed aggregates. Typically, the last method requires a measure of the risk, that is obtained through a unbiased estimator of the risk. A common way to get such a mesure is to use the Stein Unbiased Risk Estimate (SURE). The denoising methods studied are analyzed numerically by simulations
14

Paul, Nicodème. "Développement de nouvelles applications en criblage virtuel." Strasbourg 1, 2003. http://www.theses.fr/2003STR13193.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Basé sur le docking moléculaire, le criblage virtuel devient de plus en plus utilisé dans la recherche pharmaceutique. En vue d'améliorer les résultats de docking, nous avons développé Consdock, outil d'analyse des interactions Ligand - Récepteur. Appliqué à trois outils de docking, Gold, FlexX et Gold pour un ensemble de 100 complexes, ConsDock a pu générer des résultats meilleurs que ceux obtenus par chacun des outils utilisés, avec une précision avoisinant 1 Å. Par ailleurs, nous nous sommes intéressés à une application moins connue du criblage virtuel, le criblage inverse. Celui-ci consiste à chercher des cibles pour une petite molécule donnée. Pour cela, nous avons construit sc-PDB (screening PDB) une base de données de cibles à partir de la Protein Data Bank. Pour utiliser la base, nous avons développé une stratégie de criblage inverse basée sur Gold. Dans les tests que nous avons réalisés, les cibles recherchées de molécules connues ont pu toujours être trouvées parmi les meilleures solutions générées. Enfin, nous avons entrepris la simulation du repliement des Récepteurs couplés aux protéines G ou RCPG en présence de ligand par algorithmes génétiques. Nous avons choisi et construit des méthodes de sélection susceptibles de donner de bons résultats, lorsqu'elles sont employées en concordance avec des opérateurs génétiques adéquats sur un nombre suffisant de générations
Based on molecular docking, virtual screening or in silico screening becomes of increasing interest in the pharmaceutical industry. In this study, we propose ConsDock a consensus docking program that takes advantage of three widely used docking tools Dock, Gold and FlexX. ConsDock significantly outperforms single docking with respect to the docking accuracy of the top-ranked pose. Then, for inverse screening purpose, we develop a protein database based on the Protein data Bank (sc-PDB). This database has been used to recover target of known ligands by using an in-house inverse screening process based on Gold. At last, as we were interested in developing activated models of G Protein-Coupled Receptors or GPCRs, we present a simulation process of ligand-based GPCR folding. The simulation is performed by genetic algorithms. By using a GPCR and a ligand, the algorithm tries to find stable conformations of GPCR by rotating and translating helices. Movement is performed according experimental observations. We tested the method on the X-ray structure of rhodopsin complexed with the cis-retinal. We got some good results when used specific genetic operators for a sufficient number of generations
15

Faiget, Laurent. "Séparation de l'influence du local et de l'enceinte pour la prévision de l'intelligibilité dans des conditions d'écoute difficiles." Toulouse 3, 1997. http://www.theses.fr/1997TOU30151.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le theme de la recherche est la modelisation de l'intelligibilite de la parole dans de grands locaux bruyants et reverberants en dissociant la contribution du systeme de transmission electroacoustique de celle du local ou s'effectue la propagation. L'etude traite le cas d'une enceinte acoustique et d'un auditeur place dans l'axe principal de rayonnement du transducteur. Les contributions respectives de la salle, de l'enceinte et du bruit masquant sont incluses dans la variable du modele appelee rapport signal-sur-bruit equivalent. Celle de l'enceinte est representative de l'influence de la reponse en frequence et de la directivite et celle de la salle de la proportion d'energie reflechie utile a l'intelligibilite. Les criteres respectifs correspondants sont obtenus par le calcul de rapports d'energie issus des mesures de reponses impulsionnelles de l'enceinte seule et du couple enceinte-local. Des tests d'intelligibilite, dans deux grands locaux reverberants pour plusieurs configurations de distance et de bruit et deux enceintes de caracteristiques electroacoustiques tres differentes, constituent la base de donnees de reference. La minimisation de l'erreur quadratique entre les pourcentages d'intelligibilite mesures et ceux calcules par le modele aboutit a une faible erreur d'estimation. La precision du modele propose est confirmee par une experimentation de validation.
16

Druart, Karen. "Défis algorithmiques pour les simulations biomoléculaires et la conception de protéines." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX080/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le dessin computationnel de protéine, ou CPD, est une technique qui permet de modifier les protéines pour leur conférer de nouvelles propriétés, en exploitant leurs structures 3D et une modélisation moléculaire. Pour rendre la méthode de plus en plus prédictive, les modèles employés doivent constamment progresser. Dans cette thèse, nous avons abordé le problème de la représentation explicite de la flexibilité du squelette protéique. Nous avons développé une méthode de dessin "multi-états", qui se base sur une bibliothèque discrète de conformations du squelette, établie à l'avance. Dans un contexte de simulation Monte Carlo, le paysage énergétique d'une protéine étant rugueux, les changements de squelettes ne peuvent etre acceptés que moyennant certaines précautions. Aussi, pour explorer ces conformations, en même temps que des mutations et des mouvements de chaînes latérales, nous avons introduit un nouveau type de déplacement dans une méthode Monte Carlo existante. Il s'agit d'un déplacement "hybride", où un changement de squelette est suivi d'une courte relaxation Monte Carlo des chaînes latérales seules, après laquelle un test d'acceptation est effectué. Pour respecter une distribution de Boltzmann des états, la probabilité doit avoir une forme précise, qui contient une intégrale de chemin, difficile à calculer en pratique. Deux approximations sont explorées en détail: une basée sur un seul chemin de relaxation, ou chemin "générateur" (Single Path Approximation, ou SPA), et une plus complexe basée sur un ensemble de chemins, obtenus en permutant les étapes élémentaires du chemin générateur (Permuted Path Approximation, ou PPA). Ces deux approximations sont étudiées et comparées sur deux protéines. En particulier, nous calculons les énergies relatives des conformations du squelette en utilisant trois méthodes différentes, qui passent réversiblement d'une conformation à l'autre en empruntent des chemins très différents. Le bon accord entre les méthodes, obtenu avec de nombreuses paramétrisations différentes, montre que l'énergie libre se comporte bien comme une fonction d'état, suggérant que les états sont bien échantillonnés selon la distribution de Boltzmann. La méthode d'échantillonnage est ensuite appliquée à une boucle dans le site actif de la tyrosyl-ARNt synthétase, permettant d'identifier des séquences qui favorisent une conformation, soit ouverte, soit fermée de la boucle, permettant en principe de contrôler ou redessiner sa conformation. Nous décrivons enfin un travail préliminaire visant à augmenter encore la flexibilité du squelette, en explorant un espace de conformations continu et non plus discret. Ce changement d'espace oblige à restructurer complètement le calcul des énergies et le déroulement des simulations, augmente considérable le coût des calculs, et nécessite une parallélisation beaucoup plus agressive du logiciel de simulation
Computational protein design is a method to modify proteins and obtain new properties, using their 3D structure and molecular modelling. To make the method more predictive, the models need continued improvement. In this thesis, we addressed the problem of explicitly representing the flexibility of the protein backbone. We developed a "multi-state" design approach, based on a small library of backbone conformations, defined ahead of time. In a Monte Carlo framework, given the rugged protein energy landscape, large backbone motions can only be accepted if precautions are taken. Thus, to explore these conformations, along with sidechain mutations and motions, we have introduced a new type of Monte Carlo move. The move is a "hybrid" one, where the backbone changes its conformation, then a short Monte Carlo relaxation of the sidechains is done, followed by an acceptation test. To obtain a Boltzmann sampling of states, the acceptation probability should have a specific form, which involves a path integral that is difficult to calculate. Two approximate forms are explored: the first is based on a single relaxation path, or "generating path" (Single Path Approximation or SPA). The second is more complex and relies on a collection of paths, obtained by shuffling the elementary steps of the generating path (Permuted Path Approximation or PPA). These approximations are tested in depth and compared on two proteins. Free energy differences between the backbone conformations are computed using three different approaches, which move the system reversibly from one conformation to another, but follow very different routes. Good agreement is obtained between the methods and a wide range of parameterizations, indicating that the free energy behaves as a state function, as it should, and strongly suggesting that Boltzmann sampling is verified. The sampling method is applied to the tyrosyl-tRNA synthetase enzyme, allowing us to identify sequences that prefer either an open or a closed conformation of an active site loop, so that in principle we can control, or design the loop conformation. Finally, we describe preliminary work to make the protein backbone fully flexible, moving within a continuous and not a discrete space. This new conformational space requires a complete reorganization of the energy calculation and Monte Carlo simulation scheme, increases simulation cost substantially, and requires a much more aggressive parallelization of our software
17

Ribault, Judicaël. "Reuse and Scalability in Modeling and Simulation Software Engineering." Phd thesis, Université de Nice Sophia-Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00604014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'étude d'un système à l'aide de simulations informatiques à événements discrets implique plusieurs activités: spéci cation du modèle conceptuel, description de l'architecture logicielle du modèle, développement des logiciels, scénarisation de la simulation, instrumentation, plani cation d'expérimentation, con guration des ressources de calcul, exécution, post-traitement et analyse, validation et de véri cation (V&V). De nombreux éléments logiciels sont requis pour remplir toutes ces activités. Toutefois, il est fréquent de créer un nouveau simulateur à partir de rien quand on commence une étude à l'aide de simulation. Dans ce cas il est nécessaire de développer de multiples outils prenant en charge les activités de la simulation. Cette thèse aborde le dé de la création de nouveaux simulateurs tout en réutilisant des modèles et des outils provenant d'autres simulateurs. En e et, la réutilisation de logiciel augmente la abilité, est moins sujette aux erreurs, permet une meilleure utilisation des expertises complémentaires, améliore la conformité aux normes, et accélère le développement. La réutilisation de logiciels peut être appliquée à toutes les activités de la simulation. Plusieurs problèmes doivent être résolus pour tirer pleinement pro t de la réutilisation. Dans cette thèse, nous abordons trois questions principales: Tout d'abord, nous étudions les solutions pratiques de réutilisation permettant de combiner un ensemble choisi d'éléments logiciels utiles pour la modélisation et la simulation, en incluant aussi bien les modèles, les moteurs de simulation, les algorithmes et les outils; Deuxièmement, nous nous concentrons sur les questions liées à l'instrumentation; Troisièmement, nous étudions le problème de l'intégration d'éléments logiciels provenant d'autres simulateurs dans un nouveau simulateur. Pour atteindre ces objectifs, nous étudions des techniques avancées de du génie logiciel, tels que le génie logiciel à base de composants (CBSE) et la programmation orientée aspect, sur lesquels nous construisons une solution originale pour la modélisation et la simulation à l'aide de multiples couches réutilisables. Nous avons développé un prototype d'architecture logicielle qui prouve la faisabilité de cette solution.
18

Guifo, Fodjo A. Yvan. "Séparation des préoccupations dans les modèles compartimentaux étendus." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS262.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La modélisation mathématique et la simulation informatique ont très souvent contribué à améliorer notre degré de compréhension, de prédiction et de prise de décision face aux épidémies. Cependant, un problème très souvent rencontré lors de l’élaboration et la mise en œuvre des modèles épidémiologiques est le mélange des différents aspects du modèle. En effet, les modèles épidémiologiques deviennent de plus en plus complexes au fur et à mesure que de nouvelles préoccupations sont prises en compte (âge, sexe, hétérogénéité spatiale, politiques de confinement ou de vaccination, etc.). Ces aspects, qui sont généralement entrelacés, rendent les modèles difficiles à étendre, à modifier ou à réutiliser. En modélisation mathématique appliquée à épidémiologie deux principales approches sont considérées. La première, celle des "modèles compartimentaux" s’est révélée robuste et apporte d’assez bons résultats pour de nombreuses maladies. Cependant elle prend difficilement en compte certaines sources d’hétérogénéités. La seconde approche, celle basée sur les "réseaux de contacts", s’est montrée intuitive à représenter les contacts entre individus et apporte de très bons résultats concernant la prédiction des épidémies. Toutefois, cette approche nécessite plus d’efforts lors de la mise en œuvre. Une solution a été proposée pour y faire face : il s’agit de Kendrick. C'est un outil et une démarche de modélisation et de simulation ayant montré des résultats prometteurs pour séparer les préoccupations épidémiologiques, en les définissant comme des automates stochastiques (chaîne de Markov à temps continu), qu’il est ensuite possible de combiner à partir d'un opérateur de somme tensorielle associatif et pseudo commutatif. Cependant, une limite significative à cette démarche est son application restreinte aux modèles compartimentaux. Compte tenu des particularités et des insuffisances de chaque approche, dans ces travaux de recherche, nous proposons une approche combinée entre modèles compartimentaux et modèles de réseaux de contacts. Il s'agit de généraliser la démarche Kendrick pour prendre en compte certains aspects des réseaux de contacts afin améliorer la qualité prédictive des modèles présentant une hétérogénéité significative dans la structure des contacts, tout en conservant la simplicité des modèles compartimentaux. Pour y parvenir, cette extension des modèles compartimentaux est rendu possible à partir de l'application du formalisme de la force d'infection de Bansal et al (2007) et du patron comportemental Template Method Design Pattern. Il en résulte une démarche facile à définir, à analyser et à simuler. Nous avons validé cette démarche sur différentes techniques pour généraliser les modèles compartimentaux. Les résultats de simulation ont montré que notre démarche parvient à capturer les aspects des modèles de réseaux de contacts au sein du cadre compartimental tout en améliorant la qualité de prédiction de l'outil Kendrick et ne s'éloignent pas d'une approche typique de simulation sur un modèle de réseaux de contacts
Mathematical modeling and computer simulation have very often contributed to improving our understanding, prediction, and decision making in the face of epidemics. However, a problem that is often encountered in the development and implementation of epidemiological models is the mixing of different aspects of the model. Indeed, epidemiological models become more and more complex as new concerns are taken into account (age, gender, spatial heterogeneity, containment or vaccination policies, etc.). These aspects, which are usually intertwined, make models difficult to extend, modify or reuse. In mathematical modeling applied to epidemiology, two main approaches are considered. The first one, the "compartmental models", has proven to be robust and provides fairly good results for many diseases. However, it does not take into account some sources of heterogeneity. The second approach, based on "contact networks", has proven to be intuitive to represent contacts between individuals and brings very good results concerning the prediction of epidemics. However, this approach requires more effort during the implementation. A solution to this problem has been proposed: Kendrick. It is a modeling and simulation tool and approach that has shown promising results in separating epidemiological concerns, by defining them as stochastic automata (continuous time markov chain), which can then be combined using an associative and pseudo commutative tensor sum operator. However, a significant limitation of this approach is its restricted application to compartmental models. Taking into account the particularities and shortcomings of each approach, in this research work, we propose a combined approach between compartmental models and contact network models. The aim is to generalize the Kendrick approach to take into account certain aspects of contact networks in order to improve the predictive quality of models with significant heterogeneity in the structure of the contacts, while maintaining the simplicity of compartmental models. To achieve this, this extension of compartmental models is made possible by applying the infection force formalism of Bansal et al (2007) and the behavioral Template Method Design Pattern. The result is an approach that is easy to define, analyze and simulate. We validated this approach on different techniques to generalize compartmental models. Simulation results showed that our approach succeeds in capturing the aspects of contact network models within the compartmental framework while improving the prediction quality of the Kendrick tool and does not deviate from a typical simulation approach on a contact network model
19

Lanrezac, André. "Interprétation de données expérimentales par simulation et visualisation moléculaire interactive." Electronic Thesis or Diss., Université Paris Cité, 2023. http://www.theses.fr/2023UNIP7133.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de l'approche des simulations moléculaires interactive (Interactive Molecular Simulations - IMS) est d'observer en direct la dynamique conformationnelle d'une simulation moléculaire en cours. Le retour visuel instantané permet un suivi instructif ainsi que l'observation des changements structurels imposés par la manipulation de l'IMS par l'utilisateur. J'ai mené une étude approfondie des connaissances pour rassembler et synthétiser l'ensemble des recherches qui ont développé l'IMS. La dynamique moléculaire interactive (Interactive Molecular Dynamics - IMD) est l'un des premiers protocoles IMS qui a posé les bases du développement de cette approche. Mon laboratoire de thèse s'est inspirée de celle-ci pour développer le moteur de simulation BioSpring basé sur le modèle de réseaux élastique. Ce modèle permet de simuler la flexibilité de grands ensembles biomoléculaires et ainsi potentiellement révéler des changements à longue échelle de temps qui ne seraient pas facilement saisis par la dynamique moléculaire. Ce moteur de simulation ainsi que le logiciel de visualisation UnityMol, développé par le biais du moteur de jeu Unity3D, et liés par l'interface de communication MDDriver ont été étendus pour les faire converger vers une suite logicielle complète. Le but est de fournir à un expérimentateur, qu'il soit expert ou profane, une boîte à outils complète pour modéliser, afficher et contrôler interactivement l'ensemble des paramètres d'une simulation. L'implémentation particulière d'un tel protocole, basé sur une communication formalisée et extensible entre les différents composants, a été pensée pour pouvoir facilement intégrer de nouvelles possibilités de manipulation interactive et des jeux de données expérimentales qui s'ajouteront aux contraintes imposées à la simulation. L'utilisateur peut donc manipuler la molécule d'intérêt sous le contrôle des propriétés biophysiques intégrés dans le modèle simulé, tout en ayant la possibilité de piloter à la volée les paramètres de simulation. Aussi, un des objectifs initiaux de cette thèse était d'intégrer la gestion des contraintes d'interaction ambigües du logiciel d'amarrage biomoléculaire HADDOCK directement dans UnityMol, rendant possible l'utilisation de ces mêmes contraintes à une variété de moteurs de simulations. Un axe principal de ces recherches était de développer un algorithme de positionnement rapide et interactif de protéines dans des membranes implicite tiré d'un modèle appelé Integrative Membrane Protein and Lipid Association Method (IMPALA) développée par l'équipe de Robert Brasseur en 1998. La première étape consistait à effectuer une recherche approfondie des conditions dans lesquelles les expériences ont été réalisées à l'époque, afin de vérifier la méthode et de valider notre propre implémentation. Nous verrons qu'elle ouvre des questions intéressantes sur la manière dont on peut reproduire les expériences scientifiques. L'étape finale qui conclue cette thèse était le développement d'une nouvelle méthode universelle d'interaction lipide-protéine, UNILIPID, qui est un modèle d'incorporation interactif de protéines dans les membranes implicites. Elle est indépendante de l'échelle de représentation, peut être appliquée à des niveaux tout atomes, gros-grains jusqu'au niveau d'un grain par acide aminé. La représentation de la dernière version Martini3[6] ainsi qu'une méthode d'échantillonnage Monte-Carlo et de simulation de dynamique des corps rigides ont été spécialement intégrés à la méthode, en plus de divers outils de préparation de systèmes. En outre, UNILIPID est une approche versatile qui reproduit précisément des termes d'hydrophobicité expérimentaux pour chaque acide aminé. En plus de membranes implicites simples, je décrirai une implémentation analytique de membranes doubles ainsi qu'une généralisation à des membranes de forme arbitraire, toutes deux s'appuyant sur des applications inédites
The goal of Interactive Molecular Simulations (IMS) is to observe the conformational dynamics of a molecular simulation in real-time. Instant visual feedback enables informative monitoring and observation of structural changes imposed by the user's manipulation of the IMS. I conducted an in-depth study of knowledge to gather and synthesize all the research that has developed IMS. Interactive Molecular Dynamics (IMD) is one of the first IMS protocols that laid the foundation for the development of this approach. My thesis laboratory was inspired by IMD to develop the BioSpring simulation engine based on the elastic network model. This model allows for the simulation of the flexibility of large biomolecular ensembles, potentially revealing long-timescale changes that would not be easily captured by molecular dynamics. This simulation engine, along with the UnityMol visualization software, developed through the Unity3D game engine, and linked by the MDDriver communication interface, has been extended to converge towards a complete software suite. The goal is to provide an experimenter, whether an expert or novice, with a complete toolbox for modeling, displaying, and interactively controlling all parameters of a simulation. The particular implementation of such a protocol, based on formalized and extensible communication between the different components, was designed to easily integrate new possibilities for interactive manipulation and sets of experimental data that will be added to the restraints imposed on the simulation. Therefore, the user can manipulate the molecule of interest under the control of biophysical properties integrated into the simulated model, while also having the ability to dynamically adjust simulation parameters. Furthermore, one of the initial objectives of this thesis was to integrate the management of ambiguous interaction constraints from the HADDOCK biomolecular docking software directly into UnityMol, making it possible to use these same restraints with a variety of simulation engines. A primary focus of this research was to develop a fast and interactive protein positioning algorithm in implicit membranes using a model called the Integrative Membrane Protein and Lipid Association Method (IMPALA), developed by Robert Brasseur's team in 1998. The first step was to conduct an in-depth search of the conditions under which the experiments were performed at the time to verify the method and validate our own implementation. We will see that this opens up interesting questions about how scientific experiments can be reproduced. The final step that concluded this thesis was the development of a new universal lipid-protein interaction method, UNILIPID, which is an interactive protein incorporation model in implicit membranes. It is independent of the representation scale and can be applied at the all-atom, coarse-grain, or grain-by-grain level. The latest Martini3 representation, as well as a Monte Carlo sampling method and rigid body dynamics simulation, have been specially integrated into the method, in addition to various system preparation tools. Furthermore, UNILIPID is a versatile approach that precisely reproduces experimental hydrophobicity terms for each amino acid. In addition to simple implicit membranes, I will describe an analytical implementation of double membranes as well as a generalization to arbitrarily shaped membranes, both of which rely on novel applications
20

Hervy, Jordan. "Modélisation de l'interaction dynamique protéines Tau - microtubules." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAY062/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La maladie d’Alzheimer, de nombreux syndromes parkinsoniens, certaines démences fronto-temporales telle que la maladie de Pick sont des exemples de maladies neurodégénératives appelées « tauopathies » qui sont caractérisées par la présence d’agrégats intracellulaires de protéines Tau dans le cerveau des sujets atteints. La formation de tels agrégats résulterait de l’altération des propriétés et fonctions normales des protéines Tau à réguler et structurer les réseaux de microtubules au sein des axones ; ce qui se traduit par une perte progressive de la masse des microtubules dans les axones, la désorganisation du transport axonal et au final la mort cellulaire. La compréhension des tauopathies passe donc par celle :- de la dynamique des microtubules qui est régie par les mécanismes de l’instabilité dynamique au cours desquels les microtubules alternent en permanence entre une phase de croissance (polymérisation des GTP-tubulines) et de rétrécissement (dissociation des GDP-tubulines);- et des interactions entre protéines Tau – microtubule qui jouent un rôle important dans la polymérisation, la stabilisation des microtubules et l’organisation spatiale du réseau de microtubules dans l’axone.L'objectif de ce travail de thèse est de construire et de consolider les bases qui permettront d'aller vers une modélisation fine de l'interaction des microtubules dynamiques avec une population de protéines Tau. Pour y parvenir, deux problèmes ont été abordés : (i) la dynamique intrinsèque des microtubules, c'est-à-dire en l'absence de protéines Tau et (ii) l'interaction Tau-Microtubule pour des microtubules stabilisés, c'est-à-dire non-dynamiques.Afin d’aborder ces problèmes, le travail de cette thèse a été mené selon deux approches :-Théorique : développements de modèles mathématiques décrivant les différents processus-Simulations numériques : développement de programmes Monte-Carlo (sous Matlab)Les résultats principaux ont été organisés et structurés en deux grandes parties :Développement d’un modèle mésoscopique décrivant l’instabilité dynamique des microtubules à l’échelle de la tubuline (unité fondamentale du microtubule). Ce modèle décrit une instabilité dynamique des microtubules non-Markoviènne dont les caractéristiques sont comparables aux observations expérimentales.2) Développement d’un modèle décrivant la dynamique de décoration d’un microtubule stabilisé (absence d’instabilité dynamique) par une population de protéines Tau. Les caractéristiques de ce modèle sont basées, pour la construction, et comparables aux expériences de cosedimentation et de microscopie électronique
Alzheimer’s disease, some frontotemporal dementias such as the Pick’s disease are examples of neurodegenerative diseases called "Tauopathies" which are characterized by the presence of intracellular aggregates of Tau-proteins in the brain of patients. The formation of such aggregates would result from the loss of the normal functions of the Tau-proteins to properly organize the microtubule network within the axon ; which leads to a progressive loss of microtubule’s mass within the axons, the disorganization of the axonal transport and at the end, the cell death. To understand the Tauopathies, we have to understand :- the dynamic of microtubules which is controlled by the mechanisms of the dynamic instability in which microtubules switch between a phase of growth (polymerization of GTP) and a phase of shrinkage (dissociation of GDP)- the interaction between Tau-proteins and microtubules which play an important role in the polymerization, stabilization and spatial organization of microtubules within the axonal network.The objective of this work is to build and consolidate the blocks in order to go to precise modeling of the interaction of microtubules with a dynamic population of Tau-proteins. To this purpose, two problems were considered : (i) the intrinsic dynamic of microtubules (i.e., in absence of Tau-proteins) and (ii) the interaction between Tau-proteins and a stabilized-microtubules (i.e., in absence of dynamic instability)In order to this, the work has been done according to two approaches :- Theoretical : development of mathematical models describing the different process.- Simulation : development of Monte-Carlo programs (under Matlab)The main results have been organized in two main parts :1) Development of a mesoscopic model describing the dynamic instability of microtubules at the scale of the tubulin. This model describes the non-Markovian dynamic of microtubules and the characteristics are compatible with the experimental observations.2) Development of a model describing the dynamical decoration of a microtubule by a population of Tau-proteins. The characteristics of the model are based, for the construction, and compatible with the experimental observations
21

Cinar, Éric. "Structure et dynamique dans les solutions aqueuses d'urée et d'acétone : étude par simulation de dynamique moléculaire." Lille 1, 2006. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2006/50376_2006_164.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La stabilité et l'activité des molécules biologiques sont liées à la structure et la dynamique de l'eau, du fait des nombreuses liaisons hydrogène que l'eau forme avec celles-ci. L'urée est une molécule organique qui est bien connue pour ses propriétés dénaturantes vis-à-vis des protéines, alors que l'acétone ne présente pas cette particularité. Nous avons étudié par simulation de dynamique moléculaire l'influence de l'urée et de l'acétone sur la structure et la dynamique de l'eau, à l'aide d'observables que nous avons préalablement définies. Nous avons validé les modèles de potentiels d'interaction utilisés dans nos simulations, en comparant les résultats obtenus aux résultats expérimentaux de thermodynamique et de spectroscopies Raman et des neutrons. Nous avons montré par une étude comparative que l'urée induit une plus grande déstructuration du réseau de liaisons hydrogène de l'eau que l'acétone. En particulier, l'urée agit surtout sur la structure locale de l'eau, en perturbant l'orientation des molécules d'eau. Enfin, les deux solutés présentent un effet relativement faible sur la dynamique de l'eau.
22

Chaouchi, Chahinez. "Méthodes de séparation aveugle de sources non linéaires, étude du modèle quadratique 2X2." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1375/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente des méthodes de séparation aveugle de sources pour un modèle de mélange non-linéaire particulier, le cas quadratique avec auto-termes et termes croisés. Dans la première partie, nous présentons la structure de séparation étudiée qui se décline sous deux formes : étendue ou basique. Les propriétés de ce réseau récurrent sont ensuite analysées (points d'équilibre, stabilité locale). Nous proposons alors deux méthodes de séparation aveugle de sources. La première exploite les cumulants des observations en un bloc placé en amont de la structure récurrente. La deuxième méthode est basée sur une approche par maximum de vraisemblance. Le tout est validé par des simulations numériques
This thesis presents blind source separation (BSS) methods for a particular model of mixture, the quadratic one. The first part presents the separating structure (basic and extended versions). The equilibrium points of the structure and their local stability are then studied. We propose two methods of BSS. The first method uses the cumulants and the second is based on a maximum likelihood approach. We validate our results by numerical tests
23

Noël, Marilyne. "Influence de la température et des hautes pressions hydrostatiques sur l'activité et la stabilité d'enzymes en présence ou non d'additifs." Toulouse, INSA, 2001. http://www.theses.fr/2001ISAT0018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La stabilité thermique (40-60ʿC) ou hyperbare (300-500MPa) de la lipase de Rhizomucor miehei a été étudiée. Les cinétiques d'inactivation obtenues ont permis la détermination des paramètres cinétiques et thermodynamiques liés à la dénaturation irréversible de la lipase. L'utilisation d'un modèle a conduit à la validation de ces paramètres. Cette étude a été complétée par des observations en spectrophotométrie de fluorescence qui ont confirmé l'existence de deux mécanismes différents au niveau moléculaire, lors de la dénaturation de l'enzyme par ces deux agents. La combinaison des effets de la température et de la pression a permis de mettre en évidence un effet protecteur des pressions modérées (0,1-350 MPa) vis-à-vis de la dénaturation thermique de la lipase, ainsi qu'une action synergique de la pression et des basses températures. L'ajout d'additifs (sels et polyols), a permis d'augmenter la durée de vie de la lipase lors de traitements hyperbares (25 fois) et surtout thermiques (500 fois). Un classement des polyols suivant leur effet protecteur a pu être réalisé. Ce classement a été corrélé par des expériences de microcalorimétrie à balayage différentiel. La comparaison des résultats obtenus par ces deux approches a permis de montré que l'activité et la stabilité conformationnelle d'une enzyme ne sont pas liées. Une étude des effets combinés de la température, de la pression et des polyols, a montré que les polyols sont des agents protecteurs dont l'efficacité dépend du nombre de groupements hydroxyles totaux apportés dans le milieu, ainsi que de l'intensité du traitement dénaturant infligé à la protéine
The thermal (40-60ʿC) or hyperbaric (300-500MPa) stability of the lipase of Rhizomucor miehei was studied. The kinetics of inactivation obtained allowed the kinetic and thermodynamic parameters related to the irreversible deactivation of this lipase to be determined. The use of a model led to the validation of these parameters. This study was supplemented by observations in fluorescence spectrophotometry which confirmed the existence of two different mechanisms at the molecular level, during the deactivation of the enzyme by these two agents. The combination of the effects of temperature and pressure made it possible to highlight a protective effect of the moderate pressures (0,1-350 MPa) against the thermal deactivation of lipase, and a synergistic action of the pressure and the low temperatures. Additives (salts and polyhydric alcohol's), allowed the half-life of lipase to be increased during hyperbaric (25 times) or thermal (500 times) processing in a spectacular way. A classification of polyhydric alcohol's according to their protective effect could be carried out. This classification was correlated by differential scanning microcalorimetry experiments. The comparison of the results obtained by these two approaches shown that enzyme activity and conformational stability is not dependent. A study of the combined effects of the temperature, pressure and polyhydric alcohol's, showed that the polyhydric alcohol's are protective agents and their efficiency depends on the total number of hydroxyls groups brought in the medium, as well as of the denaturing process intensity inflicted with protein
24

Siangsanun, Vorasiri. "Hybrid process : hydrocyclone, coagulation, floculation and flotation for water treatment process." Thesis, Toulouse, INSA, 2010. http://www.theses.fr/2010ISAT0019/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette étude est de développer un procédé hybride qui combine à lacoagulation, la floculation et le procédé de flottation dans un hydroclone pour réaliser letraitement de l'eau. Le développement sert à déterminer la caractérisationhydrodynamique ainsi que les conditions optimales pour réaliser le traitement de l'eau.L'étude de caractérisation hydrodynamique est réalisée à l’aide d’une simulationnumérique (Computational Fluid Dynamics). Le travail expérimental a été réalisé à l’aidede la technique dite de l'échographie Doppler afin d’étudier l'hydrodynamique. Lesrésultats ont servi à valider la technique expérimentale « méthode de la goutte d’huile » et les connaissances de base expliquant les phénomènes du procédé hybride. La technique de diffraction du laser est utilisée pour déterminer la taille des micro-bulles ainsi que les paramètres qui affectent leur taille.Le travail expérimental sur le développement d'un pilot hybride est étudié avec del'eau synthèse et de l'eau naturelle. L'objectif de cette étude est d'appliquer ce procédéhybride pour le traitement de l'eau. Différents paramètres tels que les caractéristiques del'eau brute, le type et la concentration de coagulant et de floculant, la fraction de l'air et ledébit d'entrée, ont été modifiés à plusieurs reprises afin d'en déterminer les effets sur leprocédé hybride
The aim of this study is to develop a hybrid process which combines withcoagulation, floculation and flotation process in a hydroclone for water treatmentprocess. The development is for characterization the hydrodynamics of this process andto find the optimum condition for water treatment process.The hydrodynamics characterization study is carried out by the numericalsimulation (Computational Fluid Dynamics) and experimental work by Dopplerultrasound velocimetry technique to study the hydrodynamics for the further research.The results are used for validating the oil droplet experimental technique and to be thebasis knowledge to explain the phenomena in the hybrid process. Laser diffractiontechnique is involved for determining the micro bubbles size and also study on theparameter affects to the size. The experimental work of a developed hybrid pilot plant is studied with synthesisraw water and natural river water. The objective of this study is to apply this hybridprocess for the water treatment. The parameters have been varied in many operatingconditions to indicate the separation and the water treatment phenomena such as rawwater characteristic, coagulant - floculant type and concentration, air fraction and inletflow rate
25

Folch, Benjamin. "Etude bioinformatique de la stabilité thermique des protéines: conception de potentiels statistiques dépendant de la température et développement d'approches prédictives." Doctoral thesis, Universite Libre de Bruxelles, 2010. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse de doctorat s’inscrit dans le cadre de l’étude in silico des relations qui lient la séquence d’une protéine à sa structure, sa stabilité et sa fonction. Elle a pour objectif de permettre à terme la conception rationnelle de protéines modifiées qui restent actives dans des conditions physico chimiques non physiologiques. Nous nous sommes plus particulièrement penchés sur la stabilité thermique des protéines, qui est définie par leur température de fusion Tm au delà de laquelle leur structure n’est thermodynamiquement plus stable. Notre travail s’articule en trois grandes parties :la recherche de facteurs favorisant la thermostabilité des protéines parmi des familles de protéines homologues, la mise sur pied d’une base de données de protéines de structure et de Tm déterminées expérimentalement, de laquelle sont dérivés des potentiels statistiques dépendant de la température, et enfin la mise au point de deux outils bioinformatiques visant à prédire d’une part la Tm d’une protéine à partir de la Tm de protéines homologues et d’autre part les changements de thermostabilité d’une protéine (Tm) engendrés par l’introduction d’une mutation ponctuelle.

La première partie a pour objectif l’identification des facteurs de séquence et de structure (e.g. fréquence de ponts salins, d’interactions cation-{pi}) responsables des différentes stabilités thermiques de protéines homologues au sein de huit familles (chapitre 2). La spécificité de chaque famille ne nous a pas permis de généraliser l’impact de ces différents facteurs sur la stabilité thermique des protéines. Cependant, cette approche nous a permis de constater la multitude de stratégies différentes suivies par les protéines pour atteindre une plus grande thermostabilité.

La deuxième partie concerne le développement d’une approche originale pour évaluer l’influence de la température sur la contribution de différents types d’interactions à l’énergie libre de repliement des protéines (chapitres 3 et 4). Cette approche repose sur la dérivation de potentiels statistiques à partir d’ensembles de protéines de thermostabilité moyenne distincte. Nous avons d’une part collecté le plus grand nombre possible de protéines de structure et de Tm déterminées expérimentalement, et d’autre part développé des potentiels tenant compte de l’adaptation des protéines aux températures extrêmes au cours de leur évolution. Cette méthode originale a mis en évidence la dépendance en la température d’interactions protéiques tels les ponts salins, les interactions cation-{pi}, certains empilements hydrophobes .Elle nous a en outre permis de mettre le doigt sur l’importance de considérer la dépendance en la température non seulement des interactions attractives mais également des interactions répulsives, ainsi que sur l’importance de décrire la résistance thermique par la Tm plutôt que la Tenv, température de l’environnement de l’organisme dont elle provient (chapitre 5).

La dernière partie de cette thèse concerne l’utilisation des profils énergétiques dans un but prédictif. Tout d’abord, nous avons développé un logiciel bioinformatique pour prédire la thermostabilité d’une protéine sur la base de la thermostabilité de protéines homologues. Cet outil s’est avéré prometteur après l’avoir testé sur huit familles de protéines homologues. Nous avons également développé un deuxième outil bioinformatique pour prédire les changements de thermostabilité d’une protéine engendrés par l’introduction d’une mutation ponctuelle, en s’inspirant d’un logiciel de prédiction des changements de stabilité thermodynamique des protéines développé au sein de notre équipe de recherche. Ce deuxième algorithme de prédiction repose sur le développement d’une grande base de données de mutants caractérisés expérimentalement, d’une combinaison linéaire de potentiels pour évaluer la Tm, et d’un réseau de neurones pour identifier les coefficients de la combinaison. Les prédictions générées par notre logiciel ont été comparées à celles obtenues via la corrélation qui existe entre stabilités thermique et thermodynamique, et se sont avérées plus fiables.

Les travaux décrits dans notre thèse, et en particulier le développement de potentiels statistiques dépendant de la température, constituent une nouvelle approche très prometteuse pour comprendre et prédire la thermostabilité des protéines. En outre, nos travaux de recherche ont permis de développer une méthodologie qui pourra être adaptée à l’étude et à la prédiction d’autres propriétés physico chimiques des protéines comme leur solubilité, leur stabilité vis à vis de l’acidité, de la pression, de la salinité .lorsque suffisamment de données expérimentales seront disponibles.


Doctorat en Sciences agronomiques et ingénierie biologique
info:eu-repo/semantics/nonPublished

26

Rudwill, Floriane. "Conséquences d’une simulation d’impesanteur de 21 jours chez l’homme sur le métabolisme des lipides et effets d’une supplémentation en protéines testée comme contremesure." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAJ009/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours d’une simulation de la microgravité de 21 jours, le développement de plusieurs altérations métaboliques ont été étudiées : une inflammation de bas-niveau et une altération de la sensibilité à l’insuline et du métabolisme lipidique. Connues pour leurs impacts positifs sur le métabolisme, une supplémentation en protéines du petit lait, combinée à des sels alcalins, a également été testée.Contrairement aux études précédentes, aucune inflammation, ni altération du métabolisme lipidique n’a été clairement décrite dans notre étude. En revanche une diminution de l’oxydation des glucides en faveur des lipides est observée, suggérant le début d’une insensibilité à l’insuline. Nos données suggèrent qu’il serait possible de prévenir les dérégulations métaboliques associées à l’inactivité physique sévère par un remplacement isocalorique des lipides par les protéines, avec un apport protéique de base de 1,2g/kg/jour et un contrôle strict de la balance énergétique par l’apport calorique
During 21 days of simulated microgravity, the development of several metabolic alterations has been studied: a low-grade inflammation and an alteration of insulin sensitivity and lipid metabolism. Known for their positive effect on metabolism, whey proteins supplementation combined with alkaline salts have also been tested. At the opposite of previous studies, no inflammation, nor lipid metabolism alterations have clearly been described. Nevertheless, a decrease in carbohydrates oxidation in favor of lipids is observed, suggesting the development of insulin insensitivity. Our data suggest that it may be possible to prevent the metabolic disorders associated with severe physical inactivity by anisocaloric replacement of lipids by proteins in the diet, along with a protein intake of 1.2g/kg/day and tight control of energy balance by adjusting energy intake
27

Bertrand, Carl. "Modélisation de la séparation magnétique de basse intensité sur tambours rotatifs : enrichissement du minerai Havre Saint-Pierre de Rio Tinto, Fer et Titane." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27756/27756.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Malod-Dognin, Noël. "La comparaison structurale des protéines : de la maximisation du recouvrement de cartes de contacts à l'alignement basé sur les distances." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00509142.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En biologie structurale, il est couramment admit que la structure tridimensionnelle d'une protéine détermine sa fonction. Ce paradigme permet de supposer que deux protéines possédant des structures tridimensionnelles similaires peuvent partager un ancêtre commun et donc posséder des fonctions similaires. Déterminer la similarité entre deux structures de protéines est une tâche importante qui a été largement étudiée. Parmi toutes les méthodes proposées, nous nous intéressons à la mesure de similarité appelée “maximisation du recouvrement de cartes de contacts” (ou CMO), principalement parce qu'elle fournit des scores de similarité pouvant être utilisés pour obtenir de bonnes classifications automatiques des structures de protéines. Dans cette thèse, la comparaison de deux structures de protéines est modélisée comme une recherche de sous-graphe dans des graphes k-partis spécifiques appelés graphes d'alignements, et nous montrons que cette tâche peut être efficacement réalisée en utilisant des techniques avancées issues de l'optimisation combinatoire. Dans la seconde partie de cette thèse, nous modélisons CMO comme une recherche de sousgraphe maximum induit par les arêtes dans des graphes d'alignements, problème pour lequel nous proposons un solveur exact qui surpasse les autres algorithmes de la littérature. Même si nous avons réussi à accélérer CMO, la procédure d'alignement requière encore trop de temps de calculs pour envisager des comparaisons à grande échelle. La troisième partie de cette thèse est consacrée à l'accélération de CMO en utilisant des connaissances issues de la biologie structurale. Nous proposons une approche hiérarchique pour résoudre CMO qui est basée sur les structures secondaires des protéines. Enfin, bien que CMO soit une très bonne mesure de similarité, les alignements qu'elle fournit possèdent souvent de fortes valeurs de déviation (root mean squared deviation, ou RMSD). Pour palier à cette faiblesse, dans la dernière partie de cette thèse, nous proposons une nouvelle méthode de comparaison de structures de protéines basée sur les distances internes que nous appelons DAST (pour Distance-based Alignment Search Tool). Elle est modélisée comme une recherche de clique maximum dans des graphes d'alignements, pour laquelle nous présentons un solveur dédié montrant de très bonnes performances.
29

Sirota, Leite Fernanda. "Role of the amino acid sequences in domain swapping of the B1 domain of protein G by computation analysis." Doctoral thesis, Universite Libre de Bruxelles, 2007. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210657.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Domain swapping is a wide spread phenomenon which involves the association between two or more protein subunits such that intra-molecular interactions between domains in each subunit are replaced by equivalent inter-molecular interactions between the same domains in different subunits. This thesis is devoted to the analysis of the factors that drive proteins to undergo such association modes. The specific system analyzed is the monomer to swapped dimer formation of the B1 domain of the immunoglobulin G binding protein (GB1). The formation of this dimer was shown to be fostered by 4 amino acid substitutions (L5V, F30V, Y33F, A34F) (Byeon et al. 2003). In this work, computational protein design and molecular dynamics simulations, both with detailed atomic models, were used to gain insight into how these 4 mutations may promote the domain swapping reaction.

The stability of the wt and quadruple mutant GB1 monomers was assessed using the software DESIGNER, a fully automatic procedure that selects amino acid sequences likely to stabilize a given backbone structure (Wernisch et al. 2000). Results suggest that 3 of the mutations (L5V, F30V, A34F) have a destabilizing effect. The first mutation (L5V) forms destabilizing interactions with surrounding residues, while the second (F30V) is engaged in unfavorable interactions with the protein backbone, consequently causing local strain. Although the A34F substitution itself is found to contribute favorably to the stability of the monomer, this is achieved only at the expense of forcing the wild type W43 into a highly strained conformation concomitant with the formation of unfavorable interactions with both W43 and V54.

Finally, we also provide evidence that A34F mutation stabilizes the swapped dimer structure. Although we were unable to perform detailed protein design calculations on the dimer, due to the lower accuracy of the model, inspection of its 3D structure reveals that the 34F side chains pack against one another in the core of the swapped structure, thereby forming extensive non-native interactions that have no counterparts in the individual monomers. Their replacement by the much smaller Ala residue is suggested to be significantly destabilizing by creating a large internal cavity, a phenomenon, well known to be destabilizing in other proteins. Our analysis hence proposes that the A34F mutation plays a dual role, that of destabilizing the GB1 monomer structure while stabilizing the swapped dimer conformation.

In addition to the above study, molecular dynamics simulations of the wild type and modeled quadruple mutant GB1 structures were carried out at room and elevated temperatures (450 K) in order to sample the conformational landscape of the protein near its native monomeric state, and to characterize the deformations that occur during early unfolding. This part of the study was aimed at investigating the influence of the amino acid sequence on the conformational properties of the GB1 monomer and the possible link between these properties and the swapping process. Analysis of the room temperature simulations indicates that the mutant GB1 monomer fluctuates more than its wild type counter part. In addition, we find that the C-terminal beta-hairpin is pushed away from the remainder of the structure, in agreement with the fact that this hairpin is the structural element that is exchanged upon domain swapping. The simulations at 450 K reveal that the mutant protein unfolds more readily than the wt, in agreement with its decreased stability. Also, among the regions that unfold early is the alpha-helix C-terminus, where 2 out of the 4 mutations reside. NMR experiments by our collaborators have shown this region to display increased flexibility in the monomeric state of the quadruple mutant.

Our atomic scale investigation has thus provided insights into how sequence modifications can foster domain swapping of GB1. Our findings indicate that the role of the amino acid substitutions is to decrease the stability of individual monomers while at the same time increase the stability of the swapped dimer, through the formation of non-native interactions. Both roles cooperate to foster swapping.
Doctorat en sciences, Spécialisation biologie moléculaire
info:eu-repo/semantics/nonPublished

30

Ballivian, Renaud. "Étude de complexes non-covalents et de polymères organiques par couplage entre la spectrométrie de masse et la mobilité ionique." Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10219.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’étude de la structure de complexes non-covalents présente un intérêt fondamental dans la recherche en chimie des protéines. Le premier objectif est de caractériser les interactions physico-chimiques sur lesquelles repose l’adoption d’une structure tridimensionnelle fonctionnelle par un édifice multimoléculaire. Le second objectif est de mettre en évidence les changements structuraux induits par le phénomène de complexation, et leur influence sur la fonction du système. Le couplage entre la spectrométrie de masse et la mobilité ionique (IM/MS) est une technique d’étude structurale en phase gazeuse, dont le principe repose sur la séparation d’ions selon leur forme et leur rapport masse sur charge, et qui permet en outre de mesurer leurs sections efficaces de diffusion. Grâce à cette technique, nous avons réalisé l’étude structurale de trois complexes non-covalents : l’agrégation de molécules de tanin sur la protéine salivaire humaine IB5, la fixation du ligand Ac2KAA sur la vancomycine, et la complexation de cations métalliques sur des polymères poly-lactide. L’évolution des sections efficaces en fonction de la taille du système ou de l’état de complexation met en évidence la présence de transitions structurales. De plus, utilisé avec de la modélisation moléculaire ou de la spectroscopie laser, le couplage IM/MS s’avère pertinent pour caractériser les interactions responsables de la stabilisation de tels complexes. Ces travaux de thèse montrent que cette technique , au-delà du simple aspect analytique (séparation d’isomères), peut également être utilisée au sein d’études plus globales, mettant en jeu plusieurs techniques afin de résoudre la structure de systèmes complexes
Knowing the structure of non-covalent complexes is essential to understand many biological processes. The first step is the characterization of the interactions leading to the adoption of a functional tridimensional structure by a multimeric assembly. The second step consists of underlining the structural modifications induced by the complexation, and their influence on the system’s function. The Ion Mobility/Mass Spectrometry (IM/MS) is a gas-phase method that is used to separate ions according to their geometry and their masse-to-charge ratio. IM/MS also provides insights on their intrinsic properties, by measuring their collision cross sections. Using this method, we have studied the structure of three different non-covalent complexes: the aggregation of tannins on the human salivary protein IB-5, the fixation of a small ligand (Ac2KAA) on vancomycin, and the complexation between metallic cations and poly-lactid polymers. The evolution of the collision cross-sections as a function of the size of the system or the complexation state clearly shows structural transitions. Moreover, combined with molecular modeling or laser spectroscopy, the IM/MS technique reveals to be a powerful tool to characterize the relevant interactions in such systems. This work proves that IM/MS, besides a powerful analytical aspect, can also be used in global studies that involve several structural methods to resolve the structure of large multimeric assemblies
31

Gillet, Natacha. "Simulations Numériques de Transferts Interdépendants d’Electrons et de Protons dans les Protéines." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112159/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les processus d’oxydo-réduction impliquant des molécules organiques se retrouvent très fréquemment dans les protéines. Ces réactions comprennent généralement des transferts d’électrons et de protons qui se traduisent dans le bilan réactionnel par des transferts couplés proton-électron, des transferts simples d’hydrogène, d’hydrure... Une des principales méthodes pour élucider ces mécanismes est fournie par l'évaluation de grandeurs thermodynamiques et cinétiques. Expérimentalement, ces informations sont cependant obtenues avec une résolution temporelle souvent limitée à la milli/microseconde. Les simulations numériques présentées ici complètent, à des échelles de temps plus courtes (femto, pico, nanosecondes), ces données expérimentales. Il existe de nombreuses méthodes de simulations dédiées à l’étude de mécanismes redox dans les protéines combinant la description quantique des réactifs (QM) nécessaire à l’étude des changements d’états électroniques et la description classique de l’environnement (MM), l'échantillonnage de conformations se faisant grâce à des simulations de dynamique moléculaire (MD). Ces méthodes diffèrent par la qualité de la description du mécanisme réactionnel et le coût en temps de calcul. L’objectif de cette thèse est d’étudier les mécanismes de différents processus impliquant des transferts de protons et d’électrons en recherchant à chaque fois les outils adaptés. Elle comporte trois parties : i) l’évaluation de potentiels redox de cofacteurs quinones ; ii) la description du mécanisme d’oxydation du L-lactate dans l’enzyme flavocytochrome b2 ; iii) la décomposition d’un transfert formel d’hydrure entre deux flavines au sein de la protéine EmoB. Dans le cas du calcul des potentiels redox, nous utilisons une méthode notée QM+MM où la description électronique se fait en phase gaz au niveau DFT tandis que les simulations de MD s’effectuent classiquement. Nous appliquons l’approximation de réponse linéaire (ARL) pour décrire la réponse du système aux étapes de changement d’état de protonation ou d’oxydation de la fonction quinone ce qui aboutit au calcul du potentiel redox théorique. Nous avons ainsi pu établir une courbe de calibration des résultats théoriques en fonction des données expérimentales, confirmant la validité de l'ARL pour les cofacteurs quinones dans l’eau. La méthode a été étendue à la protéine MADH mais les limites de l’ARL ont été atteintes du fait des fluctuations importantes de l’environnement. L’étude de l’oxydation du L-lactate en pyruvate repose sur le calcul de surfaces d'énergie libre au niveau AM1/MM. Ces surfaces sont obtenues à l’aide de simulations de MD biaisées puis corrigées à l’aide de calculs d’énergies DFT. Différents chemins de réactions impliquant les transferts d’un proton et d’un hydrure du substrat vers une histidine et une flavine respectivement ont pu être identifiés. Ces transferts peuvent être séquentiels ou concertés suivant la conformation du site actif ou les mutations effectuées. Les surfaces concordent avec les effets observés expérimentalement. Les barrières obtenues restent cependant supérieures à celles attendues ouvrant la voie à d’autres simulations. La décomposition du mécanisme de transfert d’hydrure en transfert d’électron et d’atome d’hydrogène s’appuie sur de longues simulations classiques et des calculs d’énergies au niveau DFT contrainte (cDFT)/MM. La DFT contrainte permet de décrire les états diabatiques associés au transfert d’électron à différents stades du transfert d’hydrogène. En appliquant l’ARL, nous pouvons construire des paraboles correspondant aux états diabatiques et déterminer la séquence des évènements de transfert d'électron et d’hydrogène. La comparaison entre milieux protéique et aqueux nous a permis d’établir que le rôle de la protéine dans le transfert d'hydrure global est de bloquer le transfert d’électron en l’absence du transfert d’hydrogène empêchant ainsi la formation de flavines semi-réduites
Redox processes involving organic molecules are ubiquitous in proteins. They generally imply global reactions such as Proton Coupled Electron Transfers, hydrogen atom or hydride transfers which can be decomposed into both electrons and proton transfers. Kinetic and thermodynamic information leads to a better understanding of these mechanisms. However, experiments are often limited to a milli- or microsecond timescales. We present here numerical simulations allowing modeling at shorter timescales (femto, pico or nanosecond) to complete experimental data. Many numerical methods combine quantum description (QM) of the active center and classical description (MM) of the environment to describe redox transformations into biological media. Molecular dynamics (MD) simulations allowed a conformational sampling of the global system. Nevertheless, depending on their level of description of the QM part, the methods can cost more or less CPU time to get a good conformational sampling. In this thesis, we have studied different redox mechanisms involving both proton and electron transfers with a particular care paid to the balance between quality of the electronic description and of conformational sampling. For each mechanism, the coupled proton and electron transfers are investigated differently. This manuscript thus falls into three parts: i) the evaluation of the redox potentials quinone derivatives ; ii) the mechanistic description of the L-lactate oxidation into pyruvate in the flavocytochrome b2 enzyme; iii) decomposition of the formal hydride transfer occurring between two flavins in EmoB protein. A QM+MM scheme is chosen to evaluate redox potential of quinone cofactors: the electronic behavior is described at DFT level in gas phase while classical MDs provide a large conformational sampling of the molecule and its environment. Deprotonation and oxidation free energies are estimated by applying the linear response approximation (LRA). We finally get a theoretical value of the redox potential for different quinocofactors in water and a calibration curve of these theoretical results in function of experimental data. This curve allowed predictions of quinone redox potentials in water with a good accuracy (less than 0.1 eV). We also try our method on the MADH protein containing a Tryptophan Tryptophilquinone cofactor. However, because of great fluctuations of the environment, the LRA is not suitable for this system. This underlines the limits of our methodology. The oxidation of L-lactate to pyruvate is described by free energy surfaces obtained at AM1/MM level. Biased MDs provide the AM1/MM profile which is then corrected at DFT level. Several reactions pathways have been noticed. They consist in sequential or concerted transfers of a proton from L-lactate to a histidine and a hydride from L-lactate to a flavin cofactor. The coupling between the two transfers depends on the conformation of the active site or on the mutations. The obtained surfaces fit qualitatively the experimental data but the theoretical activation barriers are too high. Other simulations must be explored: different methods, other mechanism... Finally, a combination of long classical MDs and constrained DFT (cDFT)/MM are employed to decompose a hydride transfer between two flavins into one hydrogen atom and one electron transfer. cDFT methodology allow us to describe diabatic states associated to the electron transfer during the hydrogen atom transfer. Applying the LRA, we can build parabola of the diabatic and determine the sequence of the two transfers. The comparison of our results in the EmoB protein or in aqueous medium shows that the protein allows the electron transfer only if the hydrogen atom transfer is happening. By this way, no semi-reduced flavin is created
32

Cregut, David. "Application de la modélisation moléculaire à l'étude stsructurale de la tropomyosine et des annexines : une approche complémentaire de l'expérience." Montpellier 2, 1995. http://www.theses.fr/1995MON20026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les methodes recentes de modelisation moleculaire ont ete appliquees a deux problematiques de biologie structurale des proteines concernant la tropomyosine et les annexines. Des modeles moleculaires de la super-helice de tropomyosine ont ete construits a partir de donnees partielles de cristallographie. L'analyse de ces modeles a permis de preciser l'influence et la specificite des interactions hydrophobes et electrostatiques sur l'association entre les deux chaines en helice alpha de la molecule. Des modeles moleculaires d'annexine i ont ete construits par homologie, a partir de la structure cristallographique de l'annexine v, et ont permis d'interpreter partiellement l'influence de certaines mutations sur l'affinite pour le calcium de l'annexine i. D'autre part, on montre que l'introduction d'un terme de solvatation implicite dans les champs de force de mecanique moleculaire permet d'ameliorer significativement la qualite des modeles. Des simulations de dynamique moleculaire ont ete realisees sur les annexines i et v en presence et en l'absence d'ions calcium. Les fluctuations de la structure au cours des simulations sont globalement en accord avec les observations experimentales. L'analyse des mouvements internes des helices alpha de l'annexine a permis de proposer un modele de l'influence du calcium sur la dynamique de cette proteine. L'ensemble de cette etude montre l'interet des simulations par ordinateur qui fournissent des informations complementaires des mesures experimentales, et permettent de proposer des interpretations moleculaires des resultats biochimiques
33

Wang, Guan. "Roles of substrate rigidity and composition in membrane trafficking." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC195.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Du cerveau à l’os, la rigidité et la composition de la matrice extracellulaire varient énormément et jouent un rôle dans les réponses cellulaires. La rigidité influe également sur la tension de la membrane plasmique, elle-même régulée par le trafic membranaire. Comment la rigidité et la composition du substrat peuvent réguler l'exocytose, qui à son tour régule la tension de la membrane, reste largement inconnu. Ici, j'ai utilisé l’imagerie pHluorin d’évènements uniques d’exocytose de cellules cultivées sur des substrats de rigidité et de composition contrôlée pour explorer la régulation de VAMP2 et VAMP7. J'ai développé un logiciel informatique pour identifier automatiquement les évènements de fusion, permettant une analyse rapide de données. J'ai contribué à l'étude montrant que l’exocytose VAMP7 est régulée par la kinase src, qui phosphoryle VAMP7 dans son domaine Longin (LD) (Burgo et al. JBC 2013). De plus, j’ai trouvé que la rigidité du substrat stimule l’exocytose, en présence de la laminine, de VAMP7, mais pas VAMP7 sans LD ni VAMP2. VAMP7 et VAMP7 sans LD sont par ailleurs également sensibles aux variations de la tension membranaire induites par chocs osmotiques. Enfin, j'ai identifié que LRRK1 est un partenaire du LD, et contrôle le transport rétrograde de VAMP7.Ces approches m’ont permis de révéler un nouveau mécanisme par lequel la rigidité, agissant sur la signalisation des intégrines, contrôle le transport de VAMP7 via LRRK1 et Rab21 (Wang et al. soumis). Ce mécanisme pourrait avoir un large intérêt potentiel pour comprendre la dynamique de la membrane dans des conditions normales et pathologiques, en particulier le cancer
From brain to bones, stiffness and composition of the extracellular matrix vary greatly and play a role in cell responses. Substrate rigidity also impacts plasma membrane tension, which has a close relationship with membrane trafficking. How substrate rigidity and chemistry sensing may regulate exocytosis, which in turn regulates membrane tension, is still largely unknown. Here, I used pHluorin imaging of single vesicle exocytosis in cells cultured on substrates of controlled rigidity and composition to explore the regulation of VAMP2 and VAMP7-mediated exocytosis. I developed a computer software to automatically identify fusion events thus allowing quick analysis of batch data. I contributed to the study showing that VAMP7 exocytosis is regulated by src kinase which phosphorylates VAMP7 in its Longin domain (LD) (Burgo et al. JBC 2013). I further found that VAMP7 but not VAMP7 lacking LD- or VAMP2-mediated secretion was stimulated by substrate stiffness on laminin. VAMP7 and VAMP7 lacking LD were similarly sensitive to osmotic chock-induced membrane tension changes. Finally, i showed that LRRK1, a regulator of egf receptor transport, is a partner of the LD, and controls the retrograde transport of VAMP7. These approaches allowed me to reveal a new mechanism whereby substrate rigidity, by acting on integrin signalling, enhances VAMP7 exocytosis via LRRK1- and Rab21-dependent regulation of its peripheral readily-releasable pool (Wang et al. submitted). This mechanism may have broad potential relevance for plasma membrane dynamics in normal conditions and diseases, particularly cancer
34

Medkour, Terkia. "Modélisation mathématique et simulation numérique de la polymérisation de l’hémoglobine drépanocytaire." Thesis, Paris Est, 2008. http://www.theses.fr/2008PEST0044/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La drépanocytose, ou anémie falciforme, présente une variabilité interindividuelle considérable, conditionnée par de multiples facteurs, dynamiques et interactifs, depuis le niveau moléculaire jusqu’au niveau du patient. L’hémoglobine drépanocytaire, ou hémoglobine S (HbS, tétramère a2bS 2), est un mutant de l’hémoglobine A (a2b2) : elle possède à sa surface une valine (hydrophobe) substituant un acide glutamique natif (négativement chargé). Cette mutation entraîne l’agrégation de l’HbS désoxygénée en polymères, ainsi que l’altération des propriétés de l’érythrocyte -dont sa rhéologie et ses interactions avec les différentes cellules vasculaires. C’est pourquoi la polymérisation de l’HbS constitue un facteur étiologique clef, sinon le primum movens, de la drépanocytose, et une hypothèse thérapeutique (étayée par l’observation) postule que la réduction des fibres intra-érythrocytaires de HbS pourrait améliorer le statut clinique des patients en abaissant la fréquence et la sévérité des crises vasoocclusives. Dans l’optique de mieux comprendre et de mieux gérer la variabilité individuelle drépanocytaire, il apparaît donc indispensable de disposer, en premier lieu, d’une description réaliste de la polymérisation de l’HbS. L’objectif de ce travail de thèse est la mise en place et la validation d’un modèle mathématique de la polymérisation de l’HbS désoxygénée, en tant que processus cinétiquethermodynamique, sous l’influence de la concentration et de la température –les deux facteurs modulateurs les plus importants. A partir d’un modèle existant, mais linéaire et incomplet (Ferrone et al., 1985), nous avons procédé à son implémentation, à sa correction et à sa mise à jour, ainsi qu’à l’évaluation quantitative de ses performances dynamiques, par intégration complète et simulation numérique (Simulink©). Ceci nous a permis de réaliser un diagnostic et d’effectuer un certain nombre de raffinements, concernant en particulier (i) la voie de nucléation hétérogène (formation de néo-fibres sur les fibres préexistantes), (ii) la non-idéalité de la solution protéique de HbS, induite par le volume exclus des fibres polymères (coefficients d’activité calculé à partir de la « théorie des particules convexes »), ainsi que (iii) la structuration spatiale des polymères en domaines. Le modèle développé dans ce travail servira de base pour une description (i) de l’influence dynamique de l’oxygénation et des hémoglobines non-polymérisantes sur la polymérisation de HbS, puis (ii) des polymères de HbS sur les propriétés membranaires et rhéologiques de l’érythrocyte drépanocytaire
Sickle cell disease pathology exhibits a strong interindividual variability, which depends upon multiple, dynamic and interacting factors, from the molecular to the patient level. Sickle hemoglobin, hemoglobin S (HbS, a2bS 2 tetramer), is a mutant of HbA (a2b2), with a surface valine (hydrophobic) substituting a native glutamic acid (negatively charged). Such a mutation endows deoxygenated HbS with the propensity to agregate into polymers, altering erythrocyte properties –including its rheology and its interactions with vascular and circulatory cells. Thus HbS polymerization is a key etiological factor of sickle cell disease, if not the primum movens. Indeed, one therapeutical hypothesis (supported by observation) postulates that the reduction of intra-erythrocytic HbS fibers could improve patients clinical status by lowering the frequency and the severity of vasooclusive crisis. In order to better understand and manage sickle cell disease variability, it is essential to have a realistic description of HbS polymerization. This work aims at developing and validating a mathematical model of deoxygenated HbS polymerization, as a kinetic and thermodynamic process under the influence of concentration and temperature –the two most important modulators. Building on an existing, but linearized and uncomplete (Ferrone et al., 1985) model, we have implemented, corrected and updated, and quantitatively evaluated its dynamical performances: this was done by full numerical integration using Simulink©. This allowed us to make several improvements, related in particular to : (i) the heterogeneous nucleation pathway (seeding and formation of new fibers from pre-existing ones), (ii) the non-ideality of the HbS protein solution, caused by polymer fibers excluded volume (activity coefficients were calculated with the CPT, Convex Particle Theory), and (iii) the spatial organization of polymers into domains. The model developped in this work will ground the description of the dynamic influence (i) oxygenation and non-polymerizing hemoglobins, (ii) HbS polymers interactions with membrane and consequences upon rheological properties of sickle cell erythrocyte
35

Bernales, chavez Braulio. "Modélisation de l'hydrodynamique et des transferts dans les procédés de filtration membranaire." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4779/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'accumulation du soluté à la surface d'une membrane entraîne le phénomène de polarisation de concentration. Ceci est un problème qui affecte tous les systèmes de filtration membranaire car il a pour effet une augmentation de la pression osmotique et par conséquence une réduction substantielle du flux de perméat. Afin de comprendre ce phénomène, nous avons d'abord mené une étude analytique de la filtration tangentielle en solvant pur prenant en compte de l'influence de la pression motrice locale sur le taux de perméation. Lors de cette étude, des solutions analytiques qui augmentent en précision avec l'ordre développé ont ete dérivées. Ensuite nous avons développé une approche analytique qui couple l'hydrodynamique aux transferts de matière pour le cas d'un système de filtration qui opère sous haute pression avec un taux de récupération faible. Dans le but d'intégrer à la fois la dépendance de la pression transmembranaire locale sur le flux de perméat et l'influence de la polarisation de concentration à travers leurs effets osmotiques sur la pression effective, nous avons développé un modèle numérique qui résout l'équation de conservation du soluté couplée aux équations de Navier-Stokes en régime stationnaire dans l'approximation de Prandtl. Nous avons validé cette approche grâce aux solutions analytiques précédemment dérivées. Ensuite, nous avons testé l'influence des principaux paramètres de fonctionnement sur la performance du système et comparé nos résultats avec ceux d'autres modèles numériques. Finalement, la pertinence du modèle a été quantitativement vérifiée grâce à des données tirées des expériences bien documentées en osmose inverse
Concentration polarization of solute at the membrane surface, because of osmotic pressure effects, is an important phenomenon that can cause substantial reductions in permeation. To understand these phenomena: we first analyze the filtration process for a pure solvent, imposing the influence of the driving pressure on permeation at the membrane. We obtain accurate analytical solutions for the flow fields. We then derive an analytical solution that coupled hydrodynamics to mass transfer for filtration systems working in a situation of High Pressure and Low Recovery. Second, we develop a numerical model that incorporates both physical aspects: the dependency of pressure on permeation and the influence of concentration polarization and their related osmotic effects in the effective pressure at the membrane. For that, the numerical approach solves the solute conservation equation coupled with the Navier-Stokes equations under the steady Prandtl approximation. The solution of the system is performed using a finite difference method of order 2. The validity of this approach is successfully demonstrated with the previous analytical solutions for hydrodynamics, as well as for the coupling with mass transfer. We then test the influence of the main operating parameters (inlet concentration, axial flow rate, operating pressure and membrane permeability) on the performance of the filtration system and compare the results with other numerical models that takes into account concentration polarization phenomenon. Finally, the validity of this model is quantitatively well-proved when using the reported data resulting from reverse osmosis experiments
36

Tran, Thanh Thuy. "Lattice model for amyloid peptides : OPEP force field parametrization and applications to the nucleus size of Alzheimer's peptides." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC187/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La maladie d’Alzheimer touche plus de 40 millions de personnes dans le monde et résulte de l’agrégation du peptide beta-amyloïde de 40/42 résidus. En dépit de nombreuses études expérimentales et théoriques, le mécanisme de formation des fibres et des plaques n’est pas élucidé, et les structures des espèces les plus toxiques restent à déterminer. Dans cette thèse, je me suis intéressée à deux aspects. (1) La détermination du noyau de nucléation (N*) de deux fragments (Aβ)16-22 et (Aβ)37-42. Mon approche consiste à déterminer les paramètres OPEP du dimère (Aβ)16-22 en comparant des simulations Monte Carlo sur réseau et des dynamiques moléculaires atomiques par échange de répliques. Les paramètres fonctionnant aussi sur le trimère (Aβ)16-22 et les dimères et trimères (Aβ)37-42, j’ai étudié la surface d’énergie libre des décamères et mes simulations montrent que N* est de 10 chaines pour (Aβ)16-22 et est supérieure à 20 chaines pour (Aβ)37-42. (2) J’ai ensuite étudié les structures du dimère (Aβ)1-40 par simulations de dynamique moléculaire atomistique par échanges de répliques. Cette étude, qui fournit les conformations d’équilibre du dimère Aβ1-40 en solution aqueuse, ouvre des perspectives pour une compréhension de l’impact des mutations pathogènes et protectrices au niveau moléculaire
The neurodegenerative Alzheimer's disease (AD) is affecting more than 40 million people worldwide and is linked to the aggregation of the amyloid-β proteins of 40/42 amino acids. Despite many experimental and theoretical studies, the mechanism by which amyloid fibrils form and the 3D structures of the early toxic species in aqueous solution remain to be determined. In this thesis, I studied the structures of the eraly formed oligomers of the amyloid-β peptide and the critical nucleus size of two amyloid-β peptide fragments using either coarse-grained or all-atom simulations. First, at the coarse-grained level, I developed a lattice model for amyloid protein, which allows us to study the nucleus sizes of two experimentally well-characterized peptide fragments (Aβ)16-22 and (Aβ)37-42 of the Alzheimer's peptide (Aβ)1-42. After presenting a comprehensive OPEP force-field parameterization using an on-lattice protein model with Monte Carlo simulations and atomistic simulations, I determined the nucleus sizes of the two fragments. My results show that the nucleation number is 10 chains for (Aβ)16-22 and larger than 20 chains for (Aβ)37-42. This knowledge is important to help design more effective drugs against AD. Second, I investigated the structures of the dimer (Aβ)1-40 using extensive atomistic REMD simulations. This study provides insights into the equilibrium structure of the (Aβ)1-40 dimer in aqueous solution, opening a new avenue for a comprehensive understanding of the impact of pathogenic and protective mutations in early-stage Alzheimer’s disease on a molecular level
37

Ruiz, Echartea Maria Elisa. "Pairwise and Multi-Component Protein-Protein Docking Using Exhaustive Branch-and-Bound Tri-Dimensional Rotational Searches." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0306.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La détermination des structures tri-dimensionnelles (3D) des complexes protéiques est cruciale pour l’avancement des recherches sur les processus biologiques qui permettent, par exemple, de comprendre le développement de certaines maladies et, si possible, de les prévenir ou de les traiter. Face à l’intérêt des complexes protéiques pour la recherche, les difficultés et le coût élevé des méthodes expérimentales de détermination des structures 3D des protéines ont encouragé l’utilisation de l’informatique pour développer des outils capables de combler le fossé, comme par exemple les algorithmes d’amarrage protéiques. Le problème de l’amarrage protéique a été étudié depuis plus de 40 ans. Cependant, le développement d’algorithmes d’amarrages précis et efficaces demeure un défi à cause de la taille de l’espace de recherche, de la nature approximée des fonctions de score utilisées, et souvent de la flexibilité inhérente aux structures de protéines à amarrer. Cette thèse présente un algorithme pour l’amarrage rigide des protéines, qui utilise une série de recherches exhaustives rotationnelles au cours desquelles seules les orientations sans clash sont quantifiées par ATTRACT. L’espace rotationnel est représenté par une hyper-sphère à quaternion, qui est systématiquement subdivisée par séparation et évaluation, ce qui permet un élagage efficace des rotations qui donneraient des clashs stériques entre les deux protéines. Les contributions de cette thèse peuvent être décrites en trois parties principales comme suit. 1) L’algorithme appelé EROS-DOCK, qui permet d’amarrer deux protéines. Il a été testé sur 173 complexes du jeu de données “Docking Benchmark”. Selon les critères de qualité CAPRI, EROS-DOCK renvoie typiquement plus de solutions de qualité acceptable ou moyenne que ATTRACT et ZDOCK. 2) L’extension de l’algorithme EROS-DOCK pour permettre d’utiliser les contraintes de distance entre atomes ou entre résidus. Les résultats montrent que le fait d’utiliser une seule contrainte inter-résidus dans chaque interface d’interaction est suffisant pour faire passer de 51 à 121 le nombre de cas présentant une solution dans le top-10, sur 173 cas d’amarrages protéine-protéine. 3) L’extension de EROSDOCK à l’amarrage de complexes trimériques. Ici, la méthode proposée s’appuie sur l’hypothèse selon laquelle chacune des trois interfaces de la solution finale doit être similaire à au moins l’une des interfaces trouvées dans les solutions des amarrages pris deux-à-deux. L’algorithme a été testé sur un benchmark de 11 complexes à 3 protéines. Sept complexes ont obtenu au moins une solution de qualité acceptable dans le top-50 des solutions. À l’avenir, l’algorithme EROS-DOCK pourra encore évoluer en intégrant des fonctions de score améliorées et d’autres types de contraintes. De plus il pourra être utilisé en tant que composant dans des workflows élaborés pour résoudre des problèmes complexes d’assemblage multi-protéiques
Determination of tri-dimensional (3D) structures of protein complexes is crucial to increase research advances on biological processes that help, for instance, to understand the development of diseases and their possible prevention or treatment. The difficulties and high costs of experimental methods to determine protein 3D structures and the importance of protein complexes for research have encouraged the use of computer science for developing tools to help filling this gap, such as protein docking algorithms. The protein docking problem has been studied for over 40 years. However, developing accurate and efficient protein docking algorithms remains a challenging problem due to the size of the search space, the approximate nature of the scoring functions used, and often the inherent flexibility of the protein structures to be docked. This thesis presents an algorithm to rigidly dock proteins using a series of exhaustive 3D branch-and-bound rotational searches in which non-clashing orientations are scored using ATTRACT. The rotational space is represented as a quaternion “π-ball”, which is systematically sub-divided in a “branch-and-bound” manner, allowing efficient pruning of rotations that will give steric clashes. The contribution of this thesis can be described in three main parts as follows. 1) The algorithm called EROS-DOCK to assemble two proteins. It was tested on 173 Docking Benchmark complexes. According to the CAPRI quality criteria, EROS-DOCK typically gives more acceptable or medium quality solutions than ATTRACT and ZDOCK. 2)The extension of the EROS-DOCK algorithm to allow the use of atom-atom or residue-residue distance restraints. The results show that using even just one residue-residue restraint in each interaction interface is sufficient to increase the number of cases with acceptable solutions within the top-10 from 51 to 121 out of 173 pairwise docking cases. Hence, EROS-DOCK offers a new improved search strategy to incorporate experimental data, of which a proof-of-principle using data-driven computational restraints is demonstrated in this thesis, and this might be especially important for multi-body complexes. 3)The extension of the algorithm to dock trimeric complexes. Here, the proposed method is based on the premise that all of the interfaces in a multi-body docking solution should be similar to at least one interface in each of the lists of pairwise docking solutions. The algorithm was tested on a home-made benchmark of 11 three-body cases. Seven complexes obtained at least one acceptable quality solution in the top-50. In future, the EROS-DOCK algorithm can evolve by integrating improved scoring functions and other types of restraints. Moreover, it can be used as a component in elaborate workflows to efficiently solve complex problems of multi-protein assemblies
38

Jobic, Yann. "Numerical approach by kinetic methods of transport phenomena in heterogeneous media." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4723/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les phénomènes de transport en milieux poreux sont étudiés depuis près de deux siècles, cependant les travaux concernant les milieux fortement poreux sont encore relativement peu nombreux. Les modèles couramment utilisés pour les poreux classiques (lits de grains par exemple) sont peu applicables pour les milieux fortement poreux (les mousses par exemple), un certain nombre d’études ont été entreprises pour combler ce manque. Néanmoins, les résultats expérimentaux et numériques caractérisant les pertes de charge dans les mousses sont fortement dispersés. Du fait des progrès de l’imagerie 3D, une tendance émergente est la détermination des paramètres des lois d’écoulement à partir de simulations directes sur des géométries reconstruites. Nous présentons ici l’utilisation d’une nouvelle approche cinétique pour résoudre localement les équations de Navier-Stokes et déterminer les propriétés d’écoulement (perméabilité, dispersion, ...)
A novel kinetic scheme satisfying an entropy condition is developed, tested and implemented for the simulation of practical problems. The construction of this new entropic scheme is presented. A classical hyperbolic system is approximated by a discrete velocity vector kinetic scheme (with the simplified BGK collisional operator), but applied to an inviscid compressible gas dynamics system with a small Mach number parameter, according to the approach of Carfora and Natalini (2008). The numerical viscosity is controlled, and tends to the physical viscosity of the Navier-Stokes system. The proposed numerical scheme is analyzed and formulated as an explicit finite volume flux vector splitting (FVS) scheme that is very easy to implement. It is close in spirit to Lattice Boltzmann schemes, but it has the advantage to satisfy a discrete entropy inequality under a CFL condition and a subcharacteristic stability condition involving a cell Reynolds number. The new scheme is proved to be second-order accurate in space. We show the efficiency of the method in terms of accuracy and robustness on a variety of classical benchmark tests. Some physical problems have been studied in order to show the usefulness of both schemes. The LB code was successfully used to determine the longitudinal dispersion of metallic foams, with the use of a novel indicator. The entropic code was used to determine the permeability tensor of various porous media, from the Fontainebleau sandstone (low porosity) to a redwood tree sample (high porosity). These results are pretty accurate. Finally, the entropic framework is applied to the advection-diffusion equation as a passive scalar
39

Babajee, Jayson. "Detailed numerical characterization of the separation-induced transition, including bursting, in a low-pressure turbine environment." Phd thesis, Ecole Centrale de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00984351.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La turbine basse-pression est un composant essentiel d'un turboréacteur car elle entraine la soufflante qui génère la plus grande partie de la poussée dans la configuration actuelle des turboréacteurs à double flux. Dans la perspective d'accroître son rendement en termes de consommation de carburant, il y a une recherche permanente dans la réduction du nombre d'aubage (c'est-à-dire la réduction de la masse) qui implique un chargement plus élevé par aube de rotor. Cet environnement est caractérisé par un écoulement dont le nombre de Reynolds est faible ainsi qu'une large diffusion le long de la partie aval de l'extrados. Par conséquent, l'écoulement le long de cette surface est potentiellement sujet à une séparation laminaire qui, suivant le statut de la bulle de recirculation, pourrait causer une diminution de la performance aérodynamique (sillages plus larges et plus profonds). La présente thèse de doctorat se concentre sur l'investigation du phénomène de la transition induite par séparation dans les écoulements de turbines basse-pression. L'accent est mis sur les prédictions numériques basées sur une approche CFD RANS utilisant le modèle innovant de transition γ-Reθt à deux équations de transport (la première équation pour l'intermittence numérique et la seconde équation pour le nombre de Reynolds dont la longueur caractéristique est l'épaisseur de quantité de mouvement au début de transition γ-Reθt). Neuf aubes différentes de rotor de turbine basse-pression constituent une base de données de référence et couvrent les plages de fonctionnement de différents nombres de Reynolds de sortie isentropique, de nombres de Mach de sortie isentropique, d'intensités de turbulence d'entrée, avec ou sans sillage provenant d'une rangée d'aubes amont et avec deux configurations de rugosité locale. Une première analyse de cette base de données met en évidence l'effet de la séparation sur le début de la transition et sur les performances. La définition d'une corrélation a été tentée et permet de lier le taux de diffusion d'un aubage au nombre de Reynolds de sortie isentropique fia la condition de " Bursting ". Une méthodologie numérique fiable et robuste a été établie afin de prédire la transition dans le cas d'un écoulement amont uniforme. Les résultats sont en bon accord avec les mesures expérimentales même si il a été nécessaire d'adapter les conditions limites dans le but de prédire une séparation laminaire numériquement pour des aubages fortement chargés et fia fort taux de diffusion uniquement. La résolution des profils de vitesse de la couche limite permet d'obtenir une évaluation détaillée des paramètres de la topologie de l'écoulement. Cela fournit une information sur l'épaisseur de quantité de mouvement qui est le paramètre principal définissant les corrélations de transition. La technique " Chimère " des maillages recouvrants est utilisée pour faciliter la modélisation des moyens de contrôle passif pour déclencher la transition. C'est une technique appropriée pour l'implémentation de géométries simples ou plus élaborées.
40

Peng, Shuiran. "Analyse mathématique et numérique de plusieurs problèmes non linéaires." Thesis, Poitiers, 2018. http://www.theses.fr/2018POIT2306/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est consacrée à l’étude théorique et numérique de plusieurs équations aux dérivées partielles non linéaires qui apparaissent dans la modélisation de la séparation de phase et des micro-systèmes électro-mécaniques (MSEM). Dans la première partie, nous étudions des modèles d’ordre élevé en séparation de phase pour lesquels nous obtenons le caractère bien posé et la dissipativité, ainsi que l’existence de l’attracteur global et, dans certains cas, des simulations numériques. De manière plus précise, nous considérons dans cette première partie des modèles de type Allen-Cahn et Cahn-Hilliard d’ordre élevé avec un potentiel régulier et des modèles de type Allen-Cahn d’ordre élevé avec un potentiel logarithmique. En outre, nous étudions des modèles anisotropes d’ordre élevé et des généralisations d’ordre élevé de l’équation de Cahn-Hilliard avec des applications en biologie, traitement d’images, etc. Nous étudions également la relaxation hyperbolique d’équations de Cahn-Hilliard anisotropes d’ordre élevé. Dans la seconde partie, nous proposons des schémas semi-discrets semi-implicites et implicites et totalement discrétisés afin de résoudre l’équation aux dérivées partielles non linéaire décrivant à la fois les effets élastiques et électrostatiques de condensateurs MSEM. Nous faisons une analyse théorique de ces schémas et de la convergence sous certaines conditions. De plus, plusieurs simulations numériques illustrent et appuient les résultats théoriques
This thesis is devoted to the theoretical and numerical study of several nonlinear partial differential equations, which occur in the mathematical modeling of phase separation and micro-electromechanical system (MEMS). In the first part, we study higher-order phase separation models for which we obtain well-posedness and dissipativity results, together with the existence of global attractors and, in certain cases, numerical simulations. More precisely, we consider in this first part higher-order Allen-Cahn and Cahn-Hilliard equations with a regular potential and higher-order Allen-Cahn equation with a logarithmic potential. Moreover, we study higher-order anisotropic models and higher-order generalized Cahn-Hilliard equations, which have applications in biology, image processing, etc. We also consider the hyperbolic relaxation of higher-order anisotropic Cahn-Hilliard equations. In the second part, we develop semi-implicit and implicit semi-discrete, as well as fully discrete, schemes for solving the nonlinear partial differential equation, which describes both the elastic and electrostatic effects in an idealized MEMS capacitor. We analyze theoretically the stability of these schemes and the convergence under certain assumptions. Furthermore, several numerical simulations illustrate and support the theoretical results
41

Wong, King Jye. "Moisture absorption characteristics and effects on mechanical behaviour of carbon/epoxy composite : application to bonded patch repairs of composite structures." Phd thesis, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00949293.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail présenté dans ce mémoire avait pour objectif d'étudier le processus de la pénétration d'eau dans les composites en carbone/époxyde dans un premier temps, et dans un deuxième temps, d'étudier l'effet de la prise en eau par ces matériaux sur les performances mécaniques des composites et leur joints collés. L'intégration de ces phénomènes physiques dans la modélisation numérique est d'une grande importance dans la prédiction de la durabilité d'une structure en composite subissant un vieillissement hygrothermique. Par conséquent, ce travail consiste non seulement en des observations expérimentales, mais aussi en des simulations numériques. Des corrélations entre les résultats obtenus permettent d'une part de mieux comprendre ce qui se passe dans un système composite avec l'assemblage collé soumis à des charges mécaniques, de l'initiation d'endommagement jusqu'à la rupture finale ; d'autre part, de valider un modèle numérique robuste dans le but de la conception et de l'optimisation. Les originalités de ce travail se situent à différents niveaux en proposant : 1. un nouveau modèle de diffusion à deux-phases permettant de mieux décrire l'effet de l'épaisseur des stratifiés sur la pénétration de l'eau; 2. un nouveau modèle RPM " Residual Property Model " afin de prévoir la dégradation des propriétés mécaniques due à la prise en eau ; 3. une nouvelle loi de traction-séparation linéaire-exponentiel pour décrire la courbe-R observée dans les essais DCB en mode I pur sur les composites stratifiés afin de les intégrer plus facilement dans les modèles numériques

To the bibliography