Rozprawy doktorskie na temat „Données cinétiques”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Données cinétiques.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 44 najlepszych rozpraw doktorskich naukowych na temat „Données cinétiques”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Bauchet, Jean-Philippe. "Structures de données cinétiques pour la modélisation géométrique d’environnements urbains". Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4091.

Pełny tekst źródła
Streszczenie:
La modélisation géométrique d'objets urbains à partir de mesures physiques et leur représentation de manière efficace, compacte et précise est un problème difficile en vision par ordinateur et en infographie. Dans la littérature scientifique, les structures de données géométriques à l'interface entre les mesures physiques en entrée et les modèles produits en sortie passent rarement à l'échelle et ne permettent pas de partitionner des domaines fermés 2D et 3D représentant des scènes complexes. Dans cette thèse, on étudie une nouvelle famille de structures de données géométrique qui repose sur une formulation cinétique. Plus précisément, on réalise une partition de domaines fermés en détectant et en propageant au cours du temps des formes géométriques telles que des segments de droites ou des plans, jusqu'à collision et création de cellules polygonales. On propose en particulier deux méthodes de modélisation géométrique, une pour la vectorisation de régions d'intérêt dans des images, et une autre pour la reconstruction d'objets en maillages polygonaux concis à partir de nuages de points 3D. Les deux approches exploitent les structures de données cinétiques pour décomposer efficacement en cellules soit un domaine image en 2D, soit un domaine fermé en 3D. Les objets sont ensuite extraits de la partition à l’aide d’une procédure d’étiquetage binaire des cellules. Les expériences menées sur une grande variété de données en termes de nature, contenus, complexité, taille et caractéristiques d'acquisition démontrent la polyvalence de ces deux méthodes. On montre en particulier leur potentiel applicatif sur le problème de modélisation urbaine à grande échelle à partir de données aériennes et satellitaires
The geometric modeling of urban objects from physical measurements, and their representation in an accurate, compact and efficient way, is an enduring problem in computer vision and computer graphics. In the literature, the geometric data structures at the interface between physical measurements and output models typically suffer from scalability issues, and fail to partition 2D and 3D bounding domains of complex scenes. In this thesis, we propose a new family of geometric data structures that rely on kinetic frameworks. More precisely, we compute partitions of bounding domains by detecting geometric shapes such as line-segments and planes, and extending these shapes until they collide with each other. This process results in light partitions, containing a low number of polygonal cells. We propose two geometric modeling pipelines, one for the vectorization of regions of interest in images, another for the reconstruction of concise polygonal meshes from point clouds. Both approaches exploit kinetic data structures to decompose efficiently either a 2D image domain or a 3D bounding domain into cells. Then, we extract objects from the partitions by optimizing a binary labelling of cells. Conducted on a wide range of data in terms of contents, complexity, sizes and acquisition characteristics, our experiments demonstrate the scalability and the versatility of our methods. We show the applicative potential of our method by applying our kinetic formulation to the problem of urban modeling from remote sensing data
Style APA, Harvard, Vancouver, ISO itp.
2

Yu, Mulin. "Reconstruction et correction de modèles urbains à l'aide de structures de données cinétiques". Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4077.

Pełny tekst źródła
Streszczenie:
Les modèles numériques 3D compacts et précis de bâtiments sont couramment utilisés par les praticiens pour la visualisation d'environnements existants ou imaginaires, les simulations physiques ou la fabrication d'objets urbains. La génération de tels modèles prêts à l'emploi est cependant un problème difficile. Lorsqu'ils sont créés par des designers, les modèles 3D contiennent généralement des erreurs géométriques dont la correction automatique est un défi scientifique. Lorsqu'ils sont créés à partir de mesures de données, généralement des balayages laser ou des images multivues, la précision et la complexité des modèles produits par les algorithmes de reconstruction existants n'atteignent souvent pas les exigences des praticiens. Dans cette thèse, j'aborde ce problème en proposant deux algorithmes : l'un pour réparer les erreurs géométriques contenues dans les formats spécifiques de modèles de bâtiments, et l'autre pour reconstruire des modèles compacts et précis à partir de nuages ​​de points générés à partir d'un balayage laser ou d'images stéréo multivues. Le composant clé de ces algorithmes repose sur une structure de données de partitionnement d'espace capable de décomposer l'espace en cellules polyédriques de manière naturelle et efficace. Cette structure de données permet à la fois de corriger les erreurs géométriques en réassemblant les facettes de modèles 3D chargés de défauts, et de reconstruire des modèles 3D à partir de nuages ​​de points avec une précision et complexité proche de celles générées par les outils interactifs de Conception Assistée par Ordinateur.Ma première contribution est un algorithme pour réparer différents types de modèles urbains. Les travaux antérieurs, qui reposent traditionnellement sur une analyse locale et des heuristiques géométriques sur des maillages, sont généralement conçus sur-mesure pour des formats 3D et des objets urbains spécifiques. Nous proposons une méthode plus générale pour traiter différents types de modèles urbains sans réglage fastidieux des paramètres. L'idée clé repose sur la construction d'une structure de données cinétiques qui décompose l'espace 3D en polyèdres en étendant les facettes du modèle d'entrée imparfait. Une telle structure de données permet de reconstruire toutes les relations entre les facettes de manière efficace et robuste. Une fois construites, les cellules de la partition polyédrique sont regroupées par classes sémantiques pour reconstruire le modèle de sortie corrigé. Je démontre la robustesse et l'efficacité de l'algorithme sur une variété de modèles réels chargés de défauts et montre sa compétitivité par rapport aux techniques traditionnelles de réparation de maillage à partir de données de modélisation des informations du bâtiment (BIM) et de systèmes d'information géographique (SIG). Ma deuxième contribution est un algorithme de reconstruction inspiré de la méthode Kinetic Shape Reconstruction, qui améliore cette dernière de différentes manières. En particulier, je propose une technique pour détecter des primitives planaires à partir de nuages ​​de points 3D non organisés. Partant d'une configuration initiale, la technique affine à la fois les paramètres du plan continu et l'affectation discrète de points d'entrée à ceux-ci en recherchant une haute fidélité, une grande simplicité et une grande complétude. La solution est trouvée par un mécanisme d'exploration guidé par une fonction énergétique à objectifs multiples. Les transitions dans le grand espace des solutions sont gérées par cinq opérateurs géométriques qui créent, suppriment et modifient les primitives. Je démontre son potentiel, non seulement sur des bâtiments, mais sur une variété de scènes, des formes organiques aux objets fabriqués par l'homme
Compact and accurate digital 3D models of buildings are commonly used by practitioners for the visualization of existing or imaginary environments, the physical simulations or the fabrication of urban objects. Generating such ready-to-use models is however a difficult problem. When created by designers, 3D models usually contain geometric errors whose automatic correction is a scientific challenge. When created from data measurements, typically laser scans or multiview images, the accuracy and complexity of the models produced by existing reconstruction algorithms often do not reach the requirements of the practitioners. In this thesis, I address this problem by proposing two algorithms: one for repairing the geometric errors contained in urban-specific formats of 3D models, and one for reconstructing compact and accurate models from input point clouds generated from laser scanning or multiview stereo imagery. The key component of these algorithms relies upon a space-partitioning data structure able to decompose the space into polyhedral cells in a natural and efficient manner. This data structure is used to both correct geometric errors by reassembling the facets of defect-laden 3D models, and reconstruct concise 3D models from point clouds with a quality that approaches those generated by Computer-Aided-Design interactive tools.My first contribution is an algorithm to repair different types of urban models. Prior work, which traditionally relies on local analysis and heuristic-based geometric operations on mesh data structures, is typically tailored-made for specific 3D formats and urban objects. We propose a more general method to process different types of urban models without tedious parameter tuning. The key idea lies on the construction of a kinetic data structure that decomposes the 3D space into polyhedra by extending the facets of the imperfect input model. Such a data structure allows us to re-build all the relations between the facets in an efficient and robust manner. Once built, the cells of the polyhedral partition are regrouped by semantic classes to reconstruct the corrected output model. I demonstrate the robustness and efficiency of the algorithm on a variety of real-world defect-laden models and show its competitiveness with respect to traditional mesh repairing techniques from both Building Information Modeling (BIM) and Geographic Information Systems (GIS) data.My second contribution is a reconstruction algorithm inspired by the Kinetic Shape Reconstruction method, that improves the later in different ways. In particular, I propose a data fitting technique for detecting planar primitives from unorganized 3D point clouds. Departing from an initial configuration, the technique refines both the continuous plane parameters and the discrete assignment of input points to them by seeking high fidelity, high simplicity and high completeness. The solution is found by an exploration mechanism guided by a multi-objective energy function. The transitions within the large solution space are handled by five geometric operators that create, remove and modify primitives. I demonstrate its potential, not on buildings only, but on a variety of scenes, from organic shapes to man-made objects
Style APA, Harvard, Vancouver, ISO itp.
3

Martins, Rogerio. "Modélisation de la réactivité à partir d'une base de données cinétiques de réactions et de descripteurs moléculaires". Aix-Marseille 3, 2002. http://www.theses.fr/2002AIX30020.

Pełny tekst źródła
Streszczenie:
Nos travaux contribuent à l'effort de prévision et de compréhension de la réactivité des radicaux électrophiles HO·, Cl· et F· avec des composés volatiles organiques à partir de modèles structure-réactivité. Ces modèles sont validés sur de larges échantillons de données. Pour cela, nous avons développé une base de données de cinétique de réactions bimoléculaires en phase gazeuse, indexée par structure, et une base de descripteurs moléculaires. En exploitant ces bases à l'aide d'outils statistiques tels que l'Analyse Exploratoire de Données, nous avons obtenu des modèles de réactivité prédictifs et qui apportent des éléments d'explication aux réactivités des molécules
Our work aims to help prediction and comprehension of reactivity of electrophilic radicals HO·, Cl· and F· with volatile organic compounds starting from structure-reactivity models. These models are validated for a widest range of data. To this end, we have developed a kinetic database of bimolecular reactions in gas phase indexed by structure and a database of molecular descriptors. By exploiting these databases using statistical tools such as the Exploratory Data Analysis, we have obtained predictive models of reactivity and that give elements of explanation to the reactivities of the molecules
Style APA, Harvard, Vancouver, ISO itp.
4

Moreau, Anne. "Contribution au contrôle de la culture de Brevibacterium linens en réacteur Batch, modélisation et optimisation des cinétiques de croissance sur substrat mixte". Toulouse, INPT, 2000. http://www.theses.fr/2000INPT001G.

Pełny tekst źródła
Streszczenie:
Le métabolisme de Brevibacterium linens (ferment de l'industrie laitière) est loin d'être maîtrisé, et rien ne garantit l'application de conditions optimales sur le réacteur Batch de culture. Nous nous proposons donc de modéliser et simuler la croissance de la bactérie afin de concevoir le système de contrôle de cette culture dans le cadre de notre objectif, piloter la vitesse de croissance. La première phase des travaux consiste en l'acquisition de connaissances sur un pilote de laboratoire. Les expériences sont réalisées selon un plan à quatre axes (concentrations initiales des substrats, température, pH, O2 (O exponant 2)). L'utilisation des substrats mixtes (acide lactique et acides aminés) ainsi que l'analyse de la qualité des données représentent deux points forts de la première partie de ces travaux. En ce qui concerne la qualité des données, les mesures erronées sont détectées puis corrigées ou éliminées par filtrage sur des bilans atomiques (réconciliation des données). La reproductibilité des expériences ainsi que le principe de conservation des éléments ayant été vérifiés, le pilote a ainsi pu être validé. La deuxième phase est la capitalisation des connaissances dans un modéle dynamique de réacteur biologique. Une approche stoechio-cinétique du métabolisme a été adoptée. Après conception du schéma réactionnel (vision macroscopique de la croissance), son adéquation à la connaissance expérimentale est testée par analyse factorielle des données réconciliées. Cette méthode permet, par résolution d'un problème d'optimisation sous contraintes, de déterminer les réactions actives, sur quelle période de temps, et de calculer des coefficients stoechiométriques qui corrèlent les données tout en équilibrant les bilans sur les éléments. Enfin, l'étude des cinétiques de consommation suivant les concentrations relatives en substrats et les axes T, pH, O2 (O exponant 2) est réalisée, et un modèle est proposé, dont les différents paramètres ont été éstimés.
Style APA, Harvard, Vancouver, ISO itp.
5

Baradat, Aymeric. "Transport optimal incompressible : dépendance aux données et régularisation entropique". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX016/document.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur le problème de transport optimal incompressible, un problème introduit par Brenier à la fin des années 80 dans le but de décrire l’évolution d’un fluide incompressible et non-visqueux de façon lagrangienne, ou autrement dit en fixant l’état initial et l’état final de ce fluide, et en minimisant une certaine fonctionnelle sur un ensemble de dynamiques admissibles. Ce manuscrit contient deux parties.Dans la première, on étudie la dépendance du problème de transport optimal incompressible par rapport aux données. Plus précisément, on étudie la dépendance du champ de pression (le multiplicateur de Lagrange associé à la contrainte d’incompressibilité) par rapport à la mesure γ prescrivant l’état initial et l’état final du fluide. On montre au Chapitre 2 par des méthodes variationnelles que le gradient de la pression, en tant qu’élément d’un espace proche du dual des fonctions C^1, dépend de γ de façon hölderienne pour la distance de Monge-Kantorovic. En contrepartie, on montre au Chapitre 4 que pour tout r > 1, le champ de pression dans l'espace de Lebesgue L^r_t L^1_x ne peut pas être une fonction lipschitzienne de γ. Ce résultat est lié au caractère mal-posé de l’équation d’Euler cinétique, une équation cinétique s’interprétant comme l’équation d’optimalité dans le problème de transport optimal incompressible, à laquelle le Chapitre 3 de cette thèse est dédié.Dans une seconde partie, on s’intéresse à la régularisation entropique du problème de transport optimal incompressible, introduit par Arnaudon, Cruzeiro, Léonard et Zambrini en 2017 sous le nom de problème de Brödinger. On prouve au Chapitre 5 que comme dans le cas du transport optimal incompressible, on peut associer à toute solution un champ scalaire de pression agissant comme multiplicateur de Lagrange pour la contrainte d’incompressibilité. On montre ensuite au Chapitre 6 que lorsque le paramètre de régularisation tend vers zéro, le problème de Brödinger converge vers le problème de transport optimal incompressible au sens de la Γ-convergence, et avec convergence des champs de pression. Ce dernier chapitre est issu d'un travail effectué en collaboration avec L. Monsaingeon
This thesis focuses on Incompressible Optimal Transport, a minimization problem introduced by Brenier in the late 80's, aiming at describing the evolution of an incompressible and inviscid fluid in a Lagrangian way , i.e. by prescribing the state of the fluid at the initial and final times and by minimizing some functional among the set of admissible dynamics. This text is divided into two parts.In the first part, we study the dependence of this optimization problem with respect to the data. More precisely, we analyse the dependence of the pressure field, the Lagrange multiplier corresponding to the incompressibility constraint, with respect to the endpoint conditions, described by a probability measure γ determining the state of the fluid at the initial and final times. We show in Chapter 2 by purely variational methods that the gradient of the pressure field, as an element of a space that is close to the dual of C^1, is a Hölder continuous function of γ for the Monge-Kantorovic distance. On the other hand, we prove in Chapter 4 that for all r>1 the pressure field, as an element of L^r_t L^1_x, cannot be a Lipschitz continuous function of γ for the Monge-Kantorovic distance. This last statement is linked to an ill-posedness result proved in Chapter 3 for the so-called kinetic Euler equation, a kinetic PDE interpreted as the optimality equation of the Incompressible Optimal Transport problem.In the second part, we are interested in the entropic regularization of the Incompressible Optimal Transport problem: the so-called Brödinger problem, introduced by Arnaudon, Cruzeiro, Léonard and Zambrini in 2017. On the one hand, we prove in Chapter 5 that similarly to what happens in the Incompressible Optimal Transport case, to a solution always corresponds a scalar pressure field acting as the Lagrange multiplier for the incompressibility constraint. On the other hand, we prove in Chapter 6 that when the diffusivity coefficient tends to zero, the Brödinger problem converges towards the Incompressible Optimal Transport problem in the sense of Gamma-convergence, and with convergence of the pressure fields. The results of Chapter 6 come from a joint work with L. Monsaingeon
Style APA, Harvard, Vancouver, ISO itp.
6

Boulanger, Anne-Céline. "Modélisation, simulation et assimilation de données autour d'un problème de couplage hydrodynamique-biologie". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00871141.

Pełny tekst źródła
Streszczenie:
Les sujets abordés dans cette thèse s'articulent autour de la modélisation numérique du couplage entre l'hydrodynamique et la biologie pour la culture industrielle de microalgues dans des raceways. Ceci est fait au moyen d'un modèle multicouches qui disrétise verticalement les équations de Navier-Stokes hydrostatiques couplé avec un modèle de Droop photosensible pour représenter la croissance des algues, notamment la production de carbone. D'un point de vue numérique, une méthode volumes finis avec schémas cinétiques est appliquée. Elle permet d'obtenir un schéma équilibre qui préserve la positivité de la hauteur d'eau et des quantités biologiques et qui satisfait une inégalité d'énergie. Des simulations sont effectuées en 2D et en 3D, au moyen d'un code C++ développé à cet effet. Du point de vue de l'intérêt pratique de ce travail, ces simulations ont permis de mettre en évidence l'utilité de la roue à aube présente dans les raceways, mais aussi d'exhiber les trajectoires lagrangiennes réalisées par les microalgues, qui permettent de connaitre l'historique lumineux des algues, information d'une grande importance pour les biologistes car elle leur permet d'adapter leurs modèles de croissance phytoplanctoniques à ce contexte très particulier et non naturel. Afin de valider les modèles et les stratégies numériques employées, deux pistes on été explorées. La première consiste à proposer des solutions analytiques pour les équations d'Euler à surface libre, ainsi qu'un modèle biologique spécifique permettant un couplage analytique. La deuxième consiste à faire de l'assimilation de données. Afin de tirer partie de la description cinétique des lois de conservation hyperboliques, une méthode innovante basée sur la construction d'un observateur de Luenberger au niveau cinétique est développée. Elle permet d'obtenir un cadre théorique intéressant pour les lois de conservation scalaires, pour lesquelles on étudie les cas d'observations complètes, partielles en temps, en espace, et bruitées. Pour les systèmes, on se concentre particulièrement sur le système de Saint-Venant, système hyperbolique non linéaire et un observateur basé sur l'observation des hauteurs d'eau uniquement est construit. Des simulations numériques dans les cas scalaires et systèmes, en 1D et 2D sont effectuées et valident l'efficacité de la méthode.
Style APA, Harvard, Vancouver, ISO itp.
7

Duverneuil, Patrick. "Etablissement de données physico-chimiques et cinétiques en vue d'essai de recristallisation de l'octogène à partir de solutions dans différents solvants : application au cristalliseur MSMPR". Toulouse, INPT, 1987. http://www.theses.fr/1987INPT015G.

Pełny tekst źródła
Streszczenie:
Afin de définir un nouveau procédé en continu de recristallisation de l'octogène, des données physico-chimiques et cinétiques sont établies dans différents solvants (acétone, cyclohexanone, mélange acétone-diméthylsulfoxyde, diméthylsulfoxyde). D'une part, les données physico-chimiques permettent de dégager une méthode de dosage des solutions chargées pour chaque solvant. D'autre part, les données recueillies sur diverses composantes de la cristallisation (solubilité, sursaturation limite, cinétiques de nucléation et de croissance) ainsi que l'aspect des cristaux permettent de choisir le meilleur solvant de cristallisation de l'octogène. Une étude en continu est alors entreprise dans un cristalliseur MSMPR.
Style APA, Harvard, Vancouver, ISO itp.
8

Bellat, Jean-Pierre. "Données thermodynamiques et cinétiques des systèmes liquide-vapeur-adsorbant en vue de leur utilisation comme machine thermique a affinité : cas de la sépiolite et de la zéolithe 4a". Dijon, 1985. http://www.theses.fr/1985DIJOS017.

Pełny tekst źródła
Streszczenie:
L'utilisation de la sépiolite comme absorbant dans les machines thermiques à affinité est étudiée. Ses propriétés physico-chimiques ainsi que son comportement cinétique dans les systèmes liquide-vapeur-adsorbant sont déterminés. Son comportement dans les machines réfrigérantes à affinité chimique est étudié. Par comparaison avec la zéolite 4a, il apparait que le couple zeolite 4a-H::(2)o est plus apte a la réfrigération que le couple sépiolite-H::(2)o
Style APA, Harvard, Vancouver, ISO itp.
9

Moine, Edouard. "Estimation d’énergies de GIBBS de solvatation pour les modèles cinétiques d’auto-oxydation : développement d’une banque de données étendue et recherche d’équations d’état cubiques et SAFT adaptées à leur prédiction". Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0295/document.

Pełny tekst źródła
Streszczenie:
Les réactions d’oxydation d’hydrocarbures en phase liquide (aussi appelées auto-oxydation) jouent un rôle essentiel dans un grand nombre de procédés de l’industrie pétrochimique car elles assurent la conversion du pétrole en composés chimiques organiques valorisables. Elles régissent également la stabilité à l’oxydation des carburants (vieillissement) et des produits chimiques dérivés du pétrole. Ces réactions d’oxydation en phase liquide relèvent de mécanismes radicalaires en chaîne impliquant des milliers d’espèces et de réactions élémentaires. La modélisation cinétique de tels systèmes reste actuellement un défi car elle nécessite de disposer de données thermodynamiques et cinétiques précises, qui sont rares dans la littérature. Le logiciel EXGAS, développé au LRGP, permet de générer automatiquement des modèles cinétiques détaillés pour des réactions d’oxydation d’hydrocarbures en phase gazeuse. Qu’il s’agisse d’une phase gazeuse ou liquide, les réactions élémentaires mises en jeu sont de même nature et la méthodologie de génération du mécanisme est la même. Pour passer d’un mécanisme en phase gaz à un mécanisme en phase liquide il convient d’adapter les valeurs des constantes d’équilibre et de vitesse (appelées constantes thermocinétiques) des réactions du mécanisme. L’objectif de cette thèse est de proposer une méthode pour corriger les constantes thermocinétiques de la phase gaz pour qu’elles deviennent applicables à la phase liquide. Cette correction fait intervenir une grandeur appelée énergie de GIBBS de solvatation molaire partielle. Une analyse de la définition précise de cette quantité nous a permis de montrer qu’elle s’exprime simplement en fonction d’un coefficient de fugacité et d’une densité molaire. Nous avons ensuite relié cette grandeur à des quantités thermodynamiques mesurables (coefficients d’activité, constantes de HENRY …) et nous nous sommes appuyés sur toutes les données qu’il nous a été possible de trouver dans la littérature pour créer la banque de données expérimentales d’énergies de GIBBS de solvatation molaires partielles la plus complète (intitulée CompSol). Cette banque de données a ensuite servi à valider l’utilisation de l’équation d’état UMR-PRU pour prédire ces énergies. Les bases d’une équation d’état de type SAFT, au paramétrage original, développé dans le cadre de cette thèse, ont été posées. Notre objectif était de simplifier l’estimation des paramètres corps purs de cette équation d’état en proposant une méthode de paramétrage ne nécessitant aucune procédure d’optimisation, claire et reproductible, à partir de données très facilement accessibles dans la littérature. Cette équation a été utilisée pour estimer les énergies de GIBBS de solvatation molaires des corps purs et les énergies de GIBBS de solvatation molaires partielles de systèmes {soluté+solvant}. Enfin, ces méthodes d’estimation des énergies de GIBBS de solvatation molaires partielles ont été combinées au logiciel EXGAS afin de modéliser l’oxydation du n-butane en phase liquide
Liquid phase oxidation of hydrocarbons (also called autoxidation) is central to a large number of processes in the petrochemical industry as it plays a key role in the conversion of petroleum feedstock into valuable organic chemicals. This phenomenon is also crucial in oxidation-stability studies of fuels and its derivatives (aging). These liquid-phase oxidation reactions entail radical mechanisms involving more than thousands of compounds and elementary reactions. Kinetic modelling of these kinds of reactions remains a significant challenge because it requires thermodynamic and kinetic parameters, which are not abundant in literature. The EXGAS software, developed at LRGP, is able to generate these kinds of models but only for oxidation reactions taking place in a gaseous phase. It is assumed that the nature of elementary reactions in the liquid and gaseous phases is the same. The unique need to transfer a kinetic mechanism from a gas phase to a liquid phase is to update kinetic rate constant values and equilibrium constant values (called thermokinetic constants) of mechanism reactions. Therefore, in the framework of this PhD thesis, a new method aimed at applying a correction term to thermokinetic constants of gaseous phases is proposed in order to obtain constants usable to describe liquid-phase mechanisms. This correction involves a quantity called partial molar solvation GIBBS energy. An analysis of the precise definition of this property led us to conclude that it can be simply expressed as a function of fugacity coefficients and liquid molar density. As a result, this property could also be expressed with respect to measurable thermodynamic quantities as activity coefficients or HENRY’s law constants. By combining all the experimental data related to these measurable properties that can be found in the literature, it was possible to develop a comprehensive databank of partial molar solvation GIBBS energies (called the CompSol database). This database was used to validate the use of the UMR-PRU equation of state to predict solvation quantities. Moreover, the bases of a new parameterization for SAFT-type equations of state were laid. It consists in estimating pure-component parameters of SAFT-like equation using a very simple, reproducible and transparent path for non-associating pure components. This equation was used to calculate partial molar GIBBS energy of solvation of pure and mixed solutes. Last, equations of state were combined with EXGAS software to model the oxidation of n-butane in the liquid phase
Style APA, Harvard, Vancouver, ISO itp.
10

Moine, Edouard. "Estimation d’énergies de GIBBS de solvatation pour les modèles cinétiques d’auto-oxydation : développement d’une banque de données étendue et recherche d’équations d’état cubiques et SAFT adaptées à leur prédiction". Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0295.

Pełny tekst źródła
Streszczenie:
Les réactions d’oxydation d’hydrocarbures en phase liquide (aussi appelées auto-oxydation) jouent un rôle essentiel dans un grand nombre de procédés de l’industrie pétrochimique car elles assurent la conversion du pétrole en composés chimiques organiques valorisables. Elles régissent également la stabilité à l’oxydation des carburants (vieillissement) et des produits chimiques dérivés du pétrole. Ces réactions d’oxydation en phase liquide relèvent de mécanismes radicalaires en chaîne impliquant des milliers d’espèces et de réactions élémentaires. La modélisation cinétique de tels systèmes reste actuellement un défi car elle nécessite de disposer de données thermodynamiques et cinétiques précises, qui sont rares dans la littérature. Le logiciel EXGAS, développé au LRGP, permet de générer automatiquement des modèles cinétiques détaillés pour des réactions d’oxydation d’hydrocarbures en phase gazeuse. Qu’il s’agisse d’une phase gazeuse ou liquide, les réactions élémentaires mises en jeu sont de même nature et la méthodologie de génération du mécanisme est la même. Pour passer d’un mécanisme en phase gaz à un mécanisme en phase liquide il convient d’adapter les valeurs des constantes d’équilibre et de vitesse (appelées constantes thermocinétiques) des réactions du mécanisme. L’objectif de cette thèse est de proposer une méthode pour corriger les constantes thermocinétiques de la phase gaz pour qu’elles deviennent applicables à la phase liquide. Cette correction fait intervenir une grandeur appelée énergie de GIBBS de solvatation molaire partielle. Une analyse de la définition précise de cette quantité nous a permis de montrer qu’elle s’exprime simplement en fonction d’un coefficient de fugacité et d’une densité molaire. Nous avons ensuite relié cette grandeur à des quantités thermodynamiques mesurables (coefficients d’activité, constantes de HENRY …) et nous nous sommes appuyés sur toutes les données qu’il nous a été possible de trouver dans la littérature pour créer la banque de données expérimentales d’énergies de GIBBS de solvatation molaires partielles la plus complète (intitulée CompSol). Cette banque de données a ensuite servi à valider l’utilisation de l’équation d’état UMR-PRU pour prédire ces énergies. Les bases d’une équation d’état de type SAFT, au paramétrage original, développé dans le cadre de cette thèse, ont été posées. Notre objectif était de simplifier l’estimation des paramètres corps purs de cette équation d’état en proposant une méthode de paramétrage ne nécessitant aucune procédure d’optimisation, claire et reproductible, à partir de données très facilement accessibles dans la littérature. Cette équation a été utilisée pour estimer les énergies de GIBBS de solvatation molaires des corps purs et les énergies de GIBBS de solvatation molaires partielles de systèmes {soluté+solvant}. Enfin, ces méthodes d’estimation des énergies de GIBBS de solvatation molaires partielles ont été combinées au logiciel EXGAS afin de modéliser l’oxydation du n-butane en phase liquide
Liquid phase oxidation of hydrocarbons (also called autoxidation) is central to a large number of processes in the petrochemical industry as it plays a key role in the conversion of petroleum feedstock into valuable organic chemicals. This phenomenon is also crucial in oxidation-stability studies of fuels and its derivatives (aging). These liquid-phase oxidation reactions entail radical mechanisms involving more than thousands of compounds and elementary reactions. Kinetic modelling of these kinds of reactions remains a significant challenge because it requires thermodynamic and kinetic parameters, which are not abundant in literature. The EXGAS software, developed at LRGP, is able to generate these kinds of models but only for oxidation reactions taking place in a gaseous phase. It is assumed that the nature of elementary reactions in the liquid and gaseous phases is the same. The unique need to transfer a kinetic mechanism from a gas phase to a liquid phase is to update kinetic rate constant values and equilibrium constant values (called thermokinetic constants) of mechanism reactions. Therefore, in the framework of this PhD thesis, a new method aimed at applying a correction term to thermokinetic constants of gaseous phases is proposed in order to obtain constants usable to describe liquid-phase mechanisms. This correction involves a quantity called partial molar solvation GIBBS energy. An analysis of the precise definition of this property led us to conclude that it can be simply expressed as a function of fugacity coefficients and liquid molar density. As a result, this property could also be expressed with respect to measurable thermodynamic quantities as activity coefficients or HENRY’s law constants. By combining all the experimental data related to these measurable properties that can be found in the literature, it was possible to develop a comprehensive databank of partial molar solvation GIBBS energies (called the CompSol database). This database was used to validate the use of the UMR-PRU equation of state to predict solvation quantities. Moreover, the bases of a new parameterization for SAFT-type equations of state were laid. It consists in estimating pure-component parameters of SAFT-like equation using a very simple, reproducible and transparent path for non-associating pure components. This equation was used to calculate partial molar GIBBS energy of solvation of pure and mixed solutes. Last, equations of state were combined with EXGAS software to model the oxidation of n-butane in the liquid phase
Style APA, Harvard, Vancouver, ISO itp.
11

Sirjean, Baptiste. "Étude cinétique de réactions de pyrolyse et de combustion d'hydrocarbures cycliques par les approches de chimie quantique". Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL093N/document.

Pełny tekst źródła
Streszczenie:
Les carburants dérivés du pétrole constituent la première source mondiale énergétique et leur approvisionnement constitue un défi actuel majeur impliquant des enjeux économiques et environnementaux cruciaux. Une des voies les plus efficaces pour peser simultanément sur ces deux enjeux passe par la diminution de la consommation en carburant. La simulation numérique constitue dès lors un outil précieux pour améliorer et optimiser les moteurs et les carburants. Les modèles chimiques détaillés sont nécessaires pour comprendre les phénomènes d’auto-inflammation et caractériser la nature et les quantités de polluants émis. Ces modèles mettent en jeu un nombre très important d’espèces et de réactions élémentaires, pour une espèce donnée et pour lesquelles la détermination des données thermodynamiques et cinétiques est un problème crucial. La chimie quantique constitue un outil précieux permettant d’une part de déterminer de façon précise les données thermocinétiques pour bon nombre de systèmes chimiques et d’autre part de mieux comprendre la réactivité de ces systèmes. Dans ce travail, les réactions unimoléculaires de décomposition d’hydrocarbures monocycliques et polycycliques (amorçages, réactions moléculaires, ß-scissions, formations d’éthers cycliques) ont été étudiées à l’aide des méthodes de la chimie quantique. Un mécanisme détaillé de pyrolyse d’un alcane polycyclique a été développé à partir des données thermodynamiques et cinétiques et des corrélations entre structure et réactivité déterminées pour les cyclanes à partir des calculs quantiques. Les simulations effectuées à partir de ce modèle sont en très bon accord avec les résultats expérimentaux de la littérature
Petroleum fuels are the world’s most important primary energy source and the need to maintain their supply is a major actual challenge involving both economical and environmental features. Decreasing fuels consumption is one of the more efficient ways to reconcile the goals of energy price and environmental protection. Numerical simulations become therefore a very important tool to optimize fuels and motors. Detailed chemical kinetic models are required to reproduce the reactivity of fuels and to characterize the amount of emitted pollutants. Such models imply a very large number of chemical species and elementary reactions, for a given species, and the determination of thermodynamic and kinetic data is a critical problem. Nowadays, quantum chemistry methods are able to calculate accurately thermodynamic data for a large number of chemical systems and to elucidate the reactivity of these systems. In this work we have used quantum chemistry to study the unimolecular reactions (initiation, molecular reactions, ß-scissions, cyclic ethers formations) involved in the decomposition of monocyclic and polycyclic hydrocarbons. From the results of quantum chemical calculations, a detailed chemical kinetic mechanism of the pyrolysis of a polycyclic alkane has been developed and validated against experimental data
Style APA, Harvard, Vancouver, ISO itp.
12

Bigorgne, Léo. "Propriétés asymptotiques des solutions à données petites du système de Vlasov-Maxwell". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS164/document.

Pełny tekst źródła
Streszczenie:
L'objectif de cette thèse est de décrire le comportement asymptotique des solutions à données petites du système de Vlasov-Maxwell. En particulier, on s'attachera à étudier tant le champ électromagnétique que le champ de Vlasov par des méthodes de champs de vecteurs, nous permettant ainsi d'éviter toute contrainte de support sur les données initiales. La structure isotrope du système de Vlasov-Maxwell est d'une importance capitale pour compenser le phénomène de résonance causé par les particules approchant la vitesse de propagation du champ électromagnétique. De ce fait, plusieurs parties de ce manuscrit sont dédiées à sa description. Ajoutons également que les méthodes de champs de vecteurs sont connues pour être robustes et s'adapter relativement bien à d'autres situations telles que l'étude des solutions de l'équation des ondes sur un espace-temps courbé. Cette souplesse nous a notamment permis, contrairement aux travaux précédents sur ce sujet, de considérer des plasmas avec des particules sans masse.Notre étude débute par le cas des grandes dimensions d ≥ 4 où les effets dispersifs sont plus importants et permettent ainsi d'obtenir de meilleurs taux de décroissance sur les solutions du système et leurs dérivées. Une nouvelle inégalité de décroissance pour les solutions d'une équation de transport relativiste constitue d'ailleurs un élément central de la démonstration. Afin d'établir un résultat analogue dans le cas où les particules sont sans masse, nous avons dû imposer que le champ de Vlasov s'annule initialement pour les petites vitesses puis nous avons ensuite montré que cette hypothèse était nécessaire. Dans un second temps, nous nous intéressons au cas tridimensionnel avec des particules sans masse, où une étude plus poussée de la structure des équations sera nécessaire afin d'obtenir les taux de décroissance optimaux pour les composantes isotropes du champ électromagnétique, les moyennes en vitesse de la fonction de distribution et leurs dérivées. Nous nous concentrons ensuite sur l'étude du comportement asymptotique des solutions à données petites du système de Vlasov-Maxwell massif en dimension 3. Des difficultés spécifiques nous forcent à modifier les champs de vecteurs utilisés précédemment pour l'équation de transport dans le but de compenser les pires termes d'erreurs des équations commutées. Enfin, on considère le même problème en se restreignant à l'étude des solutions à l'extérieur d'un cône de lumière. Les fortes propriétés de décroissance vérifiées par la moyenne en vitesse de la densité de particules dans cette région nous permettent d'affaiblir les hypothèses sur les données initiales et d'avoir une démonstration considérablement plus simple
The purpose of this thesis is to study the asymptotic properties of the small data solutions of the Vlasov-Maxwell system using vector field methods for both the electromagnetic field and the particle density. No compact support asumption is required on the initial data. Instead, we make crucial use of the null structure of the equations in order to deal with a resonant phenomenon caused by the particles approaching the speed of propagation of the Maxwell equations. Due to the robustness of vector field methods and contrary to previous works on this topic, we also study plasmas with massless particles.We start by investigating the high dimensional cases d ≥ 4 where dispersive effects allow us to derive strong decay rate on the solutions of the system and their derivatives. For that purpose, we proved a new decay estimate for solutions to massive relativistic transport equations. In order to obtain an analogous result for massless particles, we required the velocity support of the distribution function to be initially bounded away from $0$ and we then proved that this assumption is actually necessary. The second part of this thesis is devoted to the three dimensional massless case, where a stronger understanding of the null structure of the Vlasov-Maxwell system is essential in order to derive the optimal decay rate of the null components of the electromagnetic field, the velocity average of the particle density and their derivatives. We then focus on the asymptotic behavior of the small data solutions of the massive Vlasov-Maxwell system in 3d. Specific problems force us to modify the vector fields used previously to study the Vlasov field in order to compensate the worst error terms in the commuted transport equations. Finally, still for the massive system in 3d, we restrict our study of the solutions to the exterior of a light cone. The strong decay properties satisfied by the velocity average of the particle density in such a region permit us to relax the hypothesis on the initial data and lead to a much simpler proof
Style APA, Harvard, Vancouver, ISO itp.
13

Malangi, Gajendramurthy Chunchesh. "Vers la conception d'une sonde RMN immersible pour le suivi des réactions en solution". Electronic Thesis or Diss., Strasbourg, 2024. http://www.theses.fr/2024STRAF007.

Pełny tekst źródła
Streszczenie:
Dans ce travail de thèse nous présentons notre contribution à la mise au point d’un spectromètre RMN immersible miniature à bas-cout (DIP-NMR) permettant de suivre des réactions chimiques directement sous la hotte ou dans les réacteurs industriels. Nous avons pu tester et optimiser la première version d’un prototype enregistrant des spectres à un scan de produit pur, beaucoup de travail reste à faire pour développer une sonde immersible pouvant faire des acquisitions sur plusieurs canaux simultanément.Les premiers spectres obtenus sur notre prototype sont larges et nous avons dû tester et mettre au point des méthodes chimio-métriques pour extraire les données cinétiques et quantitatives. Ces méthodes ont pu être testés sur des données obtenues sur des spectromètres haut champs volontairement dégradés.En parallèle, une série de réactions d’hydrosilylation de substrats organiques (Nitriles, Esters, Amides Cyclique) en présence d’un catalyseur à base d’Ir(III) ont été suivies par RMN à haut champ et haute résolution. Ce travail a permis de mieux comprendre les mécanismes mis en jeu et d’obtenir des données cinétiques de référence pour les tests des prochaines versions de nos spectromètres immersibles
This endeavour represents a pioneering effort to design and develop a cost-effective low-field Dip-NMR or Immersible NMR system dedicated to monitoring reaction mixtures at the closest possible source of information. While we have successfully designed and optimized the first version of prototype capable of acquiring single scanned NMR spectra of pure samples, further focused study and research are highly warranted to develop and integrate prototype into an immersible probe unit capable of multi-channel acquisition to realize the proposed Dip-NMR system. The NMR spectra obtained from Dip-NMR system were notably broad and necessitated dedicated chemometric methods for quantification and kinetic data extraction. Known reactions were monitored on a high-field high-resolution NMR spectrometer, with the kinetic data from this instrument serving as benchmark data for comparison and evaluation against the data obtained from Dip-NMR system. Various chemometric methods were explored and tested on the mimicked spectra for quantification and kinetic data extraction, with the results subsequently compared with the benchmark data. In parallel with the project’s goal, hydrosilylation reactions involving organic substrates such as nitriles, cyclic amides, and esters were catalyzed using an Ir(III) catalyst and monitored on a high-field high-resolution NMR spectrometer. These investigations have successfully yielded valuable insights into the reactions, contributing to a deeper understanding of the processes involved and laid important reference kinetic data for future testing of an advanced Dip-NMR probe prototype
Style APA, Harvard, Vancouver, ISO itp.
14

Puisieux, Sarah. "Etude des effets Sunyaev-Zel'dovitch cinétique et relativiste dans les données Planck". Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-01019928.

Pełny tekst źródła
Streszczenie:
Les effets Sunyaev-Zel'dovitch (SZ) correspondent à la diffusion inverse-Compton des photons du fond diffus cosmologique sur le gaz des amas de galaxies. Ce travail a visé à étudier l'ensemble des aspects des effets SZ cinétique et relativiste dans les données Planck. Pour ce faire, nous avons développé des filtres adaptés, conçus spécialement pour la détection des effets SZ. Ces filtres nous ont permis d'utiliser l'ensemble des longueurs d'onde de l'expérience de façon optimale. L'effet SZ cinétique est proportionnel à la vitesse radiale particulière des amas de galaxies. Nous avons donc pu étudier, grâce à cet effet SZ, les vitesses radiales particulières via des analyses individuelles, mais aussi statistiques. En particulier, il nous a permis d'effectuer les premières mesures de la vitesse moyenne des amas. Cette vitesse moyenne s'est avérée compatible avec zéro et constitue une vérification du principe cosmologique. Par ailleurs, nous avons étudié le dipôle des amas de galaxies, exclu les modèles inhomogènes d'Univers à un grand niveau de confiance et établi des limites supérieures sur la variance des vitesses des amas. L'effet SZ cinétique est aussi exploré au travers du moment moyen des paires de halos de galaxies. Les résultats obtenus ont montré une détection significative. Enfin, nous avons étudié l'effet SZ relativiste via sa dépendance à la température des amas. Nous avons montré en particulier son impact sur l'estimation de l'effet SZ cinétique.
Style APA, Harvard, Vancouver, ISO itp.
15

Puisieux, Sarah. "Etude de l'effet Sunyaev-Zel'dovich cinétique et relativiste dans les données Planck". Paris 7, 2013. http://www.theses.fr/2013PA077232.

Pełny tekst źródła
Streszczenie:
Les effets Sunyaev-Zel'dovitch (SZ) correspondent à la diffusion inverse-Compton des photons du fond diffus cosmologique sur le gaz des amas de galaxies. Ce travail a visé à étudier l'ensemble des aspects des effets SZ cinétique et relativiste dans les données Planck. Pour ce faire, nous avons développé des filtres adaptés, conçus spécialement pour la détection des effets SZ. Ces filtres nous ont permis d'utiliser l'ensemble des longueurs d'onde de l'expérience de façon optimale. L'effet SZ cinétique est proportionnel à la vitesse radiale particulière des amas de galaxies. Nous avons donc pu étudier, grâce à cet effet SZ, les vitesses radiales particulières via des analyses individuelles, mais aussi statistiques. En particulier, il nous a permis d'effectuer les premières mesures de la vitesse moyenne des amas. Cette vitesse moyenne s'est avérée compatible avec zéro et constitue une vérification du principe cosmologique. Par ailleurs, nous avons étudié le dipôle des amas de galaxies, exclu les modèles inhomogènes d'Univers à un grand niveau de confiance et établi des limites supérieures sur la variance des vitesses des amas. L'effet SZ cinétique est aussi exploré au travers du moment moyen des paires de halos de galaxies. Les résultats obtenus ont montré une détection significative. Enfin, nous avons étudié l'effet SZ relativiste via sa dépendance à la température des amas. Nous avons montré en particulier son impact sur l'estimation de l'effet SZ cinétique
The Sunyaev-Zeldovich effects correspond to the inverse-Compton diffusion of photons from the cosmic microwave background on the gaz of clusters of galaxies. The aim of this work is to study ail the aspects of kinetic and relativistic thermic SZ in the Planck data. We have developec several filters, specially designed to extract the SZ effects. These filters allow us to use ail the Planck frequencies in an optimal way. The kinetic effect is proportional to the radial peculiar velocity of clusters of galaxies. We have studied these velocities individually but also statistically. We have in particular measured for the first time the average velocity of clusters, that is found in agreement with zero, which constitutes a proof of the cosmological principle. We have also studied the bulk flow of clusters and excluded several models of inhomogeneous universe with a very high confidence and put an upper limit on the velocity variance. The kinetic SZ effect can also be explored through the pairwise momentum of halos of galaxies. The results present a significant detection. Finally, we have analyzed the thermal relativistic SZ effect via its dependency to cluster temperatures. We have in particular provided evidence of its impact on the measurement of the kinetic SZ effect
Style APA, Harvard, Vancouver, ISO itp.
16

Bessière, Hélène. "Assimilation de données variationnelle pour la modélisation hydrologique distribuée des crues à cinétique rapide". Phd thesis, Toulouse, INPT, 2008. https://hal.science/tel-04426689.

Pełny tekst źródła
Streszczenie:
Dans la région Méditerranéenne les crues « éclair » représentent un risque des plus destructeurs ayant coûté la vie à de nombreuses personnes et entraînant des dommages matériels importants ces dernières années. Le groupe HydroEco de l’IMFT (Institut de Mécanique des Fluides de Toulouse) a développé le code MARINE (Modélisation de l'Anticipation du Ruissellement et des Inondations pour des évéNements Extrêmes) qui est un modèle hydrologique distribué à base physique pour la prévision de ce type de crues. Une méthode d'assimilation variationnelle de données, la méthode de l'état adjoint, est implémentée dans le modèle MARINE. Cette méthode considère les paramètres d'entrée comme des variables de contrôle du modèle et les optimise en minimisant les écarts entre les observations et les simulations par l'intermédiaire d'une fonction coût. Le bassin d'étude est le bassin versant du Gardon d'Anduze sur lequel nous disposons d'une base de données d'évènements extrêmes. Une analyse de sensibilité préliminaire permet d'identifier les paramètres les plus sensibles du modèle afin de réduire l'équifinalité. Une première application de la méthode de l'état adjoint est alors utilisée pour la calibration du modèle. Elle permet de tester la validité des hypothèses physiques en évaluant les performances du modèle puis de suggérer des pistes d'amélioration. Un jeu de paramètres consistant, cohérent avec les résultats de simulations utilisant une méthode de Monte Carlo, est alors identifié. Les hydrogrammes de crues obtenus sont compris dans une plage d'incertitude réduite. La seconde application de cette méthode s'intéresse à la prévision des crues par l'emploi de deux stratégies différentes. La première consiste à utiliser les informations à l'exutoire pendant la phase de montée de crue pour prédire ce pic de crue. La seconde consiste à utiliser les observations d'une station intermédiaire à l'amont du bassin pour prédire le débit à l'exutoire. Ces deux stratégies permettent une anticipation du pic de crue de quelques heures, résultat essentiel d'un point de vue opérationnel
Intense flash floods, produced by severe thunderstorms, represent the most destructive hazard in the Mediterranean region. Human lives and properties are increasingly exposed to flood risks. Therefore, there is a clear need to improve real-time monitoring and flood forecasting. The HydroEco research group at IMFT (Institute of Fluid Mechanics of Toulouse) developed the MARINE model (Modélisation de l'Anticipation du Ruissellement et des Inondations pour des évéNements Extrêmes), a distributed physically-based model, in order to forecast this kind of flood. A data assimilation process called the adjoint state method is implemented into the MARINE model. The principle of the adjoint method is to consider input parameters as control variables and optimize them by minimizing a cost function measuring the discrepancy between observations and model simulations. The procedure is tested on the Mediterranean Gardon d'Anduze catchment. A previous sensitivity analysis allows identifying the most sensitive parameters in order to avoid the “non-uniqueness problem” and overparameterization. Then a first application of the adjoint method aims at calibrating the model. The method enables to evaluate the model performance and contributes to either the validation of physical hypothesis or perspectives for the model structure improvements. A consistent set of parameters, in accordance with results achieved with a Monte-Carlo procedure, is then identified and simulated hydrographs are limited into a reduced range of uncertainties. The second application of the method is dedicated to flash flood forecasting. The first strategy employed is to use outlet flow information during the rising flood phase to estimate the peak. The second strategy employed is to use information of intermediate upstream gauging stations to predict the outlet flow. Both strategies allow anticipating, a few hours in advance, the peak which is crucial from an operational point of view
Style APA, Harvard, Vancouver, ISO itp.
17

Bessière, Hélène. "Assimilation de données variationnelle pour la modélisation hydrologique distribuée des crues à cinétique rapide". Phd thesis, Toulouse, INPT, 2008. http://oatao.univ-toulouse.fr/7761/1/bessiere1.pdf.

Pełny tekst źródła
Streszczenie:
Dans la région Méditerranéenne les crues « éclair » représentent un risque des plus destructeurs ayant coûté la vie à de nombreuses personnes et entraînant des dommages matériels importants ces dernières années (Nîmes en 1988, Vaison-la-Romaine en 1992, Aude en 1999, Gard en 2002). Le groupe HydroEco de l'IMFT (Institut de Mécanique des Fluides de Toulouse) a développé le code MARINE (Modélisation de l'Anticipation du Ruissellement et des Inondations pour des évéNements Extrêmes) qui est un modèle hydrologique distribué à base physique pour la prévision de ce type de crues. Une méthode d'assimilation variationnelle de données, la méthode de l'état adjoint, est implémentée dans le modèle MARINE. Cette méthode considère les paramètres d'entrée comme des variables de contrôle du modèle et les optimise en minimisant les écarts entre les observations et les simulations par l'intermédiaire d'une fonction coût. Le bassin d'étude est le bassin versant du Gardon d'Anduze sur lequel nous disposons d'une base de données d'évènements extrêmes. Une analyse de sensibilité préliminaire permet d'identifier les paramètres les plus sensibles du modèle afin de réduire l'équifinalité. Une première application de la méthode de l'état adjoint est alors utilisée pour la calibration du modèle. Elle permet de tester la validité des hypothèses physiques en évaluant les performances du modèle puis de suggérer des pistes d'amélioration. Un jeu de paramètres consistant, cohérent avec les résultats de simulations utilisant une méthode de Monte Carlo, est alors identifié. Les hydrogrammes de crues obtenus sont compris dans une plage d'incertitude réduite. La seconde application de cette méthode s'intéresse à la prévision des crues par l'emploi de deux stratégies différentes. La première consiste à utiliser les informations à l'exutoire pendant la phase de montée de crue pour prédire ce pic de crue. La seconde consiste à utiliser les observations d'une station intermédiaire à l'amont du bassin pour prédire le débit à l'exutoire. Ces deux stratégies permettent une anticipation du pic de crue de quelques heures, résultat essentiel d'un point de vue opérationnel.
Style APA, Harvard, Vancouver, ISO itp.
18

Tourlet, Sébastien. "Proposition d’une stratégie d’analyse statistique des données de puces à ADN décrivant une cinétique d’expression génique". Thesis, Tours, 2009. http://www.theses.fr/2009TOUR3134.

Pełny tekst źródła
Streszczenie:
Les résultats d’expériences de microarray furent décriés par le manque de concordance inter-expériences. Les listes immenses de gènes résultant de filtrages statistiques sont difficiles à exploiter. La Food and Drug Administration a montré que le choix d’indicateurs de filtrage de gènes était la source d’une grande disparité entre expériences de microarray issus de laboratoires indépendants. Dans ce contexte, nous avons développé une méthode de sélection basée sur la modélisation de l’allure de la courbe d’expression avec le Log2 du « fold-change » entre les points de cinétique. En effet, des gènes co-régulés au cours d’une cinétique temporelle présentent des courbes d’expression d’allure similaire alors que leur niveau d’expression peut être différent. Nous avons validé la méthode grâce à 2 expériences indépendantes de microar-ray étudiant la différenciation des ovaires d’embryons de souris. Ainsi, nous avons obtenu une liste réduite et pertinente de gènes exprimés. Puis, une analyse de ces résultats dans le cas de la différenciation ovarienne nous a permis d’identifier 9 nouveaux gènes candidats validés in silico et restant à être testés biologiquement
Microarray results were blamed because of their lack of concordance. Moreover, the huge candidate gene lists from statistical filterings are not useful for biologists. FDA proved that the lack of reliability between microarray experiments came from the choice of gene filtering indicators. In this context, a filtering method was developed based on expression curve shape modelling with the use of Log 2 of fold-change between kinetic points. Actually, the co-regulated genes display similar expression shape but with heterogeneous expression level.Our method was developed and validated thanks to two independent microarray experiments (Affymetric®) from mouse embryonic ovaries. Therefore, a short and relevant list of genes was obtained. Thus, a study of results linked to ovarian differentiation permitted to identify nine new candidate genes that were in silico validated. These genes might be biologically tested (i.e. RT PCR) by the scientific community
Style APA, Harvard, Vancouver, ISO itp.
19

Himoudi, Abdelilah. "Simulation numérique de la cinétique des ions dans les gaz rares faiblement ionisés : détermination des données de base". Toulouse 3, 1993. http://www.theses.fr/1993TOU30171.

Pełny tekst źródła
Streszczenie:
Ce travail est consacre a l'etude du transport des ions et a la determination des donnees de bases des ions necessaires a la modelisation des decharges electriques. Un rappel bibliographique est d'abord effectue sur les methodes de determination theoriques et experimentales des parametres de transport et des sections efficaces des ions afin de montrer les lacunes et les limitations concernant la precision et les intervalles d'energie ou de champ electrique reduit e/n. Puis, les equations cinetiques, permettant la simulation des experiences de mesure des parametres de transport des ions, sont decrites en insistant sur la difficulte specifique a l'operateur de collision ion-atome. Ensuite, un algorithme monte carlo s'affranchissant de cette difficulte et considerant correctement la cinematique de la collision a ete developpe pour etudier le transport des ions dans leurs gaz parents, non parents et dans les melanges de gaz. Une etude bibliographique sur les donnees de base des ions a montre la necessite de completer ou de determiner, a l'aide d'une methode de deconvolution des parametres de transport, les sections efficaces de collision ion-atome des ions dans les gaz rares surtout aux faibles valeurs de l'energie relative ou les mesures sont quasi inexistantes. Apres avoir analyse et montre la non-validite des lois macroscopiques habituelles (loi de blanc ou relation de viehland et mason,. . . ), l'ensemble des sections efficaces ainsi obtenues a permis de determiner, a l'aide de la methode de monte carlo, les parametres de transport pour un large intervalle de champs e/n (jusqu'a 10 000 td) des ions (h#+, he#+, ne#+, ar#+, xe#+) dans les gaz rares et leurs melanges (he-xe, ar-ne)
Style APA, Harvard, Vancouver, ISO itp.
20

Benabdessadok, Mohamed Dinori. "Théorie cinétique des électrons dans les plasmas froids non thermiques. Détermination des données de base dans les gaz d'échappement". Toulouse 3, 1997. http://www.theses.fr/1997TOU30029.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
21

Pago, Catherine. "Etude expérimentale et modélisation de la nucléophilie d'amines bioactives". Aix-Marseille 3, 1998. http://www.theses.fr/1998AIX30055.

Pełny tekst źródła
Streszczenie:
Depuis un siecle, les reactions d'alkylations d'amines par un halogenure d'alkyle, et en particulier la reaction de menschutkin, sont a la base de nombreuses etudes d'effets de structure et de solvant. La modelisation de ces reactions ne permet pourtant pas encore une prevision quantitative de la nucleophilie des amines. Les mesures cinetiques dans ce domaine de reactivite sont nombreuses mais leur dispersion les rend peu utilisables. Nous avons entrepris de les regrouper sous la forme d'une base de donnees indexee par structure. Une analyse de la base creee precise les variations des divers parametres cinetiques et met en relief l'importance de l'entropie d'activation et de la solvatation. Les mesures conductimetriques des vitesses des reactions entre une serie d'amines cycliques et l'iodure de methyle ont enrichi ce domaine d'une nouvelle echelle de nucleophilie. L'etude quantique des chemins reactionnels en solution precise la structure des etats de transition. Des calculs semi-empiriques integrant le solvant montrent que ni l'energie des doublets non liants de l'atome d'azote ni les charges locales n'expliquent les differences de nucleophilie mesurees. La prise en compte des isomeries conformationnelles des per-hydro-acridines dans les calculs semi-empiriques et dans les calculs de mecanique moleculaire a apporte des elements d'explication aux variations d'entropies d'activation.
Style APA, Harvard, Vancouver, ISO itp.
22

Persis, Stéphanie de. "Cinétique chimique en phase homogène appliquée au dépôt chimique à partir d'une phase gazeuse : évaluation des données, interprétation et réduction des systèmes complexes". Perpignan, 2001. http://www.theses.fr/2001PERP0441.

Pełny tekst źródła
Streszczenie:
Une modélisation complète du procédé de dépôt chimique en phase vapeur active thermiquement (CVD) nécessite une bonne connaissance des processus mis en jeu dans la phase gazeuse (transferts, réactions chimiques homogènes,. . . ) et sur la surface en cours de croissance (réactions hétérogènes, formation de la micro- ou nanostructure,. . . ). Ce travail est consacré à l'investigation des mécanismes réactionnels intervenant dans la phase gazeuse. Dans le but de comprendre ces mécanismes, puis de les intégrer dans les modèles de réacteur (à l'échelle macroscopique) et dans des modèles de croissance de type Monte Carlo cinétique (à l'échelle atomique), différents outils ont été développés et une procédure en trois étapes (construction, analyse et réduction des mécanismes) a été suivie. Cette procédure bien connue en combustion n'avait jamais été véritablement utilisée dans le domaine du dépôt chimique en phase vapeur. Les mécanismes réactionnels correspondant aux systèmes Si-C-H, Si-N-H et Ti-C-Cl-H mis en jeu dans les cas respectifs des dépôts de SiC, Si3N4 et de TiC ont été étudiés. Lors de la première étape de construction, les théories RRKM et QRRK ont été employées dans le but de rendre compte de l'influence de la pression sur la cinétique réactionnelle. Puis l'étape d'analyse (de sensibilité, en flux réactionnel, en composantes principales, en vitesse de production. . . ) a permis de mieux comprendre et interpréter les mécanismes réactionnels qui se produisent dans la phase gazeuse lors d'un dépôt. Enfin, les systèmes chimiques complexes étudiés ont été réduits pour des conditions spécifiques de fonctionnement des réacteurs. Deux méthodes fondées ou non sur l'analyse d'échelles de temps ont été appliquées au système Si-C-H : la méthode de Turanyi (1990) et la méthode de la variété intrinsèque de dimension réduite (ILDM)
Numerical modeling of the Chemical Vapour Deposition (CVD) process requires a good description of the elementary process occuring in the gas phase (transfer, homogeneous chemical reactions,. . . ) and at the growing surface (heterogeneous reactions, nanostructure formation,. . . ). This work is aimed at the investigation of the reaction mechanisms that develop in the gas phase. Various tools and a three-step procedure of construction, analysis and reduction have been developed in order to better understand reaction mechanisms and to integrate them both in reactor models (at a macroscopic scale) and in growth models (at the atomic scale). The above procedure is widely used in the combustion field but it is almost unknown in CVD
Style APA, Harvard, Vancouver, ISO itp.
23

Caspard, Emmanuel. "La dolomitisation des réservoirs carbonates de plate-forme : des données géologiques à la modélisation : exemple du grand banc des Bahamas". Paris 6, 2002. http://www.theses.fr/2002PA066486.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
24

Mula, Olga. "Quelques contributions vers la simulation parallèle de la cinétique neutronique et la prise en compte de données observées en temps réel". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01068691.

Pełny tekst źródła
Streszczenie:
Dans cette thèse nous avons tout d'abord développé un solveur neutronique de cinétique transport 3D en géométrie déstructurée avec une discrétisation spatiale par éléments finis (solveur MINARET). L'écriture d'un tel code représente en soi une contribution importante dans la physique des réacteurs car il permettra de connaître de façon très précise l'état du coeur au cours d'accidents graves. Il jouera aussi un rôle très important pour des études de fluence de la cuve des réacteurs. D'un point de vue mathématique, l'apport le plus important dans l'écriture de ce solveur a consisté en l'implémentation d'algorithmes modernes adaptés aux architectures actuelles et à venir de calcul parallèle, permettant de réduire de façon significative les temps de calcul. Un effort particulier a été mené pour paralléliser de façon efficace la variable temporelle par l'algorithme pararéel en temps. Ce travail a consisté dans un premier temps à analyser les performances que le schéma classique de pararéel apporte dans la résolution de l'équation de transport de neutrons. Ensuite, nous avons cherché à améliorer ces performances en proposant un schéma de pararéel qui intègre de façon plus optimisée la présence de schémas itératifs autres que le pararéel dans la résolution de chaque pas de temps de l'équation du transport. L'idée principale de ce nouveau schéma consiste à limiter le nombre d'itérations internes pour chaque pas de temps du solveur fin et d'atteindre la convergence au cours des itérations pararéelles. Dans un second temps, une réflexion a été entamée autour de la question suivante: étant donné le haut degré de précision que MINARET fournit dans la connaissance de la population neutronique, serait-il possible de l'utiliser en tant qu'outil de surveillance pendant l'opération d'un réacteur nucléaire? Et, qui plus est, comment rendre un tel outil à la fois cohérent et complémentaire par rapport aux mesures prises \textit{in situ}? Une des difficultés majeures de ce problème réside dans le besoin de fournir les simulations en temps réel alors que, malgré nos efforts pour accélérer les calculs, les méthodes de discrétisation utilisées dans MINARET ne permettent pas des calculs de coeur à une telle vitesse. Cette question a été abordée en développant tout d'abord une généralisation de la méthode Empirical Interpolation (EIM) grâce à laquelle on a pu définir un processus d'interpolation bien posé pour des fonctions appartenant à des espaces de Banach. Ceci est rendu possible par l'utilisation de formes linéaires d'interpolation au lieu des traditionnels points d'interpolation et une partie de cette thèse a été consacrée à la compréhension des propriétés théoriques de cette méthode (analyse de convergence sous hypothèse d'ensemble de petite dimension de Kolmogorov et étude de sa stabilité). Ce processus d'interpolation (appelé Generalized EIM) permet de reconstruire en temps réel des processus physiques de la façon suivante: étant donné un système pouvant être décrit par une EDP paramétrée et sur lequel des mesures peuvent être prises \textit{in situ}, on construit d'abord une base d'interpolation constituée de solutions de cette EDP pour différentes valeurs du paramètre grâce à GEIM (ceci est fait par un algorithme greedy). On donne ensuite une approximation en temps réel de l'état du système via une fonction interpolée exprimée dans la base calculée et qui utilise des mesures acquises \textit{in situ} comme données d'entrée (et modélisées mathématiquement par les formes linéaires). La méthode a été appliquée avec succès dans des exemples simples (équations de Laplace et de Stokes) et nous espérons que les développements actuels et à venir pourront mener à son emploi dans des cas réels plus complexes comme celui de la reconstruction de la population neutronique dans un coeur de réacteur avec MINARET.
Style APA, Harvard, Vancouver, ISO itp.
25

Gaouar, Adil. "Théorie cinétique et données de base des électrons dans les plasmas non thermiques : application aux milieux d'excitation des lasers à excimères". Toulouse 3, 1995. http://www.theses.fr/1995TOU30287.

Pełny tekst źródła
Streszczenie:
Ce travail est consacre a l'etude theorique de la cinetique electronique dans les plasmas froids non thermiques incluant les interactions coulombiennes et a son application aux milieux d'excitation des lasers a excimeres dans le cas des melanges ne-xe-hcl. Pour se faire nous avons d'abord etabli, dans le cas de la theorie du regime hydrodynamique, les equations cinetiques de boltzmann permettant le calcul des coefficients de reaction et de transport scalaire, vectoriel et tensoriel en tenant compte des principaux processus collisionnels specifiques a ces milieux d'excitation des lasers et pouvant influencer les fonctions de distribution des electrons (electron-atome elastique, inelastique et superelastique, ionisation penning, interactions coulombiennes, recombinaison, processus vibrationnels, etc. ). A partir de ce code nous avons montre la validite de notre methode deux termes en la comparant a la methode multi-termes dans le cas de notre application et nous avons montre pour la premiere fois dans la litterature, l'influence significative des processus coulombiens sur les coefficients de diffusion transverse et longitudinale. Puis, nous avons notamment en fonction du champ e/n et du degre d'ionisation determine et analyse les donnees de base electroniques (sections efficaces et coefficients de reaction) dans les differents gaz (ne, xe et hcl) composant le melange excimere etudie. Par la suite, a l'aide d'un modele hybride correspondant au couplage equation de boltzmann- equation du circuit electrique- equation d'evolution des principales especes incluant la cinetique des vibrationnels, nous avons etudie les caracteristiques electrique et cinetique dans les melanges ne-xe-hcl des lasers a excimeres. Nous avons notamment discute et analyse l'influence d'un certain nombre de parametres (element du circuit electrique, reactions considerees, precision des donnees de base, etc. . . ) sur les voies cinetiques (metastable et ionique) de formation de la molecule excimere xecl#*
Style APA, Harvard, Vancouver, ISO itp.
26

Mula, Hernandez Olga. "Quelques contributions vers la simulation parallèle de la cinétique neutronique et la prise en compte de données observées en temps réel". Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066201/document.

Pełny tekst źródła
Streszczenie:
Dans cette thèse nous avons tout d'abord développé un solveur neutronique de cinétique transport 3D en géométrie déstructurée avec une discrétisation spatiale par éléments finis discontinus (solveur MINARET). L'écriture d'un tel code représente en soi une contribution importante dans la physique des réacteurs car il permettra de connaître de façon très précise l'état du c¿ur au cours d'accidents graves. Il jouera aussi un rôle important pour des études de fluence de la cuve des réacteurs. D'un point de vue mathématique, l'apport le plus important a consisté en l'implémentation d'algorithmes adaptés aux architectures de calcul parallèle, permettant de réduire de façon significative les temps de calcul. Un effort particulier a été mené pour paralléliser de façon efficace la variable temporelle par l'algorithme pararéel en temps. Nous avons ensuite cherché à développer une méthode qui permettrait d'utiliser MINARET comme outil de surveillance pendant l'opération d'un réacteur nucléaire. Une des difficultés majeures de ce problème réside dans le besoin de fournir les simulations en temps réel. La question a été abordée en développant tout d'abord une généralisation de la méthode Empirical Interpolation (EIM) grâce à laquelle on a pu définir un processus d'interpolation bien posé pour des fonctions appartenant à des espaces de Banach. Ceci est rendu possible par l'utilisation de formes linéaires d'interpolation au lieu des traditionnels points d'interpolation et une partie de cette thèse a été consacrée à la compréhension des propriétés théoriques de cette méthode (analyse de convergence sous hypothèse d'ensemble de petite dimension de Kolmogorov et étude de sa stabilité)
In this thesis, we have first developed a time dependent 3D neutron transport solver on unstructured meshes with discontinuous Galerkin finite elements spatial discretization. The solver (called MINARET) represents in itself an important contribution in reactor physics thanks to the accuracy that it can provide in the knowledge of the state of the core during severe accidents. It will also play an important role on vessel fluence calculations. From a mathematical point of view, the most important contribution has consisted in the implementation of algorithms that are well adapted for modern parallel architectures and that significantly decrease the computing times. A special effort has been done in order to efficiently parallelize the time variable by the use of the parareal in time algorithm. On a second stage, we have developed the foundations of a method with which we could use MINARET to monitor in real time the population of neutrons during the operation of the reactor. One of the major difficulties relies in the necessity of providing computations in real time. This question has been addressed by proposing an extension of the Empirical Interpolation Method (EIM) thanks to which a well-posed interpolation procedure has been defined for functions belonging to Banach spaces. This is possible thanks to the use of interpolating linear forms instead of the traditional interpolation points and a part of this thesis has been devoted to the understanding of the theoretical properties of this method (convergence analysis under the hypothesis of small Kolmogorov n-width and stability of the procedure)
Style APA, Harvard, Vancouver, ISO itp.
27

Hennad, Ali. "Cinétique des ions dans les gaz moléculaires par simulations de Monte Carlo classique et optimisée : détermination des données de base dans l'air". Toulouse 3, 1996. http://www.theses.fr/1996TOU30184.

Pełny tekst źródła
Streszczenie:
Ce travail est consacre a la simulation numerique de la cinetique des ions dans les gaz moleculaires faiblement ionises se trouvant dans un regime de non-equilibre thermique et a la determination des donnees de base ioniques (potentiels d'interaction, sections efficaces, et parametres de transport) necessaires a la modelisation des decharges electriques hors equilibre. Il s'agit des donnees de base de certains ions dans l'oxygene, l'azote et l'air utiles notamment a l'etude des dispositifs de depollution des gaz d'echappement par plasmas non-thermiques. Apres avoir rigoureusement etudie et analyse plusieurs types de potentiels d'interaction, il apparait que les potentiels de polarisation et de lennard-jonesn-6 sont les plus appropries pour decrire les interactions ion-molecule respectivement aux faibles et aux valeurs plus elevees de l'energie des ions. Ils permettent notamment de determiner les sections efficaces integrales et surtout differentielles capables de rendre compte de l'anisotropie des collisions elastiques ion-molecule. Ensuite, on a developpe une methode de simulation statistique de monte carlo pour etudier le transport des ions en prenant en consideration les processus collisionnels specifiques aux systemes ion-molecule comme la diffusion elastique anisotrope ou le transfert de charge resonant ou non-resonant, ou encore l'excitation vibrationnelle des molecules par impacts ioniques. Puis cette methode de monte carlo a ete optimisee en ajoutant un processus collisionnel supplementaire fictif de creation d'ions afin d'ameliorer la precision des calculs en presence de certains processus de disparition des ions. En utilisant ces techniques de monte carlo couplees a une methode d'ajustement des sections efficaces a partir des parametres de transport, les donnees de base (sections efficaces et parametres de transport) ont ete determinees dans le cas des ions d'azote et d'oxygene dans leurs gaz parents (n#+#2/n#2, n#+/n#2, o#+#2/o#2, o#-#2/o#2, o#+/o#2, et o#-/o#2). L'influence de l'anisotropie des collisions elastiques sur les parametres de transport pour deux systemes particuliers (n#+#2/n#2 et o#-/o#2) a ete ensuite discutee en montrant que son influence est importante uniquement dans le cas des systemes asymetriques. Ensuite, afin de pouvoir etudier le transport des ions dans les melanges d'azote et d'oxygene tels que l'air, les donnees de base des ions d'azote et d'oxygene ont ete determinees d'abord dans leurs gaz non-parents et ceci pour la premiere fois dans la litterature dans des systemes comme o#+#2/n#2, o#+/n#2, n#+#2/o#2, et n#+/o#2. Apres avoir analyse et discute la non-validite des lois de linearite en fonction du champ, l'ensemble des sections efficaces deja obtenues dans les gaz parents et non-parents a permis de determiner les parametres de transport des ions n#+#2, o#+#2, n#+, et o#+ dans les melanges de gaz n#2-o#2 comme l'air pour des champs allant de 1 td jusqu'a environ 1000 td
Style APA, Harvard, Vancouver, ISO itp.
28

Gehan, Charlotte. "Évolution de la rotation du cœur des étoiles sur la branche des géantes rouges : des mesures à grande échelle vers une caractérisation du transport de moment cinétique". Electronic Thesis or Diss., Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEO021.

Pełny tekst źródła
Streszczenie:
L’astérosismologie consiste à sonder les intérieurs stellaires en détectant les ondes sismiques qui s’y propagent. Les géantes rouges, des étoiles évoluées peu massives dont l’hydrogène du cœur est épuisé, sont des pulsateurs de type solaire présentant des modes mixtes qui nous permettent d’accéder directement aux propriétés physiques de leur cœur. Les mesures sismiques disponibles indiquent qu’un ou plusieurs mécanismes physiques encore mal compris contrebalancent l’accélération de la rotation du cœur sous l’effet de sa contraction, en transportant du moment cinétique. La majeure partie de cette thèse a été consacrée au développement d’une méthode permettant une mesure aussi automatisée que possible de la rotation moyenne du cœur des étoiles de la branche des géantes rouges observées par le satellite Kepler (NASA). Les mesures obtenues pour environ 900 étoiles mettent en évidence que la rotation du cœur est à peu près constante le long de la branche des géantes rouges,avec des valeurs indépendantes de la masse des étoiles. Le deuxième volet de cette thèse est consacré à l’interprétation de ces résultats basée sur la modélisation stellaire. L’enjeu consiste à utiliser les mesures à grande échelle obtenues durant la première partie pour caractériser la quantité de moment cinétique qui doit être extraite localement de chaque région du cœur, à différents instants sur la branche des géantes rouges, pour différentes masses stellaires
Asteroseismology consists in probing stellar interiors through the detection of seismic waves. Red giants are evolved low-mass stars that have exhausted hydrogen in their core. These stars are solar-type pulsators presenting mixed modes that allow us to have a direct access to the physical properties of their core. The available seismic measurements indicate that one or several mechanisms that remain poorly understood counterbalance the acceleration ofthe core rotation, resulting from its contraction, by transporting angularmomentum. The greatest part of this PhD thesis was devoted to the development of a method allowing a measurement as automated as possible of the mean core rotation of stars on the red giant branch that were observed by the Kepler satellite (NASA). The measurements that were derived for almost 900 stars highlight that the core rotation is almost constant along the red giant branch, with values largely independent of the stellar mass. The second part of this PhD thesis is devoted to the interpretation of these results based on stellar modelling. The challenge consists in using the large-scale measurements obtainedin the first part to characterise the quantity of angular momentum that has to be extracted from each layer of the core, at different timesteps on the red giant branch, for different stellar masses
Style APA, Harvard, Vancouver, ISO itp.
29

Mouton, Nicolas. "Ré-investigation de la photo-dynamique du salicylidène aniline par spectroscopie d'absorption transitoire femtoseconde et analyse multivariée des données". Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2011. http://tel.archives-ouvertes.fr/tel-00689167.

Pełny tekst źródła
Streszczenie:
Cette thèse s'intéresse à la photo-dynamique du photochromisme du salicylidène aniline (SA) en solution afin d'en proposer un mécanisme général. Le photochromisme du SA faisant intervenir un transfert de proton intramoléculaire ultra-rapide, l'étude expérimentale a été principalement conduite par spectroscopie d'absorption transitoire femtoseconde à différentes longueurs d'onde d'excitation. L'observation de processus photo-induits ultra-rapides par les techniques de spectroscopie de type pompe-sonde requiert la mesure et la prise en compte de la fonction de réponse instrumentale. En effet, des effets physiques peuvent affecter la structure des données spectrocinétiques, voire provoquer certaines distorsions, et la convolution limite la résolution temporelle des acquisitions. La première étape de ce travail a donc été d'adapter des méthodes chimiométriques de résolution des données multivariées à cette spécificité. L'approche proposée a consisté à implémenter une contrainte cinétique adaptée dans une résolution multivariée de courbes par moindres carrés alternés (MCR-ALS). Les développements méthodologiques ont été validés sur des données simulées avant d'être appliqués à l'étude spectroscopique du SA. Les principaux résultats obtenus concernent 1) le transfert de proton intramoléculaire, qui a été estimé à 60 fs, 2) la compétition avec un mécanisme de rotation qui a pu être caractérisé, 3) la dépendance des rendements quantiques avec la longueur d'onde d'excitation. Cette thèse propose ainsi une caractérisation complète des processus photo-induits pour le SA, c'est-à-dire les vitesses de réaction et les spectres de toutes les espèces transitoires.
Style APA, Harvard, Vancouver, ISO itp.
30

Gehan, Charlotte. "Évolution de la rotation du cœur des étoiles sur la branche des géantes rouges : des mesures à grande échelle vers une caractérisation du transport de moment cinétique". Thesis, Paris Sciences et Lettres, 2018. http://www.theses.fr/2018PSLEO021/document.

Pełny tekst źródła
Streszczenie:
L’astérosismologie consiste à sonder les intérieurs stellaires en détectant les ondes sismiques qui s’y propagent. Les géantes rouges, des étoiles évoluées peu massives dont l’hydrogène du cœur est épuisé, sont des pulsateurs de type solaire présentant des modes mixtes qui nous permettent d’accéder directement aux propriétés physiques de leur cœur. Les mesures sismiques disponibles indiquent qu’un ou plusieurs mécanismes physiques encore mal compris contrebalancent l’accélération de la rotation du cœur sous l’effet de sa contraction, en transportant du moment cinétique. La majeure partie de cette thèse a été consacrée au développement d’une méthode permettant une mesure aussi automatisée que possible de la rotation moyenne du cœur des étoiles de la branche des géantes rouges observées par le satellite Kepler (NASA). Les mesures obtenues pour environ 900 étoiles mettent en évidence que la rotation du cœur est à peu près constante le long de la branche des géantes rouges,avec des valeurs indépendantes de la masse des étoiles. Le deuxième volet de cette thèse est consacré à l’interprétation de ces résultats basée sur la modélisation stellaire. L’enjeu consiste à utiliser les mesures à grande échelle obtenues durant la première partie pour caractériser la quantité de moment cinétique qui doit être extraite localement de chaque région du cœur, à différents instants sur la branche des géantes rouges, pour différentes masses stellaires
Asteroseismology consists in probing stellar interiors through the detection of seismic waves. Red giants are evolved low-mass stars that have exhausted hydrogen in their core. These stars are solar-type pulsators presenting mixed modes that allow us to have a direct access to the physical properties of their core. The available seismic measurements indicate that one or several mechanisms that remain poorly understood counterbalance the acceleration ofthe core rotation, resulting from its contraction, by transporting angularmomentum. The greatest part of this PhD thesis was devoted to the development of a method allowing a measurement as automated as possible of the mean core rotation of stars on the red giant branch that were observed by the Kepler satellite (NASA). The measurements that were derived for almost 900 stars highlight that the core rotation is almost constant along the red giant branch, with values largely independent of the stellar mass. The second part of this PhD thesis is devoted to the interpretation of these results based on stellar modelling. The challenge consists in using the large-scale measurements obtainedin the first part to characterise the quantity of angular momentum that has to be extracted from each layer of the core, at different timesteps on the red giant branch, for different stellar masses
Style APA, Harvard, Vancouver, ISO itp.
31

Mouton, Nicolas. "Ré-investigation de la photo-dynamique du salicylidène aniline par spectroscopie d’absorption transitoire femtoseconde et analyse multivariée des données". Thesis, Lille 1, 2011. http://www.theses.fr/2011LIL10090/document.

Pełny tekst źródła
Streszczenie:
Cette thèse s’intéresse à la photo-dynamique du photochromisme du salicylidène aniline (SA) en solution afin d’en proposer un mécanisme général. Le photochromisme du SA faisant intervenir un transfert de proton intramoléculaire ultra-rapide, l’étude expérimentale a été principalement conduite par spectroscopie d’absorption transitoire femtoseconde à différentes longueurs d’onde d’excitation. L’observation de processus photo-induits ultra-rapides par les techniques de spectroscopie de type pompe-sonde requiert la mesure et la prise en compte de la fonction de réponse instrumentale. En effet, des effets physiques peuvent affecter la structure des données spectrocinétiques, voire provoquer certaines distorsions, et la convolution limite la résolution temporelle des acquisitions. La première étape de ce travail a donc été d’adapter des méthodes chimiométriques de résolution des données multivariées à cette spécificité. L’approche proposée a consisté à implémenter une contrainte cinétique adaptée dans une résolution multivariée de courbes par moindres carrés alternés (MCR-ALS). Les développements méthodologiques ont été validés sur des données simulées avant d’être appliqués à l’étude spectroscopique du SA. Les principaux résultats obtenus concernent 1) le transfert de proton intramoléculaire, qui a été estimé à 60 fs, 2) la compétition avec un mécanisme de rotation qui a pu être caractérisé, 3) la dépendance des rendements quantiques avec la longueur d’onde d’excitation. Cette thèse propose ainsi une caractérisation complète des processus photo-induits pour le SA, c’est-à-dire les vitesses de réaction et les spectres de toutes les espèces transitoires
This work is interested in the photo-dynamics of photochromism of salicylidene aniline (SA) in solution aiming at proposing a general mechanism. As the photochormism of SA involves an ultrafast intramolecular proton transfer, the experimental study consisted mainly in femtosecond transient absorption spectroscopy at different excitation wavelengths.The observation of ultrafast photo-induced processes by pump-probe spectroscopy techniques requires measuring and taking into account the instrumental response function. Indeed some physical effects affect the structure of spectrokinetic data, some distortions may be observed, as well as convolution limiting the time resolution of the measurement. The first part of this work dealt with an adaptation of multivariate chemometric tools, to take into account these specificities. The proposed approach implements a dedicated kinetic constraint into the multivariate curve resolution-alternating least squares method (MCR-ALS). The methodological developments were validated on simulated data and then being applied to the spectroscopic study of SA.The main points are: 1) the intramolecular proton transfer, which was estimated at 60 fs, 2) the existence of a competitive rotation mechanism which was characterized, 3) the excitation wavelength dependence of quantum yields values. Finally, a complete characterization of the photo-induced processes of SA, i.e. the reaction rates and the spectra of all the transient species, was provided and discussed
Style APA, Harvard, Vancouver, ISO itp.
32

Brédif, Mathieu. "Modélisation 3D de bâtiments : reconstruction automatique de superstructures de toits et recalage cinétique de toits polyédriques prenant en compte la topologie". Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00006232.

Pełny tekst źródła
Streszczenie:
Il existe aujourd'hui une demande croissante pour des modèles numériques de ville de plus en plus précis. Alors que les travaux récents ont permis la production robuste de modèles polyédriques de bâtiments, les superstructures de toits telles que les cheminées et les chiens assis ne sont pas modélisées, et les erreurs géométriques et topologiques peuvent être importantes. L'approche itérative proposée affine géométriquement et sémantiquement un modèle de bâtiment approché sans superstructures, à l'aide d'un Modèle Numérique de Surface (MNS). Elle alterne la reconstruction de superstructures et le recalage des pans de toit principaux. La détection et la reconstruction de superstructures sont basées sur une bibliothèque de modèles paramétriques de superstructures. Un ensemble de superstructures disjointes est recherché, en se réduisant au problème de recherche d'une clique pondérée maximale. La phase de recalage tire parti des superstructures précédemment détectées afin de mieux estimer les pans de toit principaux. Elle corrige des simplifications tant géométriques telles qu'une symétrie erronée des toits, que topologiques telles que la fusion de sommets proches. Nous utilisons une représentation géométrique des bâtiments par les plans porteurs de chaque facette polyédrique, plus intuitive dans ce contexte que la représentation habituelle par la position de ses sommets. Nous introduisons le problème de triédralisation qui scinde les sommets surcontraints en sommets bien définis à l'intersection de 3 plans seulement. Nous proposons une structure de donnée cinétique garantissant des facettes non auto-intersectantes au cours de la réestimation itérative de leurs plans porteurs
There is nowadays a growing demand for increasingly more accurate 3D city models. Whereas recent works have lead to the robust generation of polyhedral building models, they do not model roof superstructures such as chimneys or dormer windows, and may feature large geometric and topological errors. We propose an approach to refine geometrically and semantically a superstructure-less approximate building model, using a Digital Surface Model (DSM). This iterative approach alternates between superstructure reconstructions and geometric fitting of the main roof planes. Superstructure detection and reconstruction are based on a library of parametric superstructure models. A set of disjoint superstructures is searched to explain the height differences between the DSM and the building model, reducing the search to a maximum weighted clique problem. The fitting step uses the previously detected superstructures to refine the main roof plane estimations. It corrects both geometric simplifications such as an erroneous roof symmetry, and topological simplifications such as the merging of close vertices of the polyhedral building model. The proposed representation of the building geometry uses the planes supporting each polyhedral facet, which is more intuitive in this context than the usual representation using the vertex locations. We introduce the trihedralization problem of splitting vertices that become over-constrained after updating their adjacent facet supports into well-defined vertices at the intersection of 3 planes. We propose a novel kinetic data structure that prevents facet self-intersections throughout the iterative reestimation of their supporting planes
Style APA, Harvard, Vancouver, ISO itp.
33

Brédif, Mathieu. "Modélisation 3D de bâtiments : reconstruction automatique de superstructures de toits et recalage cinétique de toits polyédriques prenant en compte la topologie". Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00006232.

Pełny tekst źródła
Streszczenie:
Il existe aujourd'hui une demande croissante pour des modèles numériques de ville de plus en plus précis. Alors que les travaux récents ont permis la production robuste de modèles polyédriques de bâtiments, les superstructures de toits telles que les cheminées et les chiens assis ne sont pas modélisées, et les erreurs géométriques et topologiques peuvent être importantes. L'approche itérative proposée affine géométriquement et sémantiquement un modèle de bâtiment approché sans superstructures, à l'aide d'un Modèle Numérique de Surface (MNS). Elle alterne la reconstruction de superstructures et le recalage des pans de toit principaux. La détection et la reconstruction de superstructures sont basées sur une bibliothèque de modèles paramétriques de superstructures. Un ensemble de superstructures disjointes est recherché, en se réduisant au problème de recherche d'une clique pondérée maximale. La phase de recalage tire parti des superstructures précédemment détectées afin de mieux estimer les pans de toit principaux. Elle corrige des simplifications tant géométriques telles qu'une symétrie erronée des toits, que topologiques telles que la fusion de sommets proches. Nous utilisons une représentation géométrique des bâtiments par les plans porteurs de chaque facette polyédrique, plus intuitive dans ce contexte que la représentation habituelle par la position de ses sommets. Nous introduisons le problème de triédralisation qui scinde les sommets surcontraints en sommets bien définis à l'intersection de 3 plans seulement. Nous proposons une structure de donnée cinétique garantissant des facettes non auto-intersectantes au cours de la réestimation itérative de leurs plans porteurs.
Style APA, Harvard, Vancouver, ISO itp.
34

Berro, Julien. "Du monomère à la cellule : modèle de la dynamique de l'actine". Université Joseph Fourier (Grenoble), 2006. http://www.theses.fr/2006GRE10226.

Pełny tekst źródła
Streszczenie:
Les filaments d'actine sont des polymères biologiques très abondants dans le cytosquelette des eucaryotes. Leur auto-assemblage et leur autoorganisation sont très dynamiques et ils jouent un rôle majeur dans la motilité cellulaire et dans les déformations de la membrane. Nous présentons dan cette thèse trois approches de modélisation, à différentes échelles, afin de mieux comprendre les mécanismes de régulation de l'assemblage, de l'organisation et de la production de forces par des filaments biologiques tels que les filaments d'actine. Nous avons tout d'abord développé un outil de simulation multi-agent stochastique pour l'étude de la dynamique de filaments biologiques prenant en compte les interactions à l'échelle du nanomètre. Ce nouvel outil nous a permis de mettre en évidence l'accélération du turnover des monomères d'actine par fragmentation des filaments par l'ADF/Cofiline ainsi que les ruptures de symétries induites par cette protéine, résultats concordant avec les expériences de l'équipe de L. Blanchoin (CEA Grenoble). Nous avons également mené l'étude d'un modèle continu pour le flambage de filaments qui a permis d'estimer les forces exercées in vivo et in vitro en fonction des conditions d'attachement des extrémités et de donner des conditions limites de certains paramètres permettant le flambage. Troisièmement, nous avons développé un cadre pour l'organisation des données de cinétique biochimique de réseaux de régulation que nous avons utilisé pour la régulation de la polymérisation de l'actine. Ces trois approches de modélisation ont permis d'améliorer la connaissance sur la dynamique de l'actine et sont complémentaires aux approches expérimentales de la biologie
Actin filaments are biological polymers that are very abundant in eucaryot cytoskeleton. Their auto-assembly and auto-organization are highly dynami. And are essential in cell motility and membrane deformations. Ln this thesis we propose three approaches, on different scales, in order to enlighten mechanisms for the regulation ofassembly of, organization of and production of force by biological filaments such as actin filaments. First, we have developed a stochastic multi-agent simulation tool for studying biological filaments taking into consideration interactions on the nanometer scale. This new tool allowed us to bring out the acceleration of actin monomer turnover due to fragmentation of filaments by ADF/Cofilin and the symmetry breaking induced by thisprotein, which agree weil with experimental data from L. Blanchoin team (CEA Grenoble). Secondly, we studied a continuou model for filament buckling, providing, on the one hand, an estimation of forces exerted in vitro or in vivo with respect to extremity attachment conditions and, on the other hand, limit conditions for buckling. Thirdly, we developed a framework for organizing kinetic biochemical data from reaction networks, which was used for the regulation of actin polymerization. These three modeling approaches improved the knowledge on actin dynamics and are useful complements for experimental approaches in biology
Style APA, Harvard, Vancouver, ISO itp.
35

Simeoni, Chiara. "Méthodes numériques pour des équations hyperboliques de type Saint-Venant". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2002. http://tel.archives-ouvertes.fr/tel-00922706.

Pełny tekst źródła
Streszczenie:
L'objet de la thèse est de contribuer à l'étude numérique des lois de conservation hyperboliques avec termes sources, ce qui est motivé par les applications aux équations de Saint-Venant pour les eaux peu profondes. La première partie traite des questions habituelles de l'analyse des approximations numériques des lois de conservation scalaires. On se concentre sur des schémas aux volumes finis semi-discrets, dans le cas général d'un maillage non-uniforme. Pour définir des discrétisations appropriées du terme source, on introduit le formalisme spécifique de la méthode "Upwind Interface Source" et on établit des conditions sur les fonctions numériques telles que le solveur discret préserve les solutions stationnaires. Une définition rigoureuse de consistance est ensuite formulée, adaptée aux "schémas équilibres", pour laquelle on est capable de prouver un théorème de convergence faible de type Lax-Wendroff. La méthode considérée dans un premier temps est essentiellement d'ordre un en espace. Pour améliorer la précision, on développe des approches à haute résolution pour la méthode "Upwind Interface Source" et on montre que celles-ci sont un moyen efficace de dériver des schémas d'ordre plus élevé avec des propriétés convenables. On prouve une estimation d'erreur dans $L^p$, $1\le p < +\infty$, qui est un résultat optimal dans le cas d'un maillage uniforme. On conclut alors que les mêmes taux de convergence $O(h)$ et $O(h^2)$ que pour les systèmes homogènes correspondants sont valables. La deuxième partie présente un schéma numérique pour approcher les équations de Saint-Venant, avec un terme source géométrique, qui vérifie les propriétés théoriques suivantes: il préserve les états stationnaires de l'eau au repos, vérifie une inégalité d'entropie discrète, préserve la positivité de la hauteur de l'eau et reste stable avec des profiles du fond discontinus. Cela est obtenu grâce à une approche cinétique au système; dans ce contexte, on utilise une description formelle du comportement microscopique du système pour définir les flux numériques aux interfaces d'un maillage non-structuré. On utilise aussi le concept de variables conservatives centrées (typique de la méthode des volumes finis) et des termes sources décentrés aux interfaces. Finalement, on présente des simulations numériques du système des équations de Saint-Venant modifiées pour prendre en compte le frottement et la viscosité, afin de retrouver les résultats de certaines études expérimentales. Une application à la modélisation des termes de frottement pour les avalanches de neige est discutée dans l'Appendice.
Style APA, Harvard, Vancouver, ISO itp.
36

Hoang, Tuan-Nghia. "Modélisation du mouvement intersegmentaire in-vivo du rachis cervical". Compiègne, 2008. http://www.theses.fr/2008COMP1786.

Pełny tekst źródła
Streszczenie:
Le rachis cervical est une structure anatomique complexe et compacte du corps humain. Il se compose, anatomiquement, de sept vertèbres, de disques intervertébraux et de systèmes ligamentaires et musculaires. Cette structure assure plusieurs fonctions biomécaniques: il supporte le poids de la tête et maintient sa posture stable; il permet une mobilité importante de la tête; il contient et protège la moelle épinière du système nerveux central. Ce sujet est destiné à l'amélioration de la compréhension du fonctionnement du rachis cervical in-vivo. L'objectif à terme est le diagnostic et la classification des pathologies du cou. Cette étude explicite une méthodologie de modélisation du mouvement intersegmentaire continu de flexion/extension du rachis cervical basée sur des données expérimentales in-vivo. Un protocole expérimental est proposé en utilisant simultanément deux techniques: les images radiographiques et les marqueurs externes du mouvement, ce qui permet l'acquisition couplée des données géométriques et cinématiques. Puis, deux modèles mécaniques du rachis cervical, modèle ostéo-articulaire et modèle musculo-squelettique, sont développés en se basant sur les hypothèses de modélisation. Ces hypothèses sont justifiées et les réponses des modèles sont confrontés avec les données expérimentales in-vivo ainsi la littérature. Les résultats des études permettent la détermination non seulement des paramètres cinématiques, cinétiques associés au mouvement continu de flexion/extension, mais aussi des comportements mécaniques des segments et des composantes du rachis cervical pendant ce mouvement in-vivo
The cervical spine is an anatomical structure complex of the human body. It composes by the seven vertebrae, the intervertebral discs and the system of the ligaments and muscles. This structure assures many of biomechanical functions: it supports and stabilizes the head; it allows the important mobility of the head; it contains and protects the system of spinal cord. The aim of this subject is to ameliorate the understanding of cervical spine functioning in-vivo for the diagnostic and the classification of the neck pathologies. This study is methodology to modelling of the continuous intersegmental motion in flexion/extension of cervical spine based on the experimental data in-vivo. First, an experimental protocol is proposed by using simultaneously two techniques, the X-rays images and the external motion markers, which permits the acquisition combined by the geometrical and kinematical data. Then, two mechanical models, an osteoarticular model and a musculoskeletal model, of the cervical spine are developed by the modelling hypothesis. Finally, the hypothesis are justified and the responses of model are confronted with the experimental data in-vivo also the literature. The results of this study allow determining not only the kinematic and kinetic parameters associated with the continuous motion in flexion/extension, but also the mechanical behaviour of the segments and the components of the cervical spine during this motion in-vivo
Style APA, Harvard, Vancouver, ISO itp.
37

Mbodji, Mamadou. "Conception et dimensionnement de réacteurs-échangeurs microstructurés pour la production de gaz de synthèse par vaporeformage du méthane". Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0256/document.

Pełny tekst źródła
Streszczenie:
L'efficacité globale du procédé de vaporeformage du gaz naturel est affectée par la limitation au transfert thermique au sein du lit catalytique et la génération d'un excès de vapeur d'eau non valorisable. Une des clés possibles pour le rentabiliser davantage consiste à optimiser les transferts thermiques en faisant évoluer le design du réacteur. Un échangeur-réacteur microstructuré a ainsi été retenu. Cet appareil de par la taille submillimétrique de ses canaux permet d'intensifier les transferts de chaleur et de matière. Cependant, la modification de l'architecture traditionnelle oblige à développer de nouveaux catalyseurs (MgAl2O4) déposables dans les microcanaux et permettant d'atteindre conversion élevées (80%, 20 bar, 850°C) à faibles temps de passage (150 ms). La faisabilité du concept et la performance des catalyseurs ont été validées sur un canal dans les conditions industrielles du procédé. Un modèle de réacteur piston hétérogène a été utilisé pour estimer la cinétique de la réaction de reformage. Pour le design de l'échangeur-réacteur, deux approches de modélisation ont été développées en considérant l'équilibre thermodynamique à la surface du catalyseur ou en tenant compte du couplage entre la réaction et les transferts de chaleur et de matière. La simulation de ces modèles a permis de proposer la géométrie des canaux qui correspond au design optimal. Deux méthodologies de design ont été développées ainsi qu'un modèle permettant d'interpréter les résultats expérimentaux en tenant compte de la possibilité du bouchage des canaux. L'échangeur-réacteur fabriqué permet de réduire le coût de production pour une unité fonctionnant sans export de vapeur
Steam Methane Reforming (SMR) of natural gas is characterized by generation of an excess of steam and their low thermal efficiency resulting in a very large device with important heat losses. One of the possible keys to make this process more profitable is to optimize heat transfer by changing the reactor design. A microstructured heat exchanger reactor has been retained. It enables to have fast heat and mass transfers and therefore allow increasing catalytic activity. However, this change in production technology must be accompanied by the development of highly active catalysts (MgAl2O4) that enable to reach high methane conversion (80%, 20 bar, 850°C) at low residence time (150 ms). The concept feasibility and catalysts performance have been validated on one channel in industrial process conditions. Then, a detailed model for acquisition of reaction kinetics has been developed and validated from experimental catalytic tests. For heat exchanger reactor design, two modeling approaches have been developed: by considering that the catalyst is highly active and enables to reach instantaneous equilibrium conversion on the coated catalytic walls of the reactor and by tacking the measured kinetics. Simulation of these models by considering technical constraints on the design enabled to find channel characteristic dimensions, heat power needed and the optimum number of channel which determine the heat exchanger reactor volume. Two fast methods for preliminary design of heat-exchanger reactors have been developed. By using heat exchanger reactor, it is possible to suppress steam excess generation and to reduce syngas production cost
Style APA, Harvard, Vancouver, ISO itp.
38

Kon, Kam King Guillaume. "Revisiting Species Sensitivity Distribution : modelling species variability for the protection of communities". Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10194/document.

Pełny tekst źródła
Streszczenie:
La SSD (Species Sensitivity Distribution) est une méthode utilisée par les scientifiques et les régulateurs de tous les pays pour fixer la concentration sans danger de divers contaminants sources de stress pour l'environnement. Bien que fort répandue, cette approche souffre de diverses faiblesses sur le plan méthodologique, notamment parce qu'elle repose sur une utilisation partielle des données expérimentales. Cette thèse revisite la SSD actuelle en tentant de pallier ce défaut. Dans une première partie, nous présentons une méthodologie pour la prise en compte des données censurées dans la SSD et un outil web permettant d'appliquer cette méthode simplement. Dans une deuxième partie, nous proposons de modéliser l'ensemble de l'information présente dans les données expérimentales pour décrire la réponse d'une communauté exposée à un contaminant. A cet effet, nous développons une approche hiérarchique dans un paradigme bayésien. A partir d'un jeu de données décrivant l'effet de pesticides sur la croissance de diatomées, nous montrons l'intérêt de la méthode dans le cadre de l'appréciation des risques, de par sa prise en compte de la variabilité et de l'incertitude. Dans une troisième partie, nous proposons d'étendre cette approche hiérarchique pour la prise en compte de la dimension temporelle de la réponse. L'objectif de ce développement est d'affranchir autant que possible l'appréciation des risques de sa dépendance à la date de la dernière observation afin d'arriver à une description fine de son évolution et permettre une extrapolation. Cette approche est mise en œuvre à partir d'un modèle toxico-dynamique pour décrire des données d'effet de la salinité sur la survie d'espèces d'eau douce
Species Sensitivity Distribution (SSD) is a method used by scientists and regulators from all over the world to determine the safe concentration for various contaminants stressing the environment. Although ubiquitous, this approach suffers from numerous methodological flaws, notably because it is based on incomplete use of experimental data. This thesis revisits classical SSD, attempting to overcome this shortcoming. First, we present a methodology to include censored data in SSD with a web-tool to apply it easily. Second, we propose to model all the information present in the experimental data to describe the response of a community exposed to a contaminant. To this aim, we develop a hierarchical model within a Bayesian framework. On a dataset describing the effect of pesticides on diatom growth, we illustrate how this method, accounting for variability as well as uncertainty, provides benefits to risk assessment. Third, we extend this hierarchical approach to include the temporal dimension of the community response. The objective of that development is to remove the dependence of risk assessment on the date of the last experimental observation in order to build a precise description of its time evolution and to extrapolate to longer times. This approach is build on a toxico-dynamic model and illustrated on a dataset describing the salinity tolerance of freshwater species
Style APA, Harvard, Vancouver, ISO itp.
39

Haghebaert, Marie. "Outils et méthodes pour la modélisation de la dynamique des écosystèmes microbiens complexes à partir d'observations expérimentales temporelles : application à la dynamique du microbiote intestinal". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASM036.

Pełny tekst źródła
Streszczenie:
Cette thèse est issue du projet Européen Homo.symbiosus qui étudie les transitions d'équilibre des interactions entre l'hôte et son microbiote intestinal. Pour étudier les transitions nous suivons deux directions : la modélisation mécaniste des interactions hôte-microbiote et l'analyse de données temporelles de comptage microbien.Nous avons enrichi et simulé un modèle déterministe de la crypte intestinale grâce au schéma numérique EDK, en étudiant notamment l'impact des différents paramètres en utilisant la méthode des effets élémentaires de Morris. Ce modèle s'est avéré capable de simuler d'une part des états symbiotiques et dysbiotiques des interactions et d'autre part des scénarios de transition.En parallèle, un modèle EDO compartimental du colon inspiré de travaux existants a été développé et couplé au modèle de crypte. La thèse a contribué à l'enrichissement de la modélisation du métabolisme bactérien et à la modélisation de l'immunité innée à l'échelle de la muqueuse intestinale. Une exploration numérique nous a permis d'évaluer l'influence de l'alimentation sur l'état stationnaire du modèle et d'étudier l'effet d'un scénario pathologique en mimant une brèche de la barrière épithéliale.De plus, nous avons développé une approche d'analyse des données microbiennes visant à évaluer la déviation des écosystèmes microbiens subissant une forte perturbation de leur environnement par rapport à un état de référence. Cette méthode, basée sur une classification DMM, permet d'étudier les transitions d'équilibre de l'écosystème dans le cas de données avec peu d'individus et peu de points de temps. Par ailleurs, une méthode de classification de courbes utilisant le modèle SBM a été appliquée pour étudier l'effet de différentes perturbations de l'écosystème microbien, des résultats de cette étude ont pu être utilisés pour enrichir le modèle d'interactions hôte-microbiote
This thesis stems from the European project Homo.symbiosus, which investigates the equilibrium transitions of interactions between the host and its intestinal microbiota. To study these transitions, we pursue two directions: the mechanistic modeling of host-microbiota interactions and the analysis of temporal microbial count data.We enriched and simulated a deterministic model of the intestinal crypt using the EDK numerical scheme, particularly studying the impact of different parameters using the Morris Elementary Effects method. This model proved capable of simulating, on one hand, symbiotic and dysbiotic interaction states and, on the other hand, transition scenarios between states of dysbiosis and symbiosis.In parallel, a compartmental ODE model of the colon, inspired by existing studies, was developed and coupled with the crypt model. The thesis contributed to the enhancement of bacterial metabolism modeling and the modeling of innate immunity at the scale of the intestinal mucosa. A numerical exploration allowed us to assess the influence of diet on the steady state of the model and to study the effect of a pathological scenario by mimicking a breach in the epithelial barrier.Furthermore, we developed an approach to analyze microbial data aimed at assessing the deviation of microbial ecosystems undergoing significant environmental disturbances compared to a reference state. This method, based on DMM classification, enables the study of ecosystem equilibrium transitions in cases with few individuals and few time points. Moreover, a curve classification method using the SBM model was applied to investigate the effects of various disturbances on the microbial ecosystem; the results from this study were used to enrich the host-microbiota interaction model
Style APA, Harvard, Vancouver, ISO itp.
40

Pasquet, Camille. "Evaluation de la biodisponibilité du nickel, cobalt et manganèse dans les poussières de sols ultramafiques et développement d'un outil de bioindication lichénique des poussières émises par les activités minières en Nouvelle Calédonie". Thesis, Nouvelle Calédonie, 2016. http://www.theses.fr/2016NCAL0008/document.

Pełny tekst źródła
Streszczenie:
Les terrains ultramafiques de Nouvelle-Calédonie, riches en Ni, Co, Mn et Cr sont exploités par des mines à ciel ouvert, ce qui génère l'émission de poussières riches en métaux. L'objectif de ce travail est de développer des approches pour estimer le risque environnemental lié aux poussières émises par les mines à ciel ouvert et les usines de traitement du minerai de nickel. L'estimation de la fraction biodisponible des métaux contenus dans deux fractions granulométriques de poussières, celle inférieure à 100 ~m mobilisable par le vent (F<1 OO~m.) et celle susceptible de pénétrer le système respiratoire (PM1 0), a été réalisée par extractions cinétiques à I'EDTA. L'obtention des PM10 a nécessité la mise au point d'une technique de tri par transport des particules dans un tube horizontal grâce à un flux d'azote. Les extractions cinétiques ont permis de discrimtner trois fractions de métaux: rapidement extraite, lentement extraite et non biodisponibles. Les concentrations en métaux potentiellement biodisponibles sont toujours très élevées et la fraction lentement extraite est toujours la plus concentrée. Pour F<1 00 ~m. les constantes cinétiques de la fraction lentement extraite sont plus faibles pour les poussières de sols miniers que celles de sols forestiers. Les poussières issues de sols miniers seraient alors un réservoir en éléments métalliques biodisponibles à plus long terme. La bioindication lichénique avec traitement en données compositionnelles des concentrations en métaux permet de définir un indice de dispersion des poussières. Cette méthodologie pourrait appuyer les réseaux de surveillance de la qualité de l'air en Nouvelle-Calédonie
Bioavailability estimation of nickel, cobalt and manganese in dust from ultramafic soils likely to be mobilized by wind and~eve lopment of a bioindication tool using lichen for dust emitted by mining activities in New Caledonia New Caledonian altered ultramafic soils, particularly rich in Ni, Co, Mn and Cr, are extracted by opencast mines which generale dust rich in metals. The objective of th is work is to develop approaches for environmental risk assessment of dust emitted by opencast mines and nickel ore metallurgical plants. The assessmentof metals' bioavailable fraction from two dust granulometrie size fractions, one less than 100 IJm which is mobilizable by wind (F<1001Jm,) and another one able to penetrate the respiratory system (PM 1 0), has been determined by kinetic extraction with EDT A. The development of a new separation deviee based on particle transport subjected to a nitrogen flux in a horizontal tube has been necessary for PM1 0 segregation. Kinetic extractions le ad to the distinction of th ree metal pools: rapidly labile, less rapidly labile and non-bioavailable. Trace metal potentially bioavailable concentrations were always high and the less rapidly labile pool is always the most concentrated pool. Concerning F<1 001Jm, the less rapidly kinetic constant of the less rapidly labile pool is weaker for mining soils than forest soils. F<1001Jm fractions from mining soils representa more durable reserve in trace metal than the same fraction from forest soils. Bioindication using lichens with compositional data analysis of their metal concentration allow defining an indicator of emission dispersion. This methodology could support air quality monitoring networks in New Caledonia
Style APA, Harvard, Vancouver, ISO itp.
41

Adam, Rémi. "Observation des amas de galaxies par effet Sunyaev-Zel'dovich et de la polarisation du fond diffus cosmologique : de Planck à NIKA". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAY056/document.

Pełny tekst źródła
Streszczenie:
La mesure de la distribution de matière dans l'Univers offre une sonde importante pour la cosmologie. Elle peut être tracée à différentes étapes de la formation des structures en utilisant l'analyse des anisotropies primaires et secondaires du fond diffus cosmologique (CMB). Cette thèse se focalise sur l'analyse des données du satellite Planck et celles de la caméra NIKA installée au sol au télescope de 30 mètres de l'IRAM.La première partie introduit le contexte, en se concentrant sur: 1) l'inflation, qui procure une origine naturelle aux fluctuations de matière observées dans l'Univers; 2) la réionisation, qui correspond au moment où les premières étoiles se forment; 3) les amas de galaxies, qui sont les briques de l'Univers plus récent.La seconde partie se concentre sur la réduction des données de NIKA. Le développement de la chaîne d'analyse, qui permet de passer des données brutes aux cartes astrophysiques, est présenté. Elle est dédiée aux détecteurs à inductance cinétique, nouvellement développés pour la caméra NIKA. Les outils et les simulations utilisés pour caractériser les cartes sont aussi présentés.La troisième partie est dédiée à l'observation et l'analyse des amas de galaxies par effet Sunyaev-Zel'dovich (SZ), i.e. l'interaction Compton inverse entre les photons du CMB et les électrons énergétiques dans les amas. Une fois obtenues, les cartes SZ sont combinées avec des données X afin de mesurer les propriétés thermodynamiques et de matière des amas observés. Les résultats principaux sont: la première observation de l'effet SZ avec des détecteurs à inductance cinétique, la mesure du profil de pression dans un amas à haut redshift (z=0.89), l'étude de la contamination par les sources ponctuelles dans un amas résolu, et la cartographie SZ dans un amas en collision triple.La dernière partie présente l'analyse des données de Planck en polarisation. Les effets systématiques aux grandes échelles angulaires et les outils développés pour les identifier et les corriger y sont discutés. Les données en polarisation aux grandes échelles permettent à la fois de chercher les empreintes des fluctuations quantiques générées pendant l'inflation et de mesurer la réionisation
The measurement of the matter distribution in the Universe provides valuable tests for cosmology. It can be traced at various steps of the formation of structures using the analysis of the primary and secondary anisotropies in the Cosmic Microwave Background (CMB). This thesis focuses on the data analysis of the observations of the Planck satellite and that of the ground-based camera NIKA installed at the IRAM-30m telescope.The first part introduces the context, focussing on: 1) the inflation, which provides a natural origin for the matter fluctuations seen in the Universe; 2) the reionization, which corresponds to the moment when the first stars form; 3) clusters of galaxy, that are the building blocks of the more recent Universe.The second part focuses on the data reduction of the NIKA data. The development of the data reduction pipeline, allowing to go from raw data to maps, is presented. It is dedicated for the newly developed kinetic inductance detectors used by NIKA. Tools and simulations are also constructed to characterize the maps.The third part is dedicated to the observation and the analysis of galaxy clusters through the Sunyaev-Zel'dovich (SZ) effect, i.e. the inverse Compton interaction of CMB photons and free electrons in clusters. Once recovered, the SZ maps are combined to X-ray data to measure the matter content and thermodynamic properties of the observed clusters. The main results are: the first observation of the SZ effect with kinetic inductance detectors, the measurement of the pressure profile of a high redshift cluster ($z=0.89$), the study of point source contamination in a resolved cluster, and the SZ mapping in a triple merger.The last part is dedicated to the analysis of Planck polarization data. In particular, we discuss large angular scale systematics and the tools developed to identify and correct for them. The large scales CMB polarization data allows both to search for the imprint of the quantum fluctuations generated during inflation, and to measure the reionization
Style APA, Harvard, Vancouver, ISO itp.
42

Madon, Michel. "Cellules à enclumes de diamant et microscopie électronique en transmission : étude expérimentale des transformations de phase du manteau terrestre". Paris 6, 1986. http://www.theses.fr/1986PA066123.

Pełny tekst źródła
Streszczenie:
Changements de phase associés aux discontinuités sismiques de 400 et 700km et conséquences sur la rhéologie du manteau. Etude des transitions polymorphiques entre les trois structures alpha , beta et gamma que peut prendre l'olivine et la décomposition de spinelle en pérovskite et magnésiowüstite. Etude réalisée en microscopie électronique en transmission sur des échantillons provenant de météorites choquées ou synthétisées à très haute pression et température dans une cellule à enclume de diamant.
Style APA, Harvard, Vancouver, ISO itp.
43

Hornus, Samuel. "Maintenance de la visibilité d'un point mobile, et applications". Phd thesis, 2006. http://tel.archives-ouvertes.fr/tel-00344930.

Pełny tekst źródła
Streszczenie:
The notion of visibility is central in computer graphics and computational geometry. A visibility computation amounts to determining the shape, or merely the existence of the set of segments in space linking two specified objects without crossing any other. We examine the problem of maintaining the visibility of a moving viewpoint with the aid of a complex describing all the visibility relationships in a scene, at once: the visibility complex.
We take two different approaches to this problem. In one, we show how one can maintain the so-called visibility polyhedron of the moving point, in an exact fashion. We apply a variant of the algorithm to the construction of the visibility complex of a set of disjoint polytopes.
The second approach is motivated by the need to render complex 3D scenes at interactive rates. We propose an algorithm that decomposes a 3D scene into simple cells related together with simple visibility relationships represented as a graph. The scene is drawn as the graph is traversed, allowing pruning to speed up rendering. We also provide an efficient algorithm for real-time rendering of hard shadows.
Style APA, Harvard, Vancouver, ISO itp.
44

Heredia, Ortiz Roberto. "Modélisation toxicocinétique du benzo(a)pyrène et 3-hydroxybenzo(a)pyrène pour l’interprétation des données de surveillance biologique de l’exposition chez les travailleurs". Thèse, 2014. http://hdl.handle.net/1866/11765.

Pełny tekst źródła
Streszczenie:
De nombreux travailleurs sont exposés aux hydrocarbures aromatiques polycycliques (HAP). Le benzo(a)pyrène (BaP) fait partie de ce groupe de polluants. Cette substance a été classée cancérogène reconnu chez l’humain. Pour évaluer l'exposition aux HAP cancérogènes, plusieurs chercheurs ont proposé d’utiliser la mesure du 3-hydroxybenzo(a)pyrène (3-OHBaP) dans l’urine des travailleurs exposés. Dans le cadre du présent projet, deux approches de modélisation ont été développées et appliquées pour permettre une meilleure compréhension de la toxicocinétique du BaP et son biomarqueur d’intérêt actuel, le 3-OHBaP, et pour aider à interpréter les résultats de surveillance biologique. Un modèle toxicocinétique à plusieurs compartiments a été développé sur la base des données préalablement obtenues sur le rat par notre groupe. Selon le modèle, le BaP injecté par voie intraveineuse est rapidement distribué du sang vers les tissus (t½ ≈ 4 h), avec une affinité particulière pour les poumons et les composantes lipidiques des tissus. Le BaP est ensuite distribué vers la peau et le foie. Au foie, le BaP est promptement métabolisé et le 3-OHBaP est formé avec une demi-vie de ≈ 3 h. Le métabolisme pulmonaire du BaP a également été pris en compte, mais sa contribution à la cinétique globale du BaP a été jugée négligeable. Une fois formé, le 3-OHBaP est distribué vers les différents organes presque aussi rapidement que la molécule mère (t½ ≈ 2 h). Le profil temporel du 3-OHBaP dans le rein montre une accumulation transitoire en raison de la différence observée entre le taux d’entrée (t½ = 28 min) et le taux de sortie (t½ = 4,5 h). La clairance totale de 3-OHBaP du corps est principalement gouvernée par le taux de transfert de la bile vers le tractus gastro-intestinal (t½ ≈ 4 h). Le modèle toxicocinétique à plusieurs compartiments a réussi à simuler un ensemble indépendant de profils urinaires publiés sur le 3-OHBaP. Ce modèle toxicocinétique à compartiments s'est avéré utile pour la determination des facteurs biologiques déterminants de la cinétique du BaP et du 3-OHBaP. Par la suite, un modèle pharmacocinétique à base physiologique (PCBP) reproduisant le devenir du BaP et du 3-OHBaP chez le rat a été construit. Les organes (ou tissus) représentés comme des compartiments ont été choisis en fonction de données expérimentales obtenues in vivo chez le rat. Les coefficients de partition, les coefficients de perméabilité, les taux de métabolisation, les paramètres d'excrétion, les fractions absorbées et les taux d'absorption pour différentes voies d’exposition ont été obtenus directement à partir des profils sanguins, tissulaires, urinaires et fécaux du BaP et du 3-OHBaP. Les valeurs de ces derniers paramètres ont été calculées par des procédures Monte-Carlo. Des analyses de sensibilité ont ensuite été réalisées pour s’assurer de la stabilité du modèle et pour établir les paramètres les plus sensibles de la cinétique globale. Cette modélisation a permis d’identifier les facteurs déterminants de la cinétique: 1) la sensibilité élevée des paramètres de la métabolisation hépatique du BaP et du 3-OHBaP ainsi que du taux d'élimination; 2) la forte distribution du BaP dans les poumons par rapport à d'autres tissus; 3) la distribution considérable du BaP dans les tissus adipeux et le foie; 4) la forte distribution du 3-OHBaP dans les reins; 5) le transfert limité du BaP par la diffusion tissulaire dans les poumons; 6) le transfert limité du 3-OHBaP par la diffusion tissulaire dans les poumons, les tissus adipeux et les reins; 7) la recirculation entéro-hépatique significative du 3-OHBaP. Suite à des analyses de qualité des ajustements des équations du modèle aux données observées, les probabilités que les simulations reproduisent les données expérimentales par pur hasard se sont avérées toujours inférieures à 10% pour les quatre voies d’exposition : intraveineuse, orale, cutanée et respiratoire. Nous avons extrapolé les modèles cinétiques du rat à l’humain afin de se doter d’un outil permettant de reconstituer les doses absorbées chez des travailleurs exposés dans diverses industries à partir de mesures de l'évolution temporelle du 3-OHBaP dans leur urine. Les résultats de ces modélisations ont ensuite été comparés à ceux de simulations obtenues avec un modèle toxicocinétique à compartiment unique pour vérifier l’utilité comparative d’un modèle simple et complexe. Les deux types de modèle ont ainsi été construits à partir de profils sanguins, tissulaires, urinaires et fécaux du BaP et du 3-OHBaP sur des rats exposés. Ces données ont été obtenues in vivo par voie intraveineuse, cutanée, respiratoire et orale. Ensuite, les modèles ont été extrapolés à l’humain en tenant compte des déterminants biologiques essentiels des différences cinétiques entre le rat et l’humain. Les résultats ont montré que l'inhalation n'était pas la principale voie d'exposition pour plusieurs travailleurs étudiés. Les valeurs de concentrations de BaP dans l’air utilisées afin de simuler les profils d’excrétion urinaire chez les travailleurs étaient différentes des valeurs de concentrations de BaP mesurées dans l’air. Une exposition au BaP par voie cutanée semblait mieux prédire les profils temporels observés. Finalement, les deux types de modélisation se sont avérés utiles pour reproduire et pour interpréter les données disponibles chez des travailleurs.
Many workers are exposed to polycyclic aromatic hydrocarbons (PAHs). Benzo(a) pyrene (BaP) is part of this group of pollutants. This substance has been classified as a known carcinogen in humans. To assess exposure to carcinogenic PAHs, several researchers have proposed using the measurement of 3-hydroxybenzo(a)pyrene (3-OHBaP) in the urine of exposed workers. In this project, two modeling approaches were developed and applied to enable a better understanding of the toxicokinetics of BaP and its biomarker of current interest, 3-OHBaP, to help interpret the results of biological monitoring. A multi-compartment toxicokinetic model was developed based on the data previously obtained in rats by our group of research. According to the model, BaP injected intravenously is rapidly distributed from blood to tissues (t½ ≈ 4 h), with a particular affinity for lungs and lipid components of tissues. Subsequently, BaP is distributed to the liver and the skin. Once in the liver, BaP is promptly metabolized and 3-OHBaP is formed with a half-life of about 3 h. Pulmonary biotransformation of BaP was also taken into account, but its contribution to the overall kinetics of BaP was considered negligible. Once formed, 3-OHBaP is distributed to various organs almost as fast as the parent compound (t½ ≈ 2 h). An accumulation of 3-OHBaP profile is present in the kidneys because of the difference between the uptake rate (t½ = 28 min) and the ouput rate (t½ = 4.5 h). Total clearance of 3-OHBaP from the blood stream is primarily governed by the rate of transfer of the bile to the gastrointestinal tract (t ½ ≈ 4 h). The multi-compartment toxicokinetic model was able to simulate an independent set of published 3-OHBaP urinary profiles. This toxicokinetic compartmental model has proved useful for the determination of the main biological features of the kinetics of BaP and 3-OHBaP. Thereafter, a physiological pharmacokinetic model (PBPK) reproducing the fate of BaP and 3-OHBaP rats was built. Organs (or tissues) represented as compartments were selected based on experimental data obtained in vivo in rats. Partition coefficients, coefficients of permeability, biotransformation rates, excretion parameters, and absorption fraction for different exposure routes were obtained directly from the profiles of BaP and 3-OHBaP in blood, various tissues and excreta. The values of these parameters were calculated by Monte Carlo procedures. Sensitivity analyses were then performed to ensure the stability of the model and to determine the most sensitive parameters. This modeling has identified the following features: 1) a high sensitivity of hepatic metabolism and elimination rates of BaP and 3-OHBaP; 2) a large distribution of BaP in the lungs compared to other tissues; 3) a considerable distribution of BaP in adipose tissues and liver; 4) a significant distribution of 3-OHBaP in the kidneys; 5) a diffusion-limited transfer of BaP in the lungs, 6) a diffusion-limited transfer of 3-OHBaP in lungs, adipose tissues and kidneys; and 7) a significant entero-hepatic recycling of 3-OHBaP. Following a series of analysis of goodness of fit, the probabilites that the model simulations reproduced the experimental data due to pure chance were always below 10%, for the four routes of exposure: intravenous, oral, dermal and respiratory. Subsequently, we have extrapolated the kinetic models from rats to humans in order reproduce the temporal evolution of 3-OHBaP biomarker of exposure in the urine of workers occupationally expose. Results of these models were then compared to simulations obtained with a single compartment toxicokinetic model to verify the comparative usefulness of simple and complex model. Both types of models have been constructed from blood, tissue, urinary and faecal profiles of BaP and 3-OHBaP in rats. These data were obtained in vivo by intravenous, subcutaneous, oral and respiratory exposure. The models were extrapolated to humans taking into account the essential biological determinants of kinetic differences between rats and humans. Results showed that inhalation was not the primary route of exposure for many workers studied. The values of air concentrations of BaP used to simulate the urinary excretion profiles were different from those measured in the air. Dermal exposure to BaP seemed to better predict the temporal patterns observed. Finally, the two types of modeling have been proved useful to reproduce and to interpret experimental data obtained in workers.
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii