Dissertations / Theses on the topic 'Modèle à base physique'

To see the other types of publications on this topic, follow the link: Modèle à base physique.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèle à base physique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Hosseinzadeh, Atiyeh. "Evaluation d'un modèle à base physique pour l'estimation des flux de sédiments lors des crues soudaines." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSEP025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude évalue la performance d'un modèle hydrologique à base physique, distribué, appelé MARINE, pour la simulation du transport de sédiments en suspension pendant les crues soudaines à l'échelle du bassin versant. Les crues soudaines et intenses peuvent induire une érosion du sol et un transport de sédiments importants, entraînant une perte de sol durable. MARINE permet de prendre en compte la variabilité spatiale des caractéristiques du bassin versant et des précipitations. L'étude est menée sur deux petits bassins versants du sud de la France, la Claduègne en Ardèche (42,3 km2) et Auradé dans le Gers (3,28 km2). MARINE utilise une équation d'advection par l'écoulement moyen pour simuler l'évolution spatio-temporelle de la concentration en sédiments non cohésifs, en prenant en compte des termes sources représentant l'érosion par impact des précipitations et l'érosion par cisaillement.L'étude examine l'influence de divers paramètres sur la simulation de la concentration pendant les crues rapides dans ces bassins versants, y compris : (i) le diamètre médian des particules de sédiments, (ii) la cote de l'interface entre la charge de lit et la charge en suspension, (iii) le coefficient de sensibilité du sol à l'érosion par cisaillement, (iv) le coefficient de sensibilité du sol à l'érosion par impact des gouttes de pluie. Les résultats des analyses de sensibilité appliquées à des crues éclair sélectionnées mettent en évidence la sensibilité du modèle à deux paramètres clés pour les deux bassins versants : le coefficient de sensibilité du sol à l'érosion par cisaillement et le diamètre médian des particules de sédiments. Grâce à l'analyse de sensibilité des paramètres du modèle, les simulations permettent de classer les inondations en deux catégories : les crues dominées par l'érosion par impact des gouttes de pluie et celles dominées par l'érosion par cisaillement. En outre, l'analyse des résultats souligne la nécessité de prendre en compte la variabilité spatiale de la sensibilité du sol à l'érosion en identifiant notamment l'emplacement des sources potentielles de sédiments.Pour évaluer les performances du modèle en matière d'estimation de l'érosion, les résultats sur le bassin versant de la Claduègne sont comparés à deux modèles empiriques largement utilisés, dérivés de l'équation universelle de perte de sol (USLE), à savoir RUSLE et MUSLE. Pour comparer les trois modèles avec MARINE comme référence, une analyse de sensibilité est menée sur le facteur d'occupation du sol intervenant dans MUSLE et RUSLE. Bien que l'érosion simulée par les trois méthodes soit généralement comparable, des variations apparaissent pour les événements dominés par l'érosion par impact des gouttes de pluie, ce qui suggère la nécessité de poursuivre les recherches pour améliorer la modélisation de cette érosion dans le cadre du modèle MARINE.Les simulations du modèle MARINE offrent également la possibilité de générer des cartes d'aléas érosion/déposition qui, combinées à une carte de vulnérabilité, peuvent être utiles aux décideurs et planificateurs environnementaux pour identifier les zones exposées aux risques d'érosion et de dépôt
This study evaluates the performance of a physically-based, distributed hydrological model, called MARINE, for simulating suspended sediment transport during flash floods at the catchment scale. Intense flash floods can induce significant soil erosion and sediment transport, leading to long-lasting soil loss. MARINE takes into account the spatial variability of catchment characteristics and precipitation. The study was carried out on two small catchments in southern France, La Claduègne in Ardèche (42.3 km²) and Auradé in Gers (3.28 km²). MARINE uses a mean-flow advection equation to simulate the spatio-temporal evolution of non-cohesive suspended sediment concentration, taking into account source terms representing raindrop erosion and shear stress erosion.The study examines the impact of various parameters on the simulation of suspended sediment concentration during flash floods in these catchments, including (i) the median diameter of sediment particles, (ii) the location of the interface between bed load and suspended load, (iii) the soil sensitivity coefficient to shear stress erosion, (iv) the soil sensitivity coefficient to raindrop erosion. The results of the sensitivity analyses applied to selected flash flood events highlight the model's sensitivity to two key parameters for both catchments: the soil sensitivity coefficient to shear stress erosion and the median sediment particle diameter. Thanks to the sensitivity analysis of the model parameters, the simulations led to the classification of floods into two categories: those dominated by raindrop erosion and those dominated by shear stress erosion. Analysis of the results also highlights the need to take into account the spatial variability of soil sensitivity to erosion, in particular by identifying the location of potential sources of sediment.To assess the model's performance in estimating erosion, the results for the Claduègne catchment are compared with two widely used empirical models derived from the Universal Soil Loss Equation (USLE), namely RUSLE and MUSLE. To compare the three models with MARINE as a reference, a sensitivity analysis is carried out on the land-use factor involved in MUSLE and RUSLE. Although the erosion simulated by the three methods is generally comparable, variations appear for events dominated by raindrop erosion, suggesting the need for further research to improve raindrop erosion modeling within the MARINE model.MARINE model simulations also offer the possibility of generating erosion/deposition hazard maps which, combined with a vulnerability map, can be useful to environmental decision-makers and planners in identifying areas at risk from erosion and deposition
2

Ben, Salah Fatma. "Modélisation et simulation à base de règles pour la simulation physique." Thesis, Poitiers, 2018. http://www.theses.fr/2018POIT2293.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La simulation physique des objets déformables est au cœur de plusieurs applications dans l’informatique graphique. Dans ce contexte, nous nous intéressons à l’élaboration d’une plate-forme, qui combine le modèle topologique des Cartes Généralisées avec un ou plusieurs modèles mécaniques, pour l’animation physique d’objets maillés déformables, pouvant endurer des transformations topologiques comme des déchirures ou des fractures.Pour offrir un cadre aussi général que possible, nous avons adopté une approche à base de règles de manipulation et de transformation de graphes, telle que proposée par le logiciel JERBOA. Cet environnement offre des possibilités de prototypage rapide de différents modèles mécaniques. Il nous a permis de définir précisément le stockage des informations mécaniques dans la description topologique du maillage et de simuler les déformations en utilisant une base topologique pour le calcul des interactions et l’affectation des forces. Toutes les informations mécaniques sont ainsi stockées dans le modèle topologique, sans recours à une structure auxiliaire.La plate-forme réalisée est générale. Elle permet de simuler des objets 2D ou 3D, avec différents types de maillages, non nécessairement homogènes. Elle permet de simuler différents modèles mécaniques, continus ou discrets, avec des propriétés diverses d’homogénéité et d’isotropie. De plus, différentes solutions d’évolution topologique ont été proposées. Elles impliquent la sélection d’un critère déclenchant les modifications et un type de transformation proprement dit. Notre approche a également permis de réduire les mises à jour du modèle mécanique en cas de déchirure/fracture
The physical simulation of deformable objects is at the core of several computer graphics applications. In this context, we are interested in the creation of a framework, that combines a topological model, namely Generalized Maps, with one or several mechanical models, for the physical animation of deformable meshed objects that can undergo topological modifications such as tearing or fractures.To obtain a general framework, we chose to rely on graph manipulation and transformation rules, proposed by the JERBOA software. This environment provided us with fast prototyping facilities for different mechanical models. It allowed us to precisely define how to store mechanical properties in the topological description of a mesh and simulate its deformation in a topologically-based manner for interaction computation and force distribution. All mechanical properties are stored in the topological model without any external structure.This framework is general. It allows for the simulation of 2D or 3D objects, with different types of meshes, including non homogeneous ones. It also allowed for the simulation of several, continuous or discrete, mechanical models with various properties of homogeneity and isotropy. Furthermore, different methods to simulate topological modifications have been implemented in the framework. They include both the selection of a criterion to trigger topological modifications and a transformation type. Our approach also managed to reduce the number of updates of the mechanical model after tearing / fracture
3

Sillam, Kevin. "Gravure dynamique : visualisation par modèle physique pour l'animation et les réalités virtuelles." Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENS039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le modèle physique masses interactions est puissant pour la simulation de comportements dynamiques très divers et pour la production de mouvements expressifs, riches et d'une grande complexité. En revanche, une difficulté inhérente à ce type de formalisme pour la production d'images animées réside dans le fait que les masses ponctuelles n'ont pas de spatialité ; il est donc difficile de produire des séquences d'images animées par le rendu direct des masses ponctuelles décrivant le mouvement. D'une manière générale, il est donc nécessaire de développer des méthodes qui étendent la spatialité de ces masses ponctuelles pour compléter la chaîne de production d'images animées par modèle physique particulaire. Une méthode, proposée par le laboratoire ICA, répond à ce type de problématique en permettant d'étendre la spatialité des masses ponctuelles en considérant l'interaction physique entre ces masses et un milieu. Il s'agit d'une métaphore du procédé physique de la gravure. Celle ci a permis de produire des images animées convaincantes de divers phénomènes visuels. Nous présentons dans ce document un élargissement de cette méthode notamment au cas 3D, ainsi qu'à de nouveaux comportements. De plus, l'algorithme de cette méthode a été parallélisé, ce qui nous a permis d'obtenir des simulations calculées en temps réel en utilisant la puissance actuelle des cartes graphiques. Afin de maitriser au mieux les possibilités de la méthode, nous avons développé un logiciel comprenant une interface graphique manipulable et interactive permettant de modéliser avec aisance différents comportements. Cette méthode a été intégrée dans des installations interactives artistiques multi-sensorielles fournissant un comportement dynamique riche et configurable, tout en permettant une interaction en temps réel avec le spectateur
Mass – Interaction physical modeling is a powerful formalism for the simulation of various dynamic behaviors and for the production of expressive, rich and complex motions. However, there is an inherent matter of this type of formalism for animation production, which resides on the fact that masses have no spatiality. Thus, it is difficult to produce animation sequences directly from rendering mass point describing the movement. It is then necessary to develop methods that extend the masses spatiality in order to complete the animation process. ICA Laboratory addressed the problem with a method based on the physical simulation of interaction between these masses and a dynamic milieu, according to the metaphor of engraving. We present in this document an extension of this method notably towards 3D and other effects. Besides, the parallel implementation on Graphic Cards (GPU) allowed obtaining real time simulation. An interactive graphical interface was also developed to facilitate the creation of different models. We used this process in multi-sensory interactive art installations for its rich and dynamic ability to create shape from motion and interact in real time with spectators
4

Rousseau, Marine. "Transport préférentiel de particules dans un sol non saturé : de l'expérimentation en colonne lysimétrique à l'élaboration d'un modèle à base physique." Grenoble INPG, 2003. http://www.theses.fr/2003INPG0139.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse est l'élaboration d'un modèle à base physique de transport préférentiel de particules dans un sol structuré. Le modèle développé, KDWP, décrit le transfert de l'eau à l'aide de l'approche des ondes cinématiques dispersives. Le transport et la mobilisation de particules sont décrits par l'équation de convection-dispersion additionnée d'un terme source/puits. Des simulations de pluie sous différentes conditions initiales et aux limites ont été conduites en laboratoire sur des colonnes lysimétriques de sol non remanié prélevées in situ. La majorité des particules lessivées sont des argiles gonflantes et des quartzs très fins. La concentration massique des particules drainées dans les effluents augmente avec l'intensité de la pluie et la teneur en eau initiale du sol. Une forte force ionique associée au cation Mg2+ limite la mobilisation des particules. KDWP permet une reproduction satisfaisante des particulogrammes expérimentaux, excepté à forte intensité.
5

Zammit, Christian. "Analyse et évaluation des paramètres des caractéristiques hydrodynamiques des sols : prédiction par un modèle analytique à base physique à partir de données texturales." Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE10246.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Chevalier, Alexis. "Etude expérimentale, élaboration et modélisation de matériaux composites à base de poudres magnétiques douces." Brest, 1998. https://tel.archives-ouvertes.fr/tel-00484041.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les procedes de depots en couche epaisses, que l'on retrouve dans la mise en uvre des systemes de communications et de detections, sont a l'origine de l'interet croissant pour les materiaux magnetiques composites. Ces materiaux sont obtenus par melange, en proportions variables, d'une ou plusieurs poudres magnetiques choisies en fonction de leurs proprietes originales et de poudres non magnetiques. Ce travail, qui est une etude fondamentale des proprietes magnetiques des materiaux composites, a pour but la modelisation de leur susceptibilite magnetique en champ faible. Le modele que nous proposons pour decrire les proprietes magnetiques de ces materiaux composites est issu, comme la majorite des lois de melanges, d'une theorie de champ moyen. L'interet de ce modele est de presenter une forme analytique compacte qui ne fait intervenir qu'un nombre restreint de parametres dont le sens physique a ete defini dans cette etude. Le premier parametre est la susceptibilite intrinseque x#i, liee aux proprietes magnetiques des constituants du melange. L'etude experimentale, menee sur les composites a base de poudre de ferrites, a permis de montrer le caractere principalement rotationnel de l'aimantation dans les materiaux composites. Le second parametre intervenant dans notre modele est le coefficient effectif de forme n, lie au caractere disperse de la matiere. Il tient compte de maniere globale de l'ensemble des interactions qui dependent a la fois de la forme des particules et de leurs arrangements sous forme d'agregats. Les resultats experimentaux, obtenus sur des poudres de natures differentes, ont permis de valider l'aptitude du modele a predire les comportements de la susceptibilite magnetique des materiaux composites, aussi bien dans le domaine statique que dans celui des hyperfrequences.
7

Gatel, Laura. "Construction et évaluation d'un modèle de transport de contaminants réactif couplé surface-subsurface à l'échelle du versant." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAU001/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'utilisation de pesticides sur les surfaces agricoles conduit à une contamination généralisée des eaux de surface et de subsurface en France. Dans l'attente d'une évolution profonde des pratiques agricoles et d'une baisse durable de l'utilisation des pesticides, il est intéressant de chercher à limiter des transferts des zones agricoles aux zones aquatiques. Pour mieux agir sur les voies de transfert, il est nécessaire d'approfondir les connaissances des processus en jeu et de leurs interactions éventuelles et de tirer au mieux partie des observations du terrain.L'objectif de cette thèse est l'intégration de processus de transferts réactif dans le modèle hydrologique à base physique CATHY (CATchment HYdrology), capable de simuler en 3 dimensions les écoulements de l'eau de façon couplée surface-subsurface et le transport advectif dans des situations variablement saturées. En subsurface, les processus d'adsorption linéaire et de dégradation du premier ordre sont implémentés. Un module de mélange des solutés entre la lame ruisselante et la première couche de sol est ajouté, qui permet de simuler la remobilisation des solutés de la subsurface dans le ruissellement. Le couplage surface-subsurface des écoulement est très efficace dans ce modèle, et le couplage du transport de soluté adoptant la même stratégie a été amélioré pour mieux respecter la conservation de la masse.Le modèle est en premier lieu testé sur des données issues d'expérimentations de transfert de subsurface sur une maquette de laboratoire à petite échelle (2 m de long, o.5 m de large, 1 m de profondeur). Les résultats sont confrontés aux chroniques de flux massiques observées et une analyse de sensibilité de type Morris est menée. Le modèle est capable de reproduire de façon satisfaisante les observations, et très satisfaisante après une légère calibration. Les conductivités à saturation horizontale et verticale, la porosité et le paramètre $n$ de la courbe de rétention influencent de façon non négligeable les résultats hydrodynamiques et de transfert de soluté. Dans un second temps, le modèle est évalué sur les données issus d'un versant viticole réel (0.6 ha) dans un contexte orageux avec de fortes interactions surface-subsurface. Une analyse de sensibilité globale est menée, et met en valeur les mêmes paramètres que la méthode de Morris. Les interactions entre les paramètres influencent fortement la variabilité des sorties hydrodynamiques et de transfert. La conservation de la masse est très correctement assurée malgré la complexité de la simulation.Le modèle auquel on aboutit correspond bien aux objectifs de départ, sa validation est solide, même si elle n'est rigoureusement valable que dans les contextes précis où elle a été réalisée. On a montré que le modèle était robuste et capable de reproduire des données observées. D'autres processus manquent encore pour représenter toutes les voies de transfert à l'échelle du versant, notamment la représentation du transfert préférentiel en subsurface et du transport sédimentaire en surface
Pesticide use on agricultural surfaces leads to a broad surface and subsurface water contamination in France. Awaiting a deep agricultural practices evolution and a sustained fall of the pesticide use, it is of interest to limit transfers form agricultural fields to rivers. In order to constrain those transfers, a deepen knowledge of processes at stake and their potential interactions is necessary, as well as taking full advantages of fields observations.The aim of this PhD is the reactive transfer processes integration in the Hydrological physically-based model CATHY (CATchment HYdrology) which simulates surface-subsurface coupled water flow and advectiv solute transport in three dimensions and in variably saturated situations. Linear adsorption and first order decay are implemented in subsurface. A mixing modules is added, and evens the concentration between surface runoff and subsurface first layer. This module simulates the solute mobilisation from soil to surface runoff. The water flow surface-subsurface coupling procedure is very accurate in CATHY, and the transport coupling procedure is improve in order to respect the mass conservation.The model is first evaluated on subsurface transfer laboratory experimentation data at a small scale (2 m long, o.5 m wide, 1 m deep). Results are compared to mass flux evolution in time and a Morris sensitivity analysis is conducted. The model is able to acceptably reproduce observation, and properly after a slight calibration. Horizontal and vertical saturated conductivities, porosity and the $n$ parameter of retention curve significantly influence hydrodynamics and solute transport. As a second step, the model is evaluated on data from a field wine hillslope on an intense rain event, therefore in a context with a lot of surface-subsurface interactions. A global sensitivity analysis is conducted and highlights same parameters as the Morris method. Interactions between parameters highly influence the variability of hydrodynamic and solute transfer outputs. Mass conservation is accurate despite the complexity of the context.The resulting model meets the objectives, its evaluation is strong even if its theoretically only valid in the precise context in which the evaluations where conducted. The model is robust and able to reproduce observed data. Some complementary processes are still missing in the model to properly represent transfer ways at the hillslope scale, such as subsurface preferential transfers and surface sedimentary transport
8

Berthier, Emmanuel. "Contribution a une modelisation hydrologique a base physique en milieu urbain : elaboration du modele et premiere evaluation." Grenoble INPG, 1999. http://www.theses.fr/1999INPG0038.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les etudes hydrologiques en milieu urbain ont jusqu'a present ete centrees sur la prevision du debit lors d'evenements pluvieux importants. On ne dispose ainsi que d'une vue partielle du comportement d'un bassin versant urbain. Ce comportement apparait comme variable d'un evenement pluvieux a l'autre, variabilite qui reste en partie meconnue et que les modeles actuels ont du mal a reproduire. L'objectif de notre travail est de reduire cette meconnaissance en modelisant de facon detaillee les differents flux d'eau echanges en milieu urbain. Dans une premiere partie, l'elaboration du modele est decrite. Il est base sur une schematisation bidimensionnelle du milieu urbain a l'echelle d'une parcelle cadastrale. Les lois et processus physiques gerant le comportement du systeme sont resolus a l'aide d'un code de calcul par elements finis. Dans une deuxieme partie, l'evaluation du modele qui concerne differentes grandeurs hydrologiques est effectuee sur un petit bassin versant periurbain. Le travail integre le traitement des donnees du site de reze se caracterisant par une acquisition en continu, sur le long terme, de plusieurs grandeurs hydrologiques. La base de donnees ainsi constituee presente un interet certain pour la communaute scientifique. La modelisation a base physique entreprise a permis de prendre en compte l'heterogeneite du milieu urbain et de gerer des conditions aux limites fortement variables. Un controle continu a montre que le modele numerique integrait correctement ces difficultes. Des informations ont ete obtenues sur le comportement hydrologique du bassin versant etudie : i) l'evapotranspiration joue un role important, ii) le comportement d'une voirie est significativement different de celui d'un batiment, iii) la contribution au debit du ruissellement des surfaces naturelles est negligeable, iv) les infiltrations d'eau du sol dans le reseau contribuent au debit en periode hivernale et meme lors d'evenements pluvieux exceptionnels.
9

Tsekpuia, Eyram. "Développement et implémentation numérique d’un modèle d’homogénéisation élastoviscoplastique à base microstructurale pour des aciers inoxydables austéno-ferritiques." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0356.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les aciers inoxydables duplex austéno-ferritiques (AF) moulés sont utilisés dans le circuit primaire des réacteurs à eau pressurisée. Ils offrent une bonne combinaison de propriétés mécaniques et de résistance à la corrosion. Cependant, aux conditions de service (environ 300°C) et pendant de longues durées d'exposition (plus de 10 000 h), ils sont sensibles à la fragilisation par vieillissement thermique principalement due à l'évolution microstructurale de la ferrite. Prévoir finement cette fragilisation du matériau nécessite une bonne estimation des contraintes et des déformations dans les phases est nécessaire. Concernant la microstructure de ce matériau, quatre échelles d'intérêt ont été relevées : les lattes monocristallines de chaque phase (1), les clusters de lattes (2), le grain primaire ferritique appelé « bicristal » (3) et le poly-bicristal représentant l'échelle macroscopique et formé d'un ensemble de grains primaires (4). A la troisième échelle, les deux phases sont bipercolées et tendent à avoir des relations d'orientations cristallographiques proches de celles de Kurdjumov-Sachs (KS), Pitsch et Nishiwama-Wasserman. Cette échelle représente la complexité de la microstructure de ce matériau et le principal défi des transitions d'échelle. Dans ce travail, à l'échelle 1, le comportement des monocristaux pour les deux phases est modélisé à l'aide de la loi de plasticité cristalline de Méric-Cailletaud. Ensuite, à la deuxième échelle, une structure austénite/ferrite lamellaire modélisant la morphologie des clusters de lattes est développée avec des plans d'habitat de type {110} dans la ferrite et une relation d'orientation KS entre les deux phases, en suivant une analyse EBSD. A la troisième échelle, la microstructure du « bicristal », est alors modélisée comme un agrégat de 24 domaines sphériques contenant les structures lamellaires biphasées correspondant aux 24 variants KS. Le schéma auto-cohérent en élastoviscoplasticité est utilisé via la méthode d'homogénéisation à base des champs translatés pour obtenir le comportement homogénéisé à cette échelle. Ici, la même méthode des champs translatés est appliquée à l'échelle macroscopique pour prédire le comportement mécanique du « poly-bicristal ». Aux deux échelles intermédiaires, les données et analyses EBSD sont utilisées pour alimenter physiquement le modèle multi-échelles. Le nouveau modèle rend compte des états de contraintes et de déformation dans la ferrite et dans l'austénite, ainsi que les champs moyens à l'échelle du cluster de lattes et à l'échelle d'un grain ferritique primaire. La stratégie de double transition d'échelle que nous proposons dans ce travail de thèse est donc en meilleure adéquation avec la microstructure complexe des aciers AF au vu des nouvelles données EBSD par rapport aux précédents modèles appliqués au matériau. Ce travail a aussi donné lieu à une implémentation numérique du schéma auto-cohérent en élastoviscoplasticité à base de champs translatés à l'aide du générateur de code MFront pour le calcul de structures dans code_aster, le solveur numérique de EDF R&D
Cast duplex austeno-ferritic stainless steels are used in primary loop of Pressurised Water Reactors. They offer a good combination of mechanical properties and corrosion resistance. However, at service conditions (about 320°C) and during long times of exposure (more than 10 000 h), the ferrite phase embrittles. This is due to a well-known phenomenon called ‘475°C embrittlement'. The mechanical resistance of the material is then strongly affected. A precise prediction of this embrittlement requires a good estimate of the stresses and strains in the phases is necessary. Regarding the microstructure of this material, four scales of interest can be pointed out: monocrystalline laths of each phase (1), the laths clusters (2), a ferritic primary grain called “bicrystal” (3) and “poly-bicrystals” representing the macroscopic scale : agregate of primary grains (4). At the third scale, the two phases are bipercolated and tend to have some crystallographic orientations relationships such as Kurdjumov-Sachs (KS), Pitsch and Nishiwama-Wasserman. This scale represents the complexity of the microstructure of this material and the main challenge for the scale transitions. In this present work, at scale 1, the behavior of single crystals for the two phases is modeled using the Méric-Cailletaud's crystal plasticity law. Then, at the second scale, a laminate austenite/ferrite structure modelling the morphology of the lath clusters (2) is developed with {110}-type habit planes in the ferrite and a KS orientation relationship between the two phases, following EBSD data and analyses. At the third scale, the microstructure of the “bicrystal” corresponding (3), is then modelled as an aggregate of 24 spherical domains containing the two-phase lamellar structures corresponding to the 24 KS variants. The self-consistent (SC) scheme is used via the homogenized translated field (TF) method to obtain the homogenized behavior at this scale. Here, the same method of translated fields is applied to predict the macroscopic mechanical behavior of the poly-bicrystal. At the two intermediate scales, EBSD data and analyses are used to physically feed the multi-scale model. The new model gives the stress and strain states in ferrite and austenite, as well as the average fields in the lath cluster and in the primary ferritic grain. The double scale transition strategy that we propose in this thesis work is then better suited to the complex microstructure of AF steels compared to previous models applied to the material. In this work, the elastoviscoplastic SC scheme based on the TF method has been implemented with the help of the MFront code generator in order to perform finite elements calculations through code_aster, the solver of EDF R&D
10

Jeannot, Benjamin. "Modélisation hydrologique intégrée de bassins versants fortement transitoires : développement d'outils numériques et applications." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAH009/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif du travail de thèse est d'œuvrer au développement et à l’application d’un modèle hydrologique intégré pré-existant (Pan et al., 2015; Weill et al., 2017) : Normally Integrated Model (NIM). La spécificité de ce modèle est d’intégrer l’équation d’écoulement souterrain 3D sur la direction perpendiculaire au substratum, de façon à se ramener à un problème en deux dimensions. Il en résulte un gain substantiel en termes de temps de simulation, et une économie du point de vue de l’espace mémoire requis. Dans le cadre de cette thèse, NIM a été entièrement recodé et optimisé. Un module de ruissellement 2-D a également été implémenté, ce qui a permis d’appliquer le modèle en situations réelles sur deux bassins versants distincts. En sus, la validité des simulations issues de NIM et l'efficacité du modèle en termes de temps de calcul ont été évaluées sur de nombreux cas tests synthétiques
This works aims at contributing to the development and application of a pre-existing integrated hydrological model (Pan et al., 2015; Weill et al., 2017) : Normally Integrated Model (NIM). The specificity of this model is to perform an integration of the 3D groundwater flow equation over the direction perpendicular to the substratum of the aquifer, so that the problem becomes 2D. It results in a substantial gain both in calculation time and required memory. During this thesis, NIM has been fully rewritten and optimized. Besides, a 2D overland flow module has been implemented, which enabled to apply the model in real cases on two distinct watersheds. Furthermore, the validity of NIM simulations and their efficiency as regards computation times have been assessed on numerous synthetic test cases
11

Brogly, Maurice. "Effet des interactions acide-base sur les propriétés de volume et d'interface d'adhésifs thermofusibles modèles." Mulhouse, 1993. http://www.theses.fr/1993MULH0273.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'utilisation des adhésifs thermofusibles formulés en tant que multimatériaux à fort impact industriel, implique qu'une miscibilité thermodynamique, favorable à la manifestation d'un effet de synergie, soit obtenue entre les divers constituants de la formulation. Ainsi, nous avons montré, par spectrométrie infrarouge, sur des formulations binaires modèles copolymère éthylène-co-acétate de vinyle (EVA)/résine terpène-phénol, que la miscibilité est assurée par des interactions intermoléculaires acide-base au sens de Lewis. L'analyse quantitative exhaustive autorise la détermination de la stoechiométrie complète de la réaction acide-base selon la nature et la composition de la formulation et montre que la miscibilité s'exprime en termes de bilan fonctionnel. Les implications morphologiques sur les phases amorphe et cristalline de la formation de tels complexes moléculaires sont étudiées par calorimétrie et microscopie. De plus, une analyse originale par spectrométrie infrarouge de l'interface adhésif/substrat, permet de modéliser les mécanismes d'interaction acide-base entre les diverses formulations et des substrats d'acidobasicité différente. La confrontation de ces résultats avec les énergies de pelage des assemblages résultants, permet la détermination des paramètres fondamentaux de l'adhésion que sont : l'énergie réversible d'adhésion acide-base, l'enthalpie d'interaction acide-base et la densité superficielle de sites d'interaction acide-base. Cette dernière est reliée à la densité volumique de complexes moléculaires, preuve manifeste de la nature synergique du procédé de formulation
12

Abadie, Lana. "Une approche "autonomic" pour la configuration d'une expérience PHE (Physique des Hautes Energies) appliquée à LHCb (Large Hadron Collider beauty)." Paris 6, 2006. http://www.theses.fr/2006PA066329.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Configurer une expérience PHE (Physique des Hautes Energies) devient de plus en plus complexe : le nombre de modules augmente et de nouvelles technologies sont utilisées. Anticiper les fautes d’un software ou d’un hardware nécessite un système de contrôle robuste. Les systèmes autonomes et dynamiques ont été introduits récemment dans le monde PHE afin d’améliorer la robustesse des expériences. L’architecture du système de contrôle de LHCb qui intègre des outils autonomes et dynamiques (autonomique) constitue une innovation. La contribution de cette thèse est l’implémentation d’une architecture 3 tiers « autonomic » permettant de configurer l’expérience LHCb, i. E. Un gigantesque réseau d’équipement. Chaque couche a été testée et validée. Le fonctionnement de l’architecture globale et son intégration dans le système de contrôle ont été validés avec succès.
13

Winkler, Christophe. "Expérimentation d'algorithmes de calcul de radiosité à base d'ondelettes." Vandoeuvre-les-Nancy, INPL, 1998. http://www.theses.fr/1998INPL071N.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La synthèse d'images, par modélisation physique des phénomènes lumineux, est un domaine de recherche très actif depuis un certain nombre d'années. De nombreuses solutions algorithmiques ont été proposées pour parvenir à résoudre l'équation de radiance. Néanmoins, peu de tests ont été effectués pour comparer l'efficacité des différentes approches. Le but de ce mémoire est de comparer certaines solutions parmi les plus efficaces, notamment les approches hiérarchiques à base d'ondelettes, qui permettent de résoudre le problème de l'illumination globale. Dans un premier temps, nous effectuons une étude théorique approfondie de l'équation de radiance, c'est-à-dire des phénomènes physiques aboutissant à cette équation, des solutions mathématiques utilisées pour la résoudre et de leurs conséquences algorithmiques. Puis nous décrivons l'architecture logicielle développée suite à cette analyse, ainsi que les solutions algorithmiques utilisées pour résoudre les différents problèmes rencontrés. Enfin, la comparaison empirique est basée sur un protocole d'expérimentation rigoureux permettant de quantifier les résultats obtenus. Les bases de tests proviennent d'applications réelles, comme l'ingénierie de l'éclairage, l'archéologie ou encore la visite virtuelle de bâtiments. Cela permet de juger de l'efficacité des méthodes de radiosité pour des problèmes réels. Pour finir, nous présentons une extension parallèle de l'algorithme de calcul de radiosité qui permet de tirer parti de la puissance des calculateurs multiprocesseurs.
14

Garambois, Pierre-André. "Etude régionale des crues éclair de l'arc méditerranéen français. Elaboration de méthodologies de transfert à des bassins versants non jaugés." Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0102/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
D’un point de vue climatique la région méditerranéenne est propice aux évènements pluvio-orageux intenses, particulièrement en automne. Ces pluies s’abattent sur des bassins versants escarpés. La promptitude des crues ne laisse qu’un temps très court pour la prévision. L’amplitude de ces crues dépend de la grande variabilité des pluies et des caractéristiques des bassins versants. Les réseaux d'observations ne sont habituellement pas adaptés à ces petites échelles spatiales et l'intensité des événements affecte souvent la fiabilité des données quand elles existent d’où l’existence de bassin non jaugés. La régionalisation en hydrologie s’attache à la détermination de variables hydrologiques aux endroits où ces données manquent. L’objectif de cette thèse est de contribuer à poser les bases d’une méthodologie adaptée à la transposition des paramètres d'un modèle hydrologique distribué dédié aux crues rapides de bassins versants bien instrumentés à des bassins versants non jaugés, et ce sur une large zone d’étude. L’outil utilisé est le modèle hydrologique distribué MARINE [Roux et al., 2011] dont l’une des originalités est de disposer d’un modèle adjoint permettant de mener à bien des calibrations et des analyses de sensibilité spatio-temporelles qui servent à améliorer la compréhension des mécanismes de crue et à l’assimilation de données en temps réel pour la prévision. L’étude des sensibilités du modèle MARINE aborde la compréhension des processus physiques. Une large gamme de comportements hydrologiques est explorée. On met en avant quelques types de comportements des bassins versants pour la région d’étude [Garambois et al., 2012a]. Une sélection des évènements de calibration et une technique de calibration multi évènements aident à l’extraction d’un jeu de paramètres par bassin versant. Ces paramétrisations sont testées sur des évènements de validation. Une méthode de décomposition de la variance des résultats conduit aux sensibilités temporelles du modèle à ses paramètres. Cela permet de mieux appréhender la dynamique des processus physiques rapides en jeu lors de ces crues [Garambois et al., 2012c]. Les paramétrisations retenues sont transférées à l’aide de similarités hydrologiques sur des bassins versants non jaugés, à des fins de prévision opérationnelle
Climate and orography in the Mediterranean region tend to promote intense rainfalls, particularly in autumn. Storms often hit steep catchments. Flood quickness only let a very short time lapse for forecasts. Peak flow intensity depends on the great variability of rainfalls and catchment characteristics. As a matter of facts, observation networks are not adapted to these small space-time scales and event severity often affects data fiability when they exist thus the notion of ungauged catchment emerges. Regionalization in hydrology seeks to determine hydrological variables at locations where these data lack. This work contributes to pose the bases of a methodology adapted to transpose parameterizations of a flash flood dedicated distributed hydrologic model from gauged catchments to ungauged ones, and for a large study area. The MARINE distributed hydrologic model is used [Roux et al., 2011], its originality lies in the automatically differentiated adjoint model able to perform calibrations and spatial-temporal sensitivity analysis, in order to improve understanding in flash flood generating mechanisms and real time data assimilation for hydrometeorological forecasts. MARINE sensitivity analysis addresses the question of physical process understanding. A large panel of hydrologic behaviours is explored. General catchment behaviours are highlighted for the study area [Garambois et al., 2012a]. Selected flood events and a multiple events calibration technique help to extract catchment parameter sets. Those parameterizations are tested on validation events. A variance decomposition method leads to parameter temporal sensitivity analysis. It enables better understanding in catching dynamics of physical processes involved in flash floods formation [Garambois et al., 2012c]. Parameterizations are then transfered from gauged catchments with hydrologic similarity to ungauged ones with a view to develop real time flood forecasting
15

Bardenet, Rémi. "Contributions à l'apprentissage et l'inférence adaptatifs : Applications à l'ajustement d'hyperparamètres et à la physique des astroparticules." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00766107.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les algorithmes d'inférence ou d'optimisation possèdent généralement des hyperparamètres qu'il est nécessaire d'ajuster. Nous nous intéressons ici à l'automatisation de cette étape d'ajustement et considérons différentes méthodes qui y parviennent en apprenant en ligne la structure du problème considéré.La première moitié de cette thèse explore l'ajustement des hyperparamètres en apprentissage artificiel. Après avoir présenté et amélioré le cadre générique de l'optimisation séquentielle à base de modèles (SMBO), nous montrons que SMBO s'applique avec succès à l'ajustement des hyperparamètres de réseaux de neurones profonds. Nous proposons ensuite un algorithme collaboratif d'ajustement qui mime la mémoire qu'ont les humains d'expériences passées avec le même algorithme sur d'autres données.La seconde moitié de cette thèse porte sur les algorithmes MCMC adaptatifs, des algorithmes d'échantillonnage qui explorent des distributions de probabilité souvent complexes en ajustant leurs paramètres internes en ligne. Pour motiver leur étude, nous décrivons d'abord l'observatoire Pierre Auger, une expérience de physique des particules dédiée à l'étude des rayons cosmiques. Nous proposons une première partie du modèle génératif d'Auger et introduisons une procédure d'inférence des paramètres individuels de chaque événement d'Auger qui ne requiert que ce premier modèle. Ensuite, nous remarquons que ce modèle est sujet à un problème connu sous le nom de label switching. Après avoir présenté les solutions existantes, nous proposons AMOR, le premier algorithme MCMC adaptatif doté d'un réétiquetage en ligne qui résout le label switching. Nous présentons une étude empirique et des résultats théoriques de consistance d'AMOR, qui mettent en lumière des liens entre le réétiquetage et la quantification vectorielle.
16

Moliner, Marion. "Effects of lattice distortions on low-dimensional strongly correlated systems." Strasbourg, 2009. https://publication-theses.unistra.fr/public/theses_doctorat/2009/MOLINER_Marion_2009.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l’effet de phonons, dans la limite adiabatique, sur des systèmes de basse dimensionalité fortement corrélés. Dans une première partie, nous considérons uniquement des systèmes de spins classiques (limite grand S). Nous étudions la chaîne de spins frustrés J1 − J2 couplée avec des distorsions du réseau et en présence d’un champ magnétique. Par des méthodes analytiques et numériques (Monte-Carlo), nous montrons que pour une large gamme de couplage spin-réseau un plateau d’aimantation est stabilisé à 1/3 de l’aimantation de saturation. Nous étudions ensuite un réseau frustré à deux dimensions, le réseau de Shastry-Sutherland. Nous trouvons un pseudo-plateau d’aimantation à 1/3 de l’aimantation de saturation à température non-nulle. Nous montrons, via des ondes de spins classiques et des simulations Monte-Carlo, que ce pseudo-plateau est dû à une sélection entropique d’une configuration colinéaire à travers l’effet d’Ordre par le Désordre. Nous obtenons par des simulations Monte-Carlo un diagramme de phase en fonction de la température et du champ appliqué. La seconde partie passe en revue le travail effectué sur la chaîne de Hubbard quart-remplie. Nous considérons des distorsions de Holstein (sur site) et de Peierls. Nous dérivons un Hamiltonien bosonique dans la limite basse énergie en incluant davantage d’harmoniques aux champs fermioniques et montrons que le couplage avec le réseau couple les degrés de liberté de charge et de spin. Nous retrouvons qualitativement les phases tétra et dimérisées qui ont été obtenues dans des travaux numériques antérieurs
This thesis deals with the effects of phonons, in the adiabatic limit, on low-dimensional strongly-correlated systems. In a first part, we focus on spin systems in the classical limit (large S). We study the frustrated J1 − J2 chain coupled with lattice distortions and under an applied magnetic field. By means of analytical and numerical (Monte-Carlo) methods, we show that, for a wide range of the spin-lattice coupling, a magnetization plateau at 1/3 of the saturated magnetization is stabilized. We then study the two-dimensional frustrated Shastry-Sutherland lattice. Amagnetization pseudo-plateau is found at 1/3 of the saturatedmagnetization for nonzero temperature. Classical spin-waves and Monte-Carlo simulations show that this pseudoplateau is due to the entropic selection of a particular collinear configuration through the Order by Disorder effect. By means of Monte-Carlo simulations, we obtain a phase diagram in the planemagnetic field versus temperature. The second part is dedicated to the quarter-filled Hubbard chain. Both Holstein (on-site) and Peierls distortions are considered. We derive a bosonic Hamiltonian in the low-energy limit by means of the bosonization technique. We includemore harmonics in the bosonic expansion of the fermionic fields and showthat the lattice coupling couples the spin and charge degrees of freedom. We qualitatively recover tetramerized and dimerized phases that were obtained in previous numerical works
17

Hong, Yi. "Modélisation distribuée à base physique du transfert hydrologique des polluants routiers de l’échelle locale à l’échelle du quartier." Electronic Thesis or Diss., Paris Est, 2017. http://www.theses.fr/2017PESC1106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement des réseaux séparatifs entraîne le transfert fréquent de polluants urbains vers les milieux récepteurs (plans d’eau, rivières, etc.). La compréhension des processus de production et de lessivage des polluants dans le milieu urbain est pourtant incomplète à l’heure actuelle. Afin de répondre aux questions liées à la gestion des eaux urbaines, l’amélioration des connaissances des processus physiques est nécessaire, tant au niveau des surfaces urbaines que les réseaux d'assainissement. Pour cela, la modélisation du transfert hydrologique des polluants en milieu urbain peut être un outil précieux.Cette thèse a pour objectif de développer et d'analyser des modèles distribués à base physique pour simuler les flux de polluants routiers (Matières En Suspension (MES), Hydrocarbures, Métaux) dans un environnement urbain. Elle s'inscrit dans le cadre du projet ANR "Trafipollu" et bénéficie des résultats expérimentaux mis en œuvre dans ce projet pour la calibration et validation des modèles utilisés. Le travail de thèse s’articule autour de deux échelles de modélisation : l’échelle locale et l’échelle du quartier.A l'échelle locale, le code FullSWOF (volumes finis, schéma numérique d'ordre 2) couplé au modèle d’érosion d'Hairsine and Rose (1992a; 1992b) et des données géographiques très détaillées (résolution spatiale centimétrique) ont été utilisés et adaptés afin d'améliorer nos connaissances des processus physiques du lessivage des polluants sur les surfaces urbaines. La comparaison aux mesures en continu permet d’évaluer la performance d’une modélisation physique pour représenter les variations spatiales et temporelles des processus de transferts des polluants sur les surfaces urbaines. Les analyses des résultats obtenus permettent de constater la prédominance des effets d'arrachement liés à la pluie sur les processus d'entrainement par l'advection sur la majeure partie du bassin versant routier. L’utilisation d’un modèle d’érosion pour modéliser le transport particulaire en zone urbaine est une innovation importante de cette thèse.A l’échelle du quartier, la deuxième étape du travail consiste à coupler séquentiellement le modèle TREX (Velleux, England, et al., 2008) avec le modèle CANOE (Alison, 2005), nommé "TRENOE" plateforme. En changeant différentes options de mise en œuvre et de configurations du modèle, l’adaptation de la précision numérique et l’utilisation de données détaillées d’occupation du sol semblent être les facteurs clés pour une telle modélisation. Par ailleurs, ce couplage a montré des problèmes de fond tels que la modélisation du schéma numérique des flux en surface (seulement dans 4 directions), ainsi que l'utilisation de l'équation USLE pour simuler l'érosion en milieu urbain, ne comprenant pas d’impact des gouttes de pluie pour la modélisation.Pour remédier à ces défauts, la plateforme opensource LISEM-SWMM est développée en couplant le modèle LISEM (De Roo, Wesseling, et al., 1996), modèle d’érosion développé initialement pour le milieu naturel, et le modèle SWMM (Rossman, 2010). Pour la première fois, la modélisation hydrologique s’appuie aussi sur l’utilisation de sorties de modèles atmosphériques pour les dépôts des particules fines (PM10), hydrocarbures et métaux. Les résultats montrent que l’emploi de modèles totalement distribués peut arriver à reproduire de manière très fine les dynamiques des particules, des hydrocarbures et des métaux. Même si à ce stade la plateforme développée nécessite des améliorations pour adapter aux utilisations dans le champ opérationnel, ceci constitue une avancée pour le domaine de modélisation du transfert hydrologique des polluants routiers en milieu urbain
Nowadays, the increasing use of separate stormwater systems causes a frequent transport of urban pollutants into receiving water bodies (lakes, rivers). However, current studies still lack of the knowledge of urban build-up and wash-off processes. In order to address urban management issues, better understanding of physical mechanism is required not only for the urban surfaces, but also for the sewer systems. In this context, the modelling of hydrological transfer of urban pollutants can be a valuable tool.This thesis aims to develop and assess the physically-based and distributed models to simulate the transport of traffic-related pollutants (suspended solids, hydrocarbons, heavy metals) in urban stormwater runoffs. This work is part of the ANR "Trafipollu" project, and benefit from the experimental results for model calibration and validation. The modelling is performed at two scales of the urban environment: at the local scale and at the city district scale.At the local scale of urban environment, the code FullSWOF (second-order finite volume scheme) coupled with Hairsine and Rose model (1992a; 1992b) and detailed monitoring surveys is used to evaluate urban wash-off process. Simulations over different rainfall events represent promising results in reproducing the various dynamics of water flows and particle transfer on the urban surfaces. Spatial analysis of wash-off process reveals that the rainfall-driven impacts are two orders of magnitude higher than flow-drive effects. These findings contribute to a significant improvement in the field of urban wash-off modelling. The application of soil erosion model to the urban context is also an important innovation.At the city district scale, the second step consists of coupling the TREX model (Velleux, England, et al., 2008) and the CANOE model, named "TRENOE" platform. By altering different options of model configurations, the adequate numerical precision and the detailed information of landuse data are identified as the crucial elements for achieving acceptable simulations. Contrarily, the high-resolution topographic data and the common variations of the water flow parameters are not equally significant at the scale of a small urban catchment. Moreover, this coupling showed fundamental problems of the model structure such as the numerical scheme of the overland flow (only 4 directions), and the empirical USLE equations need to be completed by raindrop detachment process.To address these shortcomings, the LISEM - SWMM platform is developed by coupling the open-source LISEM model (De Roo, Wesseling, et al., 1996), which is initially developed for soil erosion simulations, and the SWMM model (Rossman, 2010). For the first time, the hydrological model is also supported by the simulations of atmospheric dry deposits of fine particles (PM10), hydrocarbons and heavy metals. The performance of water flow and TSS simulations are satisfying with the calibrated parameters. Considering the hydrocarbons and heavy metals contents of different particle size classes, simulated event mean concentration of each pollutant is comparable to local in-situ measurements. Although the platform at current stage still needs improvements in order to adapt to the operational applications, the present modelling approach contributes to an innovative technology in the field of modelling of hydrological transfer of the traffic-related pollutants in urban environment
18

Bessière, Hélène. "Assimilation de données variationnelle pour la modélisation hydrologique distribuée des crues à cinétique rapide." Phd thesis, Toulouse, INPT, 2008. https://hal.science/tel-04426689.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans la région Méditerranéenne les crues « éclair » représentent un risque des plus destructeurs ayant coûté la vie à de nombreuses personnes et entraînant des dommages matériels importants ces dernières années. Le groupe HydroEco de l’IMFT (Institut de Mécanique des Fluides de Toulouse) a développé le code MARINE (Modélisation de l'Anticipation du Ruissellement et des Inondations pour des évéNements Extrêmes) qui est un modèle hydrologique distribué à base physique pour la prévision de ce type de crues. Une méthode d'assimilation variationnelle de données, la méthode de l'état adjoint, est implémentée dans le modèle MARINE. Cette méthode considère les paramètres d'entrée comme des variables de contrôle du modèle et les optimise en minimisant les écarts entre les observations et les simulations par l'intermédiaire d'une fonction coût. Le bassin d'étude est le bassin versant du Gardon d'Anduze sur lequel nous disposons d'une base de données d'évènements extrêmes. Une analyse de sensibilité préliminaire permet d'identifier les paramètres les plus sensibles du modèle afin de réduire l'équifinalité. Une première application de la méthode de l'état adjoint est alors utilisée pour la calibration du modèle. Elle permet de tester la validité des hypothèses physiques en évaluant les performances du modèle puis de suggérer des pistes d'amélioration. Un jeu de paramètres consistant, cohérent avec les résultats de simulations utilisant une méthode de Monte Carlo, est alors identifié. Les hydrogrammes de crues obtenus sont compris dans une plage d'incertitude réduite. La seconde application de cette méthode s'intéresse à la prévision des crues par l'emploi de deux stratégies différentes. La première consiste à utiliser les informations à l'exutoire pendant la phase de montée de crue pour prédire ce pic de crue. La seconde consiste à utiliser les observations d'une station intermédiaire à l'amont du bassin pour prédire le débit à l'exutoire. Ces deux stratégies permettent une anticipation du pic de crue de quelques heures, résultat essentiel d'un point de vue opérationnel
Intense flash floods, produced by severe thunderstorms, represent the most destructive hazard in the Mediterranean region. Human lives and properties are increasingly exposed to flood risks. Therefore, there is a clear need to improve real-time monitoring and flood forecasting. The HydroEco research group at IMFT (Institute of Fluid Mechanics of Toulouse) developed the MARINE model (Modélisation de l'Anticipation du Ruissellement et des Inondations pour des évéNements Extrêmes), a distributed physically-based model, in order to forecast this kind of flood. A data assimilation process called the adjoint state method is implemented into the MARINE model. The principle of the adjoint method is to consider input parameters as control variables and optimize them by minimizing a cost function measuring the discrepancy between observations and model simulations. The procedure is tested on the Mediterranean Gardon d'Anduze catchment. A previous sensitivity analysis allows identifying the most sensitive parameters in order to avoid the “non-uniqueness problem” and overparameterization. Then a first application of the adjoint method aims at calibrating the model. The method enables to evaluate the model performance and contributes to either the validation of physical hypothesis or perspectives for the model structure improvements. A consistent set of parameters, in accordance with results achieved with a Monte-Carlo procedure, is then identified and simulated hydrographs are limited into a reduced range of uncertainties. The second application of the method is dedicated to flash flood forecasting. The first strategy employed is to use outlet flow information during the rising flood phase to estimate the peak. The second strategy employed is to use information of intermediate upstream gauging stations to predict the outlet flow. Both strategies allow anticipating, a few hours in advance, the peak which is crucial from an operational point of view
19

Bessière, Hélène. "Assimilation de données variationnelle pour la modélisation hydrologique distribuée des crues à cinétique rapide." Phd thesis, Toulouse, INPT, 2008. http://oatao.univ-toulouse.fr/7761/1/bessiere1.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans la région Méditerranéenne les crues « éclair » représentent un risque des plus destructeurs ayant coûté la vie à de nombreuses personnes et entraînant des dommages matériels importants ces dernières années (Nîmes en 1988, Vaison-la-Romaine en 1992, Aude en 1999, Gard en 2002). Le groupe HydroEco de l'IMFT (Institut de Mécanique des Fluides de Toulouse) a développé le code MARINE (Modélisation de l'Anticipation du Ruissellement et des Inondations pour des évéNements Extrêmes) qui est un modèle hydrologique distribué à base physique pour la prévision de ce type de crues. Une méthode d'assimilation variationnelle de données, la méthode de l'état adjoint, est implémentée dans le modèle MARINE. Cette méthode considère les paramètres d'entrée comme des variables de contrôle du modèle et les optimise en minimisant les écarts entre les observations et les simulations par l'intermédiaire d'une fonction coût. Le bassin d'étude est le bassin versant du Gardon d'Anduze sur lequel nous disposons d'une base de données d'évènements extrêmes. Une analyse de sensibilité préliminaire permet d'identifier les paramètres les plus sensibles du modèle afin de réduire l'équifinalité. Une première application de la méthode de l'état adjoint est alors utilisée pour la calibration du modèle. Elle permet de tester la validité des hypothèses physiques en évaluant les performances du modèle puis de suggérer des pistes d'amélioration. Un jeu de paramètres consistant, cohérent avec les résultats de simulations utilisant une méthode de Monte Carlo, est alors identifié. Les hydrogrammes de crues obtenus sont compris dans une plage d'incertitude réduite. La seconde application de cette méthode s'intéresse à la prévision des crues par l'emploi de deux stratégies différentes. La première consiste à utiliser les informations à l'exutoire pendant la phase de montée de crue pour prédire ce pic de crue. La seconde consiste à utiliser les observations d'une station intermédiaire à l'amont du bassin pour prédire le débit à l'exutoire. Ces deux stratégies permettent une anticipation du pic de crue de quelques heures, résultat essentiel d'un point de vue opérationnel.
20

Hong, Yi. "Modélisation distribuée à base physique du transfert hydrologique des polluants routiers de l’échelle locale à l’échelle du quartier." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1106/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement des réseaux séparatifs entraîne le transfert fréquent de polluants urbains vers les milieux récepteurs (plans d’eau, rivières, etc.). La compréhension des processus de production et de lessivage des polluants dans le milieu urbain est pourtant incomplète à l’heure actuelle. Afin de répondre aux questions liées à la gestion des eaux urbaines, l’amélioration des connaissances des processus physiques est nécessaire, tant au niveau des surfaces urbaines que les réseaux d'assainissement. Pour cela, la modélisation du transfert hydrologique des polluants en milieu urbain peut être un outil précieux.Cette thèse a pour objectif de développer et d'analyser des modèles distribués à base physique pour simuler les flux de polluants routiers (Matières En Suspension (MES), Hydrocarbures, Métaux) dans un environnement urbain. Elle s'inscrit dans le cadre du projet ANR "Trafipollu" et bénéficie des résultats expérimentaux mis en œuvre dans ce projet pour la calibration et validation des modèles utilisés. Le travail de thèse s’articule autour de deux échelles de modélisation : l’échelle locale et l’échelle du quartier.A l'échelle locale, le code FullSWOF (volumes finis, schéma numérique d'ordre 2) couplé au modèle d’érosion d'Hairsine and Rose (1992a; 1992b) et des données géographiques très détaillées (résolution spatiale centimétrique) ont été utilisés et adaptés afin d'améliorer nos connaissances des processus physiques du lessivage des polluants sur les surfaces urbaines. La comparaison aux mesures en continu permet d’évaluer la performance d’une modélisation physique pour représenter les variations spatiales et temporelles des processus de transferts des polluants sur les surfaces urbaines. Les analyses des résultats obtenus permettent de constater la prédominance des effets d'arrachement liés à la pluie sur les processus d'entrainement par l'advection sur la majeure partie du bassin versant routier. L’utilisation d’un modèle d’érosion pour modéliser le transport particulaire en zone urbaine est une innovation importante de cette thèse.A l’échelle du quartier, la deuxième étape du travail consiste à coupler séquentiellement le modèle TREX (Velleux, England, et al., 2008) avec le modèle CANOE (Alison, 2005), nommé "TRENOE" plateforme. En changeant différentes options de mise en œuvre et de configurations du modèle, l’adaptation de la précision numérique et l’utilisation de données détaillées d’occupation du sol semblent être les facteurs clés pour une telle modélisation. Par ailleurs, ce couplage a montré des problèmes de fond tels que la modélisation du schéma numérique des flux en surface (seulement dans 4 directions), ainsi que l'utilisation de l'équation USLE pour simuler l'érosion en milieu urbain, ne comprenant pas d’impact des gouttes de pluie pour la modélisation.Pour remédier à ces défauts, la plateforme opensource LISEM-SWMM est développée en couplant le modèle LISEM (De Roo, Wesseling, et al., 1996), modèle d’érosion développé initialement pour le milieu naturel, et le modèle SWMM (Rossman, 2010). Pour la première fois, la modélisation hydrologique s’appuie aussi sur l’utilisation de sorties de modèles atmosphériques pour les dépôts des particules fines (PM10), hydrocarbures et métaux. Les résultats montrent que l’emploi de modèles totalement distribués peut arriver à reproduire de manière très fine les dynamiques des particules, des hydrocarbures et des métaux. Même si à ce stade la plateforme développée nécessite des améliorations pour adapter aux utilisations dans le champ opérationnel, ceci constitue une avancée pour le domaine de modélisation du transfert hydrologique des polluants routiers en milieu urbain
Nowadays, the increasing use of separate stormwater systems causes a frequent transport of urban pollutants into receiving water bodies (lakes, rivers). However, current studies still lack of the knowledge of urban build-up and wash-off processes. In order to address urban management issues, better understanding of physical mechanism is required not only for the urban surfaces, but also for the sewer systems. In this context, the modelling of hydrological transfer of urban pollutants can be a valuable tool.This thesis aims to develop and assess the physically-based and distributed models to simulate the transport of traffic-related pollutants (suspended solids, hydrocarbons, heavy metals) in urban stormwater runoffs. This work is part of the ANR "Trafipollu" project, and benefit from the experimental results for model calibration and validation. The modelling is performed at two scales of the urban environment: at the local scale and at the city district scale.At the local scale of urban environment, the code FullSWOF (second-order finite volume scheme) coupled with Hairsine and Rose model (1992a; 1992b) and detailed monitoring surveys is used to evaluate urban wash-off process. Simulations over different rainfall events represent promising results in reproducing the various dynamics of water flows and particle transfer on the urban surfaces. Spatial analysis of wash-off process reveals that the rainfall-driven impacts are two orders of magnitude higher than flow-drive effects. These findings contribute to a significant improvement in the field of urban wash-off modelling. The application of soil erosion model to the urban context is also an important innovation.At the city district scale, the second step consists of coupling the TREX model (Velleux, England, et al., 2008) and the CANOE model, named "TRENOE" platform. By altering different options of model configurations, the adequate numerical precision and the detailed information of landuse data are identified as the crucial elements for achieving acceptable simulations. Contrarily, the high-resolution topographic data and the common variations of the water flow parameters are not equally significant at the scale of a small urban catchment. Moreover, this coupling showed fundamental problems of the model structure such as the numerical scheme of the overland flow (only 4 directions), and the empirical USLE equations need to be completed by raindrop detachment process.To address these shortcomings, the LISEM - SWMM platform is developed by coupling the open-source LISEM model (De Roo, Wesseling, et al., 1996), which is initially developed for soil erosion simulations, and the SWMM model (Rossman, 2010). For the first time, the hydrological model is also supported by the simulations of atmospheric dry deposits of fine particles (PM10), hydrocarbons and heavy metals. The performance of water flow and TSS simulations are satisfying with the calibrated parameters. Considering the hydrocarbons and heavy metals contents of different particle size classes, simulated event mean concentration of each pollutant is comparable to local in-situ measurements. Although the platform at current stage still needs improvements in order to adapt to the operational applications, the present modelling approach contributes to an innovative technology in the field of modelling of hydrological transfer of the traffic-related pollutants in urban environment
21

Salze, Paul. "Activité sportive et mobilité quotidienne chez les adolescents : un modèle à bas d'agents pour explorer le rôle du cadre de vie dans les dynamiques socio-spatiales des pratiques." Phd thesis, Université de Strasbourg, 2013. http://tel.archives-ouvertes.fr/tel-00992811.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Inscrite dans le courant de recherches actuelles portant sur les déterminants des comportements en lien avec la santé, cette thèse a pour objectif de contribuer, au travers du développement d'un modèle à base d'agents, à une meilleure connaissance des relations entre le cadre de vie d'adolescents et leurs pratiques d'activité physique. Questionnant les fondements théoriques et empiriques du modèle socio-écologique qui guide la majorité des études actuelles, ce travail a conduit à l'élaboration d'un schéma conceptuel relationnel intégrant les notions de positions et dispositions sociales, ainsi que les liens entre pratiques de mobilité quotidienne et pratiques d'activités situées dans le temps et l'espace géographique. L'implémentation de ce schéma conceptuel a abouti à la réalisation de trois modèles à base d'agents de complexité croissante, dont l'originalité réside dans la non-inclusion explicite d'interactions. Ce travail, bien qu'inachevé en ce quiconcerne l'exploration des propriétés des modèles, a permis de souligner l'intérêt heuristique de la modélisation, permettant d'un côté d'ouvrir de nouvelles perspectives d'analyses, et d'un autre côté, d'offrir un retour sur les données utilisées.
22

Nicolas, André. "Etude de l'Evolution Physico-Chimique du Substrat lors de l'Oxydation à Haute Température des Alliages Modèle Ni-Cr à Faible Teneur en Chrome et de l'Alliage Modèle Ni-16Cr-9Fe." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2012. http://tel.archives-ouvertes.fr/tel-00848591.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail réalisé au cours de cette thèse concerne l'analyse des conséquences de l'oxydation à 950°C des alliages base Ni sur la composition de l'alliage à proximité de l'interface alliage/oxyde. Deux catégories d'alliages ont été analysées : alliages à faible teneur en chrome conduisant à l'oxydation interne et l'alliage chromino-formeur Ni-16Cr-9Fe.Une description complète des mécanismes de l'oxydation interne du chrome est obtenue à partir du développement du modèle analytique de Wagner d'oxydation interne et du développement du modèle numérique de Feulvarch. Ces modèles décrivent l'évolution de l'oxydation interne jusqu'à la transition oxydation interne / oxydation externe à 11 %poids de chrome environ.L'analyse par la spectroscopie d'électrons Auger de l'alliage modèle Ni-16Cr-9Fe à 950°C oxydé pendant 10 heures a permis d'explorer la zone à proximité immédiate de l'interface alliage/oxyde et de déterminer la concentration en chrome à l'interface à 0,5%poids (i.e. dans 20 premiers nanomètres), ce qui est en accord avec le modèle analytique de Wagner d'oxydation en couche compacte. La description des profils de déchromisation et des profils de cavités pour plusieurs temps d'exposition allant de 100h à 5000h a permis de mettre en évidence une corrélation forte entre ces deux phénomènes (même constante parabolique). Pour ces durées d'oxydation les profils de déchromisation présentent un point d'inflexion ce qui se traduit par l'augmentation de la teneur en chrome à l'interface. Les résultats sont interprétés dans le cadre d'un nouveau modèle analytique avec l'hypothèse d'injection des lacunes produites par l'effet Kirkendall au point d'inflexion.
23

Yahia, Jamal Charles. "Validation d'un modèle physique de prévision de la température de surface du revêtement de la chaussée : intégration de données in situ et de prévisions à moyenne échéance pour l'élaboration d'informations en météorologie routière hivernale." Phd thesis, Clermont-Ferrand 2, 2006. https://theses.hal.science/docs/00/68/88/06/PDF/2006CLF21645.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Assurer la sécurité routière et maintenir les autorités en état de circulation est une charge qui incombe aux gestionnaires autoroutiers. Cette charge se voit compliquer en période hivernale par des conditions météorologiques difficiles dont la formation de verglas routier. Pour lutter contre ce fléau, il convient de savoir prévoir la température de la surface du revêtement de la chaussée. Une telle approche notamment mise en place au travers du système PREVIROUTE sur l'autoroute de semi montagne A75, a servi de cadre aux études réalisées au cours de cette thèse. Les études du système PREVIROUTE se sont articulées autour de deux thèmes : l'étude de la sensibilité du système aux variables et paramètres du modèle physique de prévision de la température de surface à 24 heures d'échéance qui le constitue et l'étude des performances de ce système dans différentes conditions afin d'en connaître les limites. L'étude de la sensibilité de la prévision de la température de surface aux variables et aux paramètres du modèle a commencé par la constitution d'une base de données contenant huit années de mesures et de prévisions météorologiques relatives à l'autoroute A75. Ensuite, pour cette étude il a été procédé de deux manières différentes. La première a consisté à faire la relation entre les erreurs sur les variables météorologiques prévisionnelles et celles faites sur les prévitions de la température de surface. La seconde a consisté à apporter des variations volontaires sur les variables et paramètres et d'en observer l'influence sur la prévision de la température de surface. Cette étude a permis de conclure que parmi les paramètres du modèle, seule la diffusivité thermique possède une influence considérable sur le modèle. Quant à ce qui concerne les variables atmosphériques alimentant le modèle, ce sont la température de l'air et la nébulosité qui jouent le rôle le plus important par leur intervention dans le calcul des grandeurs radiatives. Par ailleurs, j'ai évalué en utilisant la base de données constituée, la performance du modèle dans diverses configurations. Il fut ainsi possible de distinguer trois phases de fonctionnement pour ce modèle : une première phase diurne où le modèle fournit des prévisions avec un écart moyen de 2,5°C+-3,2°C, une phase noctrune où le modèle fournit des prévisions avec un écart moyen de -0,1°C+-2,1°C et une phase diurne où le modèle fournit des prévisions avec un écart moyen de -1, 1°C+-3,8°C. J'ai pu constater et démontrer que ces performances étaient inchangées quel que soit le mois de prévision, l'état de la surface de la chaussée ou le lieu géographique ce qui fait du système PREVIROUTE un outil performant pour la prévision de la température de surface spécialement en phase nocturne, phase critique en terme de formation de verglas
24

Yahia, Jamal Charles. "Validation d'un modèle physique de prévision de la température de surface du revêtement de la chaussée : intégration de données in situ et de prévisions à moyenne échéance pour l'élaboration d'informations en météorologie routière hivernale." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2006. http://tel.archives-ouvertes.fr/tel-00688806.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Assurer la sécurité routière et maintenir les autorités en état de circulation est une charge qui incombe aux gestionnaires autoroutiers. Cette charge se voit compliquer en période hivernale par des conditions météorologiques difficiles dont la formation de verglas routier. Pour lutter contre ce fléau, il convient de savoir prévoir la température de la surface du revêtement de la chaussée. Une telle approche notamment mise en place au travers du système PREVIROUTE sur l'autoroute de semi montagne A75, a servi de cadre aux études réalisées au cours de cette thèse. Les études du système PREVIROUTE se sont articulées autour de deux thèmes : l'étude de la sensibilité du système aux variables et paramètres du modèle physique de prévision de la température de surface à 24 heures d'échéance qui le constitue et l'étude des performances de ce système dans différentes conditions afin d'en connaître les limites. L'étude de la sensibilité de la prévision de la température de surface aux variables et aux paramètres du modèle a commencé par la constitution d'une base de données contenant huit années de mesures et de prévisions météorologiques relatives à l'autoroute A75. Ensuite, pour cette étude il a été procédé de deux manières différentes. La première a consisté à faire la relation entre les erreurs sur les variables météorologiques prévisionnelles et celles faites sur les prévitions de la température de surface. La seconde a consisté à apporter des variations volontaires sur les variables et paramètres et d'en observer l'influence sur la prévision de la température de surface. Cette étude a permis de conclure que parmi les paramètres du modèle, seule la diffusivité thermique possède une influence considérable sur le modèle. Quant à ce qui concerne les variables atmosphériques alimentant le modèle, ce sont la température de l'air et la nébulosité qui jouent le rôle le plus important par leur intervention dans le calcul des grandeurs radiatives. Par ailleurs, j'ai évalué en utilisant la base de données constituée, la performance du modèle dans diverses configurations. Il fut ainsi possible de distinguer trois phases de fonctionnement pour ce modèle : une première phase diurne où le modèle fournit des prévisions avec un écart moyen de 2,5°C+-3,2°C, une phase noctrune où le modèle fournit des prévisions avec un écart moyen de -0,1°C+-2,1°C et une phase diurne où le modèle fournit des prévisions avec un écart moyen de -1, 1°C+-3,8°C. J'ai pu constater et démontrer que ces performances étaient inchangées quel que soit le mois de prévision, l'état de la surface de la chaussée ou le lieu géographique ce qui fait du système PREVIROUTE un outil performant pour la prévision de la température de surface spécialement en phase nocturne, phase critique en terme de formation de verglas
25

Bernal, Caroline. "Promotion des comportements actifs chez des enfants d’école primaire issus d’un quartier défavorisé : mise en place et évaluation d’une intervention multi-leviers basée sur le modèle socio-écologique et effets de l’activité physique sur les capacités attentionnelles." Thesis, Pau, 2020. http://www.theses.fr/2020PAUU3056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'une des stratégies les plus prometteuses pour promouvoir l'activité physique (AP) et réduire le temps sédentaire (TS) auprès des enfants est la mise en place d'interventions en milieu scolaire. Cette thèse comportait 4 objectifs principaux : 1) Analyser l'AP et le TS des enfants de 8 à 11 ans à différents moments de la journée en France et en Espagne ; 2) Mettre en place et évaluer l'efficacité d'une intervention multi-leviers en milieu scolaire visant à promouvoir les comportements actifs d’enfants de 6 à 10 ans issus d'un quartier défavorisé; 3) Analyser les expériences vécues par les enseignants au cours de cette intervention ; 4) Explorer les effets de l’AP et de la motricité sur les capacités attentionnelles des enfants. Des effets positifs se sont produits avant l'intervention dans chaque école et ont été maintenus en post intervention (p<0,05). Les capacités attentionnelles étaient prédites par les habiletés motrices, notamment par la coordination du membre supérieur. Ainsi, ce travail fournit de nouvelles orientations dans la promotion des comportements actifs
One of the most promising strategies to promote physical activity (PA) and reduce sedentary time (ST) of the children is the implementation of school-based interventions. This work had 4 main objectives: 1) To analyse PA and ST of 8-to-11 year-old children during different periods of the day in France and in Spain; 2) To construct and evaluate the effectiveness of a duplicated school-based intervention designed to active behaviours of 6-to-10-years-old children of a disadvantaged neighbourhood; 3) To analyse the experiences of the teachers during this intervention; 4) To explore the relationships between PA, motor skills and attentional capacities for children. Positives effects have occurred before the intervention in each school and have been maintained at post-intervention (p<0.05). Attentional capacities were predicted by motors skills, including coordination of the upper limb. Thus, this work provides new directions in the advancement of PA promotion
26

Jaber, Chafic. "Modélisation de haut niveau de systèmes intégrés et estimation de performances : application à une implémentation multi-processeurs de la couche physique d’une station de base LTE." Phd thesis, Paris, Télécom ParisTech, 2011. https://pastel.hal.science/pastel-00673731.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les impressionnantes avancées dans les deux domaines des semiconducteurs et de l’ingénieurie logicielle ont permis aux Système surpuces (System-on-Chip “SoC“) d’intégrer des applications complexes et interdépendantes. Ces progrès vont de pair avec la complexité accrue des systèmes et de leur hétérogénéité. Ainsi, les concepteurs ont été forcé à réévaluer leurs méthodes de conception et d’élever le niveau d’abstraction au niveau système en ciblant la conception de l’ensemble du SoC plutôt que des composants individuels. L’objectif de ce travail de thèse est de fournir aux concepteurs systèmes les moyens nécessaires (au niveau méthodologique et au niveau outils) pour estimer les performances du système et évaluer rapidement les décisions de conception, idéalement très tôt dans le flot de conception. Notre contribution portera sur deux aspects principaux: (1)L’aspect conceptuel: où nous avons défini (en utilisant UML) des concepts de modélisation permettant d’étudier l’effet de la gestion et du partage des ressources sur les performances globales du système (les “noeuds virtuels”). En outre, nous avons introduit le concept de ”Patron de communication” pour la modélisation de l’interaction entre les éléments d’architecture afin d’assurer l’orthogonalisation des concepts de l’exécution et de la communication. (2)L’aspect simulation: Un simulateur en SystemC a été développé pour simuler les modèles UML proposés. L’approche proposée a été appliquée pour la modélisation de la couche physique du protocle LTE sur un DSP muli-core produit par Freescale. La comparaison des résultats de la modélisation avec l'implémentation a prouvé l'efficacité de notre approche
The impressive advances in both fields of semiconductors and software engineering enabled modern System-on-Chip “SoC“ to hostcomplex and interdependent applications. These advances are coupled with higher systems complexity and heterogeneity. Thus, forcing designers to re-evaluate their design methodologies and to raise the level of abstraction to the system level targeting the co-design of the entire SoC rather than just individual components. The objective of this Thesis work is to provide the system designer with means (on the methodology and tools levels) to estimate system’s performances and evaluate rapidly and very early the design decisions in the SoC design flow. Our work provides contributions in two main aspects: (1)On the Conceptual Level, we defined (using the UML meta-modeling concepts) modeling concepts to estimate shared resources impact on system’s overall performances, by introducing the “virtual node” concept for scheduling and shared resources access control. Furthermore, we introduced the ”Communication Pattern” concept for modeling the interaction between architecture elements to ensure the orthogonalization of computation and communication concerns. (2)On the Simulation Level: A SystemC simulator was written to simulate the UML models. Simulation is done at a high level of abstraction and runs faster than real time execution. The usability and capabilities of our approach are shown with an industrial use case. We modeled a Freescale multi-core DSP platform for LTE base stations (LTE stands for Long Term Evolution is the 4G standard for cellular networks). The comparison of modeling results with implementation proved the accuracy of our approach
27

PROVENDIER-AUBOURG, VALERIE. "Bases physiques d'un modele de comportement viscoplastique pour un superalliage base nickel." Paris, ENMP, 1994. http://www.theses.fr/1994ENMP0477.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'alliage n-18 est un alliage base nickel, biphase a phases et ', issu de la metallurgie des poudres. Dote de hautes caracteristiques mecaniques, il est utilise pour la fabrication de disques de turbine. Aujourd'hui, il s'agit en particulier d'identifier et de comprendre le comportement de ce materiau, sollicite fortement aussi bien thermiquement que mecaniquement. Des essais de traction, de relaxation et de fluage effectues a 625c, 650c et 675c ont permis de mettre en evidence le comportement macroscopique de ce materiau. L'essai de relaxation, qui a en outre, la particularite de balayer une large gamme de vitesses de deformation (10#-#9s#-#1 a 10#-#5s#-#1), revele qu'il existe plusieurs domaines de viscosite specifiques, attaches au n-18, domaines qui dependent de la vitesse de deformation plastique et de la contrainte d'ecoulement du materiau. Ces domaines de viscosite peuvent etre caracterises par un volume d'activation v (pente des courbes de relaxation dans un graphe log( #p)=f()) et par des energies d'activation liees aux franchissements des obstacles, en l'occurence les precipites ' (fv de '=55%) par les dislocations. Parallelement des observations au microscope electronique a transmission ont permis d'identifier plusieurs mecanismes fondamentaux de deformation, signatures a l'echelle microstructurale de chaque domaine de viscosite, releve pour le n-18, dans le domaine thermomecanique considere. Une synthese des resultats macroscopiques et microscopiques est alors proposee sous forme d'un modele de comportement viscoplastique pour le n-18, modele phenomenologique construit sur des bases physiques et faisant intervenir une double viscoplasticite, le franchissement thermoactive d'obstacles et une restauration par le temps
28

Mugny, Gabriel. "Simulation et modèles prédictifs pour les nanodispositifs avancés à canaux à base de matériaux alternatifs." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10060/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse a pour but de contribuer au développement d'outils numériques pour la simulation de dispositifs avancés à base de matériaux alternatifs au Si : l’InGaAs et le SiGe. C'est un travail de collaboration entre l'industrie (STMicroelectronics à Crolles) et des instituts de recherche (le CEA à Grenoble et l'IEMN à Lille). La modélisation de dispositifs MOSFET avancés pour des applications de basse puissance est étudiée, grâce à des outils prédictifs, mais efficaces et peu coûteux numériquement, qui peuvent être compatibles avec un environnement industriel. L’étude porte sur différents aspects, tels que i) les propriétés électroniques des matériaux massifs et des nanostructures, avec des outils allant de la méthode des liaisons fortes et des pseudo-potentiels empiriques, à la masse effective ; ii) les propriétés électrostatiques des capacités III-V ; iii) les propriétés de transport (mobilité effective à faible champ et vitesse de saturation) dans les films minces et les nanofils ; iv) la simulation de dispositifs conventionnels planaires FDSOI 14nm en régime linéaire et saturé. Ce travail fait usage d'une large variété d'approches et de modèles différents. Des outils basés sur une approche physique sont développés, permettant d'améliorer la capacité prédictive des modèles TCAD conventionnels, pour la modélisation des dispositifs nanoscopiques à courte longueur de grille et à base de matériaux SiGe ou InGaAs
This PhD work aims at contributing to the development of numerical tools for advanced device simulation including alternative materials (InGaAs and SiGe). It is a collaboration work, between the industry (STMicroelectronics--Crolles) and research institutes (CEA--Grenoble and IEMN--Lille). The modeling of advanced low-power MOSFET devices is investigated with predictive, but efficient tools, that can be compatibles with an industrial TCAD framework. The study includes different aspects, such as: i) the electronic properties of bulk materials and nanostructures, with tools ranging from atomistic tight-binding and empirical pseudo-potential to effective mass model; ii) the electrostatic properties of III-V Ultra-Thin Body and bulk MOSCAPs; iii) the transport properties (low-field effective mobility and saturation velocity) of thin films and nanowires; iv) the simulation of template 14nm FDSOI devices in linear and saturation regime. This work makes use of a broad variety of approaches, models and techniques. Physical-based tools are developed, allowing to improve the predictive power of TCAD models for advanced devices with short-channel length and alternative channel materials
29

Beaufort, Aurélien. "Modélisation physique de la température des cours d'eau à l'échelle régionale : application au bassin versant de la Loire." Thesis, Tours, 2015. http://www.theses.fr/2015TOUR4003/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude correspond au développement de deux approches de modélisation à base physique basées sur le concept de température d’équilibre pour simuler la température des cours d’eau à l’échelle du bassin de la Loire (105 km²). La performance de ces deux approches de modélisation est analysée via des chroniques horaires issues du réseau national thermique associé aux cours d’eau (RNT), mis en place par l’ONEMA en 2008. Une première partie est consacrée à l’étude de l’approche de modélisation stationnelle qui résout un bilan énergétique à l’échelle de la station. Cette approche a été testée selon une discrétisation simplifiée par ordre de Strahler puis selon une discrétisation à l’échelle du tronçon hydrographique. Elles simulent avec une très bonne précision la température horaire et journalière pour les grands cours d’eau où l’influence des conditions aux limites amont devient limitée. Une seconde approche dite « par propagation » basée sur une topologie de réseau est développée dans le but d’intégrer, à haute résolution spatiale et temporelle la propagation du signal thermique de l’amont vers l’aval des cours d’eau à une échelle régionale ce qui améliore la performance sur les cours d’eau situés en amont et de bien restituer la dynamique des profils thermiques longitudinaux des grands cours d’eau
This work corresponds to the development of two physically based modeling approaches based on the equilibrium temperature concept to simulate the stream temperature at the Loire basin scale (105 km²). The performances of these two approaches are analyzed with hourly temperatures provided by the national thermal network associated with rivers (RNT), set up by the ONEMA in 2008. A first part focuses on the study of the 0D approach which solves the heat budget at the local scale. This approach has been tested with a simplified discretization by Strahler order and then with a discretization at the hydrographical reach scale. They simulated accurately hourly and daily temperatures for large rivers where the upstream influence becomes limited. The second part focuses on the approach by propagation based on a network topology in order to integrate the upstream-downstream propagation of the thermal signal with high spatial and temporal resolution at a regional scale which improves performances of rivers located near headwaters and to well reproduces the dynamics of longitudinal thermal profiles for large rivers
30

Esper, Alexandre. "Etude et réductiοn des dérives en température aux basses fréquences des magnétοmètres à haute sensibilité à base de Μagnetο-Ιmpédance Géante (ΜΙG) : réduction des fluctuations l'offset en température." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMC247.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'effet Magnéto-Impédance Géante (MIG) se manifeste par une forte variation de l’impédance d’un conducteur ferromagnétique parcouru par un courant alternatif et soumis à un champ magnétique variable. Ces dernières années, de nombreuses activités de recherches ont porté sur l'accroissement de la sensibilité en champ de ces dispositifs. Les valeurs atteintes aujourd’hui permettent de réaliser un magnétomètre à très haute sensibilité. Cependant, peu d’études se sont intéressées aux effets de la variation de la température de MIG et à sa stabilité à long terme. Mon travail de thèse présente une étude détaillée de la sensibilité en température des magnétomètres MIG et des méthodes permettant de s’affranchir des fluctuations induites par la variation de cette température. Sur la base d’un modèle théorique, une étude analytique des fluctuations d’offset engendrées par les variations de température a été réalisée. Ce modèle prend notamment en compte les principaux mécanismes mis en jeu : supposés être la perméabilité magnétique et la résistivité électrique. À partir de cette modélisation, une technique de compensation pour les différents modes de fonctionnement a été proposée. Un prototype de magnétomètre basé sur un micro-fil MIG off-diagonal a été mis en œuvre afin de vérifier l’efficacité de la méthode proposée. Cette dernière met principalement en œuvre une double modulation en courant de l’élément sensible. Les résultats expérimentaux ont été comparés à la configuration classique (simple modulation) et aux valeurs attendues. Ils montrent d’une part l'efficacité de cette technique et d’autre part la cohérence des résultats obtenus. Soit une réduction importante des fluctuations d’offset en température, notamment aux très très basses fréquences (< 10-3 Hz) avec une dérive de -1,8 nT/K pour une variation en température de 24 K et une dérive de 130 pT/h sur 12 heures d’acquisition
The Giant Magneto-Impedance (GMI) effect is manifested by a strong variation in the impedance of a ferromagnetic conductor when an alternating current flows through it and it is submitted simultaneously to a variable magnetic field. Over the last few years, numerous research activities have been devoted to improving the field sensitivity of these devices. The values reached today make it possible to produce a very high sensitive magnetometer. However, only a few studies have investigated the temperature effects on the GMI material and its long-term stability. My thesis presents a detailed study of the temperature sensitivity of GMI magnetometers, and we proposed some methods to remedy the fluctuations induced by the temperature variation. Based on a theoretical model, an analytic study of the offset fluctuations generated by the temperature variations was carried out. This model takes into account the physic mechanisms involved when a temperature variation occurs, supposed to be the magnetic permeability and the electrical resistivity. From this modeling, a compensation technique for the different modes of operation has been proposed. Subsequently, a magnetometer prototype based on off-diagonal GMI wire was implemented to verify the effectiveness of the proposed method. The latter injects a double current modulation in the GMI sensitive element. The experimental results were compared to the classical configuration (simple modulation) and to the expected values. They show, on the one hand, the efficiency of this technique and, on the other hand, the coherence of the obtained results. A significant reduction in the GMI offset drift depending on temperature has been achieved, especially at very very low frequencies (< 10- 3 Hz) with a drift of - 1.8 nT/K for a temperature variation of 24 K, and a drift of 130 pT/h over 12 hours of acquisition
31

Bardenet, Rémi. "Towards adaptive learning and inference : applications to hyperparameter tuning and astroparticle physics." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112307.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les algorithmes d'inférence ou d'optimisation possèdent généralement des hyperparamètres qu'il est nécessaire d'ajuster. Nous nous intéressons ici à l'automatisation de cette étape d'ajustement et considérons différentes méthodes qui y parviennent en apprenant en ligne la structure du problème considéré.La première moitié de cette thèse explore l'ajustement des hyperparamètres en apprentissage artificiel. Après avoir présenté et amélioré le cadre générique de l'optimisation séquentielle à base de modèles (SMBO), nous montrons que SMBO s'applique avec succès à l'ajustement des hyperparamètres de réseaux de neurones profonds. Nous proposons ensuite un algorithme collaboratif d'ajustement qui mime la mémoire qu'ont les humains d'expériences passées avec le même algorithme sur d'autres données.La seconde moitié de cette thèse porte sur les algorithmes MCMC adaptatifs, des algorithmes d'échantillonnage qui explorent des distributions de probabilité souvent complexes en ajustant leurs paramètres internes en ligne. Pour motiver leur étude, nous décrivons d'abord l'observatoire Pierre Auger, une expérience de physique des particules dédiée à l'étude des rayons cosmiques. Nous proposons une première partie du modèle génératif d'Auger et introduisons une procédure d'inférence des paramètres individuels de chaque événement d'Auger qui ne requiert que ce premier modèle. Ensuite, nous remarquons que ce modèle est sujet à un problème connu sous le nom de label switching. Après avoir présenté les solutions existantes, nous proposons AMOR, le premier algorithme MCMC adaptatif doté d'un réétiquetage en ligne qui résout le label switching. Nous présentons une étude empirique et des résultats théoriques de consistance d'AMOR, qui mettent en lumière des liens entre le réétiquetage et la quantification vectorielle
Inference and optimization algorithms usually have hyperparameters that require to be tuned in order to achieve efficiency. We consider here different approaches to efficiently automatize the hyperparameter tuning step by learning online the structure of the addressed problem. The first half of this thesis is devoted to hyperparameter tuning in machine learning. After presenting and improving the generic sequential model-based optimization (SMBO) framework, we show that SMBO successfully applies to the task of tuning the numerous hyperparameters of deep belief networks. We then propose an algorithm that performs tuning across datasets, mimicking the memory that humans have of past experiments with the same algorithm on different datasets. The second half of this thesis deals with adaptive Markov chain Monte Carlo (MCMC) algorithms, sampling-based algorithms that explore complex probability distributions while self-tuning their internal parameters on the fly. We start by describing the Pierre Auger observatory, a large-scale particle physics experiment dedicated to the observation of atmospheric showers triggered by cosmic rays. The models involved in the analysis of Auger data motivated our study of adaptive MCMC. We derive the first part of the Auger generative model and introduce a procedure to perform inference on shower parameters that requires only this bottom part. Our model inherently suffers from label switching, a common difficulty in MCMC inference, which makes marginal inference useless because of redundant modes of the target distribution. After reviewing existing solutions to label switching, we propose AMOR, the first adaptive MCMC algorithm with online relabeling. We give both an empirical and theoretical study of AMOR, unveiling interesting links between relabeling algorithms and vector quantization
32

Arnoux, Michaël. "Etude du comportement en fluage à haute température du superalliage monocristallin à base de nickel MCNG : Effet d'une surchauffe." Phd thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aéronautique, 2009. http://tel.archives-ouvertes.fr/tel-00445811.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En cours de vol, les hélicoptères bi-turbines peuvent subir un régime d'urgence OEI : un moteur s'arrête, alors que le moteur qui reste en fonctionnement connaît une augmentation de température. Cette problématique a motivé l'étude du comportement en fluage anisotherme du superalliage monocristallin MCNG afin que soient appréhendés les impacts d'une surchauffe à 1200°C sous charge sur son comportement en fluage à 1050°C. Suite à la séquence standard de traitements thermiques, des ségrégations chimiques persistent dans la structure dendritique du MCNG. En particulier, l'élément Re présente la plus grande disparité de concentration : il est majoritairement ségrégé dans les dendrites. Ces disparités de composition engendrent des différences de propriétés physiques et mécaniques (taille de précipitation, misfit, dureté), ainsi que des différences de comportement de la microstructure γ/γ' lors des expositions à haute température avec ou sans chargement mécanique appliqué. En particulier, le misfit plus élevé dans les dendrites, ainsi que la taille de précipitation plus faible, favorisent la dissolution de la phase γ' dans ces zones lors de maintiens à 1250°C. En fluage à 1050°C / 140 MPa, le misfit plus élevé dans les zones dendritiques est à l'origine de la mise en radeaux plus rapide dans ces régions alors qu'après la mise en radeaux, l'évolution de la microstructure γ/γ' est plus marquée dans les zones interdendritiques (déformation locale de γ, désorientation des interfaces γ/γ', épaississement du γ' et inversion topologique). Lors du fluage isotherme à 1050°C / 140 MPa, condition sur laquelle est simulée une surchauffe OEI, le stade tertiaire de fluage couvre 60% de la durée de vie du matériau. Ce comportement macroscopique particulier est attribué à la déstabilisation précoce de la microstructure γ/γ'. Après une surchauffe OEI, le MCNG présente une vitesse de déformation de fluage accrue qui conduit à un abattement de la durée de vie par rapport à la condition de fluage isotherme. Les observations microstructurales montrent qu'un OEI accélère la déstabilisation de la microstructure γ/γ' par rapport à l'isotherme, ce qui précipite le déclenchement du stade tertiaire de déformation. Le comportement du MCNG en fluage isotherme et anisotherme a été modélisé sur la base d'une loi de comportement viscoplastique de type Chaboche, dans laquelle ont été introduites de nouvelles variables internes capables de prendre en compte les évolutions microstructurales.
33

Brun, Yannis. "Corrélations dans les systèmes quantiques inhomogènes à une dimension." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0094.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Si les systèmes quantiques à une dimension ont longtemps été vus comme de simples modèle-jouets, bon nombre sont à présent réalisés dans les expériences d’atomes ultra-froids. Dans ces expériences, le potentiel de confinement du gaz induit nécessairement une inhomogénéité spatiale. Cette inhomogénéité brise l'invariance par translation qui joue un rôle clé dans les solutions analytiques, notamment celle de l'Ansatz de Bethe. On propose dans cette thèse de développer une théorie des champs effective à même de caractériser ces gaz quantiques inhomogènes, en généralisant la théorie du liquide de Luttinger. Dans ces conditions la métrique de l'action effective est courbe. Sous une hypothèse de séparation des échelles, les paramètres de l'action peuvent néanmoins être fixés par les solutions de l'Ansatz de Bethe. Le problème peut alors se ramener au cas d'un espace plat en faisant appel aux théories conformes. On est ainsi amené à résoudre le champ libre gaussien inhomogène, qui donne accès à toutes les fonctions de corrélations du modèle considéré. Dans cette thèse, on s'intéresse plus particulièrement au modèle de Lieb-Liniger. Les résultats obtenus sont comparés au système simulé par DMRG
One-dimensional quantum systems have long been seen as simple toy-models but are nowadays often realized in ultracold atoms experiments. In those experiments the confining potential creates a spatial inhomogeneity. This breaks the translation invariance which plays a key role in exact analytical solutions as the Bethe Ansatz. In this thesis, we propose an effective theory generalizing the Luttinger liquid approach for inhomogeneous systems. In this setup, the effective action lives in curved space. However, making the hypothesis of separation of scales allow to compute the action's parameters by using Bethe Ansatz. The problem can then be solved in flat space by using tools from conformal theory. This leads us to solving the inhomogeneous gaussian free field that gives access to all correlation functions of the model under investigation. Here we focus on the Lieb-Liniger model. Our results are tested against DMRG simulations
34

Nafa, Lila. "Etude de diodes lasers à base de GaAsSb/GAInAs/GaAs sur substrat de GaAs pour une émission à 1,3 "mu"m." Montpellier 2, 2000. http://www.theses.fr/2000MON20071.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de these porte sur l'etude d'un systeme de materiaux innovants a base de gaassb/gainas/gaas sur substrat de gaas, en vue de la realisation de lasers emettant a 1,3 m. Nous avons d'abord montre a partir de mesures de photoluminescence et de photovoltage, que la discontinuite de bandes a l'interface gaassb/gaas etait de type ii (qv = 1,35). Sur la base de ce resultat, nous avons propose deux structures lasers a double puits quantiques gaassb/gainas et barriere de gaas, l'une asymetrique, l'autre symetrique, capables d'emettre a 1,3 m. Ces structures lasers ont ete realisees par epitaxie par jets moleculaires au cnet de bagneux. L'emission stimulee a ete obtenue a temperature ambiante sur des diodes laser ridge. Malheureusement, la longueur d'onde d'emission etait inferieure a 1,2 m, ce qui correspond a une transition entre niveaux quantiques excites. Le calcul du gain optique dans les deux types de structures, montre que la transition fondamentale a 1,3 m, peut neanmoins etre obtenue sur des lasers a plusieurs puits quantiques (n w = 3) et a faibles pertes (<10 cm - 1).
35

Babataheri, Avin. "Cils artificiels : modèle physique pour la propulsion ciliée." Phd thesis, Paris 6, 2009. http://pastel.archives-ouvertes.fr/pastel-00566532.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nombreux micro-organismes vivants se propulsent en utilisant des cils ou des flagelles. Cette nage à petit nombre de Reynolds a fait l'objet de nombreuses études théoriques et expérimentales sur les organismes vivants. Toutefois il existe très peu de modèles physiques expérimentaux. Nous décrivons ici la construction des cils artificiels microscopiques actionnés par un champ magnétique. Ces cils artificiels ont en commun avec les cils réels un très grand allongement, une grande flexibilité et un mode d'actuation par couple réparti. Nous avons étudié les dynamiques de battement (planaire et tridimensionnel) de ces cils magnétiques. Nous avons également caractérisé les forces et les écoulements qu'ils induisent dans le fluide environnant.
36

Brun, Yannis. "Corrélations dans les systèmes quantiques inhomogènes à une dimension." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0094/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Si les systèmes quantiques à une dimension ont longtemps été vus comme de simples modèle-jouets, bon nombre sont à présent réalisés dans les expériences d’atomes ultra-froids. Dans ces expériences, le potentiel de confinement du gaz induit nécessairement une inhomogénéité spatiale. Cette inhomogénéité brise l'invariance par translation qui joue un rôle clé dans les solutions analytiques, notamment celle de l'Ansatz de Bethe. On propose dans cette thèse de développer une théorie des champs effective à même de caractériser ces gaz quantiques inhomogènes, en généralisant la théorie du liquide de Luttinger. Dans ces conditions la métrique de l'action effective est courbe. Sous une hypothèse de séparation des échelles, les paramètres de l'action peuvent néanmoins être fixés par les solutions de l'Ansatz de Bethe. Le problème peut alors se ramener au cas d'un espace plat en faisant appel aux théories conformes. On est ainsi amené à résoudre le champ libre gaussien inhomogène, qui donne accès à toutes les fonctions de corrélations du modèle considéré. Dans cette thèse, on s'intéresse plus particulièrement au modèle de Lieb-Liniger. Les résultats obtenus sont comparés au système simulé par DMRG
One-dimensional quantum systems have long been seen as simple toy-models but are nowadays often realized in ultracold atoms experiments. In those experiments the confining potential creates a spatial inhomogeneity. This breaks the translation invariance which plays a key role in exact analytical solutions as the Bethe Ansatz. In this thesis, we propose an effective theory generalizing the Luttinger liquid approach for inhomogeneous systems. In this setup, the effective action lives in curved space. However, making the hypothesis of separation of scales allow to compute the action's parameters by using Bethe Ansatz. The problem can then be solved in flat space by using tools from conformal theory. This leads us to solving the inhomogeneous gaussian free field that gives access to all correlation functions of the model under investigation. Here we focus on the Lieb-Liniger model. Our results are tested against DMRG simulations
37

Duc, Nguyen Manh. "Approche électronique de l'ordre local dans les alliages à base de métaux de transition." Grenoble 1, 1986. http://www.theses.fr/1986GRE10072.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Modèle de calcul de l'énergie électronique des alliages à base de métaux de transition. Ce modèle est base sur un hamiltonien de liaisons fortes et prend en compte les effets d'hybridation s-d. Calcul de la densité d'états électroniques et des énergies de cohésion. Pour les alliages amorphes de deux métaux de transition, un ordre chimique local est établi. Conséquences sur la densité d'états électronique. Corrélation entre structure électronique et coefficient de hall. Mise en évidence d'une forte hybridation sp-d pour les alliages entre métaux de transition et métaux polyvalents
38

L'Huillier, Clement. "Etude de l'impact de supplémentations en acides aminés dans un modèle murin d'anorexie associé à une activité physique. Glutamine, but not branched-chain amino acids, restores intestinal barrier function during activity-based anorexia Influence of glutamine and branched-chain amino acids supplementation during refeeding in activity-based anorectic mice." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR123.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’anorexie mentale est un trouble majeur du comportement alimentaire décrit dans le DSM-V affectant en majorité les femmes et se caractérisant principalement par une réduction sévère de l’apport calorique. Elle est fréquemment associée à des troubles anxiodépressifs, une hyperactivité physique ainsi qu’à des troubles fonctionnels digestifs (TFI). Bien que sa prévalence soit faible, il s’agit de la pathologie mentale avec le plus fort taux de mortalité et un risque de rechute très élevé. Le but de cette thèse était de vérifier l’efficacité d’une supplémentation orale en acides aminés tels que la glutamine (Gln) et les acides aminés branchés (BCAA) dans un modèle murin activity-based anorexia (ABA). Ce dernier possède des caractéristiques très proches de ce qui est observé en clinique comme une perte de poids importante, une hyperactivité physique et une augmentation du temps de vidange gastrique. Chez les souris ABA, une supplémentation orale de sept jours en Gln a permis de restaurer, dans le colon, la perméabilité paracellulaire, la synthèse protéique totale et le taux en ARNm codant pour la mucine-2. En revanche, aucun effet bénéfique n’a été trouvé pour les BCAA qui semblaient même diminuer la synthèse protéique colique totale. Le poids et la composition corporelle n’ont pas été affectés par la Gln ou les BCAA, peut-être en raison d’un apport calorique trop faible. Pour vérifier cette hypothèse, après induction de l’anorexie par le modèle ABA, nous avons choisi de combiner une renutrition progressive avec une supplémentation en Gln ou en BCAA. La renutrition a restauré partiellement le poids et la masse maigre des souris ABA avec un rebond de masse grasse mais la Gln n’a montré aucun effet supplémentaire. En revanche, les BCAA tendaient à augmenter légèrement le regain de masse grasse, et donc le poids, par rapport à la renutrition. Les animaux ABA renourris ont retrouvé une leptinémie normale, sans effet des supplémentations, alors que seule la Gln a restauré le taux en triglycérides plasmatiques. Les BCAA, quant à eux, tendaient à augmenter la glycémie et la cholestérolémie. Les effets bénéfiques de la Gln observés dans le colon dans l’étude précédente ont été confirmés. La Gln a montré des effets supérieurs à la renutrition seule sur la restauration de la synthèse protéique totale, via la phosphorylation de la p70S6kinase, et l’expression de protéines des jonctions serrées telles que la claudine-1 et l’occludine. En revanche, les BCAA semblaient atténuer, voire supprimer, les effets bénéfiques de la renutrition seule. La Gln paraît donc intéressante pour l’optimisation des produits de renutrition destinés aux personnes anorexiques et l’effet inhibiteur des BCAA devra être étudié pour en comprendre les mécanismes
Anorexia nervosa (AN) is one of the main eating disorders described in DSM-V occurring in female population and characterized by a severe caloric restriction. AN is quite frequently associated with mood disorders, physical hyperactivity and functional digestive disorders. In addition, AN has the highest mortality rate among all mental disorders and high risk of relapse. The aim of this thesis was to assess the effects of amino acids oral supplementations as glutamine (Gln) and branched-chain amino acids (BCAA) in the activity-based anorexia (ABA) mice model. ABA mice share some common features with AN patients as severe weight loss, physical hyperactivity and delayed gastric emptying. When supplied for seven days with Gln, paracellular permeability, total protein synthesis and mucin-2 mRNA level were restored in the ABA mice colon. However, no beneficial effect was found with BCAA which seemed decrease the colonic protein synthesis. Body weight and body composition were not affected by Gln or BCAA and we hypothesized that caloric supply was not enough to induce body weight gain. Thus, we aimed to test our hypothesis with a combination of a progressive refeeding and Gln or BCAA supplementation. Refeeding partially restored body weight and lean mass in ABA mice with a rebound of fat mass but Gln had no additional effect. Nevertheless, BCAA tended to increase fat mass, and then body weight, in comparison to refeeding alone. Plasma leptin was restored in refed mice, without an effect of amino acids supplementation, while only Gln normalized plasma triglycerides. BCAA supplementation tended to increase glycaemia and cholesterolemia. Here, we confirmed the beneficial effects of Gln in the colon observed in our first study. Gln amplified the effects of refeeding on colonic total protein synthesis, p70S6kinase phosphorylation and tight junction proteins as claudin-1 and occludin. Conversely, BCAA appeared to alleviate, or cancel, the benefits of refeeding on these parameters. Given these data, Gln is thought to be of interest in the optimization of refeeding products for anorectic patients and inhibitory effects of BCAA should be further studied
39

Mercenne, Alexis. "Réactions nucléaires dans le modèle en couches de Gamow et solutions de l’Hamiltonien d’appariemment basées sur le modèle rationnel de Gaudin." Caen, 2016. http://hal.in2p3.fr/tel-01469139.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au voisinage de la limite de stabilité, ou à haute énergie d’excitation, l’influence du continuum devient de plus en plus importante, modifiant ainsi la structure des états faiblement liés. Dans cette région, les noyaux sont des systèmes quantiques ouverts qui peuvent être décrits correctement avec le Gamow Shell Model (GSM) offrant une description unifiée des états liés, des résonances et des états de diffusion. La compréhension de propriétés nucléaires induites par certaines symétries du système à plusieurs corps, peut être approfondie en considérant des modèles exactement solubles. Dans la première partie, nous avons généralisé l’Hamiltonien d’appariement basé sur le modèle rationel de Gaudin aux états du continuum, et dérivé la solution algébrique qui généralise la solution exacte de Richardson initialement introduite pour les systèmes liés. Ces équations de Richardson généralisées ont ensuite été appliquées à l’étude des spectres et des énergies de liaison dans une chaîne d’isotopes de carbone. Dans la deuxième partie, nous avons formulé une théorie des réactions basée sur le GSM. Dans ce but, le GSM est formulé dans une base de canaux de réaction pour les projectiles à plusieurs nucléons. Cette théorie des réactions prend en compte l’antisymétrisation des fonctions d’onde de cible et de projectile, ainsi que la fonction d’onde du système composé. Les applications de cette théorie sont présentées pour la réaction 14O(p,p’)14O, où le système composé 15F est un émetteur de proton, et pour la réaction 40Ca(d,d)40Ca
Moving towards drip lines, or higher in excitation energy, the continuum coupling becomes gradually more important, changing the nature of weakly bound states. In this regime, atomic nuclei are open quantum systems which can be conveniently described using the Gamow shell model (GSM) which offers a fully symmetric treatment of bound, resonance and scattering states. The understanding of specific nuclear properties is often improved by considering exactly solvable models, motivated by a symmetry of the many-body system. In the first part , we have generalized the rational Gaudin pairing model to include the continuous part of the single-particle spectrum, and then derived a reliable algebraic solution which generalizes the exact Richardson solution for bound states. These generalized Richardson solutions have been applied for the description of binding energies and spectra in the long chain of carbon isotopes. In the second part, we have formulated the reaction theory rooted in GSM. For that the GSM is expressed in the basis of reaction channels and generalized for multi-nucleon projectiles. This reaction theory respects the antisymmetrization of target and projectile wave functions, as well as the wave function of the combined system. The application of this theory have been presented for the reaction 14O(p,p’)14O, where the combined system 15F is a proton emitter, and for 40Ca(d,d)40Ca
40

Lenoir, Julien. "Modèle déformable 1D pour la simulation physique temps réel." Lille 1, 2004. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2004/50376-2004-187-188.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans un cadre de simulation temps réel basée sur la physique. Le but premier de ce travail est de proposer un modèle déformable ID. Les applications d'un tel modèle sont nombreuses en réalité virtuelle ou en animation pour la simulation d'objets déformables longilignes, tels que lès cordes, ficelles ou lacets. Nous proposons un modèle déformable ID temps réel basé sur une géométrie de type spline et animé par les équations physiques de Lagrange. Nous nous sommes appuyés pour cela sur les travaux de Yannick Rémion et de son équipe au LERI. Ce modèle se révèle particulièrement adapté à la simulation chirurgicale pour la représentation de fil de suture ou d'organes (intestin grêle, trompes de Fallope,. . . ). Pour certaines applications, il peut être intéressant de demander au modèle déformable de vérifier certaines. Conditions exprimées sous formes d'équations de contraintes. La prise en compte de ces contraintes s'effectue, dans le système dynamique, à l'aide de la méthode des multiplicateurs de Lagrange. Dans ce contexte de contraintes pour la simulation, dynamique, l'une des contributions majeures de cette thèse est la proposition d'une nouvelle classe de contraintes, appelée contraintes glissantes. Elles permettent, par exemple, d'imposer à un fil de passer par un point de l'espace sans imposer de valeur paramétrique correspondante. Ce type de contrainte est particulièrement utile pour la simulation de suture dans un contexte chirurgical, mais répond aussi à des besoins d'animations spécifiques (lacet de chaussure, noeuds coulant,. . . )
Certaines applications, comme la suture d'organe, mettent en jeu plusieurs modèles dynamiques liés ensemble. Pour ce type de simulation, nous proposons une architecture logicielle permettant de simuler des articulations d'objets quelconques (rigides ou déformables) quel que soit le formalisme physique employé pour chacun d'eux. Cette proposition logicielle trouve diverses applications notamment en simulation chirurgicale mais permet aussi de simuler dynamiquement toute articulation d'objets hétérogènes. Certaines manipulations requièrent une souplesse du modèle à des endroits précis, sachant que ces zones peuvent se déplacer lors d'une simulation, par exemple pendant le serrage d'un noeud. Pour cela, nous proposons une multirésolution géométrique et mécanique sur notre modèle qui vise à adapter localement sa résolution afin qu'il puisse s'adapter aux interactions tout en offrant des bonnes performances générales en calcul. On concentre alors le plus gros du temps de calcul sur les zones d'intérêt et on limite ce temps dans les autres zones du modèle. Un critère d'adaptation de la résolution en fonction de la courbure est proposé. Cette technique est particulièrement adaptée à la simulation de noeuds en permettant à la spline d'augmenter le nombre de degrés de liberté et ainsi en lui fournissant une grande souplesse de définition géométrique dans la zone de serrage
41

Bessoud, Agnès. "Analyse des interactions dans des alliages à base de métaux de transition." Grenoble INPG, 1989. http://www.theses.fr/1989INPG0091.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Calcul, a partir d'un hamiltonien de liaisons fortes et de la methode de l'amas-reseau de bethe, de la structure electronique et l'energie de formation d'alliages binaires de structure cubique centree ou cubique a faces centrees. En utilisant l'entropie de configuration traitee par la methode variationnelle des amas, l'energie libre de formation a ete obtenue par minimisation par rapport au parametre d'ordre a courte distance
42

Côté, Benoît. "Modèle de vents galactiques destiné aux simulations cosmologiques à grande échelle." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27873/27873.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Ammari, Zied. "Théorie de la diffusion pour un modèle en théorie des champs quantiques : modèle de Nelson." Palaiseau, Ecole polytechnique, 2000. http://www.theses.fr/2000EPXX0018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Al, Masri Nada. "Modèle d'Administration des Systèmes Distribués à Base de Composants." Phd thesis, INSA de Lyon, 2005. http://tel.archives-ouvertes.fr/tel-00474407.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Component-Oriented Systems are increasingly evolving and being adopted by both industrial and academic worlds. They have resulted from the advances achieved in both software engineering and distributed systems. Component models such as JavaBeans, COM, CORBA were presented as reusable components that can be composed together to get a complete software. At the same time, advances in distributed systems lead to another type of component models such as EJB, DCOM and CCM that treat the distribution as their main objective. Platforms conforming to these models support a number of middleware services that facilitates the distribution without explicit intervention from the system developers. These platforms can be seen as dedicated hosting servers of the applications' components. In our works, we concentrate on the EJB component model; we present an administration platform for a federation of servers cooperating to host a number of applications. The federation includes different servers with different configurations, characteristics, services and resources. Our main objective is to manage the deployment of EJB components in the federation depending on their needs to the available resources and services offered by the servers. The proposed administration platform is based on the JMX instrumentation platform. We propose a 3-level instrumentation model to collect management information from 3 environment levels: network and system low level, application server level, and components level. The administration platform gets all necessary information about the execution environment from this instrumentation platform modeled in 3 levels where all the elements are also modeled as managed objects. Furthermore, the administration platform defines a number of services to control the deployment management in the federation such as a migration service, EJB evaluation service, and EJB instrumentation service. Beside these services, we define a number of rules to consider while taking decision concerning the deployment process and the communication between the application servers. To apply a non-centralized management over the nodes of the federation, we propose deploying the administration services on all servers in the federation to get a distributed management.
45

Krichen, Moez. "Test de systèmes temps-réel à base de modèle." Grenoble 1, 2007. http://www.theses.fr/2007GRE10294.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous sommes interesses par le test de systemes temps-reels a base de modele. Plus precisement, nous etudions deux classes de problemes, a savoir: (1) les problemes d'identification d'etat (II) le test de conformite en boite noire. Pour les problemes d'identification d'etat, nous disposons du modele de la machine dont nous ignorons l'etat initial et nous cherchons une experience a appliquer sur cette machine afin d'identifier l'etat initial inconnu ou l'etat final vers lequel la machine a evolue suite a cette experience. Pour le test de conformite, nous disposons du modele de la machine et nous voulons tester si la machine est conforme a son modele ou pas. Notre approche est basee principalement sur le modele d'automate temporise non-deterministe et partiellement observable. L'observabilite partielle et le non-determinisme sont des elements essentiels pour simplifier la modelisation ainsi que pour augmenter l'expressivite et l'implementabilite des systemes. Ce cadre permet'a l'utilisateur de definir, par une modelisation appropriee, des hypotheses sur l'environnement du systeme sous test (SST) ainsi que sur l'interface entre le testeur et le SST. Avant de resoudre les problemes d'identification d'etat pour le cas des automates temporises, nous etudions ces problemes pour le cas des transducteurs a etats finis(TEF). TEF est une extension du modele de la machine de Mealy. Nous montrons que ces problemes sont indecidables pour les TEF en general. Nous considerons une sous-classe de TEF, nommee, transducteurs avec attente de synchronisation (TEF-AS) pour laquelle ces problemes sont decidables. La premiere etape pour resoudre les problemes d'identification pour le cas des automates temporises consiste a calculer le "time-abstracting bisimulation (TAB) quotient graph" de l'automate temporise en question. La deuxieme etape consiste a transformer ce graphe en une machine de Mealy pour laquelle les problemes d'identification peuvent se resoudre en utilisant des techniques deja existantes. Pour le test de conformite en boite-noire, nous considerons deux types de tests: tests a horloge analogique et tests a horloge numerique. Notre algorithme pour la generation de tests a horloge analogique est base sur la determinisation a-la-volee de l'automate specification, durant l'execution du test, qui repose a son tour sur des calculs d'atteignabilite. Ces derniers peuvent etre parfois couteux, et par consequent problematiques, puisque le testeur doit reagir rapidement aux actions du systeme sous test. Pour cela, nous proposons des techniques permettant de representer les testeurs a horloge analogique sous forme d'automates temporises deterministes, reduisant ainsi le temps de reaction a un simple saut d'etat. Nous proposons des algorithmes de generation statique ou a-la-volee de tests a horloge numerique. Ces tests mesurent le temps avec des horloges numeriques a precision finie, qui est une condition essentielle d'implementabilite. Nous proposons une technique pour la couverture des noeuds, des arcs ou des etats, en reduisant le probleme a une couverture d'un graphe d'atteignabilite symbolique. Ceci permet d'eviter de generer un grand nombre de tests. Nous proposons egalement des techniques de generation de test a horloge numerique basees sur les techniques de raffinement pour reduire la taille des Tests generes. Nous decrivons notre outil prototype TTG ainsi que quatre etudes de cas: un systeme d'eclairage, le Bounded Retransmission Protocol, le K9 Mars Rover (NASA) et le Robot Dala (LAAS)
We are interested in model-based testing for real-time systems. Specifically, we study two classes of problems, namely: (I) state identification problems and (II) black-box conformance testing. For state identification problems, we are given the model of a machine with an initial unknown state and we look for an experiment to apply on the machine to identify the initial unknown state or the final state to which the machine has moved after the experiment. For black-box conformance testing, we are given a model of the machine and we want to check whether the machine conforms to its model or not. Our framework is mainly based on the model of partially-observable, nondeterministic timed automata. We argue that partial observability and non-determinism are essential features for ease of modeling, expressiveness and implementability. The framework allows the user to define, through appropriate modeling, assumptions on the environment of the system under test (SUT) as well as on the interface between the tester and the SUT. Before solving state identification problems for timed automata, we study these problems for the case of finite state transducers (FST). FST is an extension of the Mealy machine model. We show that these problems are undecidable for FST in general. We consider a subclass of FST, so-called, wait-synchronize transducers (WSFST) for which these problems are decidable. The first step to solve state identification problems for timed automata, consists in computing the time-abstracting bisimulation (TAB) quotient graph of the considered timed automaton. The second step is to transform this graph into a Mealy machine on which state-identification problems can be solved using existing techniques. For conformance testing, we consider two types of tests: analog-clock tests and digital-clock tests. Our algorithm to generate analog-clock tests is based on an on-the-fly determinization of the specification automaton during the execution of the test, which in turn relies on reachability computations. The latter can sometimes be costly, thus problematic, since the tester must quickly react to the actions of the system under test. Therefore, we provide techniques which allow analog-clock testers to be represented as deterministic timed automata, thus minimizing the reaction time to a simple state jump. We provide algorithms for static or on-the-fly generation of digital-clock tests. These tests measure time only with finite-precision, digital clocks, an essential condition for implementability. We propose a technique for location, edge and state coverage of the specification, by reducing the problem to covering a symbolic reachability graph. This avoids having to generate too many tests. We also propose digital-clock test generation techniques based on action refinement in order to reduce the size of generated tests. We report on a prototype tool TTG and four case studies: a lighting device, the Bounded Retransmission Protocol, the K9 Mars Rover (NASA) and the Dala Robot (LAAS)
46

Hosteins, Pierre. "Masse des neutrinos et physique au-delà du modèle standard." Paris 11, 2007. http://www.theses.fr/2007PA112219.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail de cette thèse consiste à étudier certaines extensions possibles du Modèle Standard (MS) de la physique des particules en lien avec les expériences d'oscillation des neutrinos. Ces oscillations impliquent l'existence de faibles masses pour les neutrinos et nécessitent donc d'aller au-dela du MS pour décrire la physique des interactions fondamentales. Dans la première partie de ce manuscrit, on s'intéressera à des modèles de Grand Unification qui expliquent naturellement l'échelle de masse des neutrinos grâce au mécanisme de seesaw. Utilisant les fortes contraintes de ces théories, nous mettons en lumière la possibilité d'expliquer à la fois les masses des neutrinos et l'asymétrie cosmologique observée entre matière et anti-matière, ce qui requiert d'aller au-delà de la version la plus simple du seesaw et d'introduire une méthode particulière pour traiter ces versions du seesaw dites "à symétrie gauche-droite". Dans une deuxième partie, nous explorerons les importantes corrections quantiques fournies aux masses des neutrinos par des modèles avec une dimension supplémentaire et nous verrons que la différence entre les angles de mélange des secteurs des quarks et des leptons peut être expliquée par de purs effets quantiques.
47

Gavazza, Giuseppe. "La synthèse par modèle physique comme outil de formalisation musicale." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAS041.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La synthèse pour par modèles physiques propose une approche à de la création musicale alternative à de celui celle plus habituelle du traitement du signal. En prenant en considération le phénomène musical comme un unicum émergeant de l'interaction entre le musicien et les instruments à sa disposition, on expérimente et donne corps phénoménologique et sensible aux actions créatrices.En ne considérant pas comme entités distinctes la matière sonore et la structure musicale, on oriente les potentialités de l'ordinateur et crée une dialectique originale et féconde entre le formel (structurel) et le perceptif (cognitif).Le champ d'action envisagé dans cette thèse concerne le développement, la formalisation et la catégorisation des modèles physiques réalisés à l’aide du formalisme CORDIS-ANIMA de structures - créées par modélisation physique - utiles pour la composition musicale, dans la perspective de mettre en évidence la fonction de formalisation musicale associée portée au par ce paradigme. de simulation par modèle physique CORDIS-ANIMA.Le point de départ est ma pratique personnelle de près de 20 années, en tant que compositeur, avec le logiciel de création sonore GENESIS du laboratoire ACROE-ICA. Cette pratique, à travers des travaux à la fois scientifiques (en modélisation) et artistiques (en composition musicale), m'a conduit à considérer cet environnement non pas comme un synthétiseur, mais comme un instrument " organique " permettant de créer une composition musicale complète couvrant les trois échelles de catégorisation usuelle de l'acoustique et de la musique : micro-formelle (le timbre, l'harmonie, l'orchestration), mezzo-formelle (le rythme, la mélodie et les séquences / structures harmoniques de premier niveau) et macro-formelle (la structure harmonique de niveau supérieur, le schéma formel de la composition complète).L'objectif ne consiste pas à proposer le cadre d'une "nouvelle musique" ou d'une nouvelle esthétique, mais à "bien tempérer" les instruments pour une nouvelle pratique de la création musicale explorant et exploitant au mieux les potentialités de l'ordinateur et des technologies numériques, aussi dans la direction d'un élargissement de la dialectique instrumentalité - écriture musicale vers une "supra instrumentalité" [Cadoz6] et vers des perspectives "post-scriptiques" de la création musicale [Cadoz7]
Physical model synthesis offers an approach to composition alternative to the more usual signal processing. Considering the musical phenomenon as a "unicum" emerging from the interaction between the musicians and their instruments the physical model synthesis realizes and gives phenomenological and sensitive corporeality to the creative actions. By conceiving not as separate entities sound material and musical structure directs the potentialities of the computer and creates an original and fruitful dialectic between the formal (structural) and perceptual (cognitive).The sphere of action for my PhD concerns the development, formalisation and categorisation of structural models – created by physical modelling – useful for musical composition in the perspective to highlight the musical formalisation function associated with the CORDIS-ANIMA physical model simulation paradigm.The starting point for this work is 20 years of personal use as a composer, of the GENESIS physical model musical creation software developed by the ACROE-ICA laboratory.This experience has led me, through works both scientific (modelling) and artistic (music composition), to consider this environment not as a synthesis tool, but as a complex instrument, which allows to create a complete musical composition covering all three usual categories of acoustics and music: micro-formal (the tone, harmony, orchestration), mezzo-formal (the rhythm, melody, and the basic sequences/harmonic structures) and macro-formal (the higher level harmonic structure, the formal outline of the entire composition).My goal is not to propose the framework of a new music or a new aesthetic, but develop "well-tempered" instruments for a new practice of music creativity that explores and accomplishes better the potentialities of computer and digital technology. This also leads in the direction of broadening the dialectic instrumentality - writing music to a "supra instrumentality" [Cadoz6] and to post-scriptic outlook on musical creation [Cadoz7]
48

Anicic, Sylvia. "Du modèle de Kirchhoff-Love exact à un modèle de coque mince et à un modèle de coque pliée." Université Joseph Fourier (Grenoble), 2001. http://www.theses.fr/2001GRE10098.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le thème général de cette thèse est la formulation d'un nouveau modèle de coque mince et d'un modèle de coque pliée en élasticité linéarisée. Ces deux modèles admettent la même énergie interne de déformation où les effets de membrane et de flexion sont couplés. La présence d'un pli est caractérisée par une contrainte, très naturelle, dans l'espace variationnel. Ils sont basés sur un nouveau tenseur de changement de courbure X(u), défini au Chapitre 2, qui permet de mesurer les variations linéarisées des courbures et directions principales d'une surface. De plus, ils s'appliquent à des coques de classe W2,°° par morceaux telles que la normale soit Wl,' pour lesquelles on définit un cadre variationnel approprié. Pour obtenir ces deux modèles, on commence par donner la formulation bidimensionnelle exacte du modèle de Kirchhoff-Love (KL) sans faire l'approximation h « R de Koiter. Le nouveau modèle de coque mince est alors obtenu en prenant tous les termes jusqu'à l'ordre 3 dans le développement asymptotique en h du modèle de KL, alors que Koiter n'en retient qu'une partie. On donne une estimation d'erreur relative explicite en norme énergie avec la solution du modèle de KL: elle est en O(h2). On introduit ensuite une nouvelle approche pour modéliser les coques pliées. Le pli est une région très fortement courbée (R = h/2) qui est le cas limite de validité du modèle de KL. L'idée est donc d'effectuer un passage à la, limite dans le pli quand la demi-épaisseur tend vers le rayon de courbure. Le modèle de coque pliée que l'on énonce est une approximation du modèle limite obtenu. On donne également une estimation d'erreur relative en O(h2) explicite en norme énergie entre la solution du modèle de coque pliée et celle du modèle limite. Enfin, on montre que sur un problème simple de plaque pliée où le pli n'est pas rigide, la solution analytique de notre modèle est proche de celle obtenue par un calcul 3D, alors que celle de Koiter est incorrecte
49

Arhrib, Abdeslam. "Modèle standard supersymétrique minimal. Quelques aspects phénoménologiques." Montpellier 2, 1994. http://www.theses.fr/1994MON20075.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Il est presque certain que le modele standard minimal (msm) n'est qu'une theorie effective d'une theorie plus fondamentale qui reste a decouvrir. La supersymetrie est l'un des candidats, ne serait-ce que par sa capacite a resoudre le probleme de la hierarchie de jauge. Le generateur de cette supersymetrie transforme les bosons en fermions et vice-versa, ce qui double le nombre total de particules au menu. Pour des raisons theoriques, la brisure de la symetrie electro-faible doit etre assuree par 2 doublets de champs scalaires (au moins), c'est ainsi qu'on a le modele supersymetrique minimal (mssm). Comme tout modele contenant plusieurs doublets, ce modele contient a la fois des higgs neutres et charges. Dans le cadre du mssm nous avons etudie: 1) l'apport des corrections radiatives au parametre rho (rapport du courant neutre au courant charge a basse energie), les effets de chaque secteur: secteur scalaire, secteur des sleptons et des squarks et celui du stop-sbottom, ont ete etudie separement ; 2) la production d'une paire de higgs charges dans les processus d'annihilation d'une paire d'electron-positron a 500 gev, ceci incluant les corrections radiatives. Nous discutons de la possibilite de pouvoir separer la production d'un higgs charge du mssm de celui du modele a 2 doublets non supersymetrique et de la detection eventuelle de la supersymetrie d'autre part
50

Glad, Xavier. "Synthèse et étude de la formation de pyramides et cônes de graphite par gravure en plasma radiofréquence argon/hydrogène." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0127/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le carbone présente de nombreuses formes allotropiques, dont le graphite, qui possède une large variété de formes géométriques d'intérêt pour l'industrie. Ce travail de thèse a permis la synthèse d'une nouvelle de ces formes: les pyramides hexagonales. Ces cristaux submicroniques sont créés à partir de substrats de graphite par gravure en plasma radiofréquence (rf) Ar/H2 basse pression. Pour comprendre la formation de ces nouveaux cristaux, la caractérisation des plasmas a été effectuée par sondes de Langmuir et absorption résonante laser afin de vérifier la température de surface et d'estimer les flux et énergies des ions. L'évolution temporelle de la gravure a été directement observée en microscopie électronique à balayage (MEB). La gravure chimique (Ar/H2) a formé des cônes de graphite à hélices dont les paramètres cristallins et une amorphisation de surface, due à l'hydrogène, ont été révélés par microscopie électronique en transmission (MET). La vitesse de gravure et l'état de surface montrent, en fonction du mélange, une zone de transition caractérisée par l'absence de structures. La gravure physique (Ar pur) conduit à la création des pyramides hexagonales de graphite. Un modèle de formation de ces cristaux a pu être proposé grâce à une bonne connaissance des différentes conditions plasma et des études poussées de microscopies électroniques sur plusieurs types de substrats. Les analyses MET haute résolution ont montré des boucles fermant les plans de bord du cristal et liées à sa formation. Nous avons également maîtrisé l'état de surface des substrats de graphite hautement orienté (HOPG) en créant une densité homogène de pyramides dont la taille peut être contrôlée
Carbon occurs as many different allotropic forms. One in particular, graphite, exhibits a remarkable variety of geometrical configurations largely used in industrial applications. This work permitted the synthesis of a novel crystalline form: the hexagonal-pyramidal graphite hillocks. These submicronic structures are created from graphite substrates by low pressure Ar/H2 radiofrequency (rf) plasma etching. In order to understand the formation of these new crystals, plasma characterization has been carried out by Langmuir probes and laser absorption spectroscopy to check the surface temperature and estimate the ion fluxes and energies. Etching kinetics has been directly observed by scanning electron microscopy (SEM). Chemical etching processes in pure hydrogen resulted in the creation of helical graphite cones whose crystal parameters and surface amorphisation have been revealed by transmission electron microscopy (TEM). The etching rate and surface topography as function of the gas mixture show a transition where no structures are created. The physical etching in pure argon creates hexagonal-pyramidal graphite hillocks. A formation model of these crystals has been proposed owing to a good knowledge of the different plasma conditions and thorough electron microscopy studies on two kinds of substrates. High resolution MET analyses showed graphene loops closing the edges planes along the crystal facets and related to the structure’s formation. We also showed the texturing of the surface of highly ordered graphite (HOPG) by creating a high and homogeneous density of crystals whose size may be controlled

To the bibliography