Dissertations / Theses on the topic 'Méthode du cluster couplé'

To see the other types of publications on this topic, follow the link: Méthode du cluster couplé.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 45 dissertations / theses for your research on the topic 'Méthode du cluster couplé.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Aldair, Misael Wilken. "Shedding X-rays on molecules through the lenses of relativistic electronic structure theory." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILR043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse vise à étudier la structure électronique des actinides au moyen de méthodes de chimie quantique relativiste ab initio, avec une emphase particulière sur les observables spectroscopiques de l'unité uranyle (UO22+). Considérant le rôle central de cette unité en chimie des solides et en milieux aqueux et organique, ainsi que les avancées récentes dans les installations de rayonnement synchrotron, notre étude repose sur l'évaluation de l'interaction des photons de rayons X avec l'unité uranyle dans des degrés de complexité variés, allant des molécules aux solides cristallins.Tout d'abord, nous mettons en avant comment la formulation résonante-convergente de la théorie de la réponse peut être utilisée pour étudier la structure fine d'absorption des rayons-X (XAFS) des actinides. Les simulations de la théorie de la fonctionnelle de la densité dépendante du temps avec réponse amortie en 4 composantes (4c-DR-TD-DFT) pour le dianion tétrachlorure de diuranyl ([UO2Cl4]2-) se sont avérées cohérentes avec les données antérieures de méthodes spectroscopiques avec résolution angulaire, à savoir celles d'absorption des rayons X près du seuil (NEXAFS) au seuil K de l'oxygène et de détection de fluorescence à haute résolution énergétique (HERFD) aux seuils M4 et L3 de l'uranium du cristal de tétrachlorure de diuranyl de dicesium (Cs2UO2Cl4), un système prototype pour les études de structure électronique des actinides.En plus, nous présenterons les résultats d'un travail collaboratif avec la ligne de lumière Rossendorf de l'Installation Européenne de Rayonnement Synchrotron (ESRF). Les simulations TD-DFT dans l'approximation de Tamm-Dancoff à 2 composantes (2c-TDA) et HERFD des différents complexes d'uranyle mettent en évidence le rôle des états de transfert de charge dans la détermination des caractéristiques spectrales au niveau du seuil M4 de l'uranium.Le rôle de la corrélation et de la relaxation des orbitales dans les énergies d'ionisation de cœur des éléments lourds a été étudié en utilisant la méthode des équations de mouvement de cluster couplé avec la séparation cœur-valence (CVS-EOM-CC) récemment développée. Nous avons également évalué les performances de différents Hamiltoniens à 4- et 2- composantes pour le calcul de ces propriétés. Les résultats de cette étude soulignent l'importance du calcul des intégrales à deux électrons au-delà de la troncature d'ordre zéro, c'est-à-dire du terme de Coulomb, lorsqu'on travaille dans les gammes de rayons X tendres (1 -- 5 keV) et durs (5 -- 200 keV).Par ailleurs, nous avons également évalué les performances des méthodes de chimie quantique pour tenir compte des effets environnementaux. Plus précisément, nous avons utilisé la méthode d'intégration de densité figée (FDE) qui nous a permis d'acquérir des connaissances précieuses sur la manière dont les ligands équatoriaux de l'ion uranyle influencent ses propriétés spectroscopiques. Notamment, cette méthode a réussi à aborder le rôle des interactions électrostatiques dans les énergies de liaison dans la gamme des rayons X mous et dans les dédoublements de pics observés dans les spectres d'émission au niveau du seuil M4 de l'uranium. Ce dernier est particulièrement significatif car il contribue de manière déterminante à aborder un problème de longue date dans la science des actinides : le rôle des orbitales 5f dans la liaison actinyle.En résumé, cette thèse présente un travail de recherche fondamentale qui vise à repousser les limites des méthodes quantiques ab initio dans l'étude des observables spectroscopiques pour les éléments situés en bas du tableau périodique. Les résultats de cette étude illustrent comment ces approches peuvent apporter de nouvelles compréhensions sur les expériences de pointe
This thesis aims to investigate the electronic structure of actinides by means of ab initio relativistic quantum chemistry methods, with a specific emphasis on the spectroscopic observables of the uranyl moiety (UO22+). Considering the pivotal role of this unit in the solid-state and solution chemistry of uranium, one of the most abundant and stable actinides on earth, as well as recent advancements in synchrotron radiation facilities, our investigation relies on evaluating the interaction of x-ray photons with the uranyl unit in varying degrees of complexity, ranging from molecules to crystalline solids.First, we showcase how the resonant-convergent formulation of response theory can be employed to investigate the X-ray absorption fine structure (XAFS) of actinides. 4-component damped-response time-dependent density functional theory (4c-DR-TD-DFT) simulations for the uranyl tetrachloride dianion ([UO2Cl4]2-) were found to be consistent with previous data for angle-resolved near edge x-ray absorption spectroscopy (NEXAFS) at the oxygen K-edge and high energy resolution fluorescence detected (HERFD) at the uranium M4- and L3-edges of the dicesium uranyl tetrachloride crystal (Cs2UO2Cl4), a prototype system for actinide electronic structure investigations.We then present the results of collaborative work with the Rossendorf Beamline at the European Synchrotron Radiation Facility (ESRF). 2-component TD-DFT simulations within the Tamm-Dancoff approximation (2c-TDA) and HERFD measurements uranyl systems within different structural motifs highlight the role of charge transfer states in determining the spectral features at the uranium M4-edge.The role of orbital correlation and relaxation in the core-ionization energies of heavy elements was investigated using the recently developed core-valence-separation equation-of-motion coupled-cluster method (CVS-EOM-CC). We also evaluated the performance of various 4- and 2-component Hamiltonians for calculating these properties. The results of this investigation highlight the importance of computing two-electron interaction beyond the zeroth order truncation, i.e., the Coulomb term, when working at the tender (1 keV - 5 keV) and hard x-ray (5 keV - 200 keV) ranges.We also evaluated the performance of quantum-chemical embedding methods to account for environmental effects. Specifically, we employed the frozen density embedding (FDE) method, which allowed us to gain valuable insights into how the equatorial ligands of the uranyl ion influence its spectroscopic properties. Notably, this method successfully addressed the role of such interactions in binding energies in the soft X-ray range and in the peak splittings observed in the emission spectra at the U M4-edge. The latter is particularly significant as it has been instrumental in addressing a long-standing problem in actinide science: the role of 5f orbitals in actinyl bonding.In summary, this thesis presents fundamental research work that aims to push the boundaries of ab initio quantum chemical methods when addressing spectroscopic observables toward the bottom of the periodic table, and the findings of this work capture how these approaches can provide further insights into state-of-the-art experiments
2

Brochard, Michel. "Modèle couplé cathode-plasma-pièce en vue de la simulation du procédé de soudage à l'arc TIG." Aix-Marseille 1, 2009. http://theses.univ-amu.fr.lama.univ-amu.fr/2009AIX11006.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours de ce travail, une modélisation 2D axisymétrique du procédé de soudage à l'arc TIG a été développée dans l'objectif de prédire, en fonction des paramètres opératoires, les grandeurs utiles au concepteur d'assemblages soudés, telles que l'énergie transmise à la pièce, la géométrie du bain de soudage,. . . Le modèle développé, à l'aide du code élèments finis Cast3M, traite les phènomènes physiques agissant dans chacune des parties du procédé : la cathode, le plasma d'arc, la pièce dont le bain de soudage, et les interfaces entre ces domaines. Pour cela, les équations de la thermohydraulique sont couplées à celles de l'électromagnétisme qui sont résolues, enpartie, grâce à la méthode des éléments finis moindres carrés. Les prémices de la validation ont consisté à comparer les résultats numériques obtenus avec ceux de la littérature. Aussi, cette étape met en avant l'action des differentes forces dans le bain et la contribution de chacun des flux énergétiques sur le bilan d'énergie. Enfin, pour valider le pouvoir prédictif du modèle, des analyses de sensibilité expérimentale et numérique ont été menées selon un plan d'expériences. Les effets de l'intensité, de la hauteur d'arc, et de l'angle d'affutage de l'électrode sur la géométrie du bain de soudage, l'énergie transmise à la piàce, et le rendement de l'arc ont été étudiés. Les bonnes tendances obtenues pour ces réponses démontrent que le modèle développé reproduit relativement bien la physique du procédé
During this work, a 2D axially symmetric model of a TIG arc welding process had been developped in order to predict for given welding parameters, the needed variables for a designer of welded assembly : the heat input on the workpiece, the weld pool geometry,. . . The developped model, using the Cast3M finite elements software, deals with the physical phenomena acting in each part of the process : the cathode, the plasma, the workpiece with a weld pool, and the interfaces between these parts. To solve this model, the thermohydraulics equations are coupled with the electromagnetic equations that are calculated in part using the least squares finite element method. The beginning of the model validation consisted in comparing the results obtained with the ones available in the scientific literature. Thus, this step points out the action of each force in the weld pool, the contribution of each heat flux in the energy balance. Finally, to validate the model predictivity, experimental and numerical sensivitivity analyses were conducted using a design of experiments approach. The effects of the process current, the arc gap and the electrode tip angle on the weld pool geometry and the energy transferred to the workpiece and the arc efficiency were studied. The good agreement obtained by the developped model for these outputs shows the good reproduction of the process physics
3

Roques, Sébastien. "Modélisation du comportement dynamique couplé rotor-stator d'une turbine en situation accidentelle." Phd thesis, Ecole centrale de nantes - ECN, 2007. http://tel.archives-ouvertes.fr/tel-00353938.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour les groupes turbo-alternateurs du parc nucléaire français, la situation accidentelle de référence lors du dimensionnement est définie par le départ d'une ailette terminale des corps basse pression. Après avoir détecté la perte de l'ailette, la turbine est déconnectée du réseau électrique, et la turbomachine ralentit progressivement sous l'effet de frottements d'origine fluide. Le dimensionnement consiste alors à vérifier que les structures palières sont capables de supporter l'effort résultant du balourd généré par cette perte d'ailette pendant la phase de ralentissement, notamment lors du passage des vitesses pour lequel des contacts rotor-stator peuvent se produire. A cet effet, un modèle éléments finis de turbine a été développé pour simuler des transitoires de vitesse d'un rotor en considérant la vitesse de rotation de l'arbre comme une inconnue, permettant ainsi d'estimer la décélération angulaire due au contact frottant. Trois modèles de stator ont été proposés appréhender le comportement dynamique du carter, et le couplage des structures est réalisé au moyen des forces de contact calculées par la méthode des multiplicateurs de Lagrange. La résolution des équations non-linéaires du mouvement a nécessité le développement d'un algorithme de contact, adapté à la géométrie de chacun des carters. Des simulations réalisées sur un modèle simple de turbine montrent que la vitesse de rotation et les chargements aux paliers sont bien estimés lors de l'interaction rotor-stator. Ainsi l'outil numérique permet d'étudier la réponse couplée rotor-stator et de prédire l'influence de paramètres tels que le coefficient de friction et les propriétés matérielles du stator.
4

Haddar, Mohamed. "Modélisation numérique d'un système mécanique couplé (fluide-structure) en présence du phénomène de choc : application au support moteur hydroélastique." Compiègne, 1991. http://www.theses.fr/1991COMPD412.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le traitement des problèmes couplés (structures-fluide) en présence de choc fait partie des problèmes complexes et relativement récents qui nécessiteront encore de nombreuses études de la part des chercheurs avant d'atteindre une solution satisfaisante. La résolution de ces problèmes permettrait de faire progresser aussi bien la recherche que l'industrie essentiellement dans des domaines diversifiés tel que les industries automobile et aéronautiques. Les récents progrès enregistrés dans les moyens informatiques et le calcul numérique (éléments finis, différences finies,. . . ) ont contribué à l'évolution de la modélisation des problèmes couplés et temporels. Dans ce travail de recherche, ce type de problème complexe a été traité de façon approfondie afin de tenter de construire un modèle numérique satisfaisant. Dans un travail préliminaire, nous nous sommes investis dans le développement d'une forme variationnelle totale d'un problème couplé fluide structure. Elle conjugue une formulation variationnelle de la structure avec une formulation variationnelle mixte par équations intégrales du fluide. Ensuite, nous avons développé un modèle de calcul permettant la simulation numérique de la réponse dynamique des structures en tenant compte du fluide et des non-linéarités dûes au choc. Les divers cas tests étudiés ont permis de valider nos différents algorithmes de choc ainsi que le formalisme global du problème couplé. Les résultats numériques des différents exemples simulés ont été confrontés à d'autres solutions analytiques, numériques et expérimentales. Nous avons constaté la bonne tenue de notre modélisation.
5

Dib, Serena. "Méthodes d'éléments finis pour le problème de Darcy couplé avec l'équation de la chaleur." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066294/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions l'équation de la chaleur couplée avec la loi de Darcy à travers de la viscosité non-linéaire qui dépend de la température pour les dimensions d=2,3 (Hooman et Gurgenci ou Rashad). Nous analysons ce problème en introduisant la formulation variationnelle équivalente et en la réduisant à une simple équation de diffusion-convection pour la température où la vitesse dépend implicitement de la température.Nous démontrons l'existence de la solution sans la restriction sur les données par la méthode de Galerkin et du point fixe de Brouwer. L'unicité globale est établie une fois la solution est légèrement régulière et les données se restreignent convenablement. Nous introduisons aussi une formulation variationnelle alternative équivalente. Toutes les deux formulations variationnelles sont discrétisées par quatre schémas d'éléments finis pour un domaine polygonal ou polyédrique. Nous dérivons l'existence, l'unicité conditionnée, la convergence et l'estimation d'erreur a priori optimale pour les solutions des trois schémas. Par la suite, ces schémas sont linéarisés par des algorithmes d'approximation successifs et convergentes. Nous présentons quelques expériences numériques pour un problème modèle qui confirme les résultats théoriques de convergence développées dans ce travail. L'estimation d'erreur a posteriori est établie avec deux types d'indicateurs d'erreur de linéarisation et de discrétisation. Enfin, nous montrons des résultats numériques de validation
In this thesis, we study the heat equation coupled with Darcy's law by a nonlinear viscosity depending on the temperature in dimension d=2,3 (Hooman and Gurgenci or Rashad). We analyse this problem by setting it in an equivalent variational formulation and reducing it to an diffusion-convection equation for the temperature where the velocity depends implicitly on the temperature.Existence of a solution is derived without restriction on the data by Galerkin's method and Brouwer's Fixed Point. Global uniqueness is established when the solution is slightly smoother and the dataare suitably restricted. We also introduce an alternative equivalent variational formulation. Both variational formulations are discretized by four finite element schemes in a polygonal or polyhedral domain. We derive existence, conditional uniqueness, convergence, and optimal a priori error estimates for the solutions of the three schemes. Next, these schemes are linearized by suitable convergent successive approximation algorithms. We present some numerical experiments for a model problem that confirm the theoretical rates of convergence developed in this work. A posteriori error estimates are established with two types of errors indicators related to the linearisation and discretization. Finally, we show numerical results of validation
6

Nouisri, Amine. "Identification paramétrique en dynamique transitoire : traitement d’un problème couplé aux deux bouts." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN005/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de thèse portent sur l'identification paramétrique en dynamique transitoire à partir des mesures fortement bruitées, l'un des objectifs à long terme étant de proposer une méthode d’identification peu intrusive afin de pouvoir être implémentée dans des codes de calcul éléments finis commerciaux. Dans ce travail, le concept de l'erreur en relation de comportement modifiée a été retenu pour traiter le problème d’identification des paramètres matériau. La minimisation de la fonctionnelle coût sous contraintes débouche, dans le cas de la dynamique transitoire, sur un problème dit « aux deux bouts » dans lequel il s’agit de résoudre un problème différentiel spatio-temporel avec des conditions à la fois initiales et finales en temps. Il en résulte un problème couplé entre les champs direct et adjoint dont le traitement est délicat. Dans un premier temps, des méthodes précédemment développées telles que la « méthode de Riccati » et la « méthode de tirs » ont été étudiées. Il est montré que l’identification par ces méthodes est robuste même pour des mesures fortement corrompues, mais qu’elles sont limitées par la complexité d’implémentation dans un code industriel, des problèmes de conditionnement ou de coût de calcul. Dans un second temps, une approche itérative basée sur une méthode de sur-relaxation a été développée et comparée à celles précédemment mentionnées sur des exemples académiques, validant l’intérêt de cette nouvelle approche. Enfin, des comparaisons ont été menées entre cette technique et une variante « discrétisée » de la formulation introduite par Bonnet et Aquino [Inverse Problems, vol. 31, 2015]
This thesis deals with parameters identification in transient dynamic in case of highly noisy experimental data. One long-term goal is the derivation of a non-intrusive method dedicated to the implementation in a commercial finite element code.In this work, the modified error in the constitutive relation framework is used to treat the identification of material parameters. The minimization of the cost function under constraints leads, in the case of transient dynamics, to a « two points boundary value problem » in which the differential space-time problem involves both initial and final time conditions. This results in a problem coupling the direct and adjoint fields, whose treatment is difficult.In the first part, methods such as those based on the « Riccati equations » and the « shooting methods » have been studied. It is shown that the identification is robust even in the case of highly corrupted measures, but these methods are limited either by the implementation intrusiveness, conditioning problems or the numerical cost.In the second part, an iterative over-relaxation approach is developed and compared to the aforementioned approaches on academic problems in order to validate the interest of the method. Finally, comparisons are carried out between this approach and a « discretized » variation of the formulation introduced by Bonnet and Aquino [Inverse Problems, vol. 31, 2015]
7

Faucher, Vincent. "Méthodes numériques et algorithmes parallèles pour la dynamique rapide des systèmes fluide-structure fortement couplés." Habilitation à diriger des recherches, INSA de Lyon, 2014. http://tel.archives-ouvertes.fr/tel-01011205.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette HDR s'inscrit dans le cadre des actions de recherche pour la simulation des transitoires brutaux pour les structures et les fluides en interaction menées au Laboratoire d'Etudes de Dynamique du CEA, relatives à la définition de méthodes numériques pour la modélisation de systèmes mécaniques complexes et la résolution parallèle sur les supercalculateurs de problèmes de taille industrielle. Une particularité des approches proposées est la limitation à son minimum du nombre de paramètres non-physiques dans une simulation, pour s'accommoder des contraintes de maîtrise de la solution qu'impose le périmètre d'utilisation des concepts : sûreté nucléaire (CEA, EDF) ou aéronautique (ONERA, protection du citoyen (EC/JRC), en particulier. Ainsi, les contraintes cinématiques couplant fortement les structures entre elles (contact unilatéral par exemple) ou les fluides et les structures (avec des maillages conformes ou topologique déconnectés en fonction des situations géométriques) sont majoritairement traitées par l'intermédiaire de multiplicateurs de Lagrange, assurant la vérification exacte des équations de liaison au prix de la résolution d'un système additionnel variable dans le temps. Ce dernier aspect fait d'EPX (http://www-epx.cea.fr), le logiciel servant de réceptacle pour les méthodes, un outil à part dans la communauté du calcul en dynamique rapide. Le mémoire repose principalement sur une description des besoins en matière de modélisation pour la simulation de transitoires de référence, en particulier dans le monde du nucléaire, et des réponses apportées dans le cadre de la collaboration entre le CEA, EDF (via le LaMSID) et le LaMCoS. Sont ainsi considérés par exemple la déchirure d'un réservoir sous impact, l'accident de dimensionnement du confinement pour un réacteur de IVème génération ou la ruine d'une structure en béton armée sous impact. Sont ainsi proposés des modélisations innovantes et des algorithmes de résolution parallèles permettant de mettre en oeuvre avec efficacité les simulations correspondantes sur des calculateurs composés de noeuds multi-coeurs interconnectés sans jamais dégrader la qualité de la solution, ce qui a fait en particulier l'objet du projet ANR RePDyn (2010-2013), piloté par le CEA, à l'origine d'une collaboration étroite et en cours avec l'INRIA (Laboratoire d'Informatique de Grenoble).
8

Regazzi, Arnaud. "Contribution à l'étude du vieillissement couplé thermo-hydro-mécanique de biocomposite PLA/lin." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00958086.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'utilisation croissante de composites biosourcés dans des applications de plus en plus techniques pose le problème de la prédiction de leur vieillissement dans des conditions réelles d'utilisation. En effet l'environnement dans lequel ils évoluent, conjugue généralement des sollicitations de nature thermique, hydrique et mécanique. Le comportement complexe de chaque constituant (fibre et matrice, et même leur interface) et donc du matériau composite dans sa globalité vis-à-vis de ces dégradations restent mal connu.L'objectif de ce travail est d'apporter des éléments de réponse à cette problématique en étudiant, de manière extit{ex situ} et extit{in situ}, le comportement de biocomposites poly(acide lactique) renforcés de fibre de lin soumis à un vieillissement couplé thermo-hydro-mécanique. Pour différents taux de renfort, l'influence de la présence d'eau à différentes températures couplée ou non à des contraintes de fluage a été évaluée.Dans un premier temps, la caractérisation de ces biocomposites dans un environnement thermo-hydrique a permis d'identifier les phénomènes mis en jeu. Plusieurs propriétés physiques, chimiques, thermiques et mécaniques ont été déterminées au cours de la diffusion. Par la suite, les conséquences irréversibles des phénomènes de vieillissement sur ces propriétés ont été évaluées. Dans un troisième temps, l'introduction de sollicitations mécaniques comme facteur supplémentaire de vieillissement a permis d'apprécier les effets du couplage thermo-hydro-mécanique. Enfin un modèle de calcul par éléments finis a été mis au point afin de pouvoir simuler le comportement physique et mécanique des biocomposites dans un environnement thermo-hydrique donné.
9

Dauvois, Yann. "Modélisation du transfert thermique couplé conductif et radiatif au sein de milieux fibreux portés à haute température." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC097/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail, les propriétés thermiques effectives du milieu fibreux sont déterminées en tenant compte du couplage conduction et rayonnement. Un échantillon numérique fibreux statistiquement homogène composé de deux phases a été généré en empilant des cylindres finis absorbant dans le vide. Ces cylindres sont dispersés selon des fonctions de distribution de la position de leur centre et de leur orientation. L'interpénétration des cylindres est permis. L'extinction, l'absorption et la diffusion sont caractérisées par des fonctions statistiques radiatives qui permettent de savoir si le milieu est Beerien (ou non). Elles sont déterminées précisément à l'aide d'une méthode de Monte Carlo. On montre que la phase gazeuse a un comportement Beerien et que le phase fibreuse a un comportement fortement non Beerien. Le champ de puissance radiative déposée dans le milieu fibreux est calculé en résolvant un modèle qui couple une Équation du Transfert Radiatif Généralisée (ETRG) et une Équation du Transfert radiatif Classique (ETR). Le modèle de conduction thermique est basé sur une méthode de marche aléatoire ne nécessitant aucun maillage. La simulation du mouvement Brownien de marcheurs dans les fibres permet de résoudre l'équation de l'énergie. L'idée de la méthode est de caractériser la température d'un volume élémentaire par une densité de marcheurs, qui peuvent parcourir le milieu. Le problème est gouverné par les conditions aux limites ; Une concentration constante de marcheurs (ou un flux constant) est associée à une température imposée (ou un flux)
In the present work, the effective heat transfer properties of fibrous medium are determined by taking into account a coupling of heat conduction and radiation. A virtual, statistically homogeneous, two-phase fibrous sample has been built by stacking finite absorbing cylinders in vaccum. These cylinders are dispersed according to prescribed distribution functions defining the cylinder positions and orientations. Cylinder overlappings are allowed. Extinction, absorption and scattering are characterised by radiative statistical functions which allow the Beerian behaviour of a medium to be assessed (or not). They are accurately determined with a Monte Carlo method. Whereas the gaseous phase exhibits a Beerian behaviour, the fibre phase is strongly non Beerian. The radiative power field deposited within the fibrous material is calculated by resolving a model which couples a Generalized Radiative Transfer Equation (GRTE) and a classic Radiative Transfer Equation (RTE). The model of conduction transfer is based on a random walk method without meshing. The simulation of Brownian motion of walkers in fibres allows the energy equation to be solved. The idea of the method is to characterize the temperature in an elementary volume by the density of walkers, which roam the medium. The problem is governed by boundary conditions ; A constant concentration of walkers (or a constant flux) is associated with a fixed temperature (or flux)
10

Nguyen, Duc Manh. "Méthode Hydro-Géomécanique de caractérisation de la susceptibilité des sols à l'érosion interne." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENI052.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'érosion interne est le résultat de l'arrachement des particules d'un sol sous l'action d'un écoulement hydraulique. Ce phénomène est à l'origine des ruptures hydrauliques des barrages et des digues. Sur le plan mondial, 46% des désordres observés, sur les ouvrages en terre, ont pour origine l'érosion interne. En France, 70 cas critiques ont déjà été détectés. Malheureusement, à cause du phénomène d'érosion lui-même, la prévision du risque reste délicate et les autorités ont du mal à mettre en place des plans d'urgence. Compte tenu du risque potentiel, la compréhension des phénomènes à l'origine de l'érosion interne apparaît comme un enjeu scientifique majeur. L'objectif du travail de thèse est de mettre au point une méthode de diagnostic de l'érosion interne dans les digues et autres ouvrages en terre. Nous cherchons à établir un protocole qui nous guidera sur les essais à faire et qui nous aidera à interpréter les résultats. Cette méthode permettra d'expertiser les risques d'érosion interne. (i) Dans un premier temps, les principaux résultats des reconnaissances géomécaniques permettent d'identifier des couches géotechniques de sol de caractéristiques homogènes dans lesquelles sont réalisés les essais pressiométriques. L'analyse cluster des résultats des essais pressiométriques permet de déterminer le type, la nature de sol, ainsi que les caractéristiques géotechniques moyennes. (ii) Les résultats obtenus servent ensuite à déterminer si le sol est instable et quel est son seuil de sensibilité à l'aide du logiciel expert. Ce logiciel permet de calculer les critères d'érosion interne et de qualifier la sensibilité du sol à l'érosion en déterminant son seuil érosif. (iii) Un nouveau dispositif expérimental appelé l'Essai d'Erosion Transverse (Cross Erosion Test - CET) permet de caractériser expérimentalement le sol par rapport au risque d'érosion interne. Cet essai consiste à injecter de l'eau dans un forage, puis à pomper cette eau dans un forage parallèle au premier. L'eau extraite est chargée en particules produites par l'érosion interne du sol. L'érosion est estimée en se basant sur la mesure de l'évolution de la masse des particules recueillies au cours du temps. Les résultats montrent que cette expérience permet de caractériser l'érosion interne dans un sol spécifique. L'avantage de cette technique c'est qu'elle est transposable in situ et qu'elle peut être utilisée pour prédire le risque de suffusion dans les barrages et les digues. (iv) La validation de l'expérience est faite par un modèle numérique 3D réalisé avec le logiciel Comsol Multiphysics 4.3b. Ce modèle permet de montrer que sous les conditions de perméabilité observées, le gradient hydraulique se concentre autour des points d'injection et de pompage. Une modélisation de base en 2D est développée. Cette première approche permet de décrire le phénomène d'érosion et le transport des particules fines dans le milieu poreux du sol
Internal erosion is the displacement of the fine particles of a soil under the action of an internal flow. This mechanism could be the origin of the damage on embankments and earth dams. In the word, 46% of failure observed on earthwork, are caused by internal erosion. In France, 70 critical cases have been detected. Unfortunately, due to internal erosion, the prediction of risk remains difficult. The understanding of this phenomenon of internal erosion appears as a major scientific challenge. The aim of this thesis is to develop a diagnostic method of internal erosion in dams and other earthworks. We seek to establish a protocol that will guide us to the test and help us to interpret the results. This method allows concluding about the risk of internal erosion appearance. (i) Initially, the main results of geotechnical survey allow identifying the layers of homogeneous characteristics of soil which are measured by the pressuremeter test. The results of cluster analysis of pressuremeter tests allow determining the localisation, the nature and the mean geotechnical characteristics of the soil. (ii) The results are used to determine the threshold of sensibility to internal erosion with the help of expert software. This software allows to calculate the criteria of internal erosion and to describe the sensitivity of the soil to internal erosion. (iii) A new experimental device is developed in our laboratory. This experiment called “Cross Erosion Test" (CET) allows determining the experimental resistance of the soil to the risk of internal erosion. The test consists of the injection, in a first drilling, of clear water and of the recovery, in another drilling, of water charged with eroded particles. For different initial state of the soils, it is possible to measure and to characterize the internal erosion by visualisation of the water flow and the measurement of the weight of the extracted eroded particles. The results show that this experience allows characterizing the internal erosion in a specific soil. The advantage of this technique is that it can be used in situ to predict the risk of suffusion in dams and dikes. (iv) A validation of experiences, with a 3D finite element method is carried out with the help of the Comsol Multiphysics 4.3b software. This model shows that under experiment hydraulic conditions, the hydraulic gradient is concentrated around the injection and the pumping. A finite element 2D model is developed to simulate erosion process. This approach describes the phenomenon of internal erosion and transport of fines particles in the porous medium of soils tested
11

Ihsan, Mohammad. "Analysis of the stability of slopes submitted to water infiltration using advanced models : coupled hydromechanical model and Nonlinear Dynamics Method." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10091/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse porte sur l'analyse des glissements de terrain, qui constituent un risque naturel majeur responsable de pertes humaines élevées ainsi que de grands dommages aux structures, des infrastructures et de l'environnement naturel. Cette question revêt une importance particulière, en raison du changement climatique, qui augmente le risque de fortes pluies ainsi que la sécheresse, et par conséquent le risque d'instabilité des pentes due à l'environnement. Généralement, l'analyse de la stabilité des talus est réalisée en utilisant l’approche de l'équilibre limite. Comme cette théorie ne tient pas compte du processus de mobilisation du frottement, elle pourrait conduire à une surestimation du facteur de sécurité. Une analyse fiable de la stabilité des talus, en particulier dans les sols hétérogènes soumis à l'action de l'eau, nécessite l'utilisation de méthodes numériques avancées. Deux méthodes ont été utilisées dans cette recherche: la méthode de couplage hydromécanique et la méthode dynamique non linéaire
This research concerns analysis of landslides, which constitute a major natural risk responsible for high human losses as well as large damages to structures, infrastructure and natural environment. This issue becomes particularly important, because of the climate change, which increases the risk of heavy rains as well as severe drought and consequently the risk of slope instability due to the environment change. Generally, analysis of slope stability is conducted using the limit equilibrium theory. As this theory does not take into consideration the process of mobilization of the friction, it could lead to an overestimation of the safety factor. A reliable analysis of the slope stability, in particular in heterogeneous soils submitted to the water action, requires the use of advanced numerical methods. Two methods were used in this research: the coupled hydro-mechanical method and the nonlinear dynamic method
12

Ghedhaifi, Weeded. "Modélisation de la combustion turbulente par le modèle de flamme cohérente couplé à une méthode de réduction de cinétique chimique en vu de la prédiction de l'émission des polluants." Châtenay-Malabry, Ecole centrale de Paris, 2006. http://www.theses.fr/2006ECAP1001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans le cadre d'une collaboration entre le laboratoire EM2C du CNRS et de l'ECP et l'industriel verrier Saint-Gobain. Nous nous sommes intéressés à la modélisation de la combustion turbulente et des émissions de polluants. Pour cela, nous avons développé un modèle de combustion turbulente basé sur le couplage entre le modèle de flamme cohérente CFM et la chimie détaillée. Le choix du modèle CFM repose sur sa capacité à décrire l'interaction entre le front de flamme et les structures turbulentes de l'écoulement dans lequel il évolue. Nous avons réalisé son couplage avec la chimie détaillée en utilisant des méthodes de tabulation de la cinétique chimique. Nous avons, ensuite, développé un modèle de traitement d'oxydes d'azote et plus particulièrement de NO thermique puisque les modèles existants se basent sur des hypothèses grossières qui ne permettent pas d'estimer les NOx produits de manière précise. Nous avons alors proposé une modélisation de la formation des NOx basée sur la chimie détaillée limitant ainsi les hypothèses requises. Pour tester ces modèles, nous avons réalisé des simulations numériques sur deux configurations 2D de laboratoire et une configuration 3D d'un brûleur de four verrier et ce sur les trois modes de combustion : prémélangée, partiellement prémélangée et non prémélangée. Les résultats obtenus sont très prometteurs et ont montré la capacité du modèle développé à décrire la combustion turbulente en y intégrant la chimie détaillée. De plus, le modèle de NOx a montré un comportement cohérent en fonction des principaux paramètres du problème. Il reste, toutefois, à être validé par des données expérimentales
The PhD was carried out in the EM2C Laboratory of CNRS and ECP and was supported by the glass industrial Saint-Gobain. The PhD work concerns turbulent combustion modelling and pollutant emissions. We developed a turbulent combustion model where the Coherent Flame Model (CFM) and detailed chemistry were combined. The CFM model was chosen since it provides a good description of the interaction between the flame front and turbulent scales in the considered flow. Detailed chemistry was introduced using a chemistry tabulation technique. We also developed a new model to predict Nitrogen Oxide production and thermal NO in particular. The existing models do not provide accurate estimations of NOx emission because of their simplified assumption. Then we developed a model using detailed chemistry considerations to decrease the required assumptions. To test these models, two simplified 2D configurations and a 3D configuration of glass furnace were used to carry out numerical simulations. The model was tested for the three combustion modes : premixed, partially premixed and non-premixed combustion. The numerical results are quite good and show the developed model capability of dealing with turbulent combustion where detailed chemistry is included. Furthermore, the NO modelling shows that the new model is able to predict a consistent behavior depending on the different parameters. However, the model needs to be validated using experimental measurements
13

Yahiaoui, Ala-Eddine. "Selective vehicle routing problem : cluster and synchronization constraints." Thesis, Compiègne, 2018. http://www.theses.fr/2018COMP2449/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème de tournées de véhicules (Vehicle Routing Problem - VRP) est un problème d'optimisation combinatoire utilisé généralement pour modéliser et résoudre des différents problèmes rencontrés dans les systèmes logistiques et de transport. Dans cette thèse, nous nous sommes intéressés à l'étude et la résolution d'une classe de problèmes du VRP appelée les problèmes de courses d'orientation (Team Orienteering Problem - TOP). Dans cette catégorie de problèmes, il est a priori impossible de visiter tous les clients en raison de ressources limitées. On associe plutôt un profit à chaque client qui représente sa valeur. Ce profit est collecté lorsque le client est visité par l'un des véhicules disponibles. L'objectif est donc de sélectionner un sous ensemble de clients à servir tout en maximisant le profit total collecté. Dans un premier temps, nous avons introduit une nouvelle généralisation pour le TOP que nous avons appelé le Clustered TOP ou CluTOP. Dans cette variante, les clients sont regroupés en sous-ensembles appelés clusters auxquels nous associons des profits. Pour résoudre cette variante, nous avons proposé un schéma exact basé sur l'approche des plans sécants avec des inégalités valides supplémentaires et des pré-traitements. Nous avons également conçu une méthode heuristique basée sur l'approche order first-cluster second. Cette heuristique hybride combine une heuristique de type Adaptive Large Neighborhood Search qui explore l'espace des solutions et une procédure de découpage qui explore l'espace de recherche des tours géants. De plus, la procédure de découpage est renforcée par une recherche locale afin de mieux explorer l'espace de recherche. Le deuxième problème traité dans ce travail s'appelle le Synchronized Team Orienteering Problem with Time Windows (STOPTW). Cette variante avait été initialement proposée afin de modéliser des scénarios liés à la protection des infrastructures stratégiques menacées par l'avancée des feux de forêts. En plus des contraintes de fenêtres de temps et des visites synchronisées, cette variante considère le cas d'une flotte de véhicules hétérogène. Pour résoudre ce problème, nous avons proposé une méthode heuristique basée sur l'approche GRASP×ILS qui est parvenue à dominer la seule approche existante dans la littérature. La dernière variante du TOP abordée dans cette thèse s'appelle le Set Orienteering Problem (SOP). Les clients dans cette variante sont regroupés en sous-ensembles appelés clusters. Un profit est associé à chaque groupe qui n'est obtenu que si au moins un client est desservi par le véhicule disponible. Nous avons proposé une méthode de coupes avec deux procédures de séparation pour séparer les contraintes d'élimination des sous-tours. Nous avons également proposé un algorithme Mémétique avec une procédure de découpage optimale calculée à l'aide de la programmation dynamique
The Vehicle Routing Problem (VRP) is a family of Combinatorial Optimization Problems generally used to solve different issues related to transportation systems and logistics. In this thesis, we focused our attention on a variant of the VRP called the Team Orienteering Problem (TOP). In this family of problems, it is a priory impossible to visit all the customers due to travel time limitation on vehicles. Instead, a profit is associated with each customer to represent its value and it is collected once the customer is visited by one of the available vehicles. The objective function is then to maximize the total collected profit with respect to the maximum travel time. Firstly, we introduced a new generalization for the TOP that we called the Clustered TOP (CluTOP). In this variant, the customers are grouped into subsets called clusters to which we associate profits. To solve this variant, we proposed an exact scheme based on the cutting plane approach with additional valid inequalities and pre-processing techniques. We also designed a heuristic method based on the order first-cluster second approach for the CluTOP. This Hybrid Heuristic combines between an ANLS heuristic that explores the solutions space and a splitting procedure that explores the giant tours search space. In addition, the splitting procedure is enhanced by local search procedure in order to enhance its coverage of search space. The second problem treated in this work is called the Synchronized Team Orienteering Problem with Time Windows (STOPTW). This variant was initially proposed in order to model scenarios related to asset protection during escaped wildfires. It considers the case of a heterogeneous fleet of vehicles along with time windows and synchronized visits. To solve this problem, we proposed a heuristic method based on the GRASP×ILS approach that led to a very outstanding results compared to the literature. The last variant of the TOP tackled in this thesis called the Set Orienteering Problem (SOP). Customers in this variant are grouped into subsets called clusters. Each cluster is associated with a profit which is gained if at least one customer is served by the single available vehicle. We proposed a Branch-and-Cut with two separation procedures to separate subtours elimination constraints. We also proposed a Memetic Algorithm with an optimal splitting procedure based on dynamic programming
14

Ndoye, El Hadji Malick. "Réseaux de capteurs sans fil linéaires : impact de la connectivité et des interférences sur une méthode d'accès basée sur des jetons circulants." Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF22661/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, il s'agit de proposer un protocole MAC qui prend en compte certaines spécificités des réseaux de capteurs sans fil linéaires. Ce protocole MAC est basé sur des jetons circulants qui donnent aux noeuds le droit d’accès au canal de transmission. Nous évaluons à partir de ce protocole l’impact des interférences et de la connectivité sur un réseau linéaire. Cette évaluation nous permet de proposer des techniques de clustering dans un réseau de capteurs sans fil linéaire. Nous supposons d’abord un clustering basé sur une exploitation logique du voisinage des noeuds capteurs. Nous considérons dans ce cas, un modèle de propagation déterministe qui ne tient pas en compte la complexité du milieu. Ensuite, nous considérons une technique de clustering dans laquelle le modèle de propagation prend en compte les fluctuations qui rendent le milieu complexe
In this thesis, we propose a MAC protocol that takes into account the specific characteristics of LSNs. This MAC protocol is based on tokens circulating that give the right to nodes to access to the transmission channel. We evaluate from this protocol the impact of interference and connectivity in the LSN. This evaluation allows us to propose clustering techniques in a LSN. We assume first a clustering based on a logical exploitation of the vicinity of the sensor nodes. In this case, we assume that a deterministic propagation model that does not take into account the complexity of the environment. Next, we consider a clustering technique wherein the propagation model takes into account the fluctuations that make complex the medium
15

Tran, Van tieng. "Structures en béton soumises à des chargements mécaniques extrêmes : modélisation de la réponse locale par la méthode des éléments discrets." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00627464.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse concerne la prédiction des structures en béton soumises à des chargements extrêmes. Il s'intéresse plus particulièrement au comportement du béton sous fort confinement où la contrainte peut atteindre des niveaux de l'ordre du giga Pascal. La modélisation de ce comportement doit être capable de reproduire la compaction irréversible. Pour ce faire, deux lois de comportement élasto-plastique - endommageable ont été développées et implantées dans un code aux éléments discrets. Les paramètres utilisés dans ces lois sont calibrés par les simulations des essais de traction/compression uniaxial, des essais hydrostatiques et triaxiaux. Une fois les paramètres calibrés, la loi montrant le meilleur agrément avec l'expérience a été choisie pour la prédiction de la réponse du béton sous différents niveaux de confinement. Les résultats du modèle sont analysés non seulement à l'échelle macroscopique mais également à l'échelle de l'élément discret. La nécessité de prendre en compte une loi d'interaction de type élasto-plastique-endommageable est aussi montrée. La deuxième partie du travail de thèse développe une méthode de couplage entre le modèle éléments discrets et un modèle d'écoulement compressible en tenant compte des mécanismes physiques fondamentaux d'interaction entre l'écoulement interne et les particules solides d'un matériau poreux. Le problème d'écoulement est résolu par une méthode en volumes finis, où le volume est discrétisé en tétraèdres issus d'une triangulation régulière de Delaunay. Notre modèle est une adaptation aux fluides compressibles d'un modèle développé initialement pour les écoulements incompressibles. Ce couplage a été utilisé pour simuler le comportement triaxial des bétons humides et saturés sous différents niveaux de confinement. Les résultats nous montrent une bonne reproduction du comportement non-drainé du béton saturé sous faible confinement. Pour fort confinement, les simulations ne se rapprochent des résultats expérimentaux qu'au prix d'une compressibilité du fluide plus faible que celle de l'eau. Par ailleurs, la contrainte effective était une variable pertinente pour décrire le comportement du béton humide par un état limite intrinsèque indépendant du degré de saturation.
16

Tran, Van Tieng. "Structures en béton soumises à des chargements mécaniques extrêmes : modélisation de la réponse locale par la méthode des éléments discrets." Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENU021/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse concerne la prédiction des structures en béton soumises à des chargements extrêmes. Il s'intéresse plus particulièrement au comportement du béton sous fort confinement où la contrainte peut atteindre des niveaux de l'ordre du giga Pascal. La modélisation de ce comportement doit être capable de reproduire la compaction irréversible. Pour ce faire, deux lois de comportement élasto-plastique - endommageable ont été développées et implantées dans un code aux éléments discrets. Les paramètres utilisés dans ces lois sont calibrés par les simulations des essais de traction/compression uniaxial, des essais hydrostatiques et triaxiaux. Une fois les paramètres calibrés, la loi montrant le meilleur agrément avec l'expérience a été choisie pour la prédiction de la réponse du béton sous différents niveaux de confinement. Les résultats du modèle sont analysés non seulement à l'échelle macroscopique mais également à l'échelle de l'élément discret. La nécessité de prendre en compte une loi d'interaction de type élasto-plastique-endommageable est aussi montrée. La deuxième partie du travail de thèse développe une méthode de couplage entre le modèle éléments discrets et un modèle d'écoulement compressible en tenant compte des mécanismes physiques fondamentaux d'interaction entre l'écoulement interne et les particules solides d'un matériau poreux. Le problème d'écoulement est résolu par une méthode en volumes finis, où le volume est discrétisé en tétraèdres issus d'une triangulation régulière de Delaunay. Notre modèle est une adaptation aux fluides compressibles d'un modèle développé initialement pour les écoulements incompressibles. Ce couplage a été utilisé pour simuler le comportement triaxial des bétons humides et saturés sous différents niveaux de confinement. Les résultats nous montrent une bonne reproduction du comportement non-drainé du béton saturé sous faible confinement. Pour fort confinement, les simulations ne se rapprochent des résultats expérimentaux qu'au prix d'une compressibilité du fluide plus faible que celle de l'eau. Par ailleurs, la contrainte effective était une variable pertinente pour décrire le comportement du béton humide par un état limite intrinsèque indépendant du degré de saturation
This thesis work deals with the predicting of concrete structures submitted to some extreme loadings, and, more particularly, focuses on behavior of concrete under a high-confining pressure. At this range of pressures, irreversible compaction of the material occurs and needs to be considered. Doing so, two elasto-plastic-damaged constitutive laws have been developed and implanted into a discrete element numerical code. Local parameters to be used in these constitutive laws are identified by simulating reference uniaxial traction/compression tests and triaxial compression tests. Once these parameters have been obtained, the law showing the best agreement with the experimental data has been chosen to predict the reponse of concrete sample for triaxial compressive tests at different levels of confinement. The numerical results have been analyzed not only at macroscopic scale but also at discrete element scale. The need of a constitutive law taking into account the elasto-plastic-damaged behavior has been also proved. The second objective of the thesis work was to develop a fluid flow – coupled discrete element model by considering fundamental physical mechanisms of the interaction between the internal fluide flow and the solid particles of a porous material. The flow problem is solved by the finite volume method, where the volume is discretized into tetrahedra issue of a regular Delaunay triangulation. Our model is an adaptation for elastic fluids of a model originally developed for incompressible flows. The developed fluid-flow coupled discrete element has been used to simulate the undrained triaxial behavior of concrete under different levels of confinement. The results show a good reproduction of undrained behavior of saturated concrete under low confinement. For high confinement, the simulations only resemble the experimental results when the fluid compressibility is lower than that of water. Moreover, the effective stress was a relevant variable to describe the behavior of the wet concrete by an intrinsic limit state independent of the degree of saturation
17

Ayhan, Tezer Bahar. "Damage evaluation of civil engineering structures under extreme loadings." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00975488.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
In many industrial and scientific domains, especially in civil engineering and mechanical engineering fields, materials that can be used on the microstructure scale, are highly heterogeneous by comparison to the nature of mechanical behavior. This feature can make the prediction of the behavior of the structure subjected to various loading types, necessary for sustainable design, difficult enough. The construction of civil engineering structures is regulated all over the world: the standards are more stringent and taken into account, up to a limit state, due to different loadings, for example severe loadings such as impact or earthquake. Behavior models of materials and structures must include the development of these design criteria and thereby become more complex, highly nonlinear. These models are often based on phenomenological approaches, are capable of reproducing the material response to the ultimate level. Stress-strain responses of materials under cyclic loading, for which many researches have been executed in the previous years in order to characterize and model, are defined by different kind of cyclic plasticity properties such as cyclic hardening, ratcheting and relaxation. By using the existing constitutive models, these mentioned responses can be simulated in a reasonable way. However, there may be failure in some simulation for the structural responses and local and global deformation. Inadequacy of these studies can be solved by developing strong constitutive models with the help of the experiments and the knowledge of the principles of working of different inelastic behavior mechanisms together. This dissertation develops a phenomenological constitutive model which is capable of coupling two basic inelastic behavior mechanisms, plasticity and damage by studying the cyclic inelastic features. In either plasticity or damage part, both isotropic and linear kinematic hardening effects are taken into account. The main advantage of the model is the use of independent plasticity versus damage criteria for describing the inelastic mechanisms. Another advantage concerns the numerical implementation of such model provided in hybrid-stress variational framework, resulting with much enhanced accuracy and efficient computation of stress and internal variables in each element. The model is assessed by simulating hysteresis loop shape, cyclic hardening, cyclic relaxation, and finally a series of ratcheting responses under uniaxial loading responses. Overall, this dissertation demonstrates a methodical and systematic development of a constitutive model for simulating a broad set of cycle responses. Several illustrative examples are presented in order to confirm the accuracy and efficiency of the proposed formulation in application to cyclic loading.
18

Philippe, Christelle. "Analyse de la pollution atmosphérique aux échelles locale et régionale. Modélisation spatiale et temporelle à l'aide d'une méthode de scénarii épisodiques." Phd thesis, INSA de Rouen, 2004. http://tel.archives-ouvertes.fr/tel-00006789.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour évaluer l'impact d'une exposition à long terme à une pollution atmosphérique, il est nécessaire de procéder à des simulations sur de longues périodes (plusieurs mois, voir plusieurs années). Dans certains cas comme la pollution photochimique, le temps de calcul est rédhibitoire. Cela pousse soit vers une intensification des calculs grâce à la parallélisation, soit vers la simulation de scénarios représentatifs. Durant cette thèse, nous avons procédé à la parallélisation du code TRANSCHIM. L'efficacité obtenue pour des simulations avec une chimie photo oxydante est satisfaisante, mais le gain de temps reste limité pour des simulations inertes. De plus, dans le cadre du projet CITY DELTA, une méthode de scénarios épisodiques à été développée pour évaluer les concentrations de fond sur la région parisienne. Cette méthode, basée sur le tri statistique de journées météorologiques, a été validée par confrontation aux mesures de capteurs pour la période étudiée (avril à septembre 1999).
19

Fezzani, Riadh. "Approche parallèle pour l'estimation du flot optique par méthode variationnelle." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00713970.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans le sillage des nombreuses recherches menées autour du problème d'estimation du flot optique. Elle se distingue par le fait d'avoir été menée dans un cadre pluridisciplinaire. Elle traite en effet d'un problème fondamental en traitement d'images (flot optique) auquel ont été appliqué des techniques de calcul scientifique (parallélisation) en visant une application expérimentale de la mécanique des fluides (vélocimétrie par images de particules). Le flot optique désigne le champ de vitesses apparent observé entre deux images successives d'une même scène. Son estimation est un intermédiaire essentiel dans de très nombreuses applications et nous proposons d'appliquer des techniques venant de la communauté de la vision par ordinateur à la vélocimétrie par images de particules (PIV). À la suite d'une évaluation préliminaire des approches classiques d'estimation du flot optique employant une régularisation soit locale soit globale du champ de vecteurs, nous décidons de considérer l'approche CLG de Bruhn et al. [2005b] qui propose de combiner les régularisations locale et globale. Nous étudions dans un premier temps la mise en œuvre du "warping" dans CLG puis nous le justifions dans notre approche baptisée "modified CLG" (MCLG). Nous décrivons ensuite deux méthodes de résolution. La première repose sur une approche par calcul variationnel et permet le développement d'un solveur de type Picard-SOR par bloc employant uniquement des linéarisations locales. Ce solveur est parallélisé par une technique de "color labelling". La deuxième méthode est une approche par "variable splitting" qui repose sur le fait d'introduire une seconde variable dans le modèle ce qui permet de le séparer en sous problèmes plus faciles à résoudre. Les solveurs intermédiaires employés dans cette techniques se composent d'opérations décorrélées, se qui facilite leur parallélisation. Une évaluation complète des différentes méthodes mises en œuvre au cours de ces travaux est présentée. On s'intéresse particulièrement au parallélisme des algorithmes développés, et cela sur différentes architectures (CPU multi-cœurs et GPU). On mesure également leur précison à l'aide de séquences classiques de traitement d'images mais aussi à l'aide d'images de PIV. On montre ainsi l'efficacité de la parallélisation de ces algorithmes (aussi bien sur CPU que sur GPU) et on prouve également l'interrés de considérer une approche CLG en PIV.
20

Marević, Petar. "Towards a unified description of quantum liquid and cluster states in atomic nuclei within the relativistic energy density functional framework." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS358/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous développons un modèle collectif de la structure du noyau préservant les symétries, basé sur la théorie des fonctionnelles de la densité relativistes. Les états de référence à déformation quadrupole/octupole et à symétrie axiale sont générés en résolvant les équations de Hartree-Bogoliubov relativistes. Nous employons la fonctionnelle avec couplage ponctuel covariant DD-PC1 dans le canal particule-trou de l'interaction effective, tandis que la force d'appariement non-relativiste séparable dans l'espace des impulsions est utilisée dans le canal particule-particule. Les corrélations collectives relatives à la restauration des symétries brisées sont prises en compte en projetant les états de référence à la fois sur les bonnes valeurs du moment angulaire, de la parité et du nombre de particules. L'étape suivante consiste à combiner les états à symétries restaurées à l'aide du formalisme de la méthode de la coordonnée génératrice. Ceci nous permet d'obtenir des prédictions spectroscopiques détaillées, incluant les énergies d'excitation, les moments multipolaires électromagnétiques et les taux de transition, ainsi que les facteurs de forme élastique et inélastique. La méthode décrite est globale et peut être employée pour l'étude de la structure de nucléides très divers. Comme première application de ce modèle, nous étudierons la formation de clusters dans les noyaux légers. Le clustering nucléaire peut être considéré comme étant un phénomène de transition entre les phases liquide quantique et solide des noyaux finis. En contraste avec l'image conventionnelle du liquide quantique homogène, la localisation spatiale des particules alpha donne une image du noyau atomique similaire à une molécule. Nous réalisons en particulier une analyse complète de la collectivité quadrupole-octupole et des structures de cluster dans les isotopes du néon. Une attention particulière est accordée au cas de l'isotope ²⁰Ne, dans lequel il semble que les structures de cluster apparaissent dès l'état fondamental. Nous étudions également la structure à basse énergie de l'isotope ¹²C. Nous concentrons notre analyse sur la structure en bandes construite à partir d'états 0⁺ qui manifestent une grande variété de formes, notamment les configurations triangulaires de la bande de Hoyle ainsi que des chaînes linéaires 3-alpha dans des états de plus haute énergie
In this thesis we develop a symmetry-conserving collective model for nuclear structure studies based on the relativistic energy density functional framework. Axially-symmetric quadrupole- and octupole-deformed reference states are generated by solving the relativistic Hartree-Bogoliubov equations. In the particle-hole channel of the effective interaction we employ the covariant point-coupling DD-PC1 functional, while the non-relativistic pairing force separable in momentum space is used in the particle-particle channel. Collective correlations related to restoration of broken symmetries are accounted for by simultaneously projecting reference states on good values of angular momenta, parity, and particle numbers. In the next step, symmetry-restored states are mixed within the generator coordinate method formalism. This enables us to obtain detailed spectroscopic predictions, including excitation energies, electromagnetic multipole moments and transition rates, as well as both the elastic and inelastic form factors. The described framework is global and it can be employed in various nuclear structure studies across the entire nuclide chart. As a first application, we will study formation of clusters in light nuclei. Nuclear clustering is considered to be a transitional phenomenon between quantum-liquid and solid phases in nuclei. In contrast to the conventional homogeneous quantum-liquid picture, spatial localization of alpha-particles gives rise to a molecule-like picture of atomic nuclei. In particular, we carry out a comprehensive analysis of quadrupole-octupole collectivity and cluster structures in neon isotopes. A special attention is paid to the case of self-conjugate ²⁰Ne isotope, where cluster structures are thought to form already in the ground state. Finally, we study the low-lying structure of ¹²C isotope. We focus on the structure of bands built on 0⁺ states that are known to manifest a rich variety of shapes, including the triangular configurations of the Hoyle band and 3-alpha linear chains in higher states
21

Jérôme, Dubois. "Contribution à l'algorithmique et à la programmation efficace des nouvelles architectures parallèles comportant des accélérateurs de calcul dans le domaine de la neutronique et de la radioprotection." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2011. http://tel.archives-ouvertes.fr/tel-00676001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine des sciences et technologies, la simulation numérique est un élément-clé des processus de recherche ou de validation. Grâce aux moyens informatiques modernes, elle permet des expérimentations numériques rapides et moins coûteuses que des maquettes réelles, sans pour autant les remplacer totalement, mais permettant de réaliser des expérimentations mieux calibrées. Dans le domaine de la physique des réacteurs et plus précisément de la neutronique, le calcul de valeurs propres est la base de la résolution de l'équation du transport des neutrons. La complexité des problèmes à résoudre (dimension spatiale, énergétique, nombre de paramètres, ...) est telle qu'une grande puissance de calcul peut être nécessaire. Les travaux de cette thèse concernent dans un premier temps l'évaluation des nouveaux matériels de calculs tels que les cartes graphiques ou les puces massivement multicœurs, et leur application aux problèmes de valeurs propres pour la neutronique. Ensuite, dans le but d'utiliser le parallélisme massif des supercalculateurs, nous étudions également l'utilisation de méthodes hybrides asynchrones pour résoudre des problèmes à valeur propre avec ce très haut niveau de parallélisme. Nous expérimentons ensuite le résultat de ces recherches sur plusieurs supercalculateurs nationaux tels que la machine hybride Titane du Centre de Calcul, Recherche et Technologies (CCRT), la machine Curie du Très Grand Centre de Calcul (TGCC) qui est en cours d'installation, et la machine Hopper du Lawrence Berkeley National Laboratory (LBNL), mais également sur des stations de travail locales pour illustrer l'intérêt de ces recherches dans une utilisation quotidienne avec des moyens de calcul locaux.
22

Lu, Xing. "La contrôlabilité frontière exacte et la synchronisation frontière exacte pour un système couplé d’équations des ondes avec des contrôles frontières de Neumann et des contrôles frontières couplés de Robin." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD013/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions la synchronisation, qui est un phénomène bien répandu dans la nature. Elle a été observée pour la première fois par Huygens en 1665. En se basant sur les résultats de la contrôlabilité frontière exacte, pour un système couplé d’équations des ondes avec des contrôles frontières de Neumann, nous considérons la synchronisation frontière exacte (par groupes), ainsi que la détermination de l’état de synchronisation. Ensuite, nous considérons la contrôlabilité exacte et la synchronisation exacte (par groupes) pour le système couplé avec des contrôles frontières couplés de Robin. A cause du manque de régularité de la solution, nous rencontrons beaucoup plus de difficultés. Afin de surmonter ces difficultés, on obtient un résultat sur la trace de la solution faible du problème de Robin grâce aux résultats de régularité optimale de Lasiecka-Triggiani sur le problème de Neumann. Ceci nous a permis d’établir la contrôlabilité exacte, et, par la méthode de la perturbation compacte, la non-contrôlabilité exacte du système. De plus, nous allons étudier la détermination de l’état de synchronisation, ainsi que la nécessité des conditions de compatibilité des matrices de couplage
This thesis studies the widespread natural phenomenon of synchronization, which was first observed by Huygens en 1665. On the basis of the results on the exact boundary controllability, for a coupled system of wave equations with Neumann boundary controls, we consider its exact boundary synchronization (by groups), as well as the determination of the state of synchronization. Then, we consider the exact boundary controllability and the exact boundary synchronization (by groups) for the coupled system with coupled Robin boundary controls. Due to difficulties from the lack of regularity of the solution, we have to face a bigger challenge. In order to overcome this difficulty, we take advantage of the regularity results for the mixed problem with Neumann boundary conditions (Lasiecka and Triggiani) to discuss the exact boundary controllability, and by the method of compact perturbation, to obtain the non-exact controllability for the system
23

Vignola, Emanuele. "A Theoretical Perspective on Hydrogenation and Oligomerization of Acetylene over Pd Based Catalysts." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEN054/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’hydrogénation sélective de l’acétylène est un processus fondamental pour l’industrie pétrochimique qui permet la purification de l’éthylène utilisé dans les réactions de polymérisation. Ce processus est promu par des catalyseurs au palladium, qui présentent une bonne sélectivité en éthylène par rapport au produit d’hydrogénation totale, c’est-à-dire l’éthane. Les catalyseurs de palladium pur sont malheureusement désactivés par des oligomères qui se forment comme sous-produits de la réaction d’hydrogénation. Les catalyseurs d’usage industriel sont, pour cette raison, plutôt des alliages de palladium avec d’autres métaux, comme par exemple, l’argent. Ces alliages réduisent la production des oligomères, sans pour autant les supprimer complètement. Ce travail de thèse a été focalisé sur la compréhension à l’échelle moléculaire de la formation de ce mélange d’oligomères, souvent appelée « huile verte ». Pour commencer, une approche de champ moyen a été développée pour déterminer rapidement l’état de la surface catalytique de l’alliage Pd-Ag en condition de réaction. Ce modèle a montré que l’acétylène est capable de réorganiser la couche de la surface et de générer des îles de palladium. Pour confirmer cette prédiction, nous avons effectué des simulations Monte Carlo en utilisant un Hamiltonien modèle. Ces calculs ont produits des résultats similaires au modèle analytique simple. Ayant attribué la formation des oligomères aux domaines de palladium ainsi obtenus, les étapes de d’oligomérisation ont été étudies et comparés à celles qui décrivent l’hydrogénation de l’acétylène. Les calculs, réalisé avec l’approximation de la théorie de la fonctionnelle de la densité (DFT), ont montré que la formation des oligomères est compétitive avec l’hydrogénation. En plus, les oligomères sont plus faciles à hydrogéner que l’acétylene et pourraient, donc, impacter négativement sur l’hydrogénation sélective de l’acétylène. Le rôle exact des îles de palladium sous conditions réalistes est encore à clarifier, sachant que le palladium est recouvert d’une grande variété d’espèces chimiques. Les techniques d’intelligence artificielle peuvent aider à atteindre ce but : nous avons ainsi démontré qu’il est possible d’interpoler les résultats des calculs DFT d’une façon automatique et de décrire l’énergie du système en série de coefficients « cluster ». Ceci permet de prendre en compte les interactions latérales entre espèces chimiques à la surface du palladium
Selective hydrogenation of acetylene in ethylene-rich flows is a fundamental process in the petrochemical industry since it allows the purification of ethylene for polymer applications. The reaction is catalyzed by Pd, which features acceptable selectivity towards ethylene compared to the total hydrogenation product, ethane. Pure Pd is, however, deactivated by oligomeric byproducts, known as ”green oil” in the literature. Therefore, most industrial catalysts are Pd-Ag alloys, where Ag helps to suppress the secondary reactions. This work addresses the formation of initial oligomers on Pd and Ag-Pd catalysts. A mean field based theoretical model was built to efficiently screen the topology of the topper most layer of the alloy catalyst under relevant conditions. This model gave evidence for strongly favored Pd island formation. To confirm this result, the system was then re-investigated by means of Monte Carlo simulations including the effect of segregation. Emergence of large domains of Pd were confirmed over large ratios of Ag to Pd. Green oil is expected to form on these catalytically active islands. To obtain a detailed view on the oligomerization process, activation energies were computed both for hydrogenation and oligomerization steps by periodic density functional theory on Pd(111). Oligomerization was found to be competitive with hydrogenation, with the hydrogenation of the oligomers being among the fastest processes. The role of Pd domains to green oil formation is still to be clarified under realistic conditions, where the surface is covered by many different species. A step forward to this goal was taken by developing a machine-learning tool which automatically interpolates model Hamiltonians on graphical lattices based on DFT computations, accounting for lateral interactions and distorted adsorption modes on crowded surfaces
24

Benguigui, Michaël. "Valorisation d’options américaines et Value At Risk de portefeuille sur cluster de GPUs/CPUs hétérogène." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4053/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail de recherche décrit dans cette thèse a pour objectif d'accélérer le temps de calcul pour valoriser des instruments financiers complexes, tels des options américaines sur panier de taille réaliste (par exemple de 40 sousjacents), en tirant partie de la puissance de calcul parallèle qu'offrent les accélérateurs graphiques (Graphics Processing Units). Dans ce but, nous partons d'un travail précédent, qui avait distribué l'algorithme de valorisation de J.Picazo, basé sur des simulations de Monte Carlo et l'apprentissage automatique. Nous en proposons une adaptation pour GPU, nous permettant de diviser par 2 le temps de calcul de cette précédente version distribuée sur un cluster de 64 cœurs CPU, expérimentée pour valoriser une option américaine sur 40 actifs. Cependant, le pricing de cette option de taille réaliste nécessite quelques heures de calcul. Nous étendons donc ce premier résultat dans le but de cibler un cluster de calculateurs, hétérogènes, mixant GPUs et CPUs, via OpenCL. Ainsi, nous accélérons fortement le temps de valorisation, même si les entrainements des différentes méthodes de classification expérimentées (AdaBoost, SVM) sont centralisés et constituent donc un point de blocage. Pour y remédier, nous évaluons alors l'utilisation d'une méthode de classification distribuée, basée sur l'utilisation de forêts aléatoires, rendant ainsi notre approche extensible. La dernière partie réutilise ces deux contributions dans le cas de calcul de la Value at Risk d’un portefeuille d'options, sur cluster hybride hétérogène
The research work described in this thesis aims at speeding up the pricing of complex financial instruments, like an American option on a realistic size basket of assets (e.g. 40) by leveraging the parallel processing power of Graphics Processing Units. To this aim, we start from a previous research work that distributed the pricing algorithm based on Monte Carlo simulation and machine learning proposed by J. Picazo. We propose an adaptation of this distributed algorithm to take advantage of a single GPU. This allows us to get performances using one single GPU comparable to those measured using a 64 cores cluster for pricing a 40-assets basket American option. Still, on this realistic-size option, the pricing requires a handful of hours. Then we extend this first contribution in order to tackle a cluster of heterogeneous devices, both GPUs and CPUs programmed in OpenCL, at once. Doing this, we are able to drastically accelerate the option pricing time, even if the various classification methods we experiment with (AdaBoost, SVM) constitute a performance bottleneck. So, we consider instead an alternate, distributable approach, based upon Random Forests which allow our approach to become more scalable. The last part reuses these two contributions to tackle the Value at Risk evaluation of a complete portfolio of financial instruments, on a heterogeneous cluster of GPUs and CPUs
25

Lelievre, Tony. "Modèles multi-échelles pour les fluides viscoélastiques." Phd thesis, Ecole des Ponts ParisTech, 2004. http://tel.archives-ouvertes.fr/tel-00006797.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail porte principalement sur l'analyse mathématique de modèles multi-échelles pour la simulation de fluides polymériques. Ces modèles couplent, au niveau microscopique, une description moléculaire de l'évolution des chaînes de polymère (sous forme d'une équation différentielle stochastique) avec, au niveau macroscopique, les équations de conservation de la masse et de la quantité de mouvement pour le solvant (sous forme d'équations aux dérivées partielles). Le chapitre 1 introduit les modèles et donne les principaux résultats obtenus. Dans les chapitres 2, 4, 5 et 7 on montre en quel sens les équations sont bien posées pour divers modèles de polymère, en considérant soit des écoulements homogènes, soit des écoulements cisaillés plans. Dans les chapitres 2, 3, 6 et 7, on analyse et on prouve la convergence de méthodes numériques pour ces modèles. Enfin, le chapitre 8 concerne le comportement en temps long du système. Une deuxième partie de ce document est constituée de trois chapitres portant sur un travail en magnétohydrodynamique (MHD), en collaboration avec l'industrie. Le chapitre 9 est une introduction à la problématique ainsi qu'aux méthodes numériques utilisées. Le chapitre 10 décrit un nouveau cas-test en MHD. Enfin, le chapitre 11 donne une analyse de la stabilité du schéma numérique utilisé.
26

Chebly, Alia. "Trajectory planning and tracking for autonomous vehicles navigation." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2392/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de cette thèse portent sur la navigation des véhicules autonomes, notamment la planification de trajectoires et le contrôle du véhicule. En premier lieu, un modèle véhicule plan est développé en utilisant une technique de modélisation qui assimile le véhicule à un robot constitué de plusieurs corps articulés. La description géométrique du véhicule est basée sur la convention de Denavit-Hartenberg modifiée. Le modèle dynamique du véhicule est ensuite calculé en utilisant la méthode récursive de Newton-Euler, qui est souvent utilisée dans le domaine de robotique. La validation du modèle a été conduite sur le simulateur Scaner-Studio développé par Oktal pour les applications automobiles. Le modèle du véhicule développé est ensuite utilisé pour la synthèse de lois de commande couplées pour les dynamiques longitudinale et latérale du véhicule. Deux correcteurs sont proposés dans ce travail : le premier est basé sur les techniques de commande par Lyapunov, le second utilise une approche ”Immersion et Invariance”. Ces deux contrôleurs ont pour objectifs de suivre une trajectoire de référence donnée avec un profil de vitesse désirée, tout en tenant compte du couplage existant entre les dynamiques longitudinale et latérale du véhicule. En effet, le contrôle couplé est nécessaire pour garantir la sécurité du véhicule autonome surtout lors de l’exécution des manœuvres couplées comme les manœuvres de changement de voie, les manœuvres d’évitement d’obstacles et les manœuvres exécutées dans les situations de conduite critiques. Les contrôleurs développés ont été validés en simulation sous Matlab/Simulink en utilisant des données expérimentales. Par la suite, ces contrôleurs ont été validés expérimentalement en utilisant le véhicule démonstrateur robotisé (Renault-Zoé) du laboratoire Heudiasyc financé par l’Equipex Robotex. En ce qui concerne la planification de trajectoires, une méthode de planification basée sur la méthode des tentacules sous forme de clothoides a été développée. En outre, une méthode de planification de manœuvres qui s’intéresse essentiellement à la manœuvre de dépassement a été mise en place, afin d’améliorer et de compléter la méthode locale des tentacules. Le planificateur local et le planificateur de manœuvres ont été ensuite combinés pour établir une stratégie de navigation complète. Cette stratégie a été validée par la suite sous Matlab/Simulink en utilisant le modèle de véhicule développé et le contrôleur basé sur Lyapunov
In this thesis, the trajectory planning and the control of autonomous vehicles are addressed. As a first step, a multi-body modeling technique is used to develop a four wheeled vehicle planar model. This technique considers the vehicle as a robot consisting of articulated bodies. The geometric description of the vehicle system is derived using the modified Denavit Hartenberg parameterization and then the dynamic model of the vehicle is computed by applying a recursive method used in robotics, namely Newton-Euler based Algorithm. The validation of the developed vehicle model was then conducted using an automotive simulator developed by Oktal, the Scaner-Studio simulator. The developed vehicle model is then used to derive coupled control laws for the lateral and the longitudinal vehicle dynamics. Two coupled controllers are proposed in this thesis: In the first controller, the control is designed using Lyapunov control techniques while in the second one an Immersion and Invariance approach is used. Both of the controllers aim to ensure a robust tracking of the reference trajectory and the desired speed while taking into account the strong coupling between the lateral and the longitudinal vehicle dynamics. In fact, the coupled controller is a key step for the vehicle safety handling, especially in coupled maneuvers such as lane-change maneuvers, obstacle avoidance maneuvers and combined maneuvers in critical driving situations. The developed controllers were validated in simulation under Matlab/Simulink using experimental data. Subsequently, an experimental validation of the proposed controllers was conducted using a robotized vehicle (Renault-ZOE) present in the Heudiasyc laboratory within the Equipex Robotex project. Concerning the trajectory planning, a local planning method based on the clothoid tentacles method is developed. Moreover, a maneuver planning strategy focusing on the overtaking maneuver is developed to improve and complete the local planning approach. The local and the maneuver planners are then combined in order to establish a complete navigation strategy. This strategy is then validated using the developed robotics vehicle model and the Lyapunov based controller under Matlab/Simulink
27

Bissery, Véronique. "Contribution au développement de la méthode Hydrophobic Cluster Analysis HCA d'exploitation des séquences de protéines : application à la superfamille des récepteurs des hormones stéroïdiennes et de l'acide rétinoi͏̈que, modélisation du domaine de liaison à l'hormone du récepteur androgène." Paris 5, 1989. http://www.theses.fr/1989PA05P625.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Louis-Rose, Carole Julie. "Sur la contrôlabilité à zéro de problèmes d’évolution de type parabolique." Thesis, Antilles-Guyane, 2013. http://www.theses.fr/2013AGUY0609/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse a pour objet l'étude de la contrôlabilité à zéro de systèmes d'équations aux dérivées partielles paraboliques, que l'on rencontre en physique, chimie ou en biologie. En chimie ou en biologie, ces systèmes modélisent l'évolution au cours du temps d'une concentration chimique ou de la densité d'une population (de bactéries, de cellules). Le but de la contrôlabilité à zéro est d'amener la solution du système à l'état nul à un temps donné T, en agissant sur le système à l'aide d'un contrôle. Nous recherchons donc un contrôle, de norme minimale, tel que la solution associée y vérifie y(T)=O dans le domaine Omega considéré. Les problèmes de contrôlabilité à zéro considérés dans cette thèse sont de trois types. Dans un premier temps, nous nous intéressons à la contrôlabilité à zéro avec un nombre fini de contraintes sur la dérivée normale de l'état, pour l'équation de la chaleur semi-linéaire. Puis, nous analysons la contrôlabilité simultanée à zéro avec contrainte sur le contrôle, pour un système linéaire de deux équations paraboliques couplées. Notre dernière étude concerne la contrôlabilité à zéro d'un système non linéaire de deux équations paraboliques couplées. Nous abordons ces problèmes de contrôlabilité principalement à l'aide d'inégalités de Carleman. En effet, l'étude des problèmes de contrôlabilité à zéro, et plus généralement de contrôlabilité exacte, peut se ramener à l'établissement d'inégalités d'observabilité pour le problème adjoint, conséquences d'inégalités de Carleman. Nous construisons le contrôle optimal en utilisant la méthode variationnelle et nous le caractérisons par un système d'optimalité
This thesis is devoted to the study of the null controllability of systems of parabolic partial differential equations, which we meet in physics, chemistry or in biology. In chemistry or in biology, the se systems model the evolution in time of a chemical concentration or the density of a population (of bacteria, cells). The aim of nu Il controllability is to lead the solution of the system to zero in a given time T, by acting on the system with a control. Thus we are looking for a control, of minimal norm, such as the associated solution y satisfies y(T)=O in the domain Omega under concern. We consider three types of null controllability problems in this thesis. At first, we are interested in the null controllability with afinite number of constraints on the normal derivative of the state, for the serni-Iinear heat equation. Then, we analyze the simultaneous null controllability with constraint on the control, for a linear system of two coupled parabolic equations. Our last study deals with the null controllability ofa non linear system oftwo coupled parabolic equations. We approach these controllability problems mainly by means of Carleman's inequalities. Indeed, the study of null controllability problems, and more generally exact controllability problems, is equivalent to obtain observability inequalities for the adjoint problem, consequences of Carleman's inequalities. We build the optimal controlusing the variationnal method and we characterize it by an optimality system
29

Carpentier, Denise. "Simulation de la cinétique d’absorption des défauts ponctuels par les dislocations et amas de défauts." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLX077/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La dynamique d'amas (DA) est une méthode de simulation en champ moyen permettant la prédiction de l'évolution des matériaux sous irradiation. Dans cette thèse, on s'intéresse aux forces de puits, qui sont les paramètres utilisés en DA pour représenter la capacité des puits (dislocations, cavités...) à absorber les défauts ponctuels (lacunes, interstitiels). Pour calculer les forces de puits, on réalise des simulations Monte Carlo cinétique sur objets (OKMC) dans lesquelles l'énergie des défauts ponctuels au point stable et au point col est décrite à l'aide de dipôles élastiques. Ces quantités sont préalablement calculées pour un cristal d'aluminium en utilisant la théorie de la fonctionnelle de la densité. Une première partie de ce travail vise à évaluer les forces des principaux puits présents dans les microstructures sous irradiation (cavité, dislocation droite et boucle de dislocation) dans des configurations simples. L'étude met en évidence l'importance des interactions élastiques, et permet d'identifier l'anisotropie des dipôles élastiques au point col comme un paramètre très important qui modifie à la fois les trajectoires des défauts ponctuels et les valeurs de forces de puits. On s'intéresse dans une deuxième partie à l'importance de la position relative des puits sur leur capacité à absorber les défauts ponctuels. Des microstructures contenant un grand nombre de boucles de dislocation sont générées par des simulations OKMC et l'absorption des défauts ponctuels par ces microstructures est mesurée. Il est montré que le voisinage d'un puits modifie sensiblement sa capacité à absorber les défauts ponctuels et ce comportement est rationalisé en utilisant le volume de Voronoï associé à chaque puits. Cette étude conduit à proposer une nouvelle expression de force de puits, ainsi qu'un nouveau formalisme de DA dans lequel les amas sont caractérisés par leur taille et par le volume de leur cellule de Voronoï. Il est montré que ce formalisme permet d'améliorer fortement la prédiction de l'évolution des distributions de tailles d’amas lors d'une irradiation
Cluster Dynamics (CD) is a mean field simulation method which makes it possible to predict the materials evolution under irradiation. In this work, we focus on sink strengths, which are the parameters used in CD to represent the capacity of sinks (dislocations, cavities…) to absorb point defects (vacancies, self-interstitials). To calculate the sink strengths, object kinetic Monte Carlo (OKMC) simulations are performed. The energy of point defects at stable and saddle points is described through their elastic dipoles. These elements are computed in an aluminum crystal using density functional theory. In a first part, the sink strengths of the main objects found in irradiated microstructures (dislocations, cavities and dislocation loops) are calculated on simple configurations. This study reveals the importance of elastic interactions, and enables us to identify the saddle point anisotropy of point defects as an important parameter, as it modifies both the point defects trajectories and the sink strength values. Then, we focus on the role of the relative position of sinks in their capacity to absorb point defects. Microstructures containing a large number of dislocation loops are generated by OKMC simulations and the absorption of point defects by those microstructures is measured. It is shown that the neighborhood of a sink modifies noticeably its capacity to absorb the point defects and this behavior is rationalized through the Voronoi volume associated with each sink. This study leads to the proposal of a new sink strength expression, and of a new formalism for CD in which clusters are described by their size and their Voronoi volume. The results show that this formalism makes it possible to strongly improve the prediction of the evolution of cluster size distributions during irradiation
30

Vahedi, Abolfazl. "Modélisation et caractérisation des machines synchro-reluctantes saturées par des méthodes numériques." Vandoeuvre-les-Nancy, INPL, 1996. http://www.theses.fr/1996INPL074N.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le présent travail est consacré à la modélisation des machines synchro-reluctantes (MSR) en tenant compte de la saturation et de l'effet croisé. Parmi les méthodes utilisées pour la caractérisation des MSR, la méthode numérique est la mieux adaptée à l'optimisation, mais elle nécessite un grand nombre de calculs, lorsqu'on tient compte de la distribution réelle des ampères-conducteurs et de la géométrie réelle de la machine. Pour réduire le nombre de calculs, tout en préservant la géométrie, nous proposons une distribution équivalente qui à le même fondamental que la distribution réelle. Les résultats obtenus par la distribution équivalente concordent bien avec ceux obtenus par la distribution réelle, ce qui montre que le niveau de saturation est pratiquement imposé par le seul fondamental. Après avoir vérifié cette méthode, nous l'avons appliquée à la modélisation d'une MSR à deux pôles. Ce modèle est ensuite utilisé pour la commande de la machine. Le fait d'imposer au courant sur l'axe direct une valeur constante et élevée, rend l'effet croisé négligeable et permet de contrôler le couple électromagnétique dans cette machine exactement comme dans une machine non saturée
31

Rapti, Ioanna. "Numerical modeling of liquefaction-induced failure of geostructures subjected to earthquakes." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'importance croissante de l'évaluation de la performance des structures soumis au chargement sismique souligne la nécessité d'estimer le risque de liquéfaction. Dans ce scénario extrême de la liquéfaction du sol, des conséquences dévastatrices sont observées, par exemple des tassements excessifs et des instabilités de pentes. Dans le cadre de cette thèse, la réponse dynamique et l'interaction d'un système ouvrage en terre-fondation sont étudiées, afin de déterminer quantitativement le mécanisme de ruine dû à la liquéfaction du sol de la fondation. Par ailleurs, les chargements sismiques peuvent induire dans les ouvrages en terre un mode de rupture générant des bandes de cisaillement. Une étude de sensibilité aux maillages a donc été engagée pour quantifier la dépendance des résultats de l'analyse dynamique. Par conséquent, l'utilisation d'une méthode de régularisation est évaluée au cours des analyses dynamiques. Le logiciel open-source Code_Aster, basé sur la méthode des Eléments Finis et développé par EDF R&D, est utilisé pour les simulations numériques, tandis que le comportement du sol est représenté par le modèle de comportement de l'ECP, développé à CentraleSupélec. En premier lieu, un modèle simplifié de propagation 1D des ondes SH dans une colonne de sol avec comportement hydromécanique couplé non linéaire a été simulé. L'effet des caractéristiques du signal sismique et de la perméabilité du sol sur la liquéfaction est évalué. Le signal sismique d'entrée est un élément important pour l'apparition de la liquéfaction, puisque la durée du choc principal peut conduire à de fortes non linéarités et à un état de liquéfaction étendu. En outre, quand une variation de perméabilité en fonction de l'état de liquéfaction est considérée, des changements significatifs sont observés pendant la phase de dissipation de la surpression interstitielle de l'eau et au comportement du matériau. En revanche, ces changements ne suivent pas une tendance unique. Puis, l'effet d'une méthode de régularisation avec cinématique enrichie, appelée premier gradient de dilatation, sur la propagation des ondes SH est étudié au travers d'une solution analytique. Des problèmes à la réponse dynamique du sol sont observés et discutés quand cette méthode de régularisation est appliquée. Ensuite, un modèle 2D d'un déblai est simulé et sa réponse dynamique est évaluée en conditions sèches, complètement drainées et hydromécanique couplées. Deux critères sont utilisés pour définir le début de la rupture de la structure. Le travail du second ordre est utilisé pour décrire l'instabilité locale à des instants spécifiques du mouvement sismique, tandis que l'estimation d'un facteur de sécurité locale est proposée prenant en compte la résistance résiduelle du sol. En ce qui concerne le mode de ruine, l'effet de la surpression interstitielle de l'eau est de grande importance, puisqu'un déblai stable en conditions sèches et complètement drainées, devient instable lors de l'analyse couplée à cause de la liquéfaction de la fondation. Enfin, un système digue-fondation est simulé et l'influence de la perméabilité du sol, la profondeur de la couche liquéfiable, ainsi que, les caractéristiques du séisme sur la ruine induite par la liquéfaction du sol est évaluée. Pour ce modèle de digue, le niveau de dommages est fortement lié à la fois à l'apparition de la liquéfaction dans la fondation et la dissipation de la surpression d'eau. Une surface d'effondrement circulaire est générée à l'intérieur de la couche du sol liquéfié et se propage vers la crête dans les deux côtés de la digue. Pourtant, lorsque la couche liquéfiée est située en profondeur, la digue n'est pas affectée par la liquéfaction de la fondation pour ce cas particulier de chargement. Ce travail de recherche se concentre sur une étude de cas de référence pour l'évaluation sismique des ouvrages en terre soumis à un séisme et fournit des méthodes et outils de calculs numériques performants accessibles aux ingénieurs
The increasing importance of performance-based earthquake engineering analysis points out the necessity to assess quantitatively the risk of liquefaction. In this extreme scenario of soil liquefaction, devastating consequences are observed, e.g. excessive settlements, lateral spreading and slope instability. The present PhD thesis discusses the global dynamic response and interaction of an earth structure-foundation system, so as to determine quantitatively the collapse mechanism due to foundation’s soil liquefaction. As shear band generation is a potential earthquake-induced failure mode in such structures, the FE mesh dependency of results of dynamic analyses is thoroughly investigated and an existing regularization method is evaluated. The open-source FE software developed by EDF R&D, called Code_Aster is used for the numerical simulations, while soil behavior is represented by the ECP constitutive model, developed at CentraleSupélec. Starting from a simplified model of 1D SH wave propagation in a soil column with coupled hydromechanical nonlinear behavior, the effect of seismic hazard and soil’s permeability on liquefaction is assessed. Input ground motion is a key component for soil liquefaction apparition, as long duration of mainshock can lead to important nonlinearity and extended soil liquefaction. Moreover, when a variation of permeability as function of liquefaction state is considered, changes in the dissipation phase of excess pore water pressure and material behavior are observed, which do not follow a single trend. The effect of a regularization method with enhanced kinematics approach, called first gradient of dilation model, on 1D SH wave propagation is studied through an analytical solution. Deficiencies of the use of this regularization method are observed and discussed, e.g. spurious waves apparition in the soil’s seismic response. Next, a 2D embankment-type model is simulated and its dynamic response is evaluated in dry, fully drained and coupled hydromechanical conditions. Two criteria are used to define the onset of the structure’s collapse. The second order work is used to describe the local instability at specific instants of the ground motion, while the estimation of a local safety factor is proposed by calculating soil’s residual strength. Concerning the failure mode, the effect of excess pore water pressure is of great importance, as an otherwise stable structure-foundation system in dry and fully drained conditions becomes unstable during coupled analysis. Finally, a levee- foundation system is simulated and the influence of soil’s permeability, depth of the liquefiable layer, as well as, characteristics of input ground motion on the liquefaction-induced failure is evaluated. For the current levee model, its induced damage level (i.e. settlements and deformations) is strongly related to both liquefaction apparition and dissipation of excess pore water pressure on the foundation. A circular collapse surface is generated inside the liquefied region and extends towards the crest in both sides of the levee. Even so, when the liquefied layer is situated in depth, no effect on the levee response is found. This research work can be considered as a reference case study for seismic assessment of embankment-type structures subjected to earthquake and provides a high-performance computational framework accessible to engineers
32

Lelièvre, Tony. "Modèles multi-échelles pour les fluides viscoélastiques." Marne-la-vallée, ENPC, 2004. https://hal.science/tel-00006797.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail porte principalement sur l'analyse mathématique de modèles multi-échelles pour la simulation de fluides polymériques. Ces modèles couplent, au niveau microscopique, une description moléculaire de l'évolution des chaînes de polymère (sous forme d'une équation différentielle stochastique) avec, au niveau macroscopique, les équations de conservation de la masse et de la quantité de mouvement pour le solvant (sous forme d'équations aux dérivées partielles). Le chapitre 1 introduit les modèles et donne les principaux résultats obtenus. Dans les chapitres 2, 4, 5 et 7 on montre en quel sens les équations sont bien posées pour divers modèles de polymère, en considérant soit des écoulements homogènes, soit des écoulements cisaillés plans. Dans les chapitres 2, 3, 6 et 7, on analyse et on prouve la convergence de méthodes numériques pour ces modèles. Enfin, le chapitre 8 concerne le comportement en temps long du système. Une deuxième partie de ce document est constituée de trois chapitres portant sur un travail en magnétohydrodynamique (MHD), en collaboration avec l'industrie. Le chapitre 9 est une introduction à la problématique ainsi qu'aux méthodes numériques utilisées. Le chapitre 10 décrit un nouveau cas-test en MHD. Enfin, le chapitre 11 donne une analyse de la stabilité du schéma numérique utilisé
The most important part of this work deals with the mathematical analysis of multiscale models of polymeric fluids. These models couple, at the microscopic level, a molecular description of the evolution of the polymer chains (in terms of stochastic differential equations) and, at the macroscopic level, the mass conservation and momentum equations for the solvent (which are partial differential equations). In Chapter 1, we introduce the models and give the main results obtained. In Chapters 2, 4, 5 and 7 we make precise the mathematical meaning and the well-posedness of the equations in either homogeneous flows or plane shear flows for some specific models of polymer chains. In Chapters 2, 3, 6 and 7, we analyse and prove convergence of some numerical schemes. Finally, in Chapter 8, we deal with the longtime behaviour of the coupled system. A second part of this document concerns a magnetohydrodynamic (MHD) problem coming from industry. In Chapter 9, we introduce the problem and the numerical methods used. We present a new test-case in MHD in Chapter 10. Finally, we give a stability analysis of the scheme in Chapter 11
33

Bassomo, Pierre. "Contribution à la parallélisation de méthodes numériques à matrices creuses skyline. Application à un module de calcul de modes et fréquences propres de Systus." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1999. http://tel.archives-ouvertes.fr/tel-00822654.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'augmentation continue de la puissance des ordinateurs personnels (stations de travail ou PCs) et l'émergence de réseaux à haut débits fournissent de nouvelle opportunités de réalisation de machines parallèle à faible coût, en comparaison des machines parallèles traditionnelles. On peut aujourd 'hui construire de véritables machines parallèles en interconnectant des processeurs standards. Le fonctionnement de cet ensemble de processeurs en tant que machines parallèle est alors assuré par des logiciels tels que PVM et MPI. Quelle que soit la machine parallèle considérée, concevoir des applications parallèles impose, soit des outils de parallélisation automatique, soit un effort du programmeur suivant des méthodologies de programmation. Dans cette thèse, nous proposons une méthodologie de parallélisation des méthodes numériques. En général les méthodes numériques sont une chaîne d'algorithmes s'appelant les uns après les autres tout au long de leur exécution. A moins d'aborder leur parallélisation à partir du problème physique qu'elles traitent, par exemple par des techniques de décomposition de domaines, l'approche de parallélisation la plus réaliste est celle de type client/serveur.
34

Rouet, François-Henry. "Problèmes de mémoire et de performance de la factorisation multifrontale parallèle et de la résolution triangulaire à seconds membres creux." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2012. http://tel.archives-ouvertes.fr/tel-00785748.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons à la résolution de systèmes linéaires creux de très grande taille sur des machines parallèles. Dans ce contexte, la mémoire est un facteur qui limite voire empêche souvent l'utilisation de solveurs directs, notamment ceux basés sur la méthode multifrontale. Cette étude se concentre sur les problèmes de mémoire et de performance des deux phases des méthodes directes les plus coûteuses en mémoire et en temps : la factorisation numérique et la résolution triangulaire. Dans une première partie nous nous intéressons à la phase de résolution à seconds membres creux, puis, dans une seconde partie, nous nous intéressons à la scalabilité mémoire de la factorisation multifrontale. La première partie de cette étude se concentre sur la résolution triangulaire à seconds membres creux, qui apparaissent dans de nombreuses applications. En particulier, nous nous intéressons au calcul d'entrées de l'inverse d'une matrice creuse, où les seconds membres et les vecteurs solutions sont tous deux creux. Nous présentons d'abord plusieurs schémas de stockage qui permettent de réduire significativement l'espace mémoire utilisé lors de la résolution, dans le cadre d'exécutions séquentielles et parallèles. Nous montrons ensuite que la façon dont les seconds membres sont regroupés peut fortement influencer la performance et nous considérons deux cadres différents : le cas "hors-mémoire" (out-of-core) où le but est de réduire le nombre d'accès aux facteurs stockés sur disque, et le cas "en mémoire" (in-core) où le but est de réduire le nombre d'opérations. Finalement, nous montrons comment améliorer le parallélisme. Dans la seconde partie, nous nous intéressons à la factorisation multifrontale parallèle. Nous montrons tout d'abord que contrôler la mémoire active spécifique à la méthode multifrontale est crucial, et que les techniques de "répartition" (mapping) classiques ne peuvent fournir une bonne scalabilité mémoire : le coût mémoire de la factorisation augmente fortement avec le nombre de processeurs. Nous proposons une classe d'algorithmes de répartition et d'ordonnancement "conscients de la mémoire" (memory-aware) qui cherchent à maximiser la performance tout en respectant une contrainte mémoire fournie par l'utilisateur. Ces techniques ont révélé des problèmes de performances dans certains des noyaux parallèles denses utilisés à chaque étape de la factorisation, et nous avons proposé plusieurs améliorations algorithmiques. Les idées présentées tout au long de cette étude ont été implantées dans le solveur MUMPS (Solveur MUltifrontal Massivement Parallèle) et expérimentées sur des matrices de grande taille (plusieurs dizaines de millions d'inconnues) et sur des machines massivement parallèles (jusqu'à quelques milliers de coeurs). Elles ont permis d'améliorer les performances et la robustesse du code et seront disponibles dans une prochaine version. Certaines des idées présentées dans la première partie ont également été implantées dans le solveur PDSLin (solveur linéaire hybride basé sur une méthode de complément de Schur).
35

Briki, Mohamed. "Étude du couplage entre structure et ordre chimique dans les agrégats bimétalliques : vers l’établissement de diagrammes de phases à l’échelle nanométrique." Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112001/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Si les diagrammes de phase des alliages binaires massifs sont désormais bien connus, il en va tout autrement de ceux des nanoalliages, particules constituées de quelques centaines à quelques milliers d’atomes. Le développement des nanotechnologies est un puissant moteur pour développer la connaissance des diagrammes de phase des nanoparticules. Dans ce but, nous avons étudié le polyèdre de Wulff de 405 atomes (PW405) dans le système Cu-Ag caractérisé par une forte différence de rayons atomiques entre les constituants et une tendance à la démixtion, du moins dans sa forme massive. L’étude est réalisée par simulations Monte Carlo utilisant un potentiel interatomique à N-corps, en tirant parti de la richesse de deux ensembles thermodynamiques, à savoir les ensembles pseudo-grand canonique, i.e. à différence de potentiel chimique fixée, et canonique, i.e. à concentration nominale fixée. Nous montrons tout d’abord qu’un diagramme de phase de nanoalliage est constitué d’un ensemble de diagrammes de phase attachés à des classes de sites de surface ou des couches internes. Ainsi, pour le PW405, nous distinguons trois diagrammes de phase : ceux des facettes (100) et (111) et celui des couches de cœur. Chacun de ces trois diagrammes est attaché à des phénomènes physiques très différents. Ainsi, le diagramme de phase des facettes (100) est relatif à une transition structuro-chimique, alors que celui des facettes (111) caractérise une transition démixtion – désordre sans évolution structurale. Dans l’ensemble p-GC, cela se traduit par une bistabilité collective pour les facettes (100) et individuelle pour les facettes (111). Une conséquence de ce dernier point est la possibilité d’observer des facettes (111) pures en cuivre et d’autres pures en argent au sein d’un même agrégat !L’utilisation de la méthode de Widom pour déterminer dans l’ensemble canonique s’est révélée déterminante pour pouvoir séparer les régimes monophasés de ségrégation superficielle ou sub-superficielle des régimes biphasés. La différence de rayons atomiques joue un rôle important, tant dans la stabilisation dans l’état biphasé de la configuration Janus dissimulée par une coquille d’argent, que dans l’abaissement de la température critique par un facteur d’environ 2 par rapport au diagramme de phase massif.Une analyse des simulations Monte Carlo par une approche en champ moyen sur réseau effectif s’est révélée d’une richesse insoupçonnée pour déterminer les fores motrices de chaque type de transition, tant à la surface que dans les couches de cœur. Cela nous a permis de plus de montrer que les arêtes jouent le rôle d’une véritable nano-armature pour l’agrégat. Ce travail s’achève par ce qui constitue, à notre connaissance, la proposition du premier diagramme de phase de nanoalliage
If bulk phase diagrams of binary alloys are now well known, it is not the case for nanoalloys, which are particles consisting in a few hundred to a few thousand of atoms. The development of nanotechnologies is a powerful driving force to develop the interest in the phase diagrams of nanoparticles. For this purpose, we have studied the Wulff polyhedron of 405 atoms (PW405) in the Cu-Ag system characterized by a large difference in atomic radii between the components and a tendency to phase separation, at least in the bulk. The study is carried out by Monte Carlo simulations using N-body interatomic potentials, taking advantage of the complementarity of two thermodynamic ensembles, namely the semigrand canonical ensemble (sGC), i.e. at fixed difference in chemical potentials and the canonical ensemble, i.e. at fixed nominal concentration.We first show that a phase diagram of nanoalloy consists in a set of phase diagrams related to the various classes of surface sites or to the internal layers. Thus, for the PW405, we distinguish three phase diagrams: the (100) facets diagram, the (111) facets diagram and the phase diagram for the layers of the core. Each of these diagrams is linked to very different physical phenomena. Thus, the phase diagram of the (100) facets is related to a structural and chemical transition, while the one of the (111) facets characterizes a transition between phase separation and disorder, without structural evolution. In the sGC ensemble, this results in a collective bistability for the (100) facets and an individual bistability for the (111) facets. A consequence of this last point is the possibility to observe some (111) facets pure in copper and other (111) facets pure in silver within the same nanoparticle !The use of the Widom method to determine in the canonical ensemble is decisive in order to discriminate between a single-phase regime (with surface or subsurface segregation) and a two-phase regime. Furthermore, the difference of atomic radii between Cu and Ag plays an important role, both for stabilizing the Janus configuration (with an Ag shell) in the two-phase state, and for lowering the critical temperature of the core layers by a factor of about 2 with respect to the bulk phase diagram.An analysis of the Monte Carlo simulations within an effective lattice formalism and a mean-field approximation is very powerful to determine the driving forces at the origin of each type of transition, both for the different facets of the surface layers and for the core. Moreover, this allowed us to show that the edges act as a nano-armature for the nanoparticles. This work ends with the establishment of what should be considered as the first phase diagram of nanoalloys, to the best of our knowledge
36

Taurines, Kevin. "Modelling and experimental analysis of a geothermal ventilated foundation." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI100/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l’analyse thermique et énergétique d’une fondation géothermique ventilée. A l’instar des échangeurs air-sol classiques (EAHE), celle-ci permet de rafraichir ou préchauffer selon la saison l’air destiné au renouvellement sanitaire des bâtiments. Face aux contraintes de rationalisation des consommations et aux exigences de confort thermique croissantes, ces systèmes passifs apparaissent comme étant prometteurs. Le principe de cette fondation est simple et similaire à celui des EAHE : faire circuler de l’air dans une conduite enterrée dans le sol (un à trois mètres) pour qu’il bénéficie - via convection - de l’inertie thermique du sol. La différence réside dans le fait que le canal dans lequel circule l’air n’est pas un tube en PVC ou aluminium mais fait partie intégrante de la structure du bâtiment, à savoir la fondation en béton armé. Ceci présente comme avantage majeur le gain de place lié à l’espace requis pour l’enfouissement des tuyaux. D’un point de vue thermique, la fondation échange non seulement de la chaleur avec le sol exposé aux sollicitations météorologiques mais aussi, et simultanément, aux sollicitations venant du bâtiment. De plus, la profondeur de la fondation – imposée par des raisons structurelles et économiques – est moindre que pour un EAHE traditionnel. Additionné au fait que le béton est poreux, la présence d’humidité peut fortement influencer la performance thermique de la fondation. Le présent travail propose donc d’étudier le comportement thermique complexe de cette fondation par deux approches. La première est expérimentale : un EHPAD équipé de deux fondations a été lourdement instrumenté et des données ont été accumulées sur plus d’un an. L’autre est numérique : deux modèles validés par comparaison avec les données expérimentales ont été développés. Le premier a vocation d’outil de dimensionnement, l’autre de compréhension fine des phénomènes physiques et prends en compte les transferts couplés de chaleur et de masse
This thesis deals with the thermal and energy analysis of a geothermal ventilated fonudation. Similarly to earth-to-air heat exchangers (EAHE) this foundation enables, according to the season, to preheat or to cool down the air for the hygienic air change. Considering the energy consumption constraints and the buildings users thermal comfort desire, these systems appears to be relevant. The principle of this foundation is simple: to force the air to circulate in a hollowed beam buried into the ground (1 to 3m depth) so that it takes advantage - via convection - to the thermal inertia of the ground. The difference lays on the fact that the channel is not a plastic or aluminium pipe but it a part of the building structure, namely the reinforced concrete foundation. This induces a significant space gain, usually devoted to the pipe burying. From a thermal point of view, the foundation exchanges heat with both the soil beneath the building, and with the soil exposed to the weather thermal loads. Furthermore, the depth - imposed by structural and economical purposees - is lower than that of traditional EAHE. In addition to the fact that concrete is a porous material, the humidity content may strongly influence the thermal performance of the foundation. The current work thus proposes to study the complex thermal behaviour of this foundation in two ways. The first is experimental: an retirement home equipped with two foundation has been intensively instrumented and data recorded over more than one year. The other is numerical: two models validated against the experimental data have been developed. The first is intended to be a designing tool, the second a tool to allow a fine comprehension of the physical phenomenon and take into account coupled heat and moisture transfers
37

Beghdadi, Azeddine. "Etude statistique de la morphologie des composés métalliques granulaires par analyse d'image." Paris 6, 1986. http://www.theses.fr/1986PA066281.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Présentation d'un modèle de traitement d'image adapte à des clicheé de microscopie électronique de couches minces de métaux frittés et de cermets ; ce traitement permet un seuillage de l'image de manière non ambiguë, que l'histogramme des niveaux de gris soit bimodal ou unimodal. La validité du traitement est testée à partir de mesures physiques sur des couches réelles. Etude statistique de la morphologie de l'image binarisée obtenue. Application à des couches d'or granulaire préparées par évaporation thermique sous ultra-vide ; les résultats confirment le caractère aléatoire de la nucléation des couches d'or dans les conditions expérimentales de l'étude.
38

Fortun, Auad Sergio Fernando. "Four essays on understanding the matching between entrepreneurs and European Venture capitalists." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM1064.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre recherche vise à établir un cadre pour améliorer la compréhension du marché de capital-risque européen et l’appariement entre entrepreneurs et fonds de capital risque qui a lieu dans ce marché. Nous présentons quatre essais qui permettent de connaître: la littérature théorique et empirique sur le domaine, les différents types des Fonds de Capital Risque qui participent au financement des entreprises en phase de démarrage et les dimensions qui comptent le plus dans les relations entre ces participants
Our thesis aims to improve the understanding of European Venture Capital market and the matching that takes place between entrepreneurs and Venture Capitalists. We present four essays that allow us to get to know: the theoretical and empirical literature on the subject, the different types of European venture capitalists participating in the financing of early stage ventures and the dimensions that count in this relationship
39

Harman-Clarke, Adam. "Contraintes Topologiques et Ordre dans les Systèmes Modèle pour le Magnétisme Frustré." Thesis, Lyon, École normale supérieure, 2011. http://www.theses.fr/2011ENSL0659.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, l’étude de plusieurs modèles de systèmes magnétiques frustrés a été couverte. Leur racine commune est le modèle de la glace de spin, qui se transforme en modèle de la glace sur réseau kagome (kagome ice) et réseau en damier (square ice) à deux dimensions, et la chaîne d’Ising à une dimension. Ces modèles ont été particulièrement étudiés dans le contexte de transitions de phases avec un ordre magnétique induit par les contraintes du système : en effet, selon la perturbation envisagée, les contraintes topologiques sous-jacentes peuvent provoquer une transition de Kasteleyn dans le kagome ice, ou une transition de type vitreuse dans la square ice, due à l’émergence d’un ordre ferromagnétique dans une chaîne d’Ising induit seulement par des effets de taille fini. Dans tous les cas, une étude détaillée par simulations numériques de type Monte Carlo ont été comparées à des résultats théoriques pour déterminer les propriétés de ces transitions. Les contraintes topologiques du kagome ice ont requis le développement d’un algorithme de vers permettant aux simulations de ne pas quitter l’ensemble des états fondamentaux. Une revue poussée de la thermodynamique et de la réponse de la diffraction de neutrons sur kagome ice sous un champ magnétique planaire arbitraire, nous ont amené à une compréhension plus profonde de la transition de Kasteleyn, et à un modèle numérique capable de prédire les figures de diffraction de neutrons de matériau de kagome ice dans n’importe quelles conditions expérimentales. Sous certaines conditions, ce modèle a révélé des propriétés thermodynamiques quantifiées et devrait fournir un terreau fertile pour de futurs travaux sur les conséquences des contraintes et transitions de phases topologiques. Une étude combinée du square ice et de la chaîne d’Ising a mise en lumière l’apparition d’un ordre sur réseau potentiellement découplé de l’ordre ferromagnétique sous-jacent, et particulièrement pertinent pour les réseaux magnétiques artificiels obtenus par lithographie
In this thesis a series of model frustrated magnets have been investigated. Their common parent is the spin ice model, which is transformed into the kagome ice and square ice models in two-dimensions, and an Ising spin chain model in one-dimension. These models have been examined with particular interest in the spin ordering transitions induced by constraints on the system: a topological constraint leads, under appropriate conditions, to the Kasteleyn transition in kagome ice and a lattice freezing transition is observed in square ice which is due to a ferromagnetic ordering transition in an Ising chain induced solely by finite size effects. In all cases detailed Monte Carlo computational simulations have been carried out and compared with theoretical expressions to determine the characteristics of these transitions. In order to correctly simulate the kagome ice model a loop update algorithm has been developed which is compatible with the topological constraints in the system and permits the simulation to remain strictly on the groundstate manifold within the appropriate topological sector of the phase space. A thorough survey of the thermodynamic and neutron scattering response of the kagome ice model influenced by an arbitrary in-plane field has led to a deeper understanding of the Kasteleyn transition, and a computational model that can predict neutron scattering patterns for kagome ice materials under any experimental conditions. This model has also been shown to exhibit quantised thermodynamic properties under appropriate conditions and should provide a fertile testing ground for future work on the consequences of topological constraints and topological phase transitions. A combined investigation into the square ice and Ising chain models has revealed ordering behaviour within the lattice that may be decoupled from underlying ferro- magnetic ordering and is particularly relevant to magnetic nanoarrays
40

Gratien, Jean-Marc. "A Domain Specific Embedded Language in C++ for lowest-order methods for diffusive problem on general meshes." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00926232.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La spécificité des logiciels scientifiques développés par IFP Energies nouvelles tient avant tout à l'originalité des modèles représentant les situations physiques exprimés sous forme de systèmes d'EDPs assortis de lois de fermeture complexes. Le développement de ces logiciels, conçus pour être exécutés sur les super calculateurs parallèles modernes, nécessite de combiner des méthodes volumes finis robustes et efficaces avec des technologies informatiques qui permettent de tirer au mieux parti de ces calculateurs (parallélisme, gestion de la mémoire, réseaux d'interconnexion, etc). Ces technologies de plus en plus sophistiquées ne peuvent plus être maîtrisées dans leur ensemble par les chercheurs métiers chargés d'implémenter des nouveaux modèles. Dans ce rapport nous proposons un langage spécifique aux méthodes de discrétisation Volumes Finis permettant le prototypage rapide de codes industriels ou de recherche. Nous décrivons le cadre mathématique sur lequel nous nous basons ainsi que la mise au point du nouveau langage. Les travaux out été validés sur des problèmes académiques puis par le prototypage d'une application industrielle dans le cadre de l'axe ''CO2 maîtrisé''.
41

Cisternino, Marco. "A parallel second order Cartesian method for elliptic interface problems and its application to tumor growth model." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2012. http://tel.archives-ouvertes.fr/tel-00690743.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur une méthode cartésienne parallèle pour résoudre des problèmes elliptiques avec interfaces complexes et sur son application aux problèmes elliptiques en domaine irrégulier dans le cadre d'un modèle de croissance tumorale. La méthode est basée sur un schéma aux différences fi nies et sa précision est d'ordre deux sur tout le domaine. L'originalité de la méthode consiste en l'utilisation d'inconnues additionnelles situées sur l'interface et qui permettent d'exprimer les conditions de transmission à l'interface. La méthode est décrite et les détails sur la parallélisation, réalisée avec la bibliothèque PETSc, sont donnés. La méthode est validée et les résultats sont comparés avec ceux d'autres méthodes du même type disponibles dans la littérature. Une étude numérique de la méthode parallélisée est fournie. La méthode est appliquée aux problèmes elliptiques dans un domaine irrégulier apparaissant dans un modèle continue et tridimensionnel de croissance tumorale, le modèle à deux espèces du type Darcy . L'approche utilisée dans cette application est basée sur la pénalisation des conditions de transmission a l'interface, afin de imposer des conditions de Neumann homogènes sur le bord d'un domaine irrégulier. Les simulations du modèle sont fournies et montrent la capacité de la méthode à imposer une bonne approximation de conditions au bord considérées.
42

Wendland, David. "The equation of state of the Hydrogen-Helium mixture with application to the Sun." Thesis, Lyon, École normale supérieure, 2015. http://www.theses.fr/2015ENSL1029/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’étude des propriétés d’équilibre d’un système Coulombien quantique à plusieurs composantes présente un intérêt théorique fondamental, au-delà de ses nombreuses applications. Le mélange hydrogène-hélium est omniprésent dans la nébuleuse interstellaire ou les planètes géantes, et c’est aussi le constituant majoritaire du Soleil, où les interactions entre électrons et noyaux sont purement électrostatiques en première approximation.Ce travail est dévolu à l’équation d’état de ce mélange vu comme un plasma quantique constitué de protons, de noyaux d’Hélium et d’électrons. Dans ce cadre, nous développons des méthodes numériques pour estimer des intégrales de chemin représentant des ingrédients essentiels. En outre, nous construisons une nouvelle version de la diagrammatique à la Mayer resommée bien adaptée à nos objectifs.Tout d’abord, nous améliorons le double développement basse température et basse densité, dit SLT, pour l’hydrogène pur, grâce à de meilleures estimations des termes à trois corps, les résultats étant par ailleurs comparés à la fameuse équation d’état OPAL. Les densités plus élevées sont atteintes de manière non-perturbative, en utilisant des fonctions de partition d’entités recombinées suffisamment précises. Ainsi l’ionisation par pression est décrite sur une base théorique robuste. Nous étudions également d’autres quantités d’équilibre, comme l’énergie interne et la vitesse du son. Dans la dernière partie, nous calculons l’équation d’état du mélange hydrogène-hélium en incluant les effets d’écran associés aux ions He+, ainsi que des corrections à la Debye déterminées de manière auto-cohérente. Nos résultats nous permettent de comprendre le contenu physique d’approches ad-hoc et de déterminer leurs régimes de validité. Nous obtenons aussi une description plus fiable du mélange, qui devrait être précise le long de l'adiabate du Soleil
The study of the thermodynamic properties of a multi-component quantum Coulomb system is of fundamental theoretical interest and has, beyond that, a wide range of applications. The Hydrogen-Helium mixture can be found in the interstellar nebulae and giant planets, however the most prominent example is the Sun. Here the interaction between the electrons and the nuclei is almost purely electrostatic.In this work we study the equation of state of the Hydrogen-Helium mixture starting from first principles, meaning the fundamental Coulomb interaction of its constituting particles. In this context we develop numerical methods to study the few-particle clusters appearing in the theory by using the path integral language. To capture the effects of the long-range Coulomb interaction between the fundamental particles, we construct a new version of Mayer-diagrammatic, which is appropriate for our purposes. In a first step, we ameliorate the scaled-low-temperature (SLT) equation of state, valid in the limit of low density and low temperature, by taking three-body terms into account and we compare the predictions to the well-established OPAL equation of state. Higher densities are accessed by direct inversion of the density equations and by the use of cluster functions that include screening effects. These cluster functions put the influence of screening on the ionization, unto now treated ad-hoc, on a theoretically well-grounded basis. We also inspect other equilibrium quantities such as the speed of sound and the inner energy. In the last part we calculate the equation of state of the Hydrogen-Helium mixture including the charged He+ ions in the screening process. Our work gives insights in the physical content of previous phenomenological descriptions and helps to better determine their range of validity. The equation of state derived in this thesis is expected to be very precise as well as reliable for conditions found in the Sun
43

Charles, Joseph. "Amélioration des performances de méthodes Galerkin discontinues d'ordre élevé pour la résolution numérique des équations de Maxwell instationnaires sur des maillages simplexes." Phd thesis, Université Nice Sophia Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00718571.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude concerne le développement d'une méthode Galerkin discontinue d'ordre élevé en domaine temporel (DGTD), flexible et efficace, pour la résolution des équations de Maxwell instationnaires sur des maillages simplexes destructurés et reposant sur des schémas d'intégration en temps explicites. Les composantes du champ électromagnétique sont approximées localement par des méthodes d'interpolation polynomiale et la continuité entre éléments adjacents est renforcée de façon faible par un schéma centré pour le calcul du flux numérique à travers les interfaces du maillage. L'objectif de cette thèse est de remplir deux objectifs complémentaires. D'une part, améliorer la flexibilité de l'approximation polynomiale en vue du développement de méthodes DGTD p-adaptatives par l'étude de différentes méthodes d'interpolation polynomiale. Plusieurs aspects tels que la nature nodale ou modale de l'ensemble des fonctions de bases associées, leur éventuelle structure hiérarchique, le conditionnement des matrices élémentaires à inverser, les propriétés spectrales de l'interpolation ou la simplicité de programmation sont étudiés. D'autre part, augmenter l'efficacité de l'approximation temporelle sur des maillages localement raffinés en utilisant une stratégie de pas de temps local. Nous développerons finalement dans cette étude une méthodologie de calcul haute performance pour exploiter la localité et le parallélisme inhérents aux méthodes DGTD combinés aux capacités de calcul sur carte graphique. La combinaison de ces caractéristiques modernes résulte en une amélioration importante de l'efficacité et en une réduction significative du temps de calcul.
44

Obrecht, Christian. "High performance lattice Boltzmann solvers on massively parallel architectures with applications to building aeraulics." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00776986.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
With the advent of low-energy buildings, the need for accurate building performance simulations has significantly increased. However, for the time being, the thermo-aeraulic effects are often taken into account through simplified or even empirical models, which fail to provide the expected accuracy. Resorting to computational fluid dynamics seems therefore unavoidable, but the required computational effort is in general prohibitive. The joint use of innovative approaches such as the lattice Boltzmann method (LBM) and massively parallel computing devices such as graphics processing units (GPUs) could help to overcome these limits. The present research work is devoted to explore the potential of such a strategy. The lattice Boltzmann method, which is based on a discretised version of the Boltzmann equation, is an explicit approach offering numerous attractive features: accuracy, stability, ability to handle complex geometries, etc. It is therefore an interesting alternative to the direct solving of the Navier-Stokes equations using classic numerical analysis. From an algorithmic standpoint, the LBM is well-suited for parallel implementations. The use of graphics processors to perform general purpose computations is increasingly widespread in high performance computing. These massively parallel circuits provide up to now unrivalled performance at a rather moderate cost. Yet, due to numerous hardware induced constraints, GPU programming is quite complex and the possible benefits in performance depend strongly on the algorithmic nature of the targeted application. For LBM, GPU implementations currently provide performance two orders of magnitude higher than a weakly optimised sequential CPU implementation. The present thesis consists of a collection of nine articles published in international journals and proceedings of international conferences (the last one being under review). These contributions address the issues related to single-GPU implementations of the LBM and the optimisation of memory accesses, as well as multi-GPU implementations and the modelling of inter-GPU and internode communication. In addition, we outline several extensions to the LBM, which appear essential to perform actual building thermo-aeraulic simulations. The test cases we used to validate our codes account for the strong potential of GPU LBM solvers in practice.
45

Lachat, Cédric. "Conception et validation d'algorithmes de remaillage parallèles à mémoire distribuée basés sur un remailleur séquentiel." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00932602.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse était de proposer, puis de valider expérimentalement, un ensemble de méthodes algorithmiques permettant le remaillage parallèle de maillages distribués, en s'appuyant sur une méthode séquentielle de remaillage préexistante. Cet objectif a été atteint par étapes : définition de structures de données et de schémas de communication adaptés aux maillages distribués, permettant le déplacement à moindre coût des interfaces entre sous-domaines sur les processeurs d'une architecture à mémoire distribuée ; utilisation d'algorithmes de répartition dynamique de la charge adaptés aux techniques parallèles de remaillage ; conception d'algorithmes parallèles permettant de scinder le problème global de remaillage parallèle en plusieurs sous-tâches séquentielles, susceptibles de s'exécuter concurremment sur les processeurs de la machine parallèle. Ces contributions ont été mises en oeuvre au sein de la bibliothèque parallèle PaMPA, en s'appuyant sur les briques logicielles MMG3D (remaillage séquentiel de maillages tétraédriques) et PT-Scotch (repartitionnement parallèle de graphes). La bibliothèque PaMPA offre ainsi les fonctionnalités suivantes : communication transparente entre processeurs voisins des valeurs portées par les noeuds, les éléments, etc. ;remaillage, selon des critères fournis par l'utilisateur, de portions du maillage distribué, en offrant une qualité constante, que les éléments à remailler soient portés par un unique processeur ou bien répartis sur plusieurs d'entre eux ; répartition et redistribution de la charge des maillages pour préserver l'efficacité des simulations après remaillage.

To the bibliography