Dissertations / Theses on the topic 'Méthode à densité'

To see the other types of publications on this topic, follow the link: Méthode à densité.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthode à densité.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Youndje, Elie. "Estimation non paramétrique de la densité conditionnelle par la méthode du noyau." Rouen, 1993. http://www.theses.fr/1993ROUES011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail nous nous intéressons aux aspects théorique et pratique de l'estimation d'une densité conditionnelle par la méthode du noyau. Dans un premier temps nous considérons les propriétés asymptotiques de l'estimateur à noyau. Ces propriétés dépendent essentiellement du paramètre de lissage et de la régularité de la densité conditionnelle. Nous montrons que, comme dans la plupart des problèmes d'estimation fonctionnelle, le choix du paramètre de lissage joue un rôle crucial dans le comportement asymptotique de l'estimateur. Dans un second temps, nous abordons dans le cadre d'un échantillon I. I. D. , le problème de la sélection du paramètre de lissage. Ensuite nous généralisons les résultats obtenus au cas d'observations dépendantes (mélange fort ou a-mélange). Plus précisément, nous proposons un critère de sélection de la largeur de fenêtre basé sur la validation croisée. Un resultat d'optimalité de la fenêtre sélectionnée est établi. Les résultats théoriques obtenus concernant le choix de la fenêtre sont illustrés par des simulations sur des échantillons I. I. D.
2

Aucejo-Galindo, Vicente. "Méthode tensorielle générale pour une modélisation multiphysique de dispositifs magnétomécaniques rapides." Thesis, Metz, 2010. http://www.theses.fr/2010METZ028S/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Actuellement la connaissance objectif de dispositifs magnétomécaniques est achevée par diverses approches complémentaires . D'une part l'approche physique avec ses formulations mathématiques des forces magnétiques. D'autre part, les approches multiphysiques afin d'aboutir à une connaissance plus fine, et plus réelle, des phénomènes physiques associés aux interactions qui agissent dans le dispositifs. Et finalement, l'approche interdisciplinaire qui tiendrait en compte le cycle de vie du produit, l'éco-conception. Une conception d'un micromoteur ultra rapide à aimantation induite et flux axial est présentée dans ce mémoire avec l'approche physique montrant les limites de celle-ci . Partant donc de l'approche physique, une nouvelle méthode tensorielle générale est développée comme apport à une modélisation multiphysique de dispositifs magnétomécaniques, regroupant ainsi les diverses formulations numériques de forces magnétiques. Une caractérisation du nouveau tenseur est présentée et appliquée pour le calcul des forces sur des milieux en contact
Currently the goal of knowledge magnetomechanical devices is completed by means of several complementary approaches. On one hand the physical approach with mathematical formulations of magnetic forces. On the other hand, multiphysics approaches to achieve a deeper insight and more real, physical phenomena associated with interactions that act in the devices. And finally, the interdisciplinary approach that takes into account the lifecycle of the product, so called eco-design. A design of a ultra fast micromotor with induced magnetization and axial flux is presented in this paper with the physical approach showing the restrictions thereof. Accordingly therefore, the physical approach, a new tensor method is developed as a general contribution to a multiphysics modeling of magnetomechanical devices, bringing together the various numerical formulations of magnetic forces. A characterization of the new tensor is presented and applied to calculate the forces on bodies in contact
3

Beaucamp, Sylvain. "Méthode de calcul des densités et des enthalpies de cristaux ioniques moléculaires." Tours, 2004. http://www.theses.fr/2004TOUR4052.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La densité et l'enthalpie de formation sont nécessaires pour calculer les performances propulsives de ces sels énergétiques envisagées comme constituants des propergols. Cette étude a pour objet la mise au point de méthodes de calcul pour évaluer la densité et l'enthalpie de formation de sels de nitrates énergétiques de type X-N+ NO[3-] à partir de la formule semi-developpée du composé. La densité est calculée à l'aide de modèles basés sur l'additivité des volumes des groupes molaires qui composent ces sels de nitrates. D'une part, la méthode de contribution de groupes de Ammon-Mitchell est étendue aux composés ioniques. D'autre part, une nouvelle méthode incrémentale moins empirique est mise au point. L'enthalpie de formation des sels organiques est obtenue par différence entre l'enthalpie des ions isolés qui composent le cristal et son enthalpie de sublimation. Cette dernière dépdend de l'énergie de cohésion du cristal et d'un terme dépendant de la température. Concernant l'énergie de cohésion, deux approches sont développées : d'une part une méthode semi-empirique rapide utilisant des descripteurs calculés à partir de la géométrie des ions isolés et d'autre part, une méthode basée sur la génération explicite de cristaux virtuels par empilement moléculaires. De plus l'implémentation de contraintes de symétrie dans le code de physique du solide SCC-DFTB est réalisée. Ce code ainsi optimisé pourrait permettre de raffiner la géométrie des structures cristallines obtenues par empilement. Enfin, une dernière partie présente l'application de ces méthodes au calcul de l'enthalpie de formation de sels de nitrates
Performances of energetic materials depend on their density, their solid-state of formation and their stoechiometry. The aim of this works is the development of model to estimate the density and the solid-state of formation of energetic salts, X-N+ NO[-3], from their developed formulate. Model using additive volumes for charges groupes is developed to predict crystal densities of molecular salts. On the one hand, the group contribution method of Ammon and Mitchell is extended molecular salts. On the other hand, a less empirical contribution method is presented. Solid state-heat of formation of a molecular salts depend on the anthalpie of the isolated ions and the cohesive energy of the crystal salts. The estimate the cohesive energy two approach are developed : a semi-empirical model using descriptors computed on isolated ions and the crystal packing of virtual crystal salts of ions. Moreover, implementation of the symetry-constrained in the self consistent charges density functional tight binbing model is developped. This routine may riffine virtual salts structure obtained by packing model. The last part shows applications of previous developed models to the prediction of the solid state of formation of nitrate salts
4

Carbone, Mathieu. "Efficacité, généricité et praticabilité de l'attaque par information mutuelle utilisant la méthode d'estimation de densité par noyau." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS087.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nos jours, les attaques par canaux auxiliaires sont facilement réalisables et très puissantes face aux implémentations cryptographiques. Cela pose une sérieuse menace en ce qui concerne la sécurité des crypto-systèmes. En effet, l'exécution d'un algorithme cryptographique produit inévitablement des fuites d'information liées aux données internes manipulées par le cryptosystèmes à travers des canaux auxiliaires (temps, température, consommation de courant, émissions électro-magnétiques, etc.). Certaines d'entre elles étant sensibles, un attaquant peut donc les exploiter afin de retrouver la clé secrète. Une des étapes les plus importantes d'une attaque par canaux auxiliaires est de quantifier la dépendance entre une quantité physique mesurée et un modèle de fuite supposé. Pour se faire, un outil statistique, aussi appelé distingueur, est utilisé dans le but de trouver une estimation de la clé secrète. Dans la littérature, une pléthore de distingueurs a été proposée. Cette thèse porte sur l'attaque utilisant l'information mutuelle comme distingueur, appelé l'attaque par information mutuelle. Dans un premier temps, nous proposons de combler le fossé d'un des problèmes majeurs concernant l'estimation du coefficient d'information mutuelle, lui-même demandant l'estimation de densité. Nos investigations ont été menées en utilisant une méthode non paramétrique pour l'estimation de densité: l'estimation par noyau. Une approche de sélection de la largeur de fenêtre basée sur l'adaptativité est proposée sous forme d'un critère (spécifique au cas des attaques par canaux auxiliaires). Par conséquent, une analyse est menée pour donner une ligne directrice afin de rendre l'attaque par information mutuelle optimale et générique selon la largeur de fenêtre mais aussi d'établir quel contexte (relié au moment statistique de la fuite) est plus favorable pour l'attaque par information mutuelle. Dans un second temps, nous abordons un autre problème lié au temps de calcul élevé (étroitement lié à la largeur de la fenêtre) de l'attaque par information mutuelle utilisant la méthode du noyau. Nous évaluons un algorithme appelé Arbre Dual permettant des évaluations rapides de fonctions noyau. Nous avons aussi montré expérimentalement que l'attaque par information mutuelle dans le domaine fréquentiel, est efficace et rapide quand celle-ci est combinée avec l'utilisation d'un modèle fréquentiel de fuite. En outre, nous avons aussi suggéré une extension d'une méthode déjà existante pour détecter une fuite basée sur un moment statistique d'ordre supérieur
Nowadays, Side-Channel Analysis (SCA) are easy-to-implement whilst powerful attacks against cryptographic implementations posing a serious threat to the security of cryptosystems for the designers. Indeed, the execution of cryptographic algorithms unvoidably leaks information about internally manipulated data of the cryptosystem through side-channels (time, temperature, power consumption, electromagnetic emanations, etc), for which some of them are sensible(depending on the secret key). One of the most important SCA steps for an adversary is to quantify the dependency between the measured side-channel leakage and an assumed leakage model using a statistical tool, also called distinguisher, in order to find an estimation of the secret key. In the SCA literature, a plethora of distinguishers have been proposed. This thesis focuses on Mutual Information (MI) based attacks, the so-called Mutual Information Analysis (MIA) and proposes to fill the gap of the major practical issue consisting in estimating MI index which itself requires the estimation of underlying distributions. Investigations are conducted using the popular statistical technique for estimating the underlying density distribution with minimal assumptions: Kernel Density Estimation (KDE). First, a bandwidth selection scheme based on an adaptivity criterion is proposed. This criterion is specific to SCA.As a result, an in-depth analysis is conducted in order to provide a guideline to make MIA efficient and generic with respect to this tuning hyperparameter but also to establish which attack context (connected to the statistical moment of leakage) is favorable of MIA. Then, we address another issue of the kernel-based MIA lying in the computational burden through a so-called Dual-Tree algorithm allowing fast evaluations of 'pair-wise` kernel functions. We also showed that MIA running into the frequency domain is really effective and fast when combined with the use of an accurate frequency leakage model. Additionally, we suggested an extension of an existing method to detect leakage embedded on higher-order statistical moments
5

Thauvoye, Christophe. "Simulation numérique d'écoulements turbulents réactifs par une méthode hybride à fonction densité de probabilité transportée." Poitiers, 2005. http://www.theses.fr/2005POIT2276.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail s'inscrit dans le cadre des études sur la simulation numérique des écoulements turbulents réactifs. Il a pour objet l'étude d'une méthode hybride basée sur l'utilisation conjointe d'une méthode lagrangienne à Fonction Densité de Probabilité (PDF) transportée et d'une méthode eulérienne de résolution des équations moyennées (RANS). La première partie est consacrée à la description des méthodes RANS et de l'approche à PDF transportée. Cette dernière est particulièrement détaillée : cela permet de mettre en avant les avantages et les inconvénients de cette approche. Dans ce contexte, on insiste sur les aspects liés à la modélisation et à la résolution de l'équation de transport de la PDF. Sa résolution s'appuie couramment sur des simulations numériques de type Monte-Carlo. On montre également comment la nature statistique des méthodes de Monte-Carlo induit des difficultés numériques qui ont conduit à l'élaboration de méthodes hybrides associant méthode RANS et approche à PDF transportée. Dans la seconde partie de cette étude, les aspects théoriques et numériques des méthodes hybrides sont alors détaillés en particulier le modèle PEUL+ développé à l'ONERA. Une nouvelle procédure de couplage de type instationnaire est proposée. Elle améliore la stabilité et la précision du modèle par rapport à la procédure de couplage stationnaire. Elle est ensuite testée et validée sur deux configurations : tout d'abord sur une flamme non prémélangée méthane-air stabilisée par une flamme pilote puis sur une flamme de prémélange dans un élargissement brusque symétrique
This work concerns the field of numerical simulation of turbulent reactive flows. The aim of this work is to study a hybrid method based on the use of a lagrangian transported Probability Density Function (PDF) method coupled with a eulerian method which solves the Reynolds Averaged Navier-Stokes equations (R. A. N. S). The first part is devoted to the description of the RANS and the transported PDF methods. The latter is more precisely detailed : it allows to highlight both advantages and drawbacks of the two approaches. In this context, we will develop all the aspects related to the modelling and resolution of the transported joint PDF equation. Its resolution generally uses a Monte-Carlo numerical simulation. We also show how the statistical nature of Monte-Carlo methods induces numerical difficulties, which led to the development of hybrid methods associating RANS method with a transported PDF approach. In the second part of this study, theoretical and numerical aspects of the hybrid methods are detailed, and more precisely the PEUL+ model developed at ONERA. A new – instationary – way of coupling is proposed. It improves the stability and precision of the model in comparison with the stationary way of coupling. It is then tested and validated on two configurations : a methane-air nonpremixed flame stabilised by a piloted flame ; and a premixed flame in a sudden symmetric plane expansion
6

Benkaci-Ali, Hassene. "Optimisation des performances d'un ondulateur à modulation de densité d'impulsion modélisation mathématique et méthode génétique." Thèse, Université du Québec à Trois-Rivières, 2013. http://depot-e.uqtr.ca/6977/1/030596182.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Bechereau, Marie. "Élaboration de méthodes Lattice Boltzmann pour les écoulements bifluides à ratio de densité arbitraire." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN059/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les extensions bifluides des méthodes Lattice Boltzmann à frontière libre utilisent généralement des pseudopotentiels microscopiques pour modéliser l'interface. Nous avons choisi d'orienter nos recherches vers une méthode Lattice Boltzmann à capture d'interface où la fraction massique d'un des deux fluides, inconnue, est transportée. De nombreux travaux ont montré les difficultés des méthodes Lattice Boltzmann à traiter des systèmes bifluides, et ce d'autant plus que le ratio de densité est important. Nous expliquerons l'origine de ces problèmes en mettant en évidence le manque de diffusion numérique pour capturer précisément les discontinuités de contact. Pour régler cet obstacle, nous proposerons une formulation Arbitrary Lagrangian Eulerian (ALE) des méthodes Lattice Boltzmann. Cela permet de séparer le traitement des ondes matérielles de celui des ondes de pression. Une fois l'étape ALE terminée, une phase de projection ramène les variables sur la grille eulérienne de calcul initiale. Nous expliquons comment obtenir une procédure de projection ayant une précision d'ordre 2 et une interface fine et dépourvue d'oscillations. Il sera montré que la fraction massique satisfait un principe du maximum discret et qu'elle reste donc entre 0 et 1. Les simulations numériques sont en accord avec la théorie. Même si notre méthode n'est pour le moment utilisée que pour simuler des écoulements de fluides non visqueux (Equations d'Euler), nous sommes convaincus qu'elle pourra être étendue à des simulations d'écoulements bifluides visqueux
Two-fluid extensions of Lattice Boltzmann methods with free boundaries usually consider ``microscopic'' pseudopotential interface models. In this paper, we rather propose an interface-capturing Lattice Boltzmann approach where the mass fraction variable is considered as an unknown and is advected. Several works have reported the difficulties of LBM methods to deal with such two-fluid systems especially for high-density ratio configurations. This is due to the mixing nature of LBM, as with Flux vector splitting approaches for Finite Volume methods. We here give another explanation of the lack of numerical diffusion of Lattice Boltzmann approaches to accurately capture contact discontinuities. To fix the problem, we propose an arbitrary Lagrangian-Eulerian (ALE) formulation of Lattice-Boltzmann methods. In the Lagrangian limit, it allows for a proper separated treatment of pressure waves and advection phenomenon. After the ALE solution, a remapping (advection) procedure is necessary to project the variables onto the Eulerian Lattice-Boltzmann grid.We explain how to derive this remapping procedure in order to get second-order accuracy and achieve sharp stable oscillation-free interfaces. It has been shown that mass fractions variables satisfy a local discrete maximum principle and thus stay in the range $[0,1]$. The theory is supported by numerical computations of rising bubbles (without taking into account surface tension at this current state of development).Even if our methods are currently used for inviscid flows (Euler equations) by projecting the discrete distributions onto equilibrium ones at each time step, we believe that it is possible to extend the framework formulation for multifluid viscous problems. This will be at the aim of a next work
8

Jerier, Jean-François. "Modélisation de la compression haute densité des poudres métalliques ductiles par la méthode des éléments discrets." Grenoble 1, 2009. http://www.theses.fr/2009GRE10242.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire de thèse synthétise trois années de recherches dédiées à l’étude numérique et théorique de la compression à haute densité de poudres métalliques. Des différentes phases qu’intègrent la métallurgie des poudres, la phase de compression à froid de la poudre est l’une des phases les plus sensibles de ce procédé de fabrication, car elle influence les propriétés mécaniques de la pièce finale. Il est donc nécessaire de mettre en place une approche numérique qui permet de contrôler et d’optimiser la compression de poudre jusqu’à de fortes valeurs de compacité (compacité supérieure à 0:9). Pour cela, nous proposons de reproduire par la méthode des éléments discrets le comportement de la poudre observé expérimentalement sous différents types de chargement. A ce jour, les simulations via cette méthode sont limitées à une valeur de compacité ne dépassant pas 0:85. Pour dépasser ces limitations, nous présentons un modèle de contact implémenté dans un code éléments discrets libre (Yade). Ce nouveau modèle de contact est développé sur la base de la loi de contact normal qui intègre le terme de densité locale des particules dans son expression, afin de prendre en compte l’incompressibilité des grains se produisant à des valeurs de compacité supérieures à 0:85. Dans le but de procéder à des simulations plus réalistes, un nouvel algorithme géométrique de génération d’empilements de sphères polydisperses est développé. Ce nouvel outil numérique est capable de générer très rapidement de grands assemblages de sphères en contact tout en contrôlant différents paramètres comme la distribution de la compacité, la taille minimale et maximale des sphères. Avec le modèle de contact capable de reproduire l’interaction entre les grains et la création d’un algorithme pouvant générer des assemblages de sphères similaires à un tas de poudres, nous procédons à des simulations de compression isostatique et en matrice pour différents types de poudres (cuivre, aluminium, fer). Les résultats obtenus sont directement comparés à ceux issus des simulations éléments finis multi-particules et de l’expérience. Ces comparaisons permettent ainsi de valider et de tester la robustesse du modèle de contact développé. Pour finir, nous investiguons sur la base de nos divers développements validés, l’évolution d’une poudre d’aluminium avec un gradient de compacité au cours d’une compression en matrice
This Ph. D. Manuscript synthesises three years of research dedicated to numerical and theoretical studies of high density powder compaction. During cold compaction process, the compaction stage is among the most sensitive powder metallurgy’s stages, because it has a strong impact on the mechanical properties of the final part. It is necessary to find a numerical approach to control and to optimize the high density powder compaction (density value above 0:9). We propose to model by the discrete element method the behaviour of powder which is observed experimentally under different loading paths. To date, the discrete element simulations are not able to model the powder compaction for high density values (density is limited at 0:85). To go beyond this limit, we present a contact model implemented into a discrete element open-source software (Yade). This new contact model is based on a normal contact law which integrates in its expression the local density parameter. This new local variable takes into account the incompressibility of the material which appears at density values above 0:85. In order to realize more realistic simulations, a new geometric algorithm to generate polydisperse sphere packings is developed. This new numerical tool is able to generate very fast large sphere assemblies with different properties controlled by the user as: density distribution, the minimal and maximal size of spheres. With the contact model capable of reproducing the granular interaction up to high density value and the geometric algorithm which generates sphere assemblies similar to powder, we realize simulations of isostatic and closed die compaction for various types of powder (copper, aluminium, iron). The results are directly compared with those obtained by multi-particle finite element method and by experimental tests. These comparisons allow to validate and test the robustness of the contact model developed here. Finally, we investigate the evolution of aluminium powder assembly composed with an initial graded density distribution during the closed die compaction
9

Durance, Loïc. "Développement d'une méthode de stérilisation par la chaleur de solutions injectables conditionnées en polyéthylène basse densité." Amiens, 2003. http://www.theses.fr/2003AMIED003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les solutions injectables sont habituellement disposées en ampoules de verre stérilisées par chaleur humide. Mais la tendance actuelle est de substituer le verre par le plastique car ce dernier permet un encombrement réduit, une résistance supérieure du conditionnement aux chocs et un retraitement plus aisé des déchets par incinération. Or seuls quelques plastiques possèdent des caractéristiques conformes aux exigences réglementaires de la pharmacopée européenne et respectueuses de l'écologie. C'est le cas du polyéthylène basse densité (PEBD) qui, exempt d'additifs, évite également tout risque d'interaction entre celui-ci et le contenu qu'il renferme. Sa destruction ne libère aucun déchet chloré ni autre produit toxique dans l'atmosphère. Ce matériau est de plus adapté aux technologies de production à grande échelle comme l'est le système de Formage-Remplissage-Scellage employé ici. Les conditions conventionnelles de stérilisation correspondent à appliquer une température de 121°C durant 30 minutes. Or le PEBD possède une température de fusion d'environ 117°C ce qui l'empêche d'être stérilisé aux températures supérieures. Durant ce travail, nous avons étudié l'effet d'une température inférieure à 121°C sur des récipients fabriqués en PEBD et contenant de l'eau pour préparations injectables comme solution de référence. Un cycle alternatif de stérilisation piloté par sa valeur stérilisatrice F0 a été alors mis au point. L'efficacité du cycle de stérilisation ainsi défini a été évaluée a�� l'aide de souches de spores de Bacillus Stearothermophilus introduites dans les récipients. Les produits stérilisés ont été mis en stabilité durant 24 mois et les caractéristiques du matériau et de la solution ont été suivies tout au long de cette période. Les renseignements obtenus par ce travail ont pour objet l'enregistrement d'un dossier d'autoriation de mise sur le marché de produits injectables au bénéfice d'une industrie pharmaceutique amiénoise
The solutions for injection are usually packaged in glass flasks and sterilised by moist steam. Is the current tendency to substitute glass by the plastic because it reduce the obstruction of conditioning while increasing its shock-proofness and allows a board elimination of the wastes by incineration. Only some plastics meet both public health regulations and ecological requirements. Among them, low density polyethylene (LDPE) offers various advantages. It possesses virtually no additive, which limits the interaction hazards between plastic and chemical substances used in injection preparations. Its destruction does not bring chlorine-containing waste or other toxic matter into the atmosphere. Moreover, it is fully adapted to the various manufacturing technologies for large-scale production as the blow-fill-an-seal. However, the temperature value admitted for sterilisation is 121°C, whereas LDPE exhibits a melting point at about 117°C. Therfore, we have developped an alternative cycle of sterilisation based on F0 concept at a temperature lower than 121°C and such as it respected the LDPE containers integrity. The efficiency on the micro-organisms destruction have been calculated aid of stocks spores of Bacillus Stearothermophilus introduced into the recipients which contained water for injection as base solution. The sterilised products have been followed throughout this period. The information obtained by this work have the aim of documenting a manufacturing authorization file about products for injection for its recording with the benefit of a pharmaceutical industry of Amiens
10

Aucejo-Galindo, Vicente. "Méthode tensorielle générale pour une modélisation multiphysique de dispositifs magnétomécaniques rapides." Electronic Thesis or Diss., Metz, 2010. http://www.theses.fr/2010METZ028S.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Actuellement la connaissance objectif de dispositifs magnétomécaniques est achevée par diverses approches complémentaires . D'une part l'approche physique avec ses formulations mathématiques des forces magnétiques. D'autre part, les approches multiphysiques afin d'aboutir à une connaissance plus fine, et plus réelle, des phénomènes physiques associés aux interactions qui agissent dans le dispositifs. Et finalement, l'approche interdisciplinaire qui tiendrait en compte le cycle de vie du produit, l'éco-conception. Une conception d'un micromoteur ultra rapide à aimantation induite et flux axial est présentée dans ce mémoire avec l'approche physique montrant les limites de celle-ci . Partant donc de l'approche physique, une nouvelle méthode tensorielle générale est développée comme apport à une modélisation multiphysique de dispositifs magnétomécaniques, regroupant ainsi les diverses formulations numériques de forces magnétiques. Une caractérisation du nouveau tenseur est présentée et appliquée pour le calcul des forces sur des milieux en contact
Currently the goal of knowledge magnetomechanical devices is completed by means of several complementary approaches. On one hand the physical approach with mathematical formulations of magnetic forces. On the other hand, multiphysics approaches to achieve a deeper insight and more real, physical phenomena associated with interactions that act in the devices. And finally, the interdisciplinary approach that takes into account the lifecycle of the product, so called eco-design. A design of a ultra fast micromotor with induced magnetization and axial flux is presented in this paper with the physical approach showing the restrictions thereof. Accordingly therefore, the physical approach, a new tensor method is developed as a general contribution to a multiphysics modeling of magnetomechanical devices, bringing together the various numerical formulations of magnetic forces. A characterization of the new tensor is presented and applied to calculate the forces on bodies in contact
11

Mourad, Nahia. "Fondements mathématiques et numériques de la méthode des pseudo-potentiels." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1024/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les contributions de cette thèse consistent en trois principaux résultats. Le premier résultat concerne la théorie des perturbations analytique pour les modèles de type Kohn-Sham. Nous montrons, sous certaines conditions techniques, l'existence, l'unicité et l'analyticité de la matrice densité de l'état fondamental du modèle de Hartree-Fock réduit pour des perturbations régulières provenant d'un potentiel extérieur. Notre analyse englobe le cas où le niveau de Fermi de l'état fondamental non-perturbé est une valeur propre dégénérée de l'opérateur de champ moyen et où les orbitales frontières sont partiellement occupées. Le deuxième résultat concerne la construction mathématique de pseudos potentiels pour les modèles Kohn-Sham. Nous définissons l'ensemble des pseudos potentiels semi-locaux à normes conservées de régularité de Sobolev donnée, et nous prouvons que cet ensemble est non-vide et fermé pour une topologie appropriée. Cela nous permet de proposer une nouvelle façon de construire des pseudos potentiels, qui consiste à optimiser sur cet ensemble un critère tenant compte des impératifs de régularité et de transférabilité. Le troisième résultat est une étude numérique du modèle de Hartree-Fock réduit pour les atomes. Nous proposons une méthode de discrétisation et un algorithme de résolution numérique des équations de Kohn-Sham pour un atome soumis à un potentiel extérieur à symétrie cylindrique. Nous calculons les niveaux d'énergie occupés et les nombres d'occupations pour tous les éléments des quatre premières rangées du tableau périodique et considérons le cas d'un atome soumis à un champ électrique uniforme
The contributions of this thesis consist of three main results. The first result is concerned with analytic perturbation theory for Kohn-Sham type models. We prove, under some technical conditions, the existence, uniqueness and analyticity of the perturbed reduced Hartree-Fock ground state density matrix for regular perturbations arising from an external potential. Our analysis encompasses the case when the Fermi level of the unperturbed ground state is a degenerate eigenvalue of the mean-field operator and the frontier orbitals are partially occupied. The second result is concerned with the mathematical construction of pseudo potentials for Kohn-Sham models. We define a set of admissible semi local norm-conserving pseudo potentials of given local Sobolev regularity and prove that this set is non-empty and closed for an appropriate topology. This allows us to propose a new way to construct pseudo potentials, which consists in optimizing on the latter set some criterion taking into account both smoothness and transferability requirements. The third result is a numerical study of the reduced Hartree-Fock model of atoms. We propose a discretization method and an algorithm to solve numerically the Kohn-Sham equations for an atom subjected to a cylindrically-symmetric external potential. We report the computed occupied energy levels and the occupation numbers for all the atoms of the four first rows of the periodic table and consider the case of an atom subjected to a uniform electric-field
12

Cotoni, Vincent. "Modélisation de phénomènes vibroacoustiques en moyennes et hautes fréquences par méthode énergétique locale." Ecully, Ecole centrale de Lyon, 2001. http://www.theses.fr/2001ECDL0004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire traite de la modélisation de problèmes vibroacoustiques par une méthode énergétique locale. Les phénomènes abordés sont le rayonnement acoustique des structures planes, la transparence acoustique des structures planes et, de façon partielle, le rayonnement acoustique des structures courbes. L'approche développée est dédiée au domaine des moyennes et hautes fréquences où le principe de localité permet de calculer un système en le décomposant en problèmes canoniques locaux représentatifs des phénomènes rencontrés sur l'ensemble du système. L'originalité réside dans l'utilisation des variables énergétiques locales, densités d'énergie et flux de puissance. Ainsi, l'hypothèse que les ondes élémentaires décrivant les solutions vibratoires sont décorrélées, une superposition des solutions énergétiques locales est effectuée pour calculer le système complet. Diverses formulations énergétiques locales regroupées sous le nom de Méthode Energétique Simplifiée sont abordées. La spécificité du couplage vibroacoustique réside dans la prise en compte des phénomènes de diffraction intervenant dans les échanges de puissance. En cela, ce travail constitue une extension des méthodes énergétiques locales existantes
This study describes a local power flow method used for solving vibroacoustic problems. The sound radiation of plane structures and the sound transmission through plane structures are studied and the sound radiation of curved structures is partially investigated. The present approach is dedicated to the middle and high frequency range where the locality principle may be used to calculate a system by solving several local canonical problems encountered in the whole system. The originality of the model is the use of energy quantities such as energy density and power flow. A local power balance is thus derived for each canonical problem. Considering the high frequency assumption that elementary waves describing the vibratory response are uncorrelated, the linear superposition principle is then applied on local energy solutions in order to compute the complete system. Several local energy formulations previously developed and called Méthode Energétique Simplifiée (Simplified Energy Method) are investigated. The particularity of the vibroacoustic coupling is the consideration of diffraction phenomena encountered in power exchanges. Thus, this work is an extension of existing local energy approaches
13

Lembarki, Abderrahim. "Développement de fonctionnelles corrigées du gradient en théorie de la fonctionnelle de la densité." Lyon 1, 1994. http://www.theses.fr/1994LYO10340.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre travail est consacre au developpement de nouvelles fonctionnelles corrigees du gradient de la densite pour la partie d'echange-correlation. Cette etude s'inscrit dans le formalisme de la theorie de la fonctionnelle de la densite (dft). Dans la premiere partie de ce memoire, nous rappelons les fondements theoriques des methodes hartree-fock (hf), post-hf et de la fonctionnelle de la densite. La deuxieme partie est consacree a l'etude des differentes approximations proposees ces dernieres annees pour la partie d'echange-correlation de la dft. En particulier, nous avons montre les diverses approximations utilisees pour construire ces fonctionnelles. Le developpement de nouvelles fonctionnelles corrigees par le gradient de la densite constitue la troisieme partie de ce memoire. Dans cette etude nous avons etabli une nouvelle relation entre l'energie d'echange, l'energie de correlation et l'energie cinetique. Nous en avons deduit deux nouvelles formes possibles de fonctionnelles d'echange ou de correlation, respectivement. Dans la quatrieme partie nous avons etudie plus particulierement le potentiel d'echange, dont les formulations actuelles ne satisfont pas une condition theorique, a savoir le comportement asymptotique en -1/r. Notre contribution a ete de developper un potentiel d'echange ayant ce comportement asymptotique -1/r correct lorsque r tend vers l'infini. Dans ce chapitre nous avons aussi propose un modele qui permet d'obtenir l'energie d'echange a partir du potentiel d'echange, en utilisant le theoreme du viriel. La cinquieme partie de ce memoire est consacree a des applications de ces differentes fonctionnelles a des systemes simples (h#2o, co, n#2o, h#+#3 et h#+#5). Celles-ci nous ont permis de situer la performance des calculs dft vis a vis de ceux obtenus par les methodes post-hf
14

Mahieu, Joris. "Cycloimmonium ylure : détermination structurale par la méthode de la fonctionnelle de la densité, dynamique harmonique et mécanique moléculaire." Littoral, 2002. http://www.theses.fr/2002DUNK0073.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les cycloimmonium ylures sont des intermédiaires très importants dans la synthèse des composés azahétérocycliques et des polymères yluriques à propriétés spécifiques. Ces molécules sont reconnues pour leur grande stabilité essentiellement due à leur structure. Nous nous sommes intéressés dans ce mémoire à leur détermination structurale par des méthodes théoriques. Nous avons été amenés à trouver la méthode de calcul la mieux adaptées pour ce type de composé. Pour cela, nous avons choisi le cas du dicyano pyridinium méthylure, l'une des molécules les plus simples de cette classe de composés et l'une des plus étudiées de façon expérimentale. Dans un premier temps, nous avons sélectionné les méthodes théoriques quantiques susceptibles de décrire correctement la structure aussi bien géométrique qu'électronique par comparaison avec les données expérimentales existantes. Après avoir déterminé la méthode de calcul quantique appropriée aux cycloimmonium ylures, il nous paraissait intéressant de développer un ensemble de constantes de force spécifique à ce type de composés en mécanique moléculaire et ceci pour plusieurs raisons : la rapidité d'exécution de calcul par rapport aux méthodes théoriques quantiques et l'étude conformationnelle pour des cycloimmonium ylures plus complexes
The cycloimmonium ylides are very important intermediates in synthesis of azaheterocyclic compounds and ylidic polymers with specifically properties. In this paper dealt on structural determination using theoretical methods. The dicyano-pyridium methylide has been chosen as model for the cycloimmonium ylides, taking in account its structure and the corresponding experimental data. Firstly, we have found that the semi empirical AM1 and PM3, together with DFT procedure, are appropriate methods in the characterization of this type of molecules. This is in a good agreement with the x-ray diffraction measurements. Next, we have proposed a modified forces field parametrization in order to extend the structural determination for more complex ylidic systems
15

Hervé, Lionel. "Mesures de la composition corporelle et de la densité minérale osseuse par une méthode d'absorptiométrie X multi-énergie." Université Joseph Fourier (Grenoble), 2003. http://www.theses.fr/2003GRE10007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La technique d'absorptiométrie X bi-énergie (DXA) est préférentiellement utilisée pour quantifier la densité minérale osseuse et ainsi diagnostiquer la décalcification osseuse (ostéropose). Récemment, cette technique a été adaptée à la quantification de la composition corporelle (pourcentage de graisse des patients). Or, des artefacts de mesure existent et engendrent une fraction de diagnostics erronés. Le but de notre thèse est d'améliorer ces mesures de densité minérale osseuse et de composition corporelle, aussi bien au niveau de la reproductibilité que de l'exactitude. Nous avons donc optimisé les conditions d'acquisition afin d'améliorer la reproductibilité des mesures et avons proposé une méthode afin de corriger les erreurs d'exactitudes sur les mesures de la densité minérale osseuse. Des résultats expérimentaux encourageants ont été obtenus sur des fantômes synthétiques et sur des pièces biologiques.
16

Habbou, Abderrahim. "Densité électronique de déformation par la méthode X-X et structures cristallines de métalloporphyrines des groupes 13 et 14." Nancy 1, 1990. http://www.theses.fr/1990NAN10246.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Étude structurale par diffraction des rayons X de AL(OEP)CH#3, IN(OEP)MO(CO)#3CP, TL(OEP)MO(CO)#3CP et GE(OEP)FE(CO)#4. Les résultats cristallographiques ont été comparés aux données spectroscopiques IR. Étude par la méthode X-X de la densité de déformation de la difluoro-octaethyle-porphyrine de germanium. Le modèle de Hansen-Coppens dans l'hypothèse harmonique s'est révélé insuffisant pour décrire la densité électronique de déformation au niveau de la liaison germanium-fluor. L'introduction d'un modèle anharmonique (développement Gram-Charlier) a entraîné une diminution de la longueur de liaison GEF, modifiant la densité de liaison, plus réaliste par comparaison avec des cartes théoriques obtenues par calcul ab initio SCF sur une molécule modèle : la difluoro-germanium-porphyrine. L'analyse des coefficients de contraction-dilatation pour le modèle incluant les électrons 3D dans la couche de valence du germanium a révélé que les électrons 3D ne sont pas perturbés. Seuls les électrons 4S4P de l'atome de germanium participent aux liaisons GEN et GEF; en effet, tous les modèles que nous avons utilisés mettent en évidence la contraction importante de ces orbitales. Les charges nettes du germanium, de l'azote et du fluor sont respectivement +1,28E, 0,14E ET 0,19E
17

Rouvière, Laurent. "Estimation de densité en dimension élevée et classification de courbes." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2005. http://tel.archives-ouvertes.fr/tel-00011624.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse consiste étudier et approfondir des techniques d'estimation de la densité et de classification dans des espaces de dimension élevée. Nous avons choisi de structurer notre travail en trois parties.

La première partie, intitulée compléments sur les histogrammes modifiés, est composée de deux chapitres consacrés l'étude d'une famille d'estimateurs non paramétriques de la densité, les histogrammes modifiés, connus pour posséder de bonnes propriétés de convergence au sens des critères de la théorie de l'information. Dans le premier chapitre, ces estimateurs sont envisagés comme des systèmes dynamiques espace d'états de dimension infinie. Le second chapitre est consacré l'étude de ces estimateurs pour des dimensions suprieures un.

La deuxième partie de la thèse, intituleé méthodes combinatoires en estimation de la densité, se divise en deux chapitres. Nous nous intéressons dans cette partie aux performances distance finie d'estimateurs de la densité sélectionnés à l'intérieur d'une famille d'estimateurs candidats, dont le cardinal n'est pas nécessairement fini. Dans le premier chapitre, nous étudions les performances de ces méthodes dans le cadre de la sélection des différents paramètres des histogrammes modifiés. Nous poursuivons, dans le deuxième chapitre, par la sélection d'estimateurs à noyau dont le paramètre de lissage s'adapte localement au point d'estimation et aux données.

Enfin, la troisième et dernière partie, plus appliquée et indépendante des précédentes, présente une nouvelle méthode permettant de classer des courbes partir d'une décomposition des observations dans des bases d'ondelettes.
18

Hamon, Abdellatif. "Estimation d'une densité de probabilité multidimensionnelle par dualité." Rouen, 2000. http://www.theses.fr/2000ROUES055.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous étudions dans cette thèse l'estimation d'une fonction de densité d'une loi de probabilité multidimensionnelle à partir d'un certain nombre de moments issue de cette loi. Nous considérons ces moments comme une information sur la loi inconnue. Nous introduisons une nouvelle fonction d'information de type Kullback, afin d'utiliser la méthode du maximum d'entropie pour construire un estimateur convergent uniformément vers la loi inconnue lorsque le nombre de moments augmente. Nous utilisons les techniques de dualité de Fenchel-Young pour démontrer dans un premier temps la convergence uniforme de l'estimateur de maximum d'entropie vers la densité inconnue lorsque les fonctions deux densités sont uniformément bornées. Nous explicitons dans un deuxième temps la vitesse de convergence de l'estimateur du maximum d'entropie lorsque les fonctions de moments sont algébriques, trigonométriques définies sur un compact de IR n. Nous construisons une famille de splines à régularité modifiables, puis nous démontrons que lorsque les fonctions de moments proviennent de cette famille alors la convergence uniforme de l'estimateur du maximum d'entropie est assurée. Dans la dernière partie de cette thèse, nous proposons un algorithme de construction d'une loi inconnue à partir d'un certain nombre de ces moments.
19

Huang, Lorick. "EDS dirigées par des processus stables : Méthode paramétrix pour des estimées de densités et application aux algorithmes stochastiques." Sorbonne Paris Cité, 2015. https://theses.hal.science/tel-01180708.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Premièrement, nous étudions une classe d'équations différentielles stochastiques dirigées par des processus stables (possiblement tempérés), sous des hypothèses de régularité Wilder sur les coefficients. Nous prouvons que le problème de martingale associé est bien posé, établissant ainsi l'unicité faible pour l'EDS. Nous donnons aussi un encadrement de la densité de la solution par celle d'un processus stable (possiblement tempéré). Notre approche est basée sur la méthode parametrix. Dans un second temps, nous considérons une équation différentielle stochastique dégénérée dirigée par un processus stable dont les coefficients satisfont une sorte d'hypothèse de Hôrmander faible. Sous de relativement faibles hypothèses de régularité et des restrictions dimensionnelles, nous prouvons que le problème de martingale est bien posé. Nous donnons également un majorant de la densité reflétant le caractère multi-échelle du processus sous-jacent dans le cas scalaire du stable tempéré. Enfin, nous obtenons un développement pour l'erreur de discrétisation de la cible d'un algorithme stochastique à la suite de [30]. Ceci nous permet de mettre en place une extrapolation de Richardson-Romberg dans le cadre des algorithmes stochastiques, déjà obtenue pour les estimateurs de Monte Carlo linéaires (introduite par Talay et Tubaro [79] et pleinement étudiée dans Pagès [65]) Nous appliquons nos résultats à l'estimation du quantile de la solution d'une EDS dirigée par un processus stable. Les résultats numériques produits à partir de notre méthode montrent une réduction significative de la complexité
Density Estimates for SDEs Driven by Tempered Stable Processes. We study a class of stochastic differential equations driven by a possibly tempered Lévy process, under mild conditions on the coefficients (Wilder continuity). We prove the well-posedness of the associated martingale problem as well as the existence of the density of the solution. Two sided heat kernel estimates are given as well. Our approach is based on the Parametrix series expansion. A Parametrix Approach for some Degenerate Stable Driven SDEs. We consider a stable driven degenerate stochastic differential equation, whose coeffi- cients satisfy a kind of weak Hôrmander condition. Under mild smoothness assumptions we prove the uniqueness of the martingale problem for the associated generator under some dimension constraints. Also, when the driving noise is scalar and tempered, we establish density bounds reflecting the multi-scale behavior of the process. A Multi-step Richardson-Romberg extrapolation method for stochastic approximation We obtain an expansion of the implicit weak discretization error for the target of stochastic approximation algorithms introduced and studied in [30]. This allows us to extend and develop the Richardson-Romberg extrapolation method for Monte Carlo linear estimator (introduced in [79] and deeply studied in [65]) to the framework of stochastic optimization by means of stochastic approximation algorithms. We notably apply the method to the estimation of the quantile of diffusion processes. Numerical results confirm the theoretical analysis and show a significant reduction in the initial computational cost
20

Vervisch, Luc. "Prise en compte d'effets de cinétique chimique dans les flammes de diffusion turbulentes par l'approche fonction densité de probabilité." Rouen, 1991. http://www.theses.fr/1991ROUES053.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Des simulations numériques de flammes de diffusion turbulentes sont présentées dans ce mémoire. Différents aspects sont abordés, les effets de cinétiques chimiques et leur couplage avec l'aérodynamique turbulente. Dans un premier temps, la description des écoulements turbulents réactifs par le biais de l'approche fonction densité de probabilité est examinée en détail, ainsi que les modélisations du mélange aux petites échelles adaptées au cas des flammes de diffusion. Deux méthodes numériques couplées à la résolution des équations de la mécanique des fluides fermées au premier ordre par un modèle à deux équations sont alors proposées. L'une s'inscrivant dans le cadre des méthodes a pdf présumee PEUL, l'autre assurant la résolution de l'équation d'évolution de la pdf des variables thermochimiques par une technique de Monte Carlo. La validation des modélisations et des méthodes numériques est effectuée dans différentes configurations de flamme de diffusion turbulentes
21

Roques, Jérôme. "Modélisation de l'adsorption dissociative de molécules diatomiques sur des agrégats métalliques par la méthode de la fonctionnelle de la densité : comparaison avec les propriétés du massif et de la surface infinie." Toulouse, INPT, 2001. http://www.theses.fr/2001INPT010G.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les processus d'adsorption dissociative tiennent une place importante dans les procédés de catalyse hétérogène. L'objectif de ce manuscrit est de montrer que l'on peut correctement décrire l'adsorption dissociative de l'hydrogène et de l'oxygène sur une surface infinie de palladium, en la modélisant par de petits agrégats. Dans cette étude, nous avons utilisé la théorie de la fonctionnelle de la densité (TFD) pour effectuer les calculs des énergies électroniques des diférents systèmes étudiés. La première partie de ce travail est consacrée à l'études de différentes propriétés de petits agrégats de palladium nus, à les comparer à celles du métal et de la surface infinie, puis à tenter de faire un lien théorique entre les deux. Dans une seconde partie, nous avons montré que les petits agrégats de palladium à deux couches constituent de bons modèles pour représenter la chimisorption atomique de l'hydrogène ou de l'oxygène ou de l'oxygène sur une surface infinie de palladium. La dernière partie de ce mémoire est consacrée à l'étude de l'adsorption dissociative des molécules H2 et O2.
22

Saadane, Ouafa. "Etude du silicium polymorphe hydrogéné en couches minces pour applications photovoltai͏̈ques." Paris 11, 2003. http://www.theses.fr/2003PA112143.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail présenté dans ce mémoire porte sur l'étude de la métastabilité dans le silicium polymorphe hydrogéné (pm-Si:H). Le pm-Si:H est déposé dans un régime de plasma proche de la formation de poudres, ce qui entraîne l'incorporation d'agrégats et des cristallites dans la couche. Des résultats antérieurs ont démontré le caractère prometteur du pm-Si:H pour la conversion photovoltai͏̈que. Cette étude a pour objectif d'apporter une meilleure compréhension entre la microstructure du pm-Si:H et ses propriétés de transport en fonction des conditions de dépôt. Nous avons utilisé différentes méthodes de caractérisations, et en particulier des techniques de caractérisations électriques: mesures de conductivité et de photoconductivité (méthode de photocourant constant, photocourant modulé et photoconductivité par interférométrie laser), que nous avons couplées avec des méthodes de caractérisations structurales (spectroscopie infrarouge par transformé de Fourier et exodiffusion thermique). Nous avons particulièrement étudié la métastabilité du pm-Si:H. Après une étude systématique des films de pm-Si:H, nous avons mis en évidence les conditions de dépôt qui conduisent à des films aux propriétés de transport optimisées (grande vitesse de dépôt, longueur de diffusion des porteurs minoritaires élevée et stable, meilleur efficacité de rendement des dispositifs). Grâce à la corrélation entre les propriétés électriques et structurales des films de pm-Si:H, nous avons conclu que les bonnes propriétés électriques du pm-Si:H sont reliées directement à la présence d'agrégats et de cristallites dans la matrice amorphe du matériau. Pour éviter l'évolution au cours des cycles vieillissement/recuit des propriétés de transport de ces films et de leur densité d'états, il semble qu'il faille choisir des conditions de dépôt qui conduisent à une hydrogénation optimale de ces agrégats ou cristallites. Nous avons également développé un modèle qui explique la métastabilité des films pm-Si:H
The work presented in this thesis is devoted to the study of the metastability in the hydrogenated polymorphous silicon (pm-Si:H). The pm-Si:H films deposited in a plasma regime close to the powder formation, which promoted the incorporation of nanocrystallites and/or clusters in amorphous matrix of the layers. Previous results have shown the promising potentiality of the pm-Si:H for photovoltaic conversion. The aim of this study is to bring a better comprehension between the structural and optoelectronic properties of pm-Si:H films prepared under different deposition conditions. We used various methods of characterizations, and in particular some electrical techniques of characterizations: measurements of conductivity and photoconductivity (constant photocourant method, modulated photocurrent, steady state photocarrier gratings)), which we coupled with methods of structural characterizations (Fourier transform infrared spectroscopy and hydrogen effusion experiments). We particularly studied the metastability of the pm-Si:H. After a systematic study of a large number of pm-Si:H films, we highlighted the deposition conditions which lead to films with good properties transport (high deposition rate, high and excellent stability of the ambipolar diffusion length of the minority carriers, better efficiency of the solar cells). A link between hydrogen bonding and transport properties is made that shows that to exhibit good transport properties the material has to present a peculiar microstructure revealed by the hydrogen bonding. However, the hydrogen bonding and/or content in this structure has to be adjusted via the deposition conditions to reach an optimum hydrogen incorporation leading to the best layers and the best solar cell devices
23

Bally, Benjamin. "Description des noyaux impairs à l'aide d'une méthode de fonctionnelle énergie de la densité à plusieurs états de référence." Phd thesis, Bordeaux, 2014. http://tel.archives-ouvertes.fr/tel-01023059.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce manuscrit de thèse, nous nous intéressons à la description des noyaux atomiques composés d'un nombre impair de nucléons dans la méthode dite de la fonctionnelle énergie de la densité (EDF). Plus précisément, nous présentons et appliquons dans le cas de ces noyaux, des extensions à cette méthode : (i) la projection sur les bons nombres quantiques, (ii) le mélange de configurations à travers la méthode des coordonnées génératrices (GCM), qui permettent de prendre en compte dans nos calculs des corrélations de type " au-delà du champ moyen " entre les nucléons constituant le noyau. De telles extensions n'avaient jusqu'alors été employées, dans leurs versions les plus générales, qu'aux noyaux ayant à la fois un nombre pair de neutrons et de protons, et nous nous proposons donc de démontrer leurs applicabilités également dans le cas des noyaux impairs. Dans la première partie de ce travail, nous présentons le formalisme mathématique de la méthode EDF, en mettant tout particulièrement l'accent sur le traitement des symétries dans cette approche. Dans la seconde partie du manuscrit, nous appliquons notre modèle au cas du noyau de Mg25 et analysons les résultats sous différents angles (ex : précision numérique des résultats, convergence du mélange de configurations, comparaison avec les données expérimentales connues). Les premiers résultats obtenus dans ce travail de thèse sont encourageants et démontrent l'intérêt de notre approche pour les calculs théoriques de structure nucléaire.
24

Pollet, Rodolphe. "Développement et applications d'une méthode généralisant la Théorie de la fonctionnelle de la densité à plusieurs déterminants de Slater." Paris 6, 2001. http://www.theses.fr/2001PA066525.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Gallouj, Hassan. "Détermination et validation de champs de forces par la méthode de fonctionnelle de densité (DFT) pour des résidus amino acides aromatiques." Lille 1, 1999. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1999/50376-1999-145.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail consiste en la détermination et la validation de champs de forces par la méthode de fonctionnelle de densité (DFT), confirmées par le calcul des intensités Raman de résonance pour des résidus amino acides aromatiques. Les trois molécules étudiées sont le para-crésol (4-méthylphénol), le 4-éthylimidazole et le 3-éthylindole pris entant que modèles de trois résidus d'acides aminés aromatiques, tyrosine, histidine et le tryptophane. A l'aide des méthodes ab initio appuyées par la théorie de la fonctionnelle de densité (DFT, Kohn-Sham) (formulée dans le programme Gaussian DFT/94), et en utilisant une base de calcul 6-31g (df, p) on a essayé de reproduire les fréquences vibrationnelles expérimentales et d'en déduire un jeu de constantes de forces. Pour cela on a appliqué un ensemble de facteurs d'échelle. Cette méthode, désignée par SQM a été appliquée à l'aide du programme Redong. Les modes normaux sont attribuées à l'aide de la distribution d'énergie potentielle et les effets isotopiques. Enfin on calcul les intensités Raman de résonance pour les modes de vibration les plus intenses en utilisant le terme A (Albrecht) du tenseur de diffusion. A partir des résultats obtenus, on a pu sélectionner un ensemble de facteurs d'échelle qui peut être utilisé pour d'autres molécules proches des trois molécules étudiées. La comparaison de nos résultats par rapport à ceux provenant d'autres études théoriques encourage à l'utilisation de cette méthode de calcul.
26

Pichon-Pesme, Virginie. "Étude de l'effet anomérique par analyse de la densité électronique." Nancy 1, 1986. http://www.theses.fr/1986NAN10088.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Détermination de la densité électronique par diffraction RX et calculs hartree-fock dans des composés présentant les caractéristiques géométriques de l'effet anomérique. Étude expérimentale du trans-dichloro-2,5 dioxonne-1,4 et théorique du fluorométhyle méthyle ether
27

Couto-Barba, Laurent. "Contribution à la simulation du mélange turbulent par la schématisation de fonctions densité de probabilité." Pau, 2005. http://www.theses.fr/2005PAUU3014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif est de proposer un modèle schématisant le mélange en fonction des échelles de longueur et de temps caractéristiques de la turbulence en se limitant au cas de la turbulence homogène et isotrope. Le modèle introduit la notion de particule fluide élémentaire et ses différents voisinages (immédiat, proche et lointain). Pour chaque niveau de voisinage, un modèle spécifique de mélange existant dans la littérature est appliqué. L'approche prend en compte, des petites aux grandes échelles, la diffusion moléculaire (loi de Fick), le mélange interne aux particules fluides (modèle de Kerstein, 1988), le mélange externe aux particules fluides (inspiré du modèle LMSE de Dopazo 1974, ou du modèle C/R de Curl, 1963) et le macromélange (calcul des déplacements lagrangiens). Une horloge interne exécute de manière séquentielle les différents modèles en les appliquant instantanément à des intervalles de temps définis. Deux configurations ont été étudiées. La première est le cas académique du mélange d'un scalaire inerte réparti initialement de manière bimodale. Les évolutions temporelles des fonctions densité de probabilité (PDF), de la variance et des coefficients de symétrie et d'aplatissement ont été comparées à celles issues des simulations numériques directes de Eswaran & Pope (1988). Une étude paramétrique sur la synchronisation et la prépondérance des phénomènes modélisés a été effectuée. La deuxième configuration est celle de couches de mélange thermique issues d'un ou de deux fils chauds introduits dans un écoulement de turbulence de grille à vitesse moyenne uniforme. Nos résultats numériques sont en accord qualitatif avec les résultats expérimentaux de Warhaf (1984)
This thesis considers a method which simplifies the mixing at different levels, depending on turbulence length and time scales. The analysis is here restricted to the case of homogeneous and isotropic turbulent flows. The model is based on elementary fluid particles considered in their different levels of neighborhoods. For each vicinity level, a specific mixing model is applied. The approach takes into account - from small to high length scales - laminar diffusion (Fick diffusion process), internal mixing into fluid particle (Kerstein model, 1988), external mixing between fluid particles contained into a same eulerian volume (inspired from the LMSE model developpef by Dopazo, 1974, or from the Curl model,1963) and turbulent dispersion (where lagrangian moves are computed). An internal clock organizes the sequence of applications of the different models. Each one is applied instantaneously at different periodic times. Two different cases have been studied. The first case is the time evolution of mixing between two components initially introduced in two different areas. The numerical results have been compared to those of Direct Numerical Simulations by Eswaran & Pope (1988). The time evolution of Probability Density Functions, and the evolutions of variance, symetry coefficient and flatness coefficient have been compared. A parametrical study of the parameter governing the sequence of application of the different models has been performed. The second case considers thermal mixing layers emitted from one or two hot films placed inside a grid turbulence with uniform mean flow. Numerical results are in qualitative agreement with the experimental results by Warhaft (1984)
28

Elmeguenni, Mohamed. "Effet de la triaxialité sur le comportement et la rupture du polyéthylène haute densité : approches expérimentales et numériques." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10035.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans un premier volet, une approche expérimentale basée sur des essais macroscopiques et des observations microscopiques (MEB et MO) ont permis de préciser la cause de l’endommagement du polyéthylène haute densité (PEHD) et sa sensibilité à la triaxialité des contraintes. Dans un deuxième volet, afin d’explorer des gammes de triaxialités de contraintesplus importantes, des éprouvettes fissurées ont été étudiées expérimentalement et ont permis de discuter de la pertinence des critères impliquant les concepts de la mécanique de la rupture ductile pour l’étude du PEHD. Pour étayer la discussion, deux approches énergétiques (intégrale J et EWF) de la mécanique de la rupture couplées à la technique de corrélation d’images digitales ont été examinées sur trois types d’éprouvettes (SENB, CT et DENT). Enfin, un troisième volet avait pour objet d’examiner la pertinence de modèles issus de la mécanique de l’endommagement ductile par croissance de vides pour prédire le comportement mécanique et l’endommagement du PEHD et ce, jusqu’à rupture. Une attention particulière a été portée aux effets de triaxialité des contraintes. Deux critères de coalescences ont été examinés selon deux approches complémentaires. Ces approches se sont avérées pertinentes dans le cas du PEHD. En effet, la confrontation des résultats numériques avec les résultats expérimentaux a montrée une bonne corrélation tant sur la réponse globale des éprouvettes axisymétriques entaillées (courbes contrainte vraie - variation de volume plastique - déformation vraie) et des éprouvettes de rupture (charge - déplacement) que sur la réponse locale des éprouvettes de rupture en terme de champs cinématiques
In a first part of this thesis, an experimental approach based on macroscopic measurements and microscopic observations (SEM and OM) led to a better understanding of damage mechanisms in high density polyethylene (HDPE) and its stress triaxiality sensitivity. In order to examine higher stress triaxiality values, cracked samples were experimentally examined in a second part. Based on the obtained results, the relevance of the fracture mechanics concepts to characterize the fracture toughness of HDPE was critically discussed. The investigation was performed using two well-known approaches of the fracture mechanics – J-integral and EWF – using different specimen configurations (SENB, CT and DENT). To gain insight into the strain field around the crack tip, digital image correlation method was used. The third part was focused on the demonstration of the relevance of ductile damage models (based on the void volume evolution as indicator of damage) to predict the mechanical and damage behaviour of HDPE and that, until complete failure. A special attention was paid on the stress triaxiality effects. Two failure criteria using complementary approaches were examined. These approaches were found relevant in the case of HDPE. Indeed, a good agreement was found between the numerical simulations and the experimental results in terms of overall response of axisymmetric samples (true stress-strain-volumetric response) and of cracked samples (load-displacement response) and in terms of local response corresponding to kinematics fields
29

Tsikata, Sedina. "Fluctuations de densité électronique à petite échelle dans un propulseur à effet Hall, investigué par la méthode de diffusion collective." Phd thesis, Ecole Polytechnique X, 2009. http://tel.archives-ouvertes.fr/tel-00484027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les oscillations dans le plasma d'un propulseur à effet Hall sont susceptibles de provoquer le transport anormal à travers des lignes du champ magnétique. La théorie cinétique linéaire montre qu'en particulier certaines oscillations, de fréquence de l'ordre du mégahertz et de longueur d'onde millimétrique, peuvent jouer un rôle important dans le transport anormal. Les échelles caractéristiques de ces fluctuations ne sont pas détectables par des outils standards comme les sondes. Ce travail décrit pour la première fois l'utilisation d'un diagnostic de diffusion collective (PRAXIS) conçu pour l'étude du plasma du propulseur, qui a mené à l'identification des modes instables dans le plasma. Deux modes hautes fréquences ont été identifiés, se propageant dans les directions azimutale et axiale, avec des longueurs d'onde millimétriques et des fréquences de l'ordre du mégahertz. Les directions de propagation et les ouvertures angulaires de ces modes ont été déterminées. Le mode azimutal, identifié dans la théorie comme agent principal du transport, possède des composantes anti-parallèles au champ magnétique et parallèles au champ électrique et se propage dans une ouverture angulaire très restreinte. Le mode axial montre des caractéristiques liées à la vitesse et la divergence du faisceau d'ions. Le niveau de fluctuation de la densité est associé à une grande amplitude du champ électrique fluctuant. Les résultats des expériences sont en accord avec les prévisions théoriques et apportent de nouvelles informations, permettant ainsi d'améliorer et de développer des modèles pour les deux modes.
30

Elyeznasni, Nadia. "Interfaces entre liquides modèles non miscibles : étude parallèle par la dynamique moléculaire et par la méthode de la fonctionnelle de densité." Paris 12, 2007. http://www.theses.fr/2007PA120007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'interface entre liquides partiellement ou non miscibles intervient dans divers domaines de physicochimie (électrochimie, extraction liquide/liquide, biologie). En se référant au cas d'un liquide au voisinage d'une paroi solide, on peut s'attendre à ce que la concentration à travers l'interface entre liquides non miscibles présente une structure en couches. L'objectif de ce travail est d'examiner dans quelles conditions de température et de densité en phase homogène, une telle structure en couches est effectivement obtenue. Nous présentons l'étude du profil de densité par simulation numérique par dynamique moléculaire et du calcul issu de la théorie de fonctionnelle de densité (DFT). Les systèmes sont modélisés par le potentiel de Lennard-Jones et rendus non miscibles par un potentiel croisé répulsif. Les profils de densité présentent une structure oscillante dans un domaine limité de diagramme de phase du liquide homogène. A l'approche de la coexistence liquide/vapeur, on observe simultanément une déplétion entre les deux liquides et la disparition de toute structure dans les profils de densité. La comparaison avec le profil liquide/vapeur et l'analyse de l'adsorption nous conduisent à interpréter ce comportement en terme de démouillage. L'étude de rôle jouée par les ondes capillaires pour modifier les oscillations a été aussi évoquée en étudiant l'évolution des profils intrinsèques
Due to its importance in many phenomena in chemistry and biology. We present a study of the structure in the interface between two immiscible liquids by density-functional theory and molecular-dynamics calculations. The liquids are modeled by Lennard-Jones potentials, which achieve immiscibility by supressing the attractive interaction between unlike particles. The density profiles of the liquids display oscillations only in a limited part of the simple liquid-phase diagram (density, temperature). When approaching the liquid-vapor coexistence, a significant depletion appears while the layering behavior of the density profile vanishes. By analogy with the liquid-vapor interface and the analysis of the adsorption this behavior is suggested to be strongly related to the drying transition. We present also a study of intrinsic profils by molecular dynamics to schow capillary waves effects to damp oscillatory structure in the interface between immiscible liquids
31

Sahnoun, Riadh. "Processus de dissociation de composés organométalliques et simulation de l'effet de l'environnement par la méthode de la fonctionnelle de la densité." Toulouse, INPT, 1998. http://www.theses.fr/1998INPT015C.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les composes etudies dans ce travail, le bisbenzenechrome (cr(c6h6)2) et le nickelocene (ni(c5h5)2), sont connus depuis les annees 1950. Ils sont utilises dans des processus industriels tel que le depot chimique en phase vapeur cvd. Alors que leurs structures sandwich sont connues depuis longtemps, leur processus de dissociation au voisinage d'une surface metallique n'est pas encore elucide. Notre objectif etait donc d'etudier le processus en essayant de modeliser l'effet d'une surface metallique. Celui-ci a ete mis en uvre d'abord par un transfert de charge puis par application d'un champ electrique. Finalement, les effets de la temperature ont ete evalues. La dft est la methode la plus adaptee a l'etude des composes contenant des metaux de transition et tel a ete notre choix pour effectuer nos calculs. Le programme de calcul utilise est le code demon concu par une equipe de l'universite de montreal. Dans une premiere etape, nous avons calcule les energies de dissociations a 0 k ; du cr(c6h6)2 et du ni(c5h5)2 en incluant les effets de la polarisation de spin. Nos resultats indiquent que dans chacun des organometalliques la dissociation se fait de maniere successive. Dans le cas du cr(c6h6)2 la dissociation du deuxieme ligand s'effectue apres relaxation de spin (intersystem crossing). Les valeurs calculees des energies de dissociation sont coherentes avec l'experience. Dans la seconde etape, nous avons etudie les ions du cr(c6h6)2 et du ni(c5h5)2, plus particulierement les cations. Un accord satisfaisant est aussi obtenu en ce qui concerne les valeurs de leurs energies de dissociation. Nous avons trouve aussi que dans le cas du cation du cr(c6h6)2, la dissociation du deuxieme ligand se fait avec relaxation de spin. Soulignons que cette etude constitue la premiere maniere de simuler l'effet d'une surface metallique (transfert de charge entre la surface et l'adsorbat). Dans la troisieme etape, nous avons inclus l'effet d'un champ electrique exterieur dans le calculs de l'energie de dissociation. Nous avons trouve que la perte en symetrie du cr(c6h6)2 et du ni(c5h5)2, privilegiait ainsi la dissociation d'un ligand par rapport a l'autre. L'energie de dissociation totale a diminue de maniere significative dans le cas du cr(c6h6)2. Nous avons pu montre qu'il etait possible de faire une dissociation simultanee a condition que les valeurs des energies de la premiere et de la deuxieme dissociation soient proches a 0 k. Finalement, nous avons inclus les effets de la temperature. Ces effets sont faibles sur les energies de dissociation. Dans cette these, nous avons demontre que la liaison metal-ligand est dominee par un transfert d'electron du metal vers le ligand, dans le cas de cr(c6h6)2 et de son intermediaire reactionnel cr(c6h6)2. Dans le cas du ni(c5h5)2 et de son intermediaire reactionnel ni(c5h5), elle est dominee par processus de donation/retrodonation entre le metal et le ligand. Dans le cas des composes cationiques, la liaison est essentiellement assuree par un transfert d'electron du ligand vers le metal. Sous l'effet du champ electrique, le transfert d'electron se fait d'un ligand vers l'autre, dans les compose a deux ligands sans alterer la charge du metal.
32

Ayme, Fabien. "Développement d'une méthode énergétique pour l'évaluation expérimentale des flux acoustiques entrants dans les cavités d'avion." Phd thesis, Ecole Centrale de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00995861.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La hiérarchisation de la puissance injectée par des sources acoustiques dans une cavité d'avion telle qu'un cockpit, en vol, revêt un caractère majeur dans le but d'en réduire le bruit intérieur. Afin de répondre à ce besoin, la nécessité de considérer la cavité dans son ensemble à l'aide d'une méthode globale se révèle importante. Au cours de cette thèse, une méthode d'identification basée sur une méthode énergétique locale, appelée MES pour Méthode Energétique Simplifiée, est utilisée. En connaissant la géométrie de la cavité, ainsi que l'absorption des matériaux qui la composent, elle permet de déterminer la puissance rayonnée par les différentes sources acoustiques à l'intérieur de la cavité, à l'aide de mesures d'intensité tridimensionnelle, et de densité d'énergie acoustique totale. Afin de tester la méthode dans un cas réel, mesurer ces quantités énergétiques s'avère alors nécessaire. Une sonde acoustique est donc conçue, fabriquée, testée et enfin validée. Basée sur quatre mesures de pressions réalisées autour d'une sphère rigide à l'aide de microphones électrostatiques déportés, elle permet de mesurer la pression et le vecteur vitesse particulaire au centre de la sphère, et d'en déduire alors l'intensité 3D et la densité d'énergie totale. Un démonstrateur est ensuite construit pour réaliser des essais. Il s'agit d'une maquette de cockpit basée sur celui de l'A380. Différents essais acoustiques et vibro-acoustiques permettent alors de démontrer la capacité de l'association formée par la méthode d'identification et la sonde à déterminer la puissance injectée par les différentes sources dans des conditions acoustiques plus ou moins sévères, avec une précision de l'ordre de 2dB. Le post-traitement à l'aide de la MES des flux acoustiques rayonnés ainsi déterminés permet également de reconstruire le champ acoustique dans la cavité, ainsi que de séparer les différentes contributions en des points d'intérêt tels que les têtes pilote et copilote.
33

Dion, Charlotte. "Estimation non-paramétrique de la densité de variables aléatoires cachées." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM031/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse comporte plusieurs procédures d'estimation non-paramétrique de densité de probabilité.Dans chaque cas les variables d'intérêt ne sont pas observées directement, ce qui est une difficulté majeure.La première partie traite un modèle linéaire mixte où des observations répétées sont disponibles.La deuxième partie s'intéresse aux modèles d'équations différentielles stochastiques à effets aléatoires. Plusieurs trajectoires sont observées en temps continu sur un intervalle de temps commun.La troisième partie se place dans un contexte de bruit multiplicatif.Les différentes parties de cette thèse sont reliées par un contexte commun de problème inverse et par une problématique commune: l'estimation de la densité d'une variable cachée. Dans les deux premières parties la densité d'un ou plusieurs effets aléatoires est estimée. Dans la troisième partie il s'agit de reconstruire la densité de la variable d'origine à partir d'observations bruitées.Différentes méthodes d'estimation globale sont utilisées pour construire des estimateurs performants: estimateurs à noyau, estimateurs par projection ou estimateurs construits par déconvolution.La sélection de paramètres mène à des estimateurs adaptatifs et les risques quadratiques intégrés sont majorés grâce à une inégalité de concentration de Talagrand. Une étude sur simulations de chaque estimateur illustre leurs performances. Un jeu de données neuronales est étudié grâce aux procédures mises en place pour les équations différentielles stochastiques
This thesis contains several nonparametric estimation procedures of a probability density function.In each case, the main difficulty lies in the fact that the variables of interest are not directly observed.The first part deals with a mixed linear model for which repeated observations are available.The second part focuses on stochastic differential equations with random effects. Many trajectories are observed continuously on the same time interval.The third part is in a full multiplicative noise framework.The parts of the thesis are connected by the same context of inverse problems and by a common problematic: the estimation of the density function of a hidden variable.In the first two parts the density of one or two random effects is estimated. In the third part the goal is to rebuild the density of the original variable from the noisy observations.Different global methods are used and lead to well competitive estimators: kernel estimators, projection estimators or estimators built from deconvolution.Parameter selection gives adaptive estimators and the integrated risks are bounded using a Talagrand concentration inequality.A simulation study for each proposed estimator highlights their performances.A neuronal dataset is investigated with the new procedures for stochastic differential equations developed in this work
34

Libengue, Dobele-kpoka Francial Giscard Baudin. "Méthode non-paramétrique des noyaux associés mixtes et applications." Thesis, Besançon, 2013. http://www.theses.fr/2013BESA2007/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous présentons dans cette thèse, l'approche non-paramétrique par noyaux associés mixtes, pour les densités àsupports partiellement continus et discrets. Nous commençons par rappeler d'abord les notions essentielles d'estimationpar noyaux continus (classiques) et noyaux associés discrets. Nous donnons la définition et les caractéristiques desestimateurs à noyaux continus (classiques) puis discrets. Nous rappelons aussi les différentes techniques de choix deparamètres de lissage et nous revisitons les problèmes de supports ainsi qu'une résolution des effets de bord dans le casdiscret. Ensuite, nous détaillons la nouvelle méthode d'estimation de densités par les noyaux associés continus, lesquelsenglobent les noyaux continus (classiques). Nous définissons les noyaux associés continus et nous proposons laméthode mode-dispersion pour leur construction puis nous illustrons ceci sur les noyaux associés non-classiques de lalittérature à savoir bêta et sa version étendue, gamma et son inverse, gaussien inverse et sa réciproque le noyau dePareto ainsi que le noyau lognormal. Nous examinons par la suite les propriétés des estimateurs qui en sont issus plusprécisément le biais, la variance et les erreurs quadratiques moyennes ponctuelles et intégrées. Puis, nous proposons unalgorithme de réduction de biais que nous illustrons sur ces mêmes noyaux associés non-classiques. Des études parsimulations sont faites sur trois types d’estimateurs à noyaux lognormaux. Par ailleurs, nous étudions lescomportements asymptotiques des estimateurs de densité à noyaux associés continus. Nous montrons d'abord lesconsistances faibles et fortes ainsi que la normalité asymptotique ponctuelle. Ensuite nous présentons les résultats desconsistances faibles et fortes globales en utilisant les normes uniformes et L1. Nous illustrons ceci sur trois typesd’estimateurs à noyaux lognormaux. Par la suite, nous étudions les propriétés minimax des estimateurs à noyauxassociés continus. Nous décrivons d'abord le modèle puis nous donnons les hypothèses techniques avec lesquelles noustravaillons. Nous présentons ensuite nos résultats minimax tout en les appliquant sur les noyaux associés non-classiquesbêta, gamma et lognormal. Enfin, nous combinons les noyaux associés continus et discrets pour définir les noyauxassociés mixtes. De là, les outils d'unification d'analyses discrètes et continues sont utilisés, pour montrer les différentespropriétés des estimateurs à noyaux associés mixtes. Une application sur un modèle de mélange des lois normales et dePoisson tronquées est aussi donnée. Tout au long de ce travail, nous choisissons le paramètre de lissage uniquementavec la méthode de validation croisée par les moindres carrés
We present in this thesis, the non-parametric approach using mixed associated kernels for densities withsupports being partially continuous and discrete. We first start by recalling the essential concepts of classical continuousand discrete kernel density estimators. We give the definition and characteristics of these estimators. We also recall thevarious technical for the choice of smoothing parameters and we revisit the problems of supports as well as a resolutionof the edge effects in the discrete case. Then, we describe a new method of continuous associated kernels for estimatingdensity with bounded support, which includes the classical continuous kernel method. We define the continuousassociated kernels and we propose the mode-dispersion for their construction. Moreover, we illustrate this on the nonclassicalassociated kernels of literature namely, beta and its extended version, gamma and its inverse, inverse Gaussianand its reciprocal, the Pareto kernel and the kernel lognormal. We subsequently examine the properties of the estimatorswhich are derived, specifically, the bias, variance and the pointwise and integrated mean squared errors. Then, wepropose an algorithm for reducing bias that we illustrate on these non-classical associated kernels. Some simulationsstudies are performed on three types of estimators lognormal kernels. Also, we study the asymptotic behavior of thecontinuous associated kernel estimators for density. We first show the pointwise weak and strong consistencies as wellas the asymptotic normality. Then, we present the results of the global weak and strong consistencies using uniform andL1norms. We illustrate this on three types of lognormal kernels estimators. Subsequently, we study the minimaxproperties of the continuous associated kernel estimators. We first describe the model and we give the technicalassumptions with which we work. Then we present our results that we apply on some non-classical associated kernelsmore precisely beta, gamma and lognormal kernel estimators. Finally, we combine continuous and discrete associatedkernels for defining the mixed associated kernels. Using the tools of the unification of discrete and continuous analysis,we show the different properties of the mixed associated kernel estimators. All through this work, we choose thesmoothing parameter using the least squares cross-validation method
35

Dridi, Zoulikha. "Les propriétés structurales et électroniques des alliages AlxGa1-xN, InxGa1-xN, et InxAl1-xN : étude par la méthode ab initio des ondes planes augmentées avec linéarisation et potentiel total." Caen, 2003. http://www.theses.fr/2003CAEN2076.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En utilisant la méthode des ondes planes augmentées avec linéarisation (FP-LAPW), nous avons étudié les propriétés structurales et électroniques des alliages ternaires AlxGa1-xN, InxGa1-xN et InxAl1-xN cubiques et wurtzites. Nous avons utilisé les structures de Landau-Lifshitz, la chalcopyrite et la luzonite, pour modéliser les alliages cubiques, et une super-cellule de 32 atomes pour les alliages wurtzites. L'analyse de nos résultats en comparaison avec d'autres calculs montre une forte dépendance du facteur de courbure avec le paramètre du réseau. On remarque aussi que les résultats sont influencés par le model structural utilisé pour les alliages ternaires. Finalement, nous avons étudié le comportement de l'énergie du gap des binaires et des ternaires dans la structure wurtzite sous l'effet de la pression. Nous en avons déduit le comportement des coefficients de pression avec la concentration, et la variation du facteur de courbure du gap avec la pression.
36

Nour, Safouh. "Développements de la méthode MS-LSD vers le calcul de la structure électronique d'agrégats contenant des atomes lourds et des semiconducteurs." Lyon 1, 1991. http://www.theses.fr/1991LYO19009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La technique ms-lsd est maintenant largement utilisee pour le calcul de proprietes electroniques de complexes monometalliques. Son faible cout de calcul associe a une bonne prise en compte de la correlation electronique en ont fait une methode performante dans l'etude de complexes isoles ou modelisant des solides organometalliques ou organiques. Ce travail est oriente vers l'extension de ce modele vers les atomes lourds et la structure de bande de semiconducteurs. La premiere partie porte sur l'etude theorique des effets relativistes dans des agregats contenant des atomes lourds. Ce travail vise a augmenter la comprehension des effets de la relativite restreinte sur les liaisons chimiques dans de tels agregats. Nous avons inclu l'interaction spin-orbite dans un programme de calcul quantique ms-lsd (multiple scattering-local spin density) contenant deja les corrections relativistes scalaires independantes du spin de l'electron. Le couplage spin-orbite est calcule en utilisant la theorie de perturbation au premier ordre. La matrice spin-orbite est construite a partir de toutes les fonctions d'onde atomiques des niveaux de valence. La seule approximation faite dans ce calcul est la negligence des deux petites composantes de la fonction d'onde relativiste. Les resultats obtenus par notre programme pour des agregats de platine sont comparables a ceux de la methode dsw (dirac scattered wave) qui utilise les quatre composantes de la fonction d'onde relativiste. Des resultats d'autres calculs sont compares a l'experience et un bon accord a ete trouve. Il s'avere ainsi que le formalisme quasi relativiste ms-lsd a deux composantes represente une alternative tres interessante face aux autres techniques qui incluent les corrections relativistes. Dans une deuxieme partie de ce travail, on traite des possibilites et des limites de la methode ms-lsd pour la description des structures electroniques des solides a travers des calculs sur des clusters representatifs de ces solides. La qualite des resultats trouves pour des calculs tests sur des semiconducteurs iii-v laisse penser que cette procedure peut etre etendue a l'etude de nombreux composes de structures cristallographiques complexes
37

Schmitt, Thierry. "Modélisation des transferts acoustiques en moyennes et hautes fréquences par méthode énergétique : application à l'encapsulage des compartiments moteurs." Ecully, Ecole centrale de Lyon, 2004. http://bibli.ec-lyon.fr/exl-doc/tschmitt.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Afin de respecter des normes européennes et des exigences de confort de plus en plus restrictives, les constructeurs et équipements automobiles doivent se doter de moyens d'analyse vibroacoustiques fiables. Les méthodes d'éléments finis de champ de frontière sont rapidement mises en défaut lorsque le domaine fréquentiel d'analyse augmente et notamment dans la zone de sensibilité maximale de l'oreille humaine (5-10 Khz). A partir de bilans de puissance locaux, la Méthode Energétique Simplifiée fournit une description du champ acoustique plus précise que d'autres méthodes à caractère énergétique et notamment la SEA et la théorie de Sabine (bilans globaux). Le problème du compartiment moteur a nécessité l'extension de la MES aux phénomènes de réflexion sur le sol et de diffraction. Une validation expérimentale a permis de mettre en évidence que la diffraction joue un rôle secondaire et qu'un modèle de réflexion semi-diffuse sur le sol s'avère particulièrement adapté
In order to respect European legislation and requirements in term of comfort, automobile suppliers must have access to reliable vibroacoustic analysis tools. Finite and Boundary Element Methods become inaccurate as the analysis frequency range increases and particularly in the range of maximum human ear sensitivity (5-10 kHz). Such acoustic fields can better be described by global methods such as Statistical Energy Analysis or Sabine's Diffuse Field Theory and more precisely, starting from the local energy balance, by th Simplified Energy Method. This method has been extended in order to take into account ground effects and diffraction involved in the case of an engine compartment. Experiments have shown that diffraction effects can be neglected and that a semi-diffuse reflection model on the ground seems appropriate
38

Rebei, Mohamed Amine. "Développement de méthode d'optimisation topologique adaptée aux écoulements en régime turbulent : application au cas des échangeurs de chaleur." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM061.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'optimisation topologique est utilisée en mécanique des fluides afin de calculer la géométrie optimale des conduites de fluide par rapport à des fonctions objectif et des contraintes, tout en offrant plus de liberté que les méthodes d'optimisation de forme. Ce travail apporte une solution à ce problème d’optimisation en tenant compte de la turbulence et du transfert thermique. Pour ce faire, le modèle de turbulence est modifié. Le problème de topologie est implémenté comme suit. La méthode de la densité est utilisée pour définir la distribution solide / fluide. Le modèle de turbulence et d'énergie est appliqué avec des modifications pour prendre en compte la densité. Le gradient est défini à l'aide de la méthode de l’adjoint continu qui crée un ensemble d'équations adjointes à résoudre. Au final, la solution optimisée nous permet de combiner la turbulence avec un échange thermique par convection et par conduction. Nous présentons et appliquons la méthode. Une analyse des résultats est ensuite fournie afin d'expliquer les effets de la nouvelle formulation sur les géométries optimisées
Topology optimization is used in fluid mechanics in order to compute optimal geometry for fluid conduits with respect to objective functions and constraints while allowing more freedom than shape optimization methods. This work offers a solution for such an optimization problem while taking into account turbulent flow and heat transfer. To do so, the turbulence model is modified. The topology problem is implemented as follows. The density method is used to define the solid/fluid distribution. The turbulence and energy model is applied with modifications to take into account the density. The gradient is defined using the continuous adjoint method which creates a set of adjoint equations to solve. At the end, the optimized solution allows us to combine turbulence with convective and conductive heat transfer. We present and apply the method. An analysis of the results is then provided in order to explain the effects of the new formulation on the optimized geometries
39

Clément, Valérie. "Mise au point et validation d'une méthode quantitative pour évaluer le nombre de copies de régions chromosomiques spécifiques (CNV) dans de grands échantillons." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/27987/27987.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le génome humain, les variations génétiques se présentent, entre autres, sous forme de polymorphismes ponctuels (SNP), de microsatellites ou de moyennes ou grandes délétions et/ou duplications, appelées CNV pour copy-number variant. L’ensemble de ces variations contribue en partie aux différences phénotypiques normales de la population en général. Mais aussi elles peuvent être à l’origine de pathologies héréditaires ou à composante génétique. OBJECTIF : L’objectif de mes travaux était de mettre au point une méthodologie simple et efficace pour déterminer le nombre de copies de régions chromosomiques, connues pour être variables, dans un grand échantillon d’individus. MÉTHODE : La recherche des régions cibles dans la base de données des variations génomiques (http://projects.tcga.ca/variation/) a permis d’identifier les coordonnées chromosomiques des sites variables d’intérêt. Parmi soixante gènes ou régions sélectionnés, nous avons identifié vingt CNVs à étudier. Le Multiplex Ligation-dependent Probe Amplification (MLPA) (une méthode de quantification du nombre de copies pour les régions chromosomiques ciblées) a été développé pour chacun des marqueurs CNVs et un échantillon de 30 individus canadiens français a été testé pour vérifier si une fréquence d’au moins 5% était observée dans cette population. CONCLUSION : Le MLPA s’est avéré très sensible, ayant une bonne reproductibilité et facile à utiliser pour tester plusieurs séquences en multiplex. Les résultats obtenus ont été validés avec succès par PCR quantitative (TaqMan®). Nous avons donc adapté, optimisé et standardisé cette méthode pour l’étude des CNVs dans un grand échantillon d’individus. Pour faciliter l’analyse des résultats générés, un outil Excel® a été développé pour automatiser les calculs nécessaires à l’obtention d’un ratio du nombre de copies pour un locus donné. Finalement, six CNVs présentant une fréquence supérieure à 5% ont été analysés dans un échantillon de 715 femmes canadiennes françaises dans le cadre d’un projet sur les marqueurs génétiques de l’ostéoporose.
40

Mehadji, Chérifa. "Développement de la méthode MS-LSD vers le calcul de la structure électronique de molécules ellipsoïdales et des structures fines d'absorption de rayons X près du seuil." Lyon 1, 1991. http://www.theses.fr/1991LYO10137.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La methode de diffusion multiple avec l'approximation de la densite locale de spin ms-lsd a montre depuis longtemps son interet dans le calcul de la structure electronique et des proprietes monoelectroniques de complexes organometalliques. Nous en rappelons les fondements dans le premier chapitre de ce memoire. Cette methode est particulierement bien adaptee aux molecules globulaires plus ou moins spheriques. La premiere partie de ce travail porte sur son application a l'etude de la structure fine d'absorption des rayons x de complexes moleculaires. En particulier, nous avons montre dans le troisieme chapitre qu'il est possible d'interpreter les premieres structures autour du seuil par des transitions monoelectroniques vers des etats lies du continuum. Nous examinons, pour les complexes tetraedriques (mno#4#n#: n-1,2,3, fecl#4#n#:n=1,2) et octaedriques fecl#6#3#, l'influence sur les structures du seuil des parametres electroniques et structuraux: etat de spin et degre d'oxydation du metal de transition, symetrie du site, distance metal-coordinat. Simultanement, nous avons developpe l'adaptation du formalisme ms-lsd vers le cas de symetrie ellipsoidale, qui conviendrait mieux a la description de molecules ou de complexes oblongs. La seconde partie de ce travail est consacree a la presentation des developpements necessaires a l'utilisation d'une symetrie ellipsoidale dans le volume exterieur enveloppant la molecule. Le dernier chapitre expose les premiers resultats obtenus
41

Vidal, Bastías Marcia. "Modélisation du pressage à chaud des panneaux de fibres de bois (MDF) par la méthode des éléments finis." Doctoral thesis, Université Laval, 2006. http://hdl.handle.net/20.500.11794/18667.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude porte sur le développement d’un modèle mathématique-physique permettant de modéliser le pressage à chaud des panneaux de fibres de bois (MDF) pour les procédés en lot et en continu. Le système final est composé de trois équations différentielles : une pour la conservation de gaz, une pour la conservation de la vapeur d’eau et une pour la conservation d’énergie. On a introduit un terme de diffusion de la vapeur d’eau qui n’était pas considéré auparavant. Les variables d’état prédites sont la température, la pression gazeuse et la teneur en humidité. Le système d’équations a été résolu par la méthode des éléments finis en employant le logiciel MEF++ développé au GIREF à l’Université Laval. Les conditions aux limites utilisées durant la simulation sont du type Neumann non linéaire ou du type Dirichlet selon le type de pressage simulé. Afin de valider les résultats numériques en 2-D et 3-D donnés par ce modèle, on les a comparés avec les données obtenues d’un procédé en lot au laboratoire et en continu dans une industrie. À cet effet, des panneaux MDF d’épinette noire (Picea mariana (Mill.) BPS) ont été fabriqués et des mesures de température ont été prises à l’aide des thermocouples à la surface et au centre de l’ébauche. La pression gazeuse a aussi été déterminée lors du pressage à chaud avec une sonde de pression introduite à l’intérieur de l’ébauche. De plus, pour évaluer la teneur en humidité, sept modèles de sorption ont été extrapolés et comparés aux valeurs expérimentales provenant de la littérature. Le modèle de Malmquist donne la meilleure correspondance pour les humidités relatives considérées et a donc été utilisé. Les résultats numériques indiquent que la température, la teneur en humidité et la pression gazeuse prédites sont en accord avec les résultats expérimentaux pour les deux types de pressage considérés sans utiliser un facteur d’ajustement. On a conclu que le modèle mathématique-physique et la méthode des éléments finis ont un grand potentiel pour résoudre ce type de problème et aider ainsi à maîtriser la qualité des produits et les pertes lors de la fabrication. Il est fortement recommandé d’approfondir la recherche sur les valeurs des paramètres physiques impliqués dans ce procédé.
This study describes a mathematical-physical model to predict temperature, gas pressure and moisture content during MDF hot pressing in batch and continuous processes. The final system is composed of three differential equations: gas conservation, water vapor conservation and energy conservation. This model introduced the moisture diffusion term which was not considered in the basis model. The system of equations was solved by the finite element method using the MEF++ software developed by the GIREF at Laval University. The boundary conditions used during simulation are of the Neumann or Dirichlet type depending on the process considered. In order to validate the numerical results in 2-D and 3-D, we compared them with experimental data obtained from the batch process in the pressing laboratory and from the continuous process in an industry. For this purpose, MDF panels of black spruce (Picea mariana (Mill.) BPS) were manufactured and temperature measurements made using thermocouples on the surface and the center of the mat. The gas pressure was also measured using a pressure probe located inside the mat. Moreover, in order to evaluate moisture content, seven sorption models were extrapolated and compared with experimental values from the literature. The Malmquist model gives the best correspondence for the relative humidities considered and was therefore used. The numerical results indicate that the predicted temperature, moisture content and gas pressure are in agreement with experimental results for the two processes considered without using an adjustment factor. We concluded that the mathematical-physical model and the finite element method have a great potential to solve this type of problem to control the quality of panels and the losses during manufacturing. It is strongly recommended to look further into research on the values of the physical parameters involved in this process.
42

Marsal, Philippe. "Etude théorique des paramètres de la résonance paramagnétique électronique par la méthode de la fonctionnelle de la densite." Aix-Marseille 1, 2002. http://www.theses.fr/2002AIX11067.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'élaboration de méthodes permettant de prendre en compte la présence d'électrons célibataires a permis d'apporter un éclairage théorique à la chimie radicalaire. Malgré la réussite de la DFT, le calcul est dépendant du potentiel d'échange-corrélation selon la nature du centre radicalaire. Nous avons étudié plusieurs potentiels d'échange-corrélation pour plusieurs radicaux. Et, afin d'éclairer les phénomènes qui entrent en jeu dans la réussite d'un potentiel d'échange-corrélation pour le calcul des paramètres de RPE, nous avons appliqué une méthode de séparation des contributions des orbitales moléculaires, en trois catégories : orbitales de cœurs, de valence et la SOMO. Nous avons défini les caractéristiques que doit présenter un potentiel TFD pour décrire de façon satisfaisante les trois contributions. Nous avons étudié sur quelques radicaux la validité de la première et de la deuxième équation de McConnell. Puis, nous avons étudié l'hamiltonien vibrationnel de NH3 et H2NO.
43

Machkour, Deshayes Nadia. "Méthode de déconvolution appliquée à l'étude de la densité surfacique d'un arc électrique de coupure basse tension à partir de mesures magnétiques." Clermont-Ferrand 2, 2003. http://www.theses.fr/2003CLF22456.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'étude consiste à mettre en place une méthode qui permet de reconstituer la densité du courant dans un arc électrique de coupure basse tension, à partir des mesures ponctuelles de l'induction magnétique créée par le dispositif de coupure. Ces mesures sont réalisées grâce à l'utilisation des capteurs à effet Hall placés en dehors du trajet de l'arc. Pour cette étude, nous avons supposé l'arc électrique modélisé par une nappe de courant rectangulaire, de densité variable dans la direction de propagation de l'arc. Les autres éléments du circuit sont assimilés à des segments de courant rectilignes et filiformes. Nous avons montré que l'induction magnétique créée par l'arc représente un produit de convolution entre sa densité du courant et une fonction qui dépend de la géométrie du dispositif de coupure et du modèle pris par l'arc. Cette méthode permet aussi de calculer les dimensions de l'arc, déterminer sa position ainsi que sa conductivité électrique. Celle-ci est utilisée pour estimer la température de l'arc. Nous avons appliqué cette méthode pour étudier le comportement de l'arc en fonction du courant présumé et l'espace interélectrode
44

Amegble, Koami Dzigbodi. "Tests non paramétriques de spécification pour densité conditionnelle : application à des modèles de choix discret." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25773.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015
Dans ce travail, nous étudions la performance statistique (taille et puissance) en échantillon fini de deux tests non paramétriques de spécification pour densité conditionnelle proposés par Fan et al. (2006) et Li et Racine (2013). Ces tests permettent de vérifier si les probabilités conditionnelles postulées dans les modèles de choix discret (logit/probit multinomial à effets fixes ou aléatoires, estimateur de Klein et Spady (1993), etc) représentent correctement les choix observés. Par rapport aux tests existants, cette approche a l’avantage d’offrir une forme fonctionnelle flexible alternative au modèle paramétrique lorsque ce dernier se révèle mal spécifié. Ce modèle alternatif est directement issu de la procédure de test et il correspond au modèle non contraint obtenu par des produits de noyaux continus et discrets. Les deux tests explorés ont une puissance en échantillon fini supérieure aux tests existants. Cette performance accrue s’obtient en combinant une procédure bootstrap et l’utilisation de paramètres de lissage des fonctions noyaux par validation croisée par les moindres carrés. Dans notre application, nous parallélisons les calculs de taille et de puissance, ainsi que l’estimation des fenêtres de lissage, sur un serveur multi-processeurs (Colosse, de Calcul Québec). Nous utilisons des routines "Open MPI" pré-implémentées dans R. Par rapport aux simulations effectuées dans les articles originaux, nous postulons des modèles plus proches de ceux habituellement utilisés dans la recherche appliquée (logit et probit à variance unitaire notamment). Les résultats des simulations confirment les bonnes taille et puissance des tests en échantillon fini. Par contre, les gains additionnels de puissance de la statistique lissée proposée par Li et Racine (2013) se révèlent négligeables dans nos simulations. Mots clés : Bootstrap, choix discret, densité conditionnelle, Monte Carlo, produit de noyaux, puissance, taille.
45

Hoang, Minh Tan. "Modélisation et simulation multi-échelle et multi-physique du comportement acoustique de milieux poroélastiques : application aux mousses de faible densité." Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1136/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ce mémoire de recherche est de déterminer les propriétés acoustiques des milieux poroélastiques à partir d'une démarche multi-échelle et multi-physique. Il traite d'échantillons réels de mousses, à cellules ouvertes ou partiellement fermées, dont les propriétés microstructurales sont caractérisées par des techniques d'imagerie. Cette information est utilisée afin d'identifier une cellule périodique idéalisée tridimensionnelle, qui soit représentative du comportement acoustique du milieu poreux réel. Les paramètres gouvernant les propriétés acoustiques du milieu sont obtenus en appliquant la méthode d'homogénéisation des structures périodiques. Dans une première étape, la structure des mousses est supposée indéformable. Il a été montré que pour le cas d'une distribution étroite de tailles caractéristiques de la géométrie locale, le comportement macroscopique d'une mousse à cellule ouverte peut être calculé à partir des propriétés géométriques locales de manière directe. Dans le cas d'une distribution étendue, le comportement acoustique du milieu est gouverné par des tailles critiques qui sont déterminées à partir de la porosité et de la perméabilité statique pour une mousse à cellules ouvertes ; pour une mousse à cellules partiellement fermées il est nécessaire d'identifier en plus une dimension connue de la géométrie locale. Nos résultats sont comparés avec succès à des données expérimentales obtenues par des mesures au tube d'impédance. Dans une seconde étape, les propriétés élastiques effectives du milieu poreux sont déterminées. Une modélisation par éléments finis de la cellule représentative a été mise en œuvre. Les paramètres élastiques calculés sont finalement comparés avec les données de la littérature, ainsi qu'à des essais mécaniques
This work aims at determining the acoustical properties of poro-elastic media through a multi-scale method. Some imaging techniques (tomography and micrographs) allow to estimate some quantitative microstructure properties of foams containing open or partially closed cells. These properties are used in order to clarify the features of a representative three-dimensional unit cell of a periodic structure, which mimics the behaviour of the real foam. All parameters controlling the acoustical properties of the porous foam are obtained by using the homogenization of periodic structures. In a first step, the structure of the foam is assumed to be rigid. It was shown that, in the case of a narrow distribution of the characteristic size of the local geometry, a direct computation of the macroscopic behaviour from the local geometrical properties is consistent with the measured acoustical properties. For a wide distribution of pore size, the acoustical behaviour is controlled by critical sizes that are obtained from porosity and static permeability for an open-cell foam, while for partially closed cells, the identification of a complementary characteristic dimension within the pores becomes necessary (e.g. closure rate of membranes). Our results compare well with data obtained from an impedance tube set-up. In a second step, effective elastic properties are computed through a modelling of the foam structure by finite elements. The computed elastic parameters are finally compared with data coming from the literature and with results of mechanical tests
46

Satiramatekul, Thitipong. "Contribution à la modélisation de l'aimantation des brins supraconducteurs." Paris 11, 2005. http://www.theses.fr/2005PA112228.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans les aimants principaux du Large Hadron Collider (LHC), la distribution des courants persistants dans les filaments supraconducteurs détermine la qualité du champ magnétique. Une grandeur globale d'image de cette distribution des courants est la valeur de l'aimantation. Il est donc nécessaire d'examiner l'aimantation de ces filaments supraconducteurs lors du processus de la fabrication des brins supraconducteurs. La prévision de l'aimantation peut être basée sur des solutions numériques obtenues en utilisant la méthode des éléments finis. Cette méthode permet par ailleurs de déterminer l'influence des paramètres géométriques du brin sur la valeur de l'aimantation. Dans ce travail, nous avons donc développé un code de calcul aux éléments finis permettant la modélisation de plusieurs filaments supraconducteurs en prenant en compte les effets de couplage. Ce code intègre également la dépendance de la densité de courant critique en fonction de l'induction magnétique. Les influences de l'espacement entre les filaments et de la matrice conductrice sur l'aimantation ont été considérées. À la fin de ce travail, nous avons étudié le cas de filaments torsadés
In the Large Hadron Collider (LHC) main magnets, persistent currents distribution in the superconducting filaments determine the quality of magnetic field. A total image of this currents distribution is the value of the magnetization. It is thus necessary to examine the magnetization of these superconducting filaments during the manufacturing process of the superconducting strands. The prediction of the magnetization can be based on numerical solutions obtained by using the finite element method. In addition, this method makes it possible to determine the influence of the geometrical parameters of the strand on the value of the magnetization. In this work, we have thus developed a finite element code allowing the modeling of several superconducting filaments by taking account of the effects of coupling. This code also integrates the dependence of the critical current density on the magnetic induction. The influence of the space between filaments and of the conductive matrix on the magnetization has been considered. At the end of this work, we have studied the case of twisted filaments
47

Magalhães, Nelo. "Validation croisée et pénalisation pour l'estimation de densité." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112100/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans le cadre de l'estimation d'une densité, considéré du point de vue non-paramétrique et non-asymptotique. Elle traite du problème de la sélection d'une méthode d'estimation à noyau. Celui-ci est une généralisation, entre autre, du problème de la sélection de modèle et de la sélection d'une fenêtre. Nous étudions des procédures classiques, par pénalisation et par rééchantillonnage (en particulier la validation croisée V-fold), qui évaluent la qualité d'une méthode en estimant son risque. Nous proposons, grâce à des inégalités de concentration, une méthode pour calibrer la pénalité de façon optimale pour sélectionner un estimateur linéaire et prouvons des inégalités d'oracle et des propriétés d'adaptation pour ces procédures. De plus, une nouvelle procédure rééchantillonnée, reposant sur la comparaison entre estimateurs par des tests robustes, est proposée comme alternative aux procédures basées sur le principe d'estimation sans biais du risque. Un second objectif est la comparaison de toutes ces procédures du point de vue théorique et l'analyse du rôle du paramètre V pour les pénalités V-fold. Nous validons les résultats théoriques par des études de simulations
This thesis takes place in the density estimation setting from a nonparametric and nonasymptotic point of view. It concerns the statistical algorithm selection problem which generalizes, among others, the problem of model and bandwidth selection. We study classical procedures, such as penalization or resampling procedures (in particular V-fold cross-validation), which evaluate an algorithm by estimating its risk. We provide, thanks to concentration inequalities, an optimal penalty for selecting a linear estimator and we prove oracle inequalities and adaptative properties for resampling procedures. Moreover, new resampling procedure, based on estimator comparison by the mean of robust tests, is introduced as an alternative to procedures relying on the unbiased risk estimation principle. A second goal of this work is to compare these procedures from a theoretical point of view and to understand the role of V for V-fold penalization. We validate these theoretical results on empirical studies
48

Cladière, Jean-Luc. "Modélisation de la réactivité de molécules inhibitrices de la thermo-oxydation du polyisoprène : Etude réalisée par la méthode de la fonctionnelle de la densité." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2003. http://tel.archives-ouvertes.fr/tel-00660600.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le polyisoprène est l'un des principaux constituants du pneumatique. Ce polymère est dégradé par la thermo-oxydation au cours de l'utilisation du pneumatique. Cette dégradation peut être évitée en incorporant des molécules anti-oxydantes dans le pneumatique. Parmi ces molécules, les para-phénylène diamines sont très largement utilisées. Afin de comprendre l'efficacité expérimentale de différentes molécules une étude par modélisation moléculaire a été réalisée. Le mécanisme radicalaire anti-oxydant comporte quatre réactions. Ces réactions ont été traitées avec la méthode quantique de la fonctionnelle de la densité DFT (fonctionnelle hybride B3LYP / 6-31g*) pour différentres molécules anti-oxydantes. Efin de mieux utiliser le temps de calcul (qui peut être considérable pour ces systèmes de taille conséquente), la méthode mixte ONIOM (B3LYP : champ de force UFF) a été appliquée sur toutes les molécules après vérification sur un exemple. Malgré le bon compromis précision/ temps de calcul, la modélisation moléculaire fournit des résultats qui sont seulement en accord partiel avec l'expérience. L'accord est obtenu pour les chaleurs de formation des radiaux polyisoprényles. En revanche, la corrélation entre l'efficacité expérimentale et le mécanisme proposé n'est pas établie.
49

Meziane-El, May Hédia. "Extension de la régression classique à des problèmes typologiques et présentation de la "méthode des tranches de densité" : une approche basée sur la percolation." Aix-Marseille 3, 1991. http://www.theses.fr/1991AIX32000.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le probleme que nous abordons tel est celui de la generalisation du concept de la regression ayant pour but la prise en compte des aspects structurels de l'ensemble des donnees. Cet aspect des choses est pratiquement toujours passe sous silence au niveau des resolutions, alors que sa prise en compte devrait permettre un comprehension beaucoup plus precise d'un tres grand nombre de phenomenes et la mise en place de modeles plus adequats sur nombres de realites. Independamment de la prise en compte des points aberrants, d'autres raisons, fondamentales aussi, peuvent etre la cause d'une mauvaise qualite des modeles. Ces raisons sont d'ordre structurel et c'est ce a qoui nous nous interessons ici, en montrant qu'il est possible sur un meme ensemble de donnees de rechercher automatiquement l'existence d'un modele ou de plusieurs modeles sous-jacents. Nous proposons dans cette these, une methode de resolution simple et efficace: "la methode des tranches de densite" dont le but est la mise en evidence de "multimodeles" internes a une realite ou l'hypothese d'homogeneite des donnees ne peut etre acceptee. Cette methode tente de faire une synthese des techniques de regression et de typologie. La classification non-hierarchique des donnees est effecutee selon le principe de la percolation et est realisee simultanement avec le calcul des hyperplans de regression. La recherche des points de forte densite selon le principe de la percolation est appliquee non plus sur les points mais sur les tranches de points. Les fondements de la methode sont discutes, et, un algorithme et quelques resultats presentes
We are about to tackle hereafter the problem of generalizing the regression concept for the purpose of taking into account the data's structural aspects. The resolutions of this matter of fact are mostly overlooked although taking them into consideration would allow a better understanding of a great number of phenomenons and would lead to the establishment of more adequate models. In addition ot the outliers, some other fundamental factors may undermine as well the quality of the models. These factors are structural in nature. Therefore our objctive is to show that from the same set of data, it is possible to search automatically one or even several resulting models. We propose, within this thesis, a method of resoulution that should be both simple and efficient: "the method of density slices", which aim is to find underlying "multimodels" when one is handling heterogeneous data. This method treis to synthesize regression and classification techniques. The non-hierarchical classification of data must be guided by the "percolation principle" and has to be realized simultaneously with the computation of the regression hyperplans. The percolation principle which aims to find the strong density points, has to be applied to slices of points and no longer to individual points. The basis of this method are discussed herewith, an algorithm and some results are presented as well
50

Dumas, Christian. "Étude cristallographique de l'arginine kinase du muscle de Homarus vulgaris à 3 Å de résolution : application d'une méthode de modification de la densité électronique." Paris 11, 1988. http://www.theses.fr/1988PA112244.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'arginine kinase extraite du muscle de Homarus vulgaris catalyse la réaction de phosphorylation du groupement guanidinium de l'arginine. Cette protéine est analogue sur le plan fonctionnel à la créatine kinase du muscle des Vertébrés. La phospho-arginine joue le rôle de réserve énergétique immédiatement mobilisable, fournissant l'ATP nécessaire à la contraction musculaire. Dans cette thèse sur l'étude cristallographique de cette phosphotransférase, sont présentés la collection et le traitement des données de diffraction à basse ct moyenne résolution puis l'estimation des phases des facteurs de structure par la méthode des remplacements isomorphes multiples. Les données à basse résolution ont permis de définir l'enveloppe moléculaire et d'amorcer le processus d'amélioration des phases par modification de la densité électronique avec extension conjointe de la résolution de 6 à 3Å. Cette méthode est fondée essentiellement sur le nivellement de la densité dans la région occupée par le solvant. L'enveloppe moléculaire est compatible avec les données de variation de contraste enregistrées à très basse résolution. Un modèle préliminaire du tracé de la chaîne polypeptidique est présenté.

To the bibliography