Tesis sobre el tema "Méthodes par décomposition"

Siga este enlace para ver otros tipos de publicaciones sobre el tema: Méthodes par décomposition.

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Méthodes par décomposition".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Levy, Marie-Luce. "Méthodes par décomposition temporelle et problèmes d'ordonnancement". Toulouse, INPT, 1996. http://www.theses.fr/1996INPT012H.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce travail concerne la decomposition temporelle du probleme d'ordonnancement a une machine avec contraintes de dates limites. Deux approches differentes sont proposees. La premiere s'inscrit dans un contexte de caracterisation des solutions admissibles vis-a-vis du respect des contraintes de temps et de ressources. Elle s'appuie sur la deduction de conditions d'admissibilite temporelles et sequentielles, a l'aide de regles d'analyse sous contraintes. Les conditions d'admissibilite sequentielles sont exprimees en associant a chaque tache un intervalle de rangs defini comme l'ensemble des positions non demontrees interdites dans une sequence admissible. Des principes d'agregation bases sur des comparaisons d'intervalles de rangs sont introduits ; ils permettent de regrouper les taches de localisation proche dans toute sequence admissible. Les conditions d'admissibilite mises en evidence sont ensuite exploitees par une procedure de generation de solutions fondee sur le respect des intervalles de rangs et dediee au probleme a une machine. Dans le cadre de cette premiere approche, une extension au probleme du flow-shop est ebauchee. La seconde approche par decomposition observe une demarche plus classique de recherche d'une solution heuristique a un probleme d'optimisation combinatoire. Des techniques de classification des donnees sont utilisees pour decomposer l'ensemble des taches, en exploitant d'eventuelles zones de faibles couplages entre les intervalles de temps que definissent les dates limites. Une procedure de gestion des liens residuels entre les groupes ainsi constitues est proposee ; elle construit des sous-problemes a partir de la partition de l'ensemble des taches, ordonnance chacun d'eux de facon optimale et forme une solution en coordonnant les ordonnancements locaux. Des resultats experimentaux relatifs a des problemes generes aleatoirement permettent d'evaluer les performances des deux approches, en confrontant leurs resultats a ceux obtenus par une methode de resolution exacte
2

Henri, Thibault. "Réduction de modèles par des méthodes de décomposition orthogonale propre". Rennes, INSA, 2004. http://www.theses.fr/2004ISAR0005.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La modélisation de systèmes complexes conduit à la résolution numérique de problèmes de très grande taille, par exemple dans le cas de discrétisations par des méthodes d'éléments finis. Une alternative consiste à utiliser des données connues a priori pour réduire la taille du système à résoudre. Etant donnée la solution u d'un problème d'évolution, les méthodes de décomposition orthogonale propre (POD) permettent, à partir de valeurs instantanées u(ti) connues a priori, de construire une base de fonctions sur laquelle on projette le problème : on parle alors de méthodes de POD-Galerkin. Cette méthode a été mise en œuvre notamment dans le cadre de problèmes issus de la mécanique des fluides. On présente une synthèse des méthodes de POD. On montre des résultats de convergence et des estimations dans le cadre parabolique et dans le cadre d'équations générales de la mécanique des fluides. La stabilité de la méthode est prouvée. Des simulations numériques montrent que la taille des systèmes à résoudre est très petite en comparaison des méthodes classiques d'éléments finis. On présente une application intéressante pour la résolution de problèmes de contrôle optimal
Modelling complex systems leads one to solve problems of very high size numerically, for example in case of finite elements discretization. An alternative consists in using a priori known data to reduce the size of the system to solve. Given the solution u of an evolution problem, proper orthogonal decomposition (POD) methods allow one to define a basis of functions from a priori known snapshots u(ti) on which the problem is projected : one speaks of POD-Galerkin methods. This method has been especially implemented in case of fluids mechanics problems. We present a synthesis of POD methods. We show convergence results and estimates in the parabolic case and in the case of general equations in fluids mechanics. The stability of the method is proven. Numerical computations show that the size of systems to solve is very small compared to classical finite elements methods. We present an interesting application to compute the solution of optimal control problems
3

Arencibia, Noa Yunniel. "Méthodes rigoureuses par décomposition de domaines pour la diffusion électromagnétique par une surface rugueuse 2D". Thesis, Nantes, 2019. http://www.theses.fr/2019NANT4037.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La modélisation de la diffusion électromagnétique par une surface (aléatoirement) rugueuse est un sujet de recherche très actif. Elle est rencontrée dans de nombreux contextes liés à l'environnement comme les sols naturels ou la surface de mer, ou pour la caractérisation de défauts de surface à l'échelle de l'optique. La modélisation rigoureuse de la diffraction d'ondes électromagnétiques par des objets de grandes dimensions devant la longueur d'onde est difficile à mettre en œuvre, car elle implique la résolution d'un système linéaire pouvant atteindre plusieurs millions d'inconnues. Ainsi, le calcul de la réponse électromagnétique Radar d'une surface de mer bidimensionnelle multi­échelles, n'a jusqu'à présent jamais pu être résolu rigoureusement dans les bandes de fréquences microondes, et la polarisation croi­sée n'a pas pu être évaluée de manière fiable. Cette thèse a pour but de résoudre en partie ce problème en considérant une surface 2D (aléatoirement) rugueuse parfaitement conductrice et de dimensions modérées. Pour cela, on emploi l'équation intégrale de frontière EFIE (Electric Field lntegral Equation) discrétisée par la méthode des moments associée aux fonctions de base RWG (Rao­Wilton-Glisson). Afin de résoudre efficacement le système linéaire résultant, nous avons choisi deux méthodes par décomposition de domaines, la SDIM (Subdomain Decomposition lterative Method) et la CBFM (Characteristic Basic Function Method). Ces méthodes, hybridées à l'ACA (Adaptive Cross Approximation) pour accélérer les étapes de couplage, permettent de résoudre des systèmes linéaires par blocs, avec des faibles complexités CPU et mémoire
The modeling of electromagnetic scattering by a (random) rough surface is a very active research subject. lt encounters many environmental applications such as natural soils or sea surface, or for the characterization of surface defects at the optical scale. The rigorous modeling of electromagnetic waves scattering by large abjects compared to the wavelength is a difficult task and can involve the resolution of a linear system of several millions of unknowns. Thus, the calculation of the electromagnetic field scattered by a two­dimensional sea surface, has so far never been rigorously solved in the microwave frequency bands, and the cross polarization has not been reliably evaluated. This thesis aims to salve in part this problem by considering a randomly rough and perfectly conducting 2D surface with moderate dimensions. For this, we use the EFIE (Electric Field lntegral Equation) discretized by the method of moments using RWG (Rao-Wilton-Glisson) basis functions. In order to effectively salve the resulting linear system, we have chosen two domain decomposition methods, the SDIM (Subdomain Decomposition lterative Method) and the CBFM (Characteristic Basic Function Method). These methods, hybridized to the ACA (Adaptive Cross Approximation) to accelerate the coupling steps, make it possible to salve linear systems by blacks, with reduced CPU and memory complexities
4

Cherkaoui, Abdelhai. "Modélisation des séries temporelles par des méthodes de décomposition et applications". Aix-Marseille 3, 1987. http://www.theses.fr/1987AIX24011.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Notre travail a porte sur l'etude des methodes de decomposition des series temporelles. Cet etude a ete realise en quatre etapes. Dans un premier temps nous avons analyse les methodes classiques de decomposition par la regression lineaire et le lissage par les moyennes mobiles. Dans un second temps, nous avons etudie la methode de decomposition d'un modele arima. Dans un troisieme temps, nous avons donne une methode fondee sur l'algorithme recursif de kalman. Dans un quatrieme temps nous avons illustre ces resultats theoriques et nous avons tente une comparaison entre la methode de box-jenkins et la methode de lissage par les moyennes mobiles
Our work has centered on the study of decomposition methods time series. This was done in four stages. First, we analyse classical methods of linear regression and of smoothing by moving averages. Secondly, we examine the decomposition method of an arima model. In the third stage, we present a method based on the recurrent algorithm of kalman. In the fourth stage, we illustrate our theoretical results and attempt to compare the box-jenkins method and the method of smoothing by moving average
5

Gest, Brigitte. "Résolution des grands systèmes linéaires par décomposition des domaines et méthodes rapides : comparaison avec d'autres méthodes". Paris 11, 1985. http://www.theses.fr/1985PA112395.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
L’efficacité des méthodes directes, dites rapides, de résolution de certains grands systèmes linéaires creux a été testée tout au long de ce travail. Se basant presque toutes sur un même procédé de calcul, la transformation de Fourier rapide, elles se regroupent en trois classes : l’analyse de Fourier, la réduction cyclique par blocs et la technique F. A. C. R (l) combinaison des deux précédentes. Exigeant la régularité de l’ouvert, des comparaisons avec des méthodes existantes classiques ont tout d’abord été établies sous cette contrainte. Au vu des résultats très concluants, des démarches permettant de travailler dans des domaines plus généraux ont été mises en œuvre : technique de la matrice de capacitance, couplages méthode itérative par blocs/méthode rapide. Le raffinement d’une partie du maillage de l’ouvert a été également envisagé. La structure même des ouverts étudiés privilégiant la méthode semi-directe, c’est cette association qui a été choisie comme algorithme témoin lors des derniers essais numériques comparatifs
This work is dedicated to the evaluation of the efficiency of the resolution of some large sparse linear systems using Fast Direct Methods. Although they are based on the use of the same FFT algorithm, they can be divided in three categories: the Fourier analysis, the Cyclic Reduction by blocks and their combination, the F. A. C. R (l). The comparison with classic methods was conducted in configurations requiring the regularity of the domain. Very promising results being obtained, techniques allowing to work in more general domains have then been implemented: the capacitance matrix technique and the combination of the iterative methods with fast methods. The fineness of part of the grid applied to the domain was also investigated. The semi-direct method was selected as reference algorithm for the last comparative numerical tests because it is specially adapted to the structure of the domain under test
6

Hohweiller, Tom. "Méthodes de décomposition non-linéaire pour l'imagerie X spectrale". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI097.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La tomodensitométrie spectrale est une modalité d’imagerie par rayons X émergente. Si le principe de la double énergie est plus ancien, des développements récents sur des détecteurs à comptage de photons permettent d’acquérir des données résolues en énergie sur plusieurs plages. Cette modalité permet de réduire un certain nombre d’artéfacts classiques dont ceux liés au durcissement de spectre, mais surtout de remonter à la composition chimique des tissus. Les données spectrales permettent également d’utiliser de nouveaux agents de contraste (comme l’or par exemple) qui présentent des discontinuités énergétiques. La possibilité d’utiliser d’autres marqueurs et de quantifier leurs présences dans le patient donne à cette modalité un fort potentiel dans le domaine de l’imagerie médicale. Une approche classique pour le traitement des données spectrales est d’effectuer une décomposition en base de matériaux préalables à la reconstruction tomographique. Cependant, les méthodes de décomposition dans le domaine des projections avec un grand nombre de plages d’énergies n’en sont qu’à leurs débuts. Les techniques classiques par calibration, ne sont plus numériquement stables lorsqu’il y a plus de deux plages disponibles. Le but de cette thèse est de développer de nouvelles méthodes de décomposition des données spectrales dans le domaine des projections. Après avoir formalisé le problème direct de la tomodensitométrie spectrale, le problème de décomposition en base de matériaux sera exprimé et traité comme un problème inverse non linéaire. Il sera résolu en minimisant une fonction de coût incluant un terme caractérisant la fidélité de la décomposition par rapport aux données et un \textit{a priori} sur les cartes de matériaux projetées. Ces travaux présenteront tout d’abord une adaptation de la fonctionnelle prenant en compte la nature Poissonienne du bruit. Cette formulation permet d’obtenir de meilleures décompositions pour de forts niveaux de bruit par rapport à la formulation classique. Ensuite, deux algorithmes de minimisation incluant une contrainte de positivité additionnelle seront proposés. Le premier, un algorithme de Gauss-Newton projeté, permet d’obtenir des cartes rapidement et de meilleure qualité que des méthodes non contraintes. Pour améliorer les résultats du premier algorithme, une seconde méthode, de type ADMM, ajoute une contrainte d’égalité. Cette contrainte a permis de diminuer les artefacts présents dans l’image. Ces méthodes ont été évaluées sur des données numériques de souris et de thorax humain. Afin d’accélérer et de simplifier les méthodes, un choix automatique des hyperparamètres est proposé qui permet de diminuer fortement le temps de calcul tout en gardant de bonnes décompositions. Finalement, ces méthodes sont testées sur des données expérimentales provenant d’un prototype de scanner spectral
Spectral tomodensitometry is a new emerging x-ray imaging modality. If the dual-energy principle was already known for quite some time, new developments on photon-counting detectors now allowing acquiring more energy bins than before. This modality allows reducing some artifacts presents in x-ray imaging, such as beam hardening, but mostly to decompose the data into the chemical composition of the imaged tissue. It also enables the use of new markers (i.e. gold) with an energic discontinuity. The use of these markers also allows to locate and quantify them in the patient, granting great potential for medical imaging. Decomposition in the projection domain followed by a tomographic reconstruction is a classical processing for those spectral data. However, decomposition methods in the projection domain are unstable for a high number of energy bins. Classical calibration technic is numerically unstable for more than two energy bins. This thesis aims to developed new material decomposition methods in the projections domains. After expressing the spectral forward model, the decomposition problem is expressed and dealt as a non-linear inverse problem. It will be solved by minimizing a cost function composed by a term characterizing the fidelity of the decomposition regarding the data and an \textit{a priori} of the decomposed material maps. We will firstly present an adaptation of the cost function that takes into account the Poissonian noise on the data. This formulation allows having better decomposed maps for a high level of noise than classical formulation. Then, two constrained algorithms will be presented. The first one, a projected Gauss-Newton algorithm, that enforces positivity on the decomposed maps, allows having better decomposed maps than an unconstrained algorithm. To improve the first algorithm, another one was developed that also used an egality constrain. The equality allows having images with fewer artifacts than before. These methods are tested on a numerical phantom of a mouse and thorax. To speed up the decomposition process, an automatic choice of parameters is presented, which allow faster decomposition while keeping good maps. Finally, the methods are tested on experimental data that are coming from a spectral scanner prototype
7

Fontaine, Mathieu. "Apport de la décomposition arborescente pour les méthodes de type VNS". Phd thesis, Université de Caen, 2013. http://tel.archives-ouvertes.fr/tel-01025435.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Actuellement, la résolution de problèmes d'optimisation sous contraintes tire rarement parti de la structure du problème trait. Or, il existe de nombreux problèmes réels fortement structurés dont la décomposition arborescente pourrait s'avérer très profitable. Les travaux menés jusqu'à présent exploitent les décompositions arborescentes uniquement dans le cadre des méthodes de recherche complète. Dans cette thèse, nous étudions l'apport des décompositions arborescentes pour les méthodes de recherche locale de type VNS (Variable Neighborhood Search), dont l'objectif est de trouver une solution de très bonne qualité en un temps limité. Cette thèse apporte trois contributions. La première est un schéma générique (DGVNS), exploitant la décomposition arborescente pour guider efficacement l'exploration de l'espace de recherche. Trois différentes stratégies visant à équilibrer l'intensification et la diversification de DGVNS sont étudiées et comparées. La seconde contribution propose deux raffinements de la décomposition arborescente. Le premier exploite la dureté des fonctions de coût pour identifier les parties du graphe de contraintes les plus difficiles à satisfaire. Le second raffinement cherche à augmenter la proportion de variables propres dans les clusters. La troisième contribution consiste en deux extensions de DGVNS qui exploitent à la fois le graphe de clusters et les séparateurs. Chaque contribution proposée est évaluée et comparée au travers d'expérimentations menées sur de multiples instances de quatre problèmes réels.
8

Samaké, Abdoulaye. "Méthodes non-conformes de décomposition de domaine à grande échelle". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM066/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse étudie les méthodes de décomposition de domaine généralement classées soit comme des méthodes de Schwarz avec recouvrement ou des méthodes par sous-structuration s'appuyant sur des sous-domaines sans recouvrement. Nous nous focalisons principalement sur la méthode des éléments finis joints, aussi appelée la méthode mortar, une approche non conforme des méthodes par sous-structuration impliquant des contraintes de continuité faible sur l'espace d'approximation. Nous introduisons un framework élément fini pour la conception et l'analyse des préconditionneurs par sous-structuration pour une résolution efficace du système linéaire provenant d'une telle méthode de discrétisation. Une attention particulière est accordée à la construction du préconditionneur grille grossière, notamment la principale variante proposée dans ce travailutilisant la méthode de Galerkin Discontinue avec pénalisation intérieure comme problème grossier. D'autres méthodes de décomposition de domaine, telles que les méthodes de Schwarz et la méthode dite three-field sont étudiées dans l'objectif d'établir un environnement de programmation générique d'enseignement et de recherche pour une large gamme de ces méthodes. Nous développons un framework de calcul avancé et dédié à la mise en oeuvre parallèle des méthodesnumériques et des préconditionneurs introduits dans cette thèse. L'efficacité et la scalabilité des préconditionneurs, ainsi que la performance des algorithmes parallèles sont illustrées par des expériences numériques effectuées sur des architectures parallèles à très grande échelle
This thesis investigates domain decomposition methods, commonly classified as either overlapping Schwarz methods or iterative substructuring methods relying on nonoverlapping subdomains. We mainly focus on the mortar finite element method, a nonconforming approach of substructuring method involving weak continuity constraints on the approximation space. We introduce a finiteelement framework for the design and the analysis of the substructuring preconditioners for an efficient solution of the linear system arising from such a discretization method. Particular consideration is given to the construction of the coarse grid preconditioner, specifically the main variantproposed in this work, using a Discontinuous Galerkin interior penalty method as coarse problem. Other domain decomposition methods, such as Schwarz methods and the so-called three-field method are surveyed with the purpose of establishing a generic teaching and research programming environment for a wide range of these methods. We develop an advanced computational framework dedicated to the parallel implementation of numerical methods and preconditioners introduced in this thesis. The efficiency and the scalability of the preconditioners, and the performance of parallel algorithms are illustrated by numerical experiments performed on large scale parallel architectures
9

Aussal, Matthieu. "Méthodes numériques pour la spatialisation sonore, de la simulation à la synthèse binaurale". Palaiseau, Ecole polytechnique, 2014. https://tel.archives-ouvertes.fr/tel-01095801/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Les recherches effectuées lors de ce doctorat furent initiées par un besoin industriel identifié par la société Digital Media Solutions, à savoir la réalisation d'un outil de spatialisation sonore au casque destiné aux non-voyants. Malgré les nombreux dispositifs déjà existants, les techniques de son 3D sur casque butent, depuis leur apparition, sur un obstacle majeur, qui empêche la réalisation de produits de haute qualité. En effet, pour rendre l'illusion d'un espace sonore perceptible, il est nécessaire d'individualiser l'écoute pour chaque auditeur. Des mesures en laboratoire offrent des résultats convaincants, mais le processus n'est pas encore applicable au grand public. La modélisation mathématique de cette expérience permet d'envisager de remplacer la mesure par une simulation numérique. Cette thèse propose à la fois un moteur de calcul numérique efficace et adapté au problème posé, ainsi qu'un moteur de rendu audio 3D pour valider cette approche
Research conducted during this PhD were initiated by an industrial need identified by Digital Media Solutions, namely the creation of a tool for spatial sound rendering on headphones for blind people. Despite the many existing devices, technical 3D sound on headphones face since their appearance the major obstacle that prevents the achievement of high quality products. Indeed, to make the illusion of a perceptible sound space, it is necessary to individualize listening to each listener. Measurements in the laboratory provide with convincing results, but the process is not yet applicable to the public. Mathematical modeling of this experiment allows to consider replacing the measure by a numerical simulation. This thesis proposes both an efficient calculation engine adapted to the problem, and a 3D audio rendering engine in order to validate the approach
10

Sun, Xiao Chao. "Résolution de la programmation linéaire en nombres entiers : méthodes des coupes, méthodes de séparation et évaluation et méthodes de décomposition de programmes par matrices d'intervalles et par matrices graphiques". Clermont-Ferrand 2, 1993. http://www.theses.fr/1993CLF21451.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
1#r#e partie (chapitres 1 a 3): cette partie exploite les proprietes par une demarche de recherche verticale allant de l'etude d'une situation theorique (approximation de hermite sur un cone simple) a l'elaboration et la mise en uvre de methodes iteratives pour la programmation lineaire en nombres entiers. La caracterisation d'une approximation entiere proche d'un sommet realisable non entier permet de definir des coupes particulieres, dites coupes de hermite, qui sont integrees iterativement dans une procedure enumerative, cette derniere etant elle-meme allegee par l'emploi d'une approche de type branch and bound. Utiliser iterativement des directions de recherche generees aleatoirement (objectifs de controle) pour rechercher des solutions entieres dans une couche du polyedre de cout constant. Cette recherche peut a son tour exploiter la forme normale de hermite et integrer les coupes correspondantes dans le polyedre defini a l'iteration suivante. 2#e partie (chapitres 4 a 7): au chapitre iv une methode est proposee pour essayer de reduire les programmes en nombres entiers au cas ou les matrices sont totalement unimodulaires quitte a rajouter un certain nombre de variables de controle (l'interet de la methode se situe quand ce nombre de variables additionnelles est faible). Ceci conduit a etudier aux chapitres suivants les matrices totalement unimodulaires associees aux hypergraphes d'intervalles et aux matrices graphiques. Les resultats obtenus pour ces deux problemes permettent de montrer la pertinence de la methode proposee (theoreme i du chapitre v et theoreme v du chapitre vii)
11

Leni, Pierre-Emmanuel. "Nouvelles méthodes de traitement de signaux multidimensionnels par décomposition suivant le théorème de Superposition de Kolmogorov". Phd thesis, Université de Bourgogne, 2010. http://tel.archives-ouvertes.fr/tel-00581756.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le traitement de signaux multidimensionnels reste un problème délicat lorsqu'il s'agit d'utiliser des méthodes conçues pour traiter des signaux monodimensionnels. Il faut alors étendre les méthodes monodimensionnelles à plusieurs dimensions, ce qui n'est pas toujours possible, ou bien convertir les signaux multidimensionnels en signaux 1D. Dans ce cas, l'objectif est de conserver le maximum des propriétés du signal original. Dans ce contexte, le théorème de superposition de Kolmogorov fournit un cadre théorique prometteur pour la conversion de signaux multidimensionnels. En effet, en 1957, Kolmogorov a démontré que toute fonction multivariée pouvait s'écrire comme sommes et compositions de fonctions monovariées. Notre travail s'est focalisé sur la décomposition d'images suivant le schéma proposé par le théorème de superposition, afin d''etudier les applications possibles de cette d'ecomposition au traitement d'image. Pour cela, nous avons tout d'abord 'etudi'e la construction des fonctions monovari'ees. Ce probl'eme a fait l'objet de nombreuses 'etudes, et r'ecemment, deux algorithmes ont 'et'e propos'es. Sprecher a propos'e dans [Sprecher, 1996; Sprecher, 1997] un algorithme dans lequel il d'ecrit explicitement la m'ethode pour construire exactement les fonctions monovari'ees, tout en introduisant des notions fondamentales 'a la compr'ehension du th'eor'eme. Par ailleurs, Igelnik et Parikh ont propos'e dans [Igelnik and Parikh, 2003; Igelnik, 2009] un algorithme pour approximer les fonctions monovariéees par un réseau de splines. Nous avons appliqué ces deux algorithmes à la décomposition d'images. Nous nous sommes ensuite focalisés sur l'étude de l'algorithme d'Igelnik, qui est plus facilement modifiable et offre une repréesentation analytique des fonctions, pour proposer deux applications originales répondant à des problématiques classiques de traitement de l'image : pour la compression : nous avons étudié la qualité de l'image reconstruite par un réseau de splines généré avec seulement une partie des pixels de l'image originale. Pour améliorer cette reconstruction, nous avons proposé d'effectuer cette décomposition sur des images de détails issues d'une transformée en ondelettes. Nous avons ensuite combiné cette méthode à JPEG 2000, et nous montrons que nous améliorons ainsi le schéma de compression JPEG 2000, même à bas bitrates. Pour la transmission progressive : en modifiant la génération du réseau de splines, l'image peut être décomposée en une seule fonction monovariée. Cette fonction peut être transmise progressivement, ce qui permet de reconstruire l'image en augmentant progressivement sa résolution. De plus, nous montrons qu'une telle transmission est résistante à la perte d'information.
12

Cautres, René. "Discrétisation par volumes finis et méthodes de décomposition de domaine pour des problèmes de convection diffusion". Aix-Marseille 1, 2004. http://www.theses.fr/2004AIX10008.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Il s'agit ici d'étudier la discrétisation de quelques modèles de problèmes de convection-diffusion : βut - [delta]u + div(vq(u)) + bu = ƒ(x,t,u), sur un ouvert borné [Oméga] de Rd, d = 2 ou d = 3. La partie I constituée de deux chapitres, est consacrée à la discrétisation par la méthode Volumes Finis dite centrée par mailles dans le cas β = 0 et β = 1, pour des problèmes non linéaires. On y étudie l'existence et l'unicité de la solution discrète ainsi que la convergence du schéma numérique par l'établissement d'estimations d'erreurs. La partie II constituée de deux chapitres, est consacrée à l'étude d'une version Volumes Finis de deux algorithmes de Décompostion de Domaines, l'algorithme Neumann-Neumann, et l'algorithme de Lions. L'algorithme de Lions est étudié dan le cas de grilles non conformes.
13

Berthe, Paul-Marie. "Méthodes de décomposition de domaine de type relaxation d'ondes optimisées pour l'équation de convection-diffusion instationnaire discrétisée par volumes finis". Thesis, Paris 13, 2013. http://www.theses.fr/2013PA132055.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans le contexte du stockage des déchets radioactifs en milieu poreux, nous considérons l’équation de convection-diffusion instationnaire et sa discrétisation par des méthodes numériques. La discontinuité des paramètres physiques et la variabilité des échelles d’espace et de temps conduisent à utiliser des discrétisations différentes en temps et en espace dans différentes régions du domaine. Nous choisissons dans cette thèse le schéma volumes finis en dualité discrète (DDFV) et le schéma de Galerkin Discontinu en temps couplés à une méthode de décomposition de domaine de Schwarz de type relaxation d’ondes optimisées (OSWR), ce qui permet de traiter des maillages espace-temps non conformes. La principale difficulté réside dans l’obtention d’une discrétisation amont du flux convectif qui reste locale à un sous-domaine et telle que le schéma monodomaine soit équivalent au schéma multidomaine. Ces difficultés sont appréhendées d’abord en une dimension d’espace où différentes discrétisations sont étudiées. Le schéma retenu introduit une inconnue hybride sur les interfaces entre cellules. L’idée du décentrage amont par rapport à cette inconnue hybride est reprise en dimension deux d’espace, et adaptée au schéma DDFV. Le caractère bien posé de ce schéma et d’un schéma multidomaine équivalent est montré. Ce dernier est résolu par un algorithme OSWR dont la convergence est prouvée. Les paramètres optimisés des conditions de Robin sont obtenus par l'étude du taux de convergence continu ou discret. Différents cas-tests, dont l’un est inspiré du stockage des déchets nucléaires, illustrent ces résultats
In the context of nuclear waste repositories, we consider the numerical discretization of the non stationary convection diffusion equation. Discontinuous physical parameters and heterogeneous space and time scales lead us to use different space and time discretizations in different parts of the domain. In this work, we choose the discrete duality finite volume (DDFV) scheme and the discontinuous Galerkin scheme in time, coupled by an optimized Scwharz waveform relaxation (OSWR) domain decomposition method, because this allows the use of non-conforming space-time meshes. The main difficulty lies in finding an upwind discretization of the convective flux which remains local to a sub-domain and such that the multidomain scheme is equivalent to the monodomain one. These difficulties are first dealt with in the one-dimensional context, where different discretizations are studied. The chosen scheme introduces a hybrid unknown on the cell interfaces. The idea of upwinding with respect to this hybrid unknown is extended to the DDFV scheme in the two-dimensional setting. The well-posedness of the scheme and of an equivalent multidomain scheme is shown. The latter is solved by an OSWR algorithm, the convergence of which is proved. The optimized parameters in the Robin transmission conditions are obtained by studying the continuous or discrete convergence rates. Several test-cases, one of which inspired by nuclear waste repositories, illustrate these results
14

Oudin, Fabienne. "Schémas volumes finis pour problèmes elliptiques : analyse a priori et a posteriori par éléments finis mixtes, méthode de décomposition de domaines". Lyon 1, 1995. http://www.theses.fr/1995LYO10303.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans ce travail, on s'intéresse aux relations entre les méthodes de type volumes finis et les méthodes éléments finis mixtes pour la discrétisation des problèmes elliptiques. L'intérêt est d'utiliser un cadre théorique de type variationnel permettant d'obtenir pour une classe de schémas de type volumes finis, des résultats de majoration d'erreurs, à priori et à posteriori. Un estimateur d'erreur à posteriori, asymptotiquement exact, est obtenu en exploitant les liens existant entre méthodes volumes finis, éléments finis mixtes et éléments finis non conformes, et une méthode adaptative de décomposition de domaines est développée pour des méthodes volumes finis.
15

Monroy, Charles. "Simulation numérique de l'interaction houle-structure en fluide visqueux par décomposition fonctionnelle". Phd thesis, Ecole centrale de nantes - ECN, 2010. http://tel.archives-ouvertes.fr/tel-00600669.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La décomposition fonctionnelle dans les équations de Navier-Stokes est un artifice mathématique tirant profit du fait que les échelles des phénomènes associés respectivement à la propagation de la houle et à l'évolution du champ diffracté (et radié) par un corps sont nettement distinctes. Les inconnues principales du problème sont divisées en une partie incidente représentant la propagation de la houle et une partie diffractée représentant la perturbation due à la présence du corps flottant ou immergé. Cette décomposition est alors introduite dans les équations de Navier-Stokes moyennées au sens de Reynolds. Les termes incidents sont obtenus explicitement par un modèle de houle incidente en théorie potentielle non-linéaire (plus précisément par une méthode spectrale) et les termes diffractés sont déterminés par la résolution des équations RANS ainsi modifiées. La génération de la houle incidente étant réalisée par un modèle en théorie potentielle, le temps de calcul associé est très faible, la qualité de la propagation est optimale et la gamme de houles envisageables est très importante. Cet avantage est combiné à une résolution globale de l'écoulement qui reste néanmoins sous l'hypothèse du fluide visqueux. Ce travail de thèse constitue une contribution au développement de la méthode SWENSE (Spectral Wave Explicit Navier-Stokes Equations) et propose plusieurs cas de validation en houle régulière aussi bien qu'en houle irrégulière. Les limitations de la méthode sous sa forme actuelle, en particulier la problématique liée à la gestion du déferlement, sont discutées et des réponses pour y faire face sont suggérées.
16

Potop, Alexandra-Iulia. "Imagerie par rayons X résolue en énergie : Méthodes de décomposition en base de matériaux adaptées à des détecteurs spectrométriques". Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0096/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Les systèmes d’imagerie par rayons X conventionnels utilisent des détecteurs à base de scintillateur en mode intégration d’énergie. La nouvelle génération de détecteurs à base de semi-conducteur CdTe/CdZnTe permet de compter le nombre de photons et de mesurer l’énergie avec laquelle les photons arrivent sur le détecteur. Le laboratoire LDET (CEA LETI) a développé des détecteurs spectrométriques pixellisés à base de CdTe pour l’imagerie par rayons X associés à un circuit de lecture rapide permettant de travailler à fort taux de comptage avec une bonne résolution en énergie. Ces travaux de thèse proposent d’apporter une contribution au traitement des données acquises sur ces détecteurs résolus en énergie pour la quantification des constituants des matériaux en radiographie et en tomographie. Le cadre médical applicatif choisi est l’ostéodensitométrie. Des simulations de radiographie, qui prennent en compte les imperfections du système de détection, comme le partage de charges et les empilements, ont été réalisées. Nous avons choisi d’étudier des méthodes de traitements des données spectrales basées sur la décomposition en base de matériaux. Cette technique de réduction des données consiste à modéliser le coefficient d’atténuation linéique d’un matériau par une combinaison linéaire des fonctions d’atténuation de deux matériaux de base. Deux approches, utilisant toutes les deux un apprentissage par calibrage, ont été adaptées pour notre application. La première est une adaptation de l’approche polynômiale standard, appliquée pour deux et trois canaux d’énergie. Un processus d’optimisation des seuils des canaux a été réalisé afin de trouver la configuration optimale des bandes d’énergie. Une étude sur le nombre de canaux a permis d’évaluer les limites de la formulation polynômiale. Pour aller plus loin dans l’exploitation du potentiel des nouveaux détecteurs, une approche statistique développée dans notre laboratoire a été adaptée pour la décomposition en base de matériaux. Elle peut se généraliser à un grand nombre de canaux (100 par exemple). Une comparaison des deux approches a été réalisée selon des critères de performance comme le bruit et la précision sur l’estimation des longueurs des matériaux traversés. La validation des deux approches étudiées sur des données expérimentales acquises en radiographie, dans notre laboratoire, avec des détecteurs spectrométriques, a montré une bonne quantification des constituants des matériaux, en accord avec les résultats obtenus en simulation
Scintillator based integrating detectors are used in conventional X-ray imaging systems. The new generation of energy-resolved semiconductor radiation detectors, based on CdTe/CdZnTe, allows counting the number of photons incident on the detector and measure their energy. The LDET laboratory developed pixelated spectrometric detectors for X-ray imaging, associated with a fast readout circuit, which allows working with high fluxes and while maintaining a good energy resolution. With this thesis, we bring our contribution to data processing acquired in radiographic and tomographic modes for material components quantification. Osteodensitometry was chosen as a medical application. Radiographic data was acquired by simulation with a detector which presents imperfections as charge sharing and pile-up. The methods chosen for data processing are based on a material decomposition approach. Basis material decomposition models the linear attenuation coefficient of a material as a linear combination of the attenuations of two basis materials based on the energy related information acquired in each energy bin. Two approaches based on a calibration step were adapted for our application. The first is the polynomial approach used for standard dual energy acquisitions, which was applied for two and three energies acquired with the energy-resolved detector. We searched the optimal configuration of bins. We evaluated the limits of the polynomial approach with a study on the number of channels. To go further and take benefit of the elevated number of bins acquired with the detectors developed in our laboratory, a statistical approach implemented in our laboratory was adapted for the material decomposition method for quantifying mineral content in bone. The two approaches were compared using figures of merit as bias and noise over the lengths of the materials traversed by X-rays. An experimental radiographic validation of the two approaches was done in our laboratory with a spectrometric detector. Results in material quantification reflect an agreement with the simulations
17

Riton, Julien. "Problème de contact avec frottement : analyse et convergence par méthodes de sous-domaines". Caen, 2011. http://www.theses.fr/2011CAEN2004.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Nous traiterons, dans ce mémoire de doctorat, de l'application des méthodes de décompositions de domaines à la résolution d'inéquations variationnelles. Plus particulièrement, nous adapterons des méthodes existantes pour le cas linéaire de l'élasticité classique au cas non linéaire de la mécanique du contact avec frottement de Tresca. Une partie sera consacrée à la méthode de Neumann-Neumann, une autre pour la méthode de Robin-Robin. Chaque partie sera découpée en chapitre portant sur l'étude de la convergence des algorithmes sous forme continue et discrète. Aussi, leurs robustesses est illustrées par des tests numériques
We propose three non-overlapping domain decomposition methods to approximate contact problem with Tresca friction between two elastic bodies. Two of them are Neumann-Neumann algorithms, the third is a Lions (Robin) one. We prove their convergence in continuous case and their robustness in discrete case. Some numerical experiments illustrate the robustness of these parallel algorithms
18

Dailly, Paul. "Décomposition "à la Kronecker" dans les anneaux de Krull par immersion dans des anneaux principaux". Paris 6, 2002. http://www.theses.fr/2002PA066087.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Fortin, Thomas. "Une méthode d'éléments finis à décomposition L2 d'ordre élevé motivée par la simulation des écoulements diphasiques bas Mach". Paris 6, 2006. http://www.theses.fr/2006PA066526.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Rey, Valentine. "Pilotage de stratégies de calcul par décomposition de domaine par des objectifs de précision sur des quantités d’intérêt". Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN018/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ces travaux de recherche ont pour objectif de contribuer au développement et à l'exploitation d'outils de vérification des problèmes de mécanique linéaires dans le cadre des méthodes de décomposition de domaine sans recouvrement. Les apports de cette thèse sont multiples : * Nous proposons d'améliorer la qualité des champs statiquement admissibles nécessaires à l'évaluation de l'estimateur par une nouvelle méthodologie de reconstruction des contraintes en séquentiel et par des optimisations du calcul de l'intereffort en cadre sous-structuré.* Nous démontrons des bornes inférieures et supérieures de l'erreur séparant l'erreur algébrique (due au solveur itératif) de l'erreur de discrétisation (due à la méthode des éléments finis) tant pour une mesure globale que pour une quantité d'intérêt. Cette séparation permet la définition d'un critère d'arrêt objectif pour le solveur itératif.* Nous exploitons les informations fournies par l'estimateur et les espaces de Krylov générés pour mettre en place une stratégie auto-adaptative de calcul consistant en une chaîne de résolution mettant à profit remaillage adaptatif et recyclage des directions de recherche. Nous mettons en application le pilotage du solveur par un objectif de précision sur des exemples mécaniques en deux dimensions
This research work aims at contributing to the development of verification tools in linear mechanical problems within the framework of non-overlapping domain decomposition methods.* We propose to improve the quality of the statically admissible stress field required for the computation of the error estimator thanks to a new methodology of stress reconstruction in sequential context and thanks to optimizations of the computations of nodal reactions in substructured context.* We prove guaranteed upper and lower bounds of the error that separates the algebraic error (due to the iterative solver) from the discretization error (due to the finite element method) for both global error measure mentand goal-oriented error estimation. It enables the definition of a new stopping criterion for the iterative solver which avoids over-resolution.* We benefit the information provided by the error estimator and the Krylov subspaces built during the resolution to set an auto-adaptive strategy. This strategy consists in sequel of resolutions and takes advantage of adaptive remeshing and recycling of search directions .We apply the steering of the iterative solver by objective of precision on two-dimensional mechanical examples
21

Leroux, Jean-Daniel. "Contribution aux méthodes de reconstruction d'images appliquées à la tomographie d'émission par positrons par l'exploitation des symétries du système". Thèse, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/5398.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le désir d’atteindre une haute résolution spatiale en imagerie médicale pour petits animaux conduit au développement d’appareils composés de détecteurs de plus en plus petits. Des appareils s’approchant de la résolution théorique maximale en tomographie d’émission par positrons (TEP) sont à nos portes. Pour retirer le maximum d’information de ces appareils, il importe d’utiliser des méthodes de traitement évoluées qui prennent en considération l’ensemble des phénomènes physiques entourant la prise de mesure en TEP. Le problème est d’autant plus complexe à résoudre du fait que ces caméras sont composées de milliers de détecteurs qui donnent lieu à des millions de lignes de réponses mesurées pouvant alors être traitées par un algorithme de reconstruction d’images. Cette situation mène à des problèmes de reconstruction d’images en 3 dimensions (3D) qui sont difficiles à résoudre principalement à cause des limites en ressources mémoires et de calcul des ordinateurs modernes. Les travaux réalisés dans le cadre de cette thèse répondent à deux grands besoins relatifs au domaine de la reconstruction d’images en TEP, soit l'atteinte d'une meilleure qualité d'image et l'accélération des calculs menant à l'obtention de celle-ci. Le premier volet des travaux repose sur le l'élaboration de méthodes de modélisation 3D précises du processus d’acquisition en TEP permettant d'atteindre une meilleure qualité d’image. Ces modèles 3D s'expriment sous forme de matrices systèmes qui sont utilisées par un algorithme de reconstruction d'images. Pour générer ces modèles 3D pour la TEP, des méthodes de calculs analytiques et basées sur des simulations Monte Carlo (MC) ont été développées. Des méthodes hybrides, basé sur des stratégies analytiques et Monte Carlo, ont également été mises en œuvre afin de combiner les avantages des deux approches. Les méthodes proposées se distinguent de l'art antérieur en ce qu'elles tirent profit des symétries du système afin de réduire considérablement le temps de calcul requis pour l'obtention de matrices 3D précises. Pour l’approche analytique, le calcul de la matrice est divisé en diverses étapes qui favorisent la réutilisation de modèles pré-calculés entre les lignes de réponses symétriques de l’appareil. Pour l’approche par simulations MC, la réutilisation des événements MC collectés entre les lignes de réponse symétriques de l’appareil permet d’augmenter la statistique utilisée pour générer la matrice MC et du même coup de réduire le temps de simulation. La méthode hybride proposée permet de réduire encore davantage le temps de simulation MC et cela, sans faire de compromis sur la qualité de la matrice système. Le second volet des travaux repose sur le développement de nouvelles méthodes de reconstruction d’images basées sur un référentiel en coordonnées cylindriques permettant de réduire les contraintes d’espace mémoire et d'accélérer les calculs menant à l’image. Ces méthodes se divisent en deux catégories distinctes. Les premières sont des méthodes dites itératives qui permettent de résoudre le problème de reconstruction d’images par un processus itératif qui réalise une nouvelle estimation de l’image à chaque itération de façon à maximiser le degré de vraisemblance entre l’image et la mesure de l’appareil. Les secondes sont des méthodes dites directes qui permettent de résoudre le problème en inversant la matrice système qui relie l’image à la mesure de projections par une décomposition en valeurs singulières (DVS) de la matrice. La matrice inverse ainsi obtenue peut alors être multipliée directement avec la mesure pour obtenir l’image reconstruite. L’utilisation d’une image en coordonnées cylindriques entraîne une redondance au niveau des coefficients de la matrice système obtenue. En exploitant ces redondances, il est possible d’obtenir une matrice système avec une structure dite bloc circulante qui peut alors être transformée dans le domaine de Fourier afin d’accélérer les calculs lors du processus de reconstruction d’images itératif ou par DVS. De plus, pour la méthode par DVS, l’utilisation d’une matrice bloc circulante factorisée facilite grandement la procédure d'inversion de la matrice par DVS, ce qui rend l’application de la méthode possible pour des problèmes de reconstruction d’images en 3D. Or, la résolution de problèmes aussi complexes n’était jusqu’ici pas possible avec les méthodes par DVS de l’art antérieur dû aux contraintes d’espace mémoire et à la charge excessive de calcul. En somme, les travaux combinés ont pour objectif ultime de réunir à la fois la vitesse de calcul et une qualité d'image optimale en un même algorithme afin de créer un outil de reconstruction 3D idéal pour l'utilisation dans un contexte clinique.
22

Saleh, Marwan. "Étude mathématique et numérique des méthodes de réduction dimensionnelle de type POD et PGD". Thesis, La Rochelle, 2015. http://www.theses.fr/2015LAROS004/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce mémoire de thèse est formé de quatre chapitres. Un premier chapitre présente les différentes notions et outils mathématiques utilisés dans le corps de la thèse ainsi qu’une description des résultats principaux que nous avons obtenus. Le second chapitre présente une généralisation d’un résultat obtenu par Rousselet-Chénais en 1990 qui décrit la sensibilité des sous-espaces propres d’opérateurs compacts auto-adjoints. Rousselet-Chénais se sont limités aux sous-espaces propres de dimension 1 et nous avons étendu leur résultat aux dimensions supérieures. Nous avons appliqué nos résultats à la Décomposition par Projection Orthogonale (POD) dans le cas de variation paramétrique, temporelle ou spatiale (Gappy-POD). Le troisième chapitre traite de l’estimation du flot optique avec des énergies quadratiques ou linéaires à l’infini. On montre des résultats mathématiques de convergence de la méthode de Décomposition Progressive Généralisée (PGD) dans le cas des énergies quadratiques. Notre démonstration est basée sur la décomposition de Brézis-Lieb via la convergence presque-partout de la suite gradient PGD. Une étude numérique détaillée est faite sur différents type d’images : sur les équations de transport de scalaire passif, dont le champ de déplacement est solution des équations de Navier-Stokes. Ces équations présentent un défi pour l’estimation du flot optique à cause du faible gradient dans plusieurs régions de l’image. Nous avons appliqué notre méthode aux séquences d’images IRM pour l’estimation du mouvement des organes abdominaux. La PGD a présenté une supériorité à la fois au niveau du temps de calcul (même en 2D) et au niveau de la représentation correcte des mouvements estimés. La diffusion locale des méthodes classiques (Horn & Schunck, par exemple) ralentit leur convergence contrairement à la PGD qui est une méthode plus globale par nature. Le dernier chapitre traite de l’application de la méthode PGD dans le cas d’équations elliptiques variationnelles dont l’énergie présente tous les défis aux méthodes variationnelles classiques : manque de convexité, manque de coercivité et manque du caractère borné de l’énergie. Nous démontrons des résultats de convergence, pour la topologie faible, des suites PGD (lorsqu’elles sont bien définies) vers deux solutions extrémales sur la variété de Nehari. Plusieurs questions mathématiques concernant la PGD restent ouvertes dans ce chapitre. Ces questions font partie de nos perspectives de recherche
This thesis is formed of four chapters. The first one presents the mathematical notions and tools used in this thesis and gives a description of the main results obtained within. The second chapter presents our generalization of a result obtained by Rousselet-Chenais in 1990 which describes the sensitivity of eigensubspaces for self-adjoint compact operators. Rousselet-Chenais were limited to sensitivity for specific subspaces of dimension 1, we have extended their result to higher dimensions. We applied our results to the Proper Orthogonal Decomposition (POD) in the case of parametric, temporal and spatial variations (Gappy- POD). The third chapter discusses the optical flow estimate with quadratic or linear energies at infinity. Mathematical results of convergence are shown for the method Progressive Generalized Decomposition (PGD) in the case of quadratic energies. Our proof is based on the decomposition of Brézis-lieb via the convergence almost everywhere of the PGD sequence gradients. A detailed numerical study is made on different types of images : on the passive scalar transport equations, whose displacement fields are solutions of the Navier-Stokes equations. These equations present a challenge for optical flow estimates because of the presence of low gradient regions in the image. We applied our method to the MRI image sequences to estimate the movement of the abdominal organs. PGD presented a superiority in both computing time level (even in 2D) and accuracy representation of the estimated motion. The local diffusion of standard methods (Horn Schunck, for example) limits the convergence rate, in contrast to the PGD which is a more global approach by construction. The last chapter deals with the application of PGD method in the case of variational elliptic equations whose energy present all challenges to classical variational methods : lack of convexity, lack of coercivity and lack of boundedness. We prove convergence results for the weak topology, the PGD sequences converge (when they are well defined) to two extremal solutions on the Nehari manifold. Several mathematical questions about PGD remain open in this chapter. These questions are part of our research perspectives
23

Perez, Saul. "Application à des problèmes d'environnement radar de méthodes itératives de résolution d'un problème électromagnétique par partition". Toulouse, INSA, 2007. http://eprint.insa-toulouse.fr/archive/00000168/.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Etant donnée la multiplication de structures complexes et de grande taille ( >> λ) le calcul de la surface équivalente radar (SER) de ces structures devient important pour connaître l’impact sur les moyens de radionavigation utilisés par l’aviation civile tel que le radar. Les méthodes asymptotiques sont souvent utilisées dans le cadre des structures de grande taille mais sont difficilement applicables sur des structures d’une telle complexité. La méthode par équations intégrales permet de modéliser ces problèmes mais est très vite confrontée à un problème de stockage mémoire (évoluant en O(N²)) et au nombre de calculs pour la résolution directe (évoluant en O(N3)). Ces limitations imposent d’une part le recours à un cluster pour répartir les charges de stockage mémoire et de calcul et d’autre part le recours à une méthode itérative (évoluant en O(N²)) combinée avec des techniques d’accélération pour diminuer le nombre de calculs. Nous avons développé une méthode de résolution à convergence garantie et facilement parallélisable pour des objets diélectriques de forme allongée dont la complexité interne est importante tels que les pâles d’éolienne. Cette méthode repose sur une formulation intégrale et utilise une méthode décomposition par interface. La formulation intégrale consiste à décrire le champ électromagnétique diffracté par la structure en fonction d’une distribution de sources électrique et magnétique définie sur sa surface. La décomposition par interface consiste à partitionner la frontière de l’objet en différentes zones. A cette méthode on associe une méthode itérative à convergence prouvée (GMRES). Afin d’accélérer la convergence nous avons proposé l’utilisation de trois techniques d’accélération de calcul. La première technique d’accélération de calcul permet d’éliminer les degrés de liberté internes de la structure. La deuxième technique (compression d’opérateur) permet d’accélérer le calcul des produits matrices vecteurs utilisés aussi bien dans la résolution itérative que dans le préconditionnement, elle permet aussi de réduire le stockage mémoire. La troisième technique consiste à utiliser un préconditionneur adapté à la physique du problème. La méthode de résolution proposée ainsi que les outils utilisés forment ainsi un algorithme robuste et facilement parallélisable
With a multiplication of complex and large objects (>>λ) the RCS computation of these objects is important for the aviation community to determine the impact on radio navigation systems like radar. These objects are far greater than the wavelength but asymptotic methods cannot be applied to solve this type of complex problem. The integral method is a popular choice for solving electromagnetic scattering by an arbitrary object. However it is well known that the traditional integral method suffers from the storage requirement (increasing in the order of O(N²)) and computational complexity (increasing in the order of O(N3)) for large scale problem. These limitations impose on the one hand the use of a cluster to share out the storage and the computational complexity cost and on the other hand the use of an iterative method (increasing in the order of O(N²)) combined with an accelerating method to reduce the computational complexity cost. We propose a method for RCS computation of long internally complex, dielectric objects such as wind turbine blades. The method proposed is an improved iterative algorithm whose convergence is proven. Moreover the algorithm can be easily adapted to parallel computation. This method is based into classical integral method and interface decomposition. The integral method consist in the description of electromagnetic field in terms of electric and magnetic currents defined on the surface of the electromagnetic scatterer. The interface decomposition consist in the decomposition of the surface of the scatterer in different zones. In order to accelerate the convergence rate we propose the use of three accelerating methods. The first accelerating method allows the elimination of the internal degrees of freedom. The second accelerating method (matrix compression QR) accelerates all the matrix vector products used in the preconditioning procedure as well as in the GMRES iterative resolution. The third one consists in using a “geometric-neighboring” preconditioner adapted to the physical aspect of the problem
24

Giraud, Denis. "Diagnostic des systèmes industriels complexes par agrégation de méthodes : application à une station d'épuration". Nancy 1, 1998. http://www.theses.fr/1998NAN10002.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse propose une approche hiérarchique du diagnostic des systèmes complexes par décomposition en sous-systèmes élémentaires de diagnostic puis agrégation de ceux-ci. Le chapitre 1 décomposition en sous-systèmes élémentaires de diagnostic puis agrégation de ceux-ci. Le chapitre 1 détaille la problématique du diagnostic en temps réel ainsi que celle des systèmes complexes. Il en propose une solution par décomposition hiérarchique et présente l'outil logiciel dialogs issu de ce concept. Il présente enfin un système complexe illustrant cette approche. La station d'épuration de Maxéville et son séchage thermique des boues. Les chapitres 2 et 3 abordent l'aspect modulaire de cette approche au travers de l'étape de génération de symptômes. Le chapitre 2 propose pour cela des méthodes de détection de défauts permettant, de générer des symptômes indépendants. Le chapitre 3 présente des techniques plus élaborées assurant également la localisation de défauts au travers d'ensemble de symptômes. La nécessité d'associer les résidus fournis par ces méthodes dans des niveaux de décision hierarchiquement supérieurs impose leur homogénéisation au moyen de tests de décision présentes chapitre 2. Le chapitre 4 développe les notions de hiérarchisation et d'agrégation de systèmes élémentaires au travers de deux méthodes de localisation de défauts, la décision structurée et la décision à objectifs multiples. Une troisième technique, la décision générique, permet de conclure quant à l'état du système complet
25

Balin, Nolwenn. "Etude de méthodes de couplage pour la résolution des équations de Maxwell : application au calcul de la signature radar d’aéronefs par hybridation de méthodes exactes et asymptotiques". Toulouse, INSA, 2005. http://www.theses.fr/2005ISAT0012.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse est dédiée à la simulation numérique de la diffraction d'une onde électromagnétique par un aéronef aérobie modélisé par une structure de grande taille contenant une cavité profonde et étroite. En raison de la taille et de la complexité de cet objet, les méthodes usuelles (exactes et asymptotiques) ne peuvent s'appliquer de façon satisfaisante. Ce travail présente une nouvelle méthode hybride exacte/asymptotique pour résoudre efficacement ce problème de diffraction. Les méthodes ont tout d'abord été validées dans le cas bi-dimensionnel puis étendues au cas tri-dimensionnel. Tout d’abord, nous avons développé pour la cavité un procédé de factorisation frontale par sous-structuration reposant sur une formulation par équations intégrales. Cette méthode ramène le problème initial à un système d’équations posées sur les frontières de l’objet situées à l’extérieur de la cavité. Ensuite, afin de réduire la taille du problème obtenu, nous utilisons une méthode de Schwarz associée à une méthode de décomposition de frontière avec recouvrement et adaptée pour une résolution par équations intégrales. Enfin, pour résoudre le problème local posé sur une des frontières définies précédemment, nous introduisons une méthode asymptotique, calculant le rayonnement des courants équivalents par un procédé de type Generalized Ray Expansion. L’utilisation de l’algorithme précédent assure un fort couplage entre les différents domaines. Nous avons établi mathématiquement la stabilité et la solvabilité de la méthode de factorisation et numériquement l’efficacité des différentes étapes et de l’ensemble du procédé d’hybridation qui a été testé sur des cas-test académiques et industriels
This thesis is concerned with the numerical simulation of the scattering of an electromagnetic wave by air-breathing aircraft, represented by a deep and narrow cavity within a large perfectly conducting structure. Due to the size and the complexity of this object, the classical methods (full-wave and asymptotic) cannot be successfully applied. The aim of this study is to develop a new hybrid method to solve this kind of problem. The methods have first been developed and validated in the 2D case and then extended to the 3D case. At first, for the treatment of the cavity, a new substructuring domain decomposition method based on a boundary element formulation and a frontal forward substitution was developed. After this step, the remaining equations are set on the aperture of the cavity and the rest of the boundary of the structure. Next, to reduce the size of the resulting external problem, we use a Schwarz method associated with an overlapping boundary decomposition well-suited for the boundary integral equations. Finally, for the part of the boundary that does not cover the aperture of the cavity, we introduce an asymptotic method, based on the radiation of equivalent currents by a Generalized Ray Expansion process. The use of the previous algorithm ensures a strong coupling between the subdomains. We have mathematically established the stability and solvability of the cavity factorization method. We have also numerically demonstrated the efficiency of these three elementary steps and of the whole hybridization process
26

Aujol, Jean-François. "Contribution à l'analyse de textures en traitement d'images par méthodes variationnelles et équations aux dérivées partielles". Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00006303.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse est un travail en mathématiques appliquées. Elle aborde quelques problèmes en analyse d'images et utilise des outils mathématiques spécifiques.

L'objectif des deux premières parties de cette thèse
est de proposer un modèle pour décomposer une image f en trois composantes : f=u+v+w.
La première composante, u, contient l'information géométrique. On peut la considérer comme une esquisse de l'image originale f.
La seconde composante, v, contient l'information texture.
La troisième composante, w, contient le bruit présent dans l'image originale.
Notre approche repose sur l'utilisation d'espaces mathématiques
adaptés à chaque composante: l'espace BV des fonctions à variations bornées pour u, un espace G proche du dual de BV pour les textures, et un espace de Besov d'exposant négatif E pour le bruit.
Nous effectuons l'étude mathématique complète des différents modèles que nous proposons.
Nous illustrons notre approche par de nombreux exemples, et donnons deux applications concrètes : une première en restauration d'images RSO, et une seconde en compression d'images.


Dans la troisième et dernière partie de cette thèse, nous nous intéressons
spécifiquement à la composante texturée.
Nous proposons un algorithme de classification supervisée pour les images texturées. L'approche utilisée est basée sur l'utilisation de la méthode des contours actifs et d'un terme d'attache aux donnés spécifiques au textures. Ce dernier est construit à partir d'une transformée en paquets d'ondelettes. Nous obtenons ainsi une fonctionnelle, dont le minimum correspond à la classification cherchée. Nous résolvons numériquement ce problème à l'aide d'un système couplé d'EDP que nous plongeons dans un schéma dynamique. Nous illustrons notre démarche par de nombreux exemples numériques. Nous effectuons également l'étude théorique de la fonctionnelle de classification.
27

Lescic, Sergiu. "Etude théorique du mécanisme de décomposition d'adduits de spin issus du piégeage de radicaux alkylperoxyle par des N-oxy-pyrrolines". Electronic Thesis or Diss., Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4752.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
A l'aide de la spectroscopie par Résonance Paramagnétique Électronique (RPE), la détection des certaines espèces radicalaires à très faible durée de vie se fait par la méthode du spin-trapping. Cette technique permet de caractériser ces radicaux “libres” en les piégeant à l'aide d'une molécule diamagnétique (nitrone) pour donner naissance à une espèce paramagnétique persistante (adduit de spin), ayant un spectre RPE caractéristique du radical piégé. Le temps de demi-vie d'un adduit du spin est fortement corrélé à la nature de la nitrone et du radical piégé (alkyle, alcoxyle, alkylperoxyle, ...). Cependant, le lien entre la structure de l'adduit et sa durée de vie n'est toujours pas clairement établi. De ce fait, nous avons entrepris une étude théorique des réactions mises en jeu dans la disparition de l'adduit de spin résultant du piégeage de radicaux alkylperoxyle par des nitrones de type N-oxy-pyrroline. Plus précisément nous avons postulé un mécanisme de dégradation unimoléculaire en deux étapes. Étant donné la complexité des états de spin dans les composés considérés dans le profil réactionnel, nous avons effectué cette étude par l'approche ab initio multidéterminantale (CASSCF). Les calculs ab initio CASSCF en phase gazeuse sur une série d'adduits de spin nous ont permis de valider ce mécanisme de décomposition dans les solvants organiques et de mieux comprendre le lien entre la structure de l'adduit et sa durée de vie
In the field of electron paramagnetic resonance (EPR) spectroscopy, the detection of some radical species with a very short half-life time is possible using the spin-trapping method. This technique allows us to characterize transient radicals by trapping them with a diamagnetic molecule (nitrone for example) to give rise to a persistent paramagnetic species (spin-adduct), whose EPR spectrum is characteristic of the trapped radical. Half-life times are strongly correlated to the nature of the nitrone and the trapped radical (alkyl, alkoxyl, alkylperoxyl, ...). However, the link between the structure of the adduct and its half-life time is still not clear. Therefore, we carried out a theoretical study of the reactions involved in the decay of spin-adducts resulting from the trapping of alkylperoxyl radicals by pyrroline-N-oxide nitrones. More precisely, we were interested in the mechanism of the two-step unimolecular degradation. Given the difficulty to discribe the spin states in the considered compounds, we chose to rationalize this study by means of ab initio multireference approach (CASSCF). The ab initio CASSCF calculations of a series of nitroxides allowed to validate this mechanism in organic solvents and to better understand the relationship between the structure of the spin-adduct and its half-life time
28

Hauville, Frédéric. "Optimisation des méthodes de calculs d'écoulements tourbillonnaires instationnaires". Phd thesis, Université du Havre, 1996. http://tel.archives-ouvertes.fr/tel-00125000.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Nous étudions les écoulements à l'aide des méthodes de calcul décrivant le transport du tourbillon. Ces méthodes sont basées sur une discrétisation volumique des zones tourbillonnaires en particules que l'on suit dans leur mouvement. Ces dernières portent un vecteur tourbillon qui évolue dans le temps en fonction des distorsions locales du champ de vitesse. Ces modélisations numériques d'écoulements tourbillonnaires instationnaires en formulation lagrangienne présentent la particularité d'être bien adaptées à la description de phénomènes complexes, mais ont la réputation d'être coûteuses en temps de calcul.

Le cadre général de cette thèse est l'amélioration de l'efficacité de ces méthodes sous trois aspects :
- décomposition linéaire / non linéaire
- approximation par domaine
- la programmation parallèle (PVM).

Des applications concernant des problèmes d'énergie éoliens, soit sur des générateurs à hélice (éolienne), soit sur les voiles de bateau pour l'interaction fluide/structure sont développés.
29

Nion, Dimitri. "Méthodes PARAFAC généralisées pour l'extraction aveugle de sources : Application aux systèmes DS-CDMA". Cergy-Pontoise, 2007. http://www.theses.fr/2007CERG0322.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
L'objet de cette thèse est le développement de méthodes PARAFAC généralisées pour l'extraction aveugle de sources dans un système DS-CDMA multi-utilisateurs. Il s'avère que les diversités spatiales et temporelles ainsi que la diversité de codes permettent de stocker les échantillons du signal reçu dans un tenseur d'ordre trois. La séparation aveugle des signaux présents consiste alors à décomposer ce tenseur en une somme de contributions. Jusqu'à présent, cette approche a été utilisée en télécommunications pour des canaux de propagation non-sélectifs en fréquence et la solution est donnée par la décomposition PARAFAC. Cependant, pour un scénario de propagation plus réaliste, caractérisé par des trajets multiples engendrant de l'Interférence entre symboles, cette décomposition ne permet pas de résoudre le problème. Dans ce contexte, l'objectif central de cette thèse est le développement de récepteurs algébriques multilinéaires basés sur une généralisation de la décomposition PARAFAC
The goal of this PhD Thesis is to develop generalized PARAFAC decompositions for blind source extraction in a multi-user DS-CDMA system. The spatial, temporal and code diversities allow to store the samples of the received signal in a third order tensor. In order to blindly estimate the symbols of each user, we decompose this tensor in a sum of users' contributions. Until now, this multilinear approach has been used in wireless communications for instantaneous channels, in which case the problem is solved by the PARAFAC decomposition. However, in multipath channels with Inter-Symbol-Interference, this decomposition has to be generalized. The main contribution of this Thesis is to build tensor decompositions more general than PARAFAC to take this propagation scenario into account
30

Negrello, Camille. "Méthodes fortement parallèles pour la simulation numérique en mécanique non linéaire des structures". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLN049/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse vise à contribuer à l'adoption du virtual testing, pratique industrielle encore embryonnaire qui consistera à optimiser et certifier par la simulation numérique le dimensionnement de pièces industrielles critiques. Le virtual testing permettra des économies colossales dans la conception des pièces mécaniques et un plus grand respect de l'environnement grâce à des designs optimisés. Afin d'atteindre un tel objectif, de nouvelles méthodes de calcul doivent être mises en place, plus sûres, plus respectueuses des architectures matérielles, plus rapides, compatibles avec les contraintes temporelles de l'ingénierie. Nous nous intéressons à la résolution parallèle de problèmes non linéaires de grande taille par des méthodes de décomposition de domaine. Notre objectif est d'atteindre une approximation de la solution exacte en minimisant les communications entre les sous-domaines. Pour cela nous souhaitons maximiser les calculs réalisés indépendamment par sous-domaine à l'aide d'approches de relocalisation non linéaire, contrôler les critères de convergence des solveurs imbriqués de manière à éviter la sur-résolution et les divergences, améliorer la construction de conditions d'interface mixtes, et non linéariser l'étape de préconditionnement du solveur. L'objectif à terme étant de traiter des problèmes de complexité industrielle, la robustesse des méthodes sera un souci constant. De manière classique, les problèmes non linéaires sont résolus en construisant une suite de systèmes linéaires qui peuvent être résolus en parallèle à l'aide de méthodes itératives, telles que les solveurs de Krylov. Nous souhaitons remettre en question cette procédure usuelle en essayant de construire une suite de petits systèmes non linéaires indépendants à résoudre en parallèle. Une telle technique implique l'utilisation de solveurs itératifs imbriqués dont les critères de convergence doivent être syntonisés dynamiquement de manière à éviter à la fois la sur-résolution et la perte de convergence. La robustesse de la méthode pourra notamment être assurée par l'emploi de conditions d'interface mixtes bien construites et de préconditionneurs bien choisis
This thesis is aimed to contribute to the adoption of virtual testing, an industrial practice still embryonic which consists in optimizing and certifying by numerical simulations the dimensioning of critical industrial structures. The virtual testing will allow colossal savings in the design of mechanical parts and a greater respect for the environment, thanks to optimized designs. In order to achieve this goal, new calculation methods must be implemented, satisfying more requirements concerning safety, respect for hardware architectures, fastness, and compatibility with the time constraints of engineering.We are interested in the parallel resolution of large nonlinear problems by domain decomposition methods. Our goal is to approximate the exact solution by minimizing communication between subdomains. In order to do this, we want to maximize the computations performed independently by subdomain, using nonlinear relocation approaches. We also try to control the convergence criteria of the nested solvers in order to avoid over-resolution and divergences, to improve the construction of conditions Of mixed interface, and non-linearizing the preconditioning step of the solver. The ultimate objective being to deal with problems of industrial complexity, the robustness of the methods we develop will be a constant concern.Conventionally, non-linear problems are solved by constructing a sequence of linear systems that can be solved in parallel using iterative methods, such as Krylov solvers. We wish to question this usual procedure by trying to construct a sequence of small independent nonlinear systems to be solved in parallel. Such a technique involves the use of interleaved iterative solvers, whose convergence criteria must be dynamically tuned in order to avoid both over-resolution and loss of convergence. The robustness of the method can be ensured in particular by the use of well-constructed mixed interface conditions and well-chosen preconditioners
31

Kechkar, Mohamed Adel. "Méthodes de reconstruction et de quantification pour la microscopie de super-résolution par localisation de molécules individuelles". Thesis, Bordeaux 2, 2013. http://www.theses.fr/2013BOR22130/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Le domaine de la microscopie de fluorescence a connu une réelle révolution ces dernières années, permettant d'atteindre des résolutions nanométriques, bien en dessous de la limite de diffraction prédite par Abbe il y a plus d’un siècle. Les techniques basées sur la localisation de molécules individuelles telles que le PALM (Photo-Activation Light Microscopy) ou le (d)STORM (direct Stochastic Optical Reconstruction Microscopy) permettent la reconstruction d’images d’échantillons biologiques en 2 et 3 dimensions, avec des résolutions quasi-moléculaires. Néanmoins, même si ces techniques nécessitent une instrumentation relativement simple, elles requièrent des traitements informatiques conséquents, limitant leur utilisation en routine. En effet, plusieurs dizaines de milliers d’images brutes contenant plus d’un million de molécules doivent être acquises et analysées pour reconstruire une seule image. La plupart des outils disponibles nécessitent une analyse post-acquisition, alourdissant considérablement le processus d’acquisition. Par ailleurs la quantification de l’organisation, de la dynamique mais aussi de la stœchiométrie des complexes moléculaires à des échelles nanométriques peut constituer une clé déterminante pour élucider l’origine de certaines maladies. Ces nouvelles techniques offrent de telles capacités, mais les méthodes d’analyse pour y parvenir restent à développer. Afin d’accompagner cette nouvelle vague de microscopie de localisation et de la rendre utilisable en routine par des expérimentateurs non experts, il est primordial de développer des méthodes de localisation et d’analyse efficaces, simples d’emploi et quantitatives. Dans le cadre de ce travail de thèse, nous avons développé dans un premier temps une nouvelle technique de localisation et reconstruction en temps réel basée sur la décomposition en ondelettes et l‘utilisation des cartes GPU pour la microscopie de super-résolution en 2 et 3 dimensions. Dans un second temps, nous avons mis au point une méthode quantitative basée sur la visualisation et la photophysique des fluorophores organiques pour la mesure de la stœchiométrie des récepteurs AMPA dans les synapses à l’échelle nanométrique
The field of fluorescence microscopy has witnessed a real revolution these last few years, allowing nanometric spatial resolutions, well below the diffraction limit predicted by Abe more than a century ago. Single molecule-based super-resolution techniques such as PALM (Photo-Activation Light Microscopy) or (d)STORM (direct Stochastic Optical Reconstruction Microscopy) allow the image reconstruction of biological samples in 2 and 3 dimensions, with close to molecular resolution. However, while they require a quite straightforward instrumentation, they need heavy computation, limiting their use in routine. In practice, few tens of thousands of raw images with more than one million molecules must be acquired and analyzed to reconstruct a single super-resolution image. Most of the available tools require post-acquisition processing, making the acquisition protocol much heavier. In addition, the quantification of the organization, dynamics but also the stoichiometry of biomolecular complexes at nanometer scales can be a key determinant to elucidate the origin of certain diseases. Novel localization microscopy techniques offer such capabilities, but dedicated analysis methods still have to be developed. In order to democratize this new generation of localization microscopy techniques and make them usable in routine by non-experts, it is essential to develop simple and easy to use localization and quantitative analysis methods. During this PhD thesis, we first developed a new technique for real-time localization and reconstruction based on wavelet decomposition and the use of GPU cards for super-resolution microscopy in 2 and 3 dimensions. Second, we have proposed a quantitative method based on the visualization and the photophysics of organic fluorophores for measuring the stoichiometry of AMPA receptors in synapses at the molecular scale
32

Moreau, Antoine. "Calcul des propriétés homogénéisées de transfert dans les matériaux poreux par des méthodes de réduction de modèle : Application aux matériaux cimentaires". Thesis, La Rochelle, 2022. http://www.theses.fr/2022LAROS024.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse propose de coupler deux outils préexistant pour la modélisation mathématique en mécanique : l’homogénéisation périodique et la réduction de modèle, afin de modéliser la corrosion des structures de béton armé exposées à la pollution atmosphérique et au sel marin. Cette dégradation est en effet difficile à simuler numériquement, eu égard la forte hétérogénéité des matériaux concernés, et la variabilité de leur microstructure. L’homogénéisation périodique fournit un modèle multi-échelle permettant de s’affranchir de la première de ces deux difficultés. Néanmoins, elle repose sur l’existence d’un volume élémentaire représentatif (VER) de la microstructure du matériau poreux modélisé. Afin de prendre en compte la variabilité de cette dernière, on est amenés à résoudre en temps réduit les équations issues du modèle multi-échelle pour un grand nombre VER. Ceci motive l’utilisation de la méthode POD de réduction de modèle. Cette thèse propose de recourir à des transformations géométriques pour transporter ces équations sur la phase fluide d’un VER de référence. La méthode POD ne peut, en effet, pas être utilisée directement sur un domaine spatial variable (ici le réseau de pores du matériau). Dans un deuxième temps, on adapte ce nouvel outil à l’équation de Poisson-Boltzmann, fortement non linéaire, qui régit la diffusion ionique à l’échelle de la longueur de Debye. Enfin, on combine ces nouvelles méthodes à des techniques existant en réduction de modèle (MPS, interpolation ITSGM), pour tenir compte du couplage micro-macroscopique entre les équations issues de l’homogénéisation périodique
In this thesis, we manage to combine two existing tools in mechanics: periodic homogenization, and reduced-order modelling, to modelize corrosion of reinforced concrete structures. Indeed, chloride and carbonate diffusion take place their pores and eventually oxydate their steel skeleton. The simulation of this degradation is difficult to afford because of both the material heterogenenity, and its microstructure variability. Periodic homogenization provides a multiscale model which takes care of the first of these issues. Nevertheless, it assumes the existence of a representative elementary volume (REV) of the material at the microscopical scale. I order to afford the microstructure variability, we must solve the equations which arise from periodic homogenization in a reduced time. This motivates the use of model order reduction, and especially the POD. In this work we design geometrical transformations that transport the original homogenization equations on the fluid domain of a unique REV. Indeed, the POD method can’t be directly performed on a variable geometrical space like the material pore network. Secondly, we adapt model order reduction to the Poisson-Boltzmann equation, which is strongly nonlinear, and which rules ionic electro diffusion at the Debye length scale. Finally, we combine these new methods to other existing tools in model order reduction (ITSGM interpolatin, MPS method), in order to couple the micro- and macroscopic components of periodic homogenization
33

Molina-Sepulveda, Roberto. "Hybridization of FETI Methods". Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066455/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Dans le présent travail, des nouvelles méthodes de décomposition de domaine et des nouvelles implémentations pour des méthodes existantes sont développées. Une nouvelle méthode basée sur les méthodes antérieures de décomposition du domaine est formulée. Les méthodes classiques FETI plus FETI-2LM sont utilisées pour construire le nouveau Hybrid-FETI. L'idée de base est de développer un nouvel algorithme qui peut utiliser les deux méthodes en même temps en choisissant dans chaque interface l'état le plus adapté en fonction des caractéristiques du problème. En faisant cela, nous recherchons un code plus rapide et plus robuste qui peut fonctionner avec des configurations selon lesquelles les méthodes de base ne le géreront pas de manière optimale par lui-même. La performance est testée sur un problème de contact. La partie suivante implique le développement d'une nouvelle implémentation pour la méthode S-FETI, l'idée est de réduire l'utilisation de la mémoire de cette méthode, afin de pouvoir fonctionner dans des problèmes de taille plus important. Différentes variantes pour cette méthode sont également proposées, tout en cherchant la réduction des directions stockées chaque itération de la méthode itérative. Finalement, une extension de la méthode FETI-2LM à sa version en bloc comme dans S-FETI, est développée. Les résultats numériques pour les différents algorithmes sont présentés
In this work new domain decomposition methods and new implementations for existing methods are developed. A new method based on previous domain decomposition methods is formulated. The classic FETI plus FETI-2LM methods are used to build the new Hybrid-FETI. The basic idea is to develop a new algorithm that can use both methods at the same time by choosing in each interface the most suited condition depending on the characteristics of the problem. By doing this we search to have a faster and more robust code that can work with configurations that the base methods will not handle it optimally by himself. The performance is tested on a contact problem. The following part involves the development of a new implementation for the S-FETI method, the idea is to reduce the memory usage of this method, to make it able to work in larger problem. Different variation for this method are also proposed, all searching the reduction of directions stored each iteration of the iterative method. Finally, an extension of the FETI-2LM method to his block version as in S-FETI, is developed. Numerical results for the different algorithms are presented
34

Lescic, Sergiu. "Etude théorique du mécanisme de décomposition d'adduits de spin issus du piégeage de radicaux alkylperoxyle par des N-oxy-pyrrolines". Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4752.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
A l'aide de la spectroscopie par Résonance Paramagnétique Électronique (RPE), la détection des certaines espèces radicalaires à très faible durée de vie se fait par la méthode du spin-trapping. Cette technique permet de caractériser ces radicaux “libres” en les piégeant à l'aide d'une molécule diamagnétique (nitrone) pour donner naissance à une espèce paramagnétique persistante (adduit de spin), ayant un spectre RPE caractéristique du radical piégé. Le temps de demi-vie d'un adduit du spin est fortement corrélé à la nature de la nitrone et du radical piégé (alkyle, alcoxyle, alkylperoxyle, ...). Cependant, le lien entre la structure de l'adduit et sa durée de vie n'est toujours pas clairement établi. De ce fait, nous avons entrepris une étude théorique des réactions mises en jeu dans la disparition de l'adduit de spin résultant du piégeage de radicaux alkylperoxyle par des nitrones de type N-oxy-pyrroline. Plus précisément nous avons postulé un mécanisme de dégradation unimoléculaire en deux étapes. Étant donné la complexité des états de spin dans les composés considérés dans le profil réactionnel, nous avons effectué cette étude par l'approche ab initio multidéterminantale (CASSCF). Les calculs ab initio CASSCF en phase gazeuse sur une série d'adduits de spin nous ont permis de valider ce mécanisme de décomposition dans les solvants organiques et de mieux comprendre le lien entre la structure de l'adduit et sa durée de vie
In the field of electron paramagnetic resonance (EPR) spectroscopy, the detection of some radical species with a very short half-life time is possible using the spin-trapping method. This technique allows us to characterize transient radicals by trapping them with a diamagnetic molecule (nitrone for example) to give rise to a persistent paramagnetic species (spin-adduct), whose EPR spectrum is characteristic of the trapped radical. Half-life times are strongly correlated to the nature of the nitrone and the trapped radical (alkyl, alkoxyl, alkylperoxyl, ...). However, the link between the structure of the adduct and its half-life time is still not clear. Therefore, we carried out a theoretical study of the reactions involved in the decay of spin-adducts resulting from the trapping of alkylperoxyl radicals by pyrroline-N-oxide nitrones. More precisely, we were interested in the mechanism of the two-step unimolecular degradation. Given the difficulty to discribe the spin states in the considered compounds, we chose to rationalize this study by means of ab initio multireference approach (CASSCF). The ab initio CASSCF calculations of a series of nitroxides allowed to validate this mechanism in organic solvents and to better understand the relationship between the structure of the spin-adduct and its half-life time
35

Schneider, Antoine. "Contribution à l'identification et la commande de systèmes stochastiques discrets par des méthodes hiérarchisées : Application au modèle d'un convertisseur d'acier". Nancy 1, 1987. http://www.theses.fr/1987NAN10248.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Al, Daas Hussam. "Résolution de systèmes linéaires issus de la modélisation des réservoirs". Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS329.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse présente un travail sur les méthodes itératives pour résoudre des systèmes linéaires en réduisant les communications pendant les calculs parallèles. Principalement, on est intéressé par les systèmes linéaires qui proviennent des simulations de réservoirs. Trois approches, que l’on peut considérer comme indépendantes, sont présentées. Nous considérons les systèmes linéaires non-symétriques (resp. symétriques), cela correspond au schéma explicite (resp. implicite) du problème modèle. On commence par présenter une approche qui ajoute plusieurs directions de recherche à chaque itération au lieu d’une seule direction comme dans le cas des méthodes classiques. Ensuite, on considère les stratégies de recyclage des espaces de recherche. Ces stratégies réduisent, par un facteur considérable, le nombre d’itérations global pour résoudre une séquence de systèmes linéaires. On fait un rappel des stratégies existantes et l’on en présente une nouvelle. On introduit et détaille l’implémentation parallèle de ces méthodes en utilisant un langage bas niveau. On présente des résultats numériques séquentiels et parallèles. Finalement, on considère la méthode de décomposition de domaine algébrique. Dans un environnement algébrique, on étudie le préconditionneur de Schwarz additif à deux niveaux. On fournit la forme algébrique explicite d’une classe d’espaces grossiers locaux qui bornent le conditionnement par un nombre donné a priori
This thesis presents a work on iterative methods for solving linear systems that aim at reducing the communication in parallel computing. The main type of linear systems in which we are interested arises from a real-life reservoir simulation. Both schemes, implicit and explicit, of modelling the system are taken into account. Three approaches are studied separately. We consider non-symmetric (resp. symmetric) linear systems. This corresponds to the explicit (resp. implicit) formulation of the model problem. We start by presenting an approach that adds multiple search directions per iteration rather than one as in the classic iterative methods. Then, we discuss different strategies of recycling search subspaces. These strategies reduce the global iteration count of a considerable factor during a sequence of linear systems. We review different existing strategies and present a new one. We discuss the parallel implementation of these methods using a low-level language. Numerical experiments for both sequential and parallel implementations are presented. We also consider the algebraic domain decomposition approach. In an algebraic framework, we study the two-level additive Schwarz preconditioner. We provide the algebraic explicit form of a class of local coarse spaces that bounds the spectral condition number of the preconditioned matrix by a number pre-defined
37

Guibert, David. "Analyse de méthodes de résolution parallèles d’EDO/EDA raides". Thesis, Lyon 1, 2009. http://www.theses.fr/2009LYO10138/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La simulation numérique de systèmes d’équations différentielles raides ordinaires ou algébriques est devenue partie intégrante dans le processus de conception des systèmes mécaniques à dynamiques complexes. L’objet de ce travail est de développer des méthodes numériques pour réduire les temps de calcul par le parallélisme en suivant deux axes : interne à l’intégrateur numérique, et au niveau de la décomposition de l’intervalle de temps. Nous montrons l’efficacité limitée au nombre d’étapes de la parallélisation à travers les méthodes de Runge-Kutta et DIMSIM. Nous développons alors une méthodologie pour appliquer le complément de Schur sur le système linéarisé intervenant dans les intégrateurs par l’introduction d’un masque de dépendance construit automatiquement lors de la mise en équations du modèle. Finalement, nous étendons le complément de Schur aux méthodes de type "Krylov Matrix Free". La décomposition en temps est d’abord vue par la résolution globale des pas de temps dont nous traitons la parallélisation du solveur non-linéaire (point fixe, Newton-Krylov et accélération de Steffensen). Nous introduisons les méthodes de tirs à deux niveaux, comme Parareal et Pita dont nous redéfinissons les finesses de grilles pour résoudre les problèmes raides pour lesquels leur efficacité parallèle est limitée. Les estimateurs de l’erreur globale, nous permettent de construire une extension parallèle de l’extrapolation de Richardson pour remplacer le premier niveau de calcul. Et nous proposons une parallélisation de la méthode de correction du résidu
This PhD Thesis deals with the development of parallel numerical methods for solving Ordinary and Algebraic Differential Equations. ODE and DAE are commonly arising when modeling complex dynamical phenomena. We first show that the parallelization across the method is limited by the number of stages of the RK method or DIMSIM. We introduce the Schur complement into the linearised linear system of time integrators. An automatic framework is given to build a mask defining the relationships between the variables. Then the Schur complement is coupled with Jacobian Free Newton-Krylov methods. As time decomposition, global time steps resolutions can be solved by parallel nonlinear solvers (such as fixed point, Newton and Steffensen acceleration). Two steps time decomposition (Parareal, Pita,...) are developed with a new definition of their grids to solved stiff problems. Global error estimates, especially the Richardson extrapolation, are used to compute a good approximation for the second grid. Finally we propose a parallel deferred correction
38

Lenain, Roland. "Amélioration des méthodes de calcul de cœurs de réacteurs nucléaires dans APOLLO3 : décomposition de domaine en théorie du transport pour des géométries 2D et 3D avec une accélération non linéaire par la diffusion". Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112180/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce travail de thèse est consacré à la mise en œuvre d’une méthode de décomposition de domaine appliquée à l’équation du transport. L’objectif de ce travail est l’accès à des solutions déterministes haute-fidélité permettant de correctement traiter les hétérogénéités des réacteurs nucléaires, pour des problèmes dont la taille varie d’un motif d’assemblage en 3 dimensions jusqu’à celle d’un grand cœur complet en 3D. L’algorithme novateur développé au cours de la thèse vise à optimiser l’utilisation du parallélisme et celle de la mémoire. La démarche adoptée a aussi pour but la diminution de l’influence de l’implémentation parallèle sur les performances. Ces objectifs répondent aux besoins du projet APOLLO3, développé au CEA et soutenu par EDF et AREVA, qui se doit d’être un code portable (pas d’optimisation sur une architecture particulière) permettant de réaliser des modélisations haute-fidélité (best estimate) avec des ressources allant des machines de bureau aux calculateurs disponibles dans les laboratoires d’études. L’algorithme que nous proposons est un algorithme de Jacobi Parallèle par Bloc Multigroupe. Chaque sous domaine est un problème multigroupe à sources fixes ayant des sources volumiques (fission) et surfaciques (données par les flux d’interface entre les sous domaines). Le problème multigroupe est résolu dans chaque sous domaine et une seule communication des flux d’interface est requise par itération de puissance. Le rayon spectral de l’algorithme de résolution est rendu comparable à celui de l’algorithme de résolution classique grâce à une méthode d’accélération non linéaire par la diffusion bien connue nommée Coarse Mesh Finite Difference. De cette manière une scalabilité idéale est atteignable lors de la parallélisation. L’organisation de la mémoire, tirant parti du parallélisme à mémoire partagée, permet d’optimiser les ressources en évitant les copies de données redondantes entre les sous domaines. Les architectures de calcul à mémoire distribuée sont rendues accessibles par un parallélisme hybride qui combine le parallélisme à mémoire partagée et à mémoire distribuée. Pour des problèmes de grande taille, ces architectures permettent d’accéder à un plus grand nombre de processeurs et à la quantité de mémoire nécessaire aux modélisations haute-fidélité. Ainsi, nous avons réalisé plusieurs exercices de modélisation afin de démontrer le potentiel de la réalisation : calcul de cœur et de motifs d’assemblages en 2D et 3D prenant en compte les contraintes de discrétisation spatiales et énergétiques attendues
This thesis is devoted to the implementation of a domain decomposition method applied to the neutron transport equation. The objective of this work is to access high-fidelity deterministic solutions to properly handle heterogeneities located in nuclear reactor cores, for problems’ size ranging from colorsets of assemblies to large reactor cores configurations in 2D and 3D. The innovative algorithm developed during the thesis intends to optimize the use of parallelism and memory. The approach also aims to minimize the influence of the parallel implementation on the performances. These goals match the needs of APOLLO3 project, developed at CEA and supported by EDF and AREVA, which must be a portable code (no optimization on a specific architecture) in order to achieve best estimate modeling with resources ranging from personal computer to compute cluster available for engineers analyses. The proposed algorithm is a Parallel Multigroup-Block Jacobi one. Each subdomain is considered as a multi-group fixed-source problem with volume-sources (fission) and surface-sources (interface flux between the subdomains). The multi-group problem is solved in each subdomain and a single communication of the interface flux is required at each power iteration. The spectral radius of the resolution algorithm is made similar to the one of a classical resolution algorithm with a nonlinear diffusion acceleration method: the well-known Coarse Mesh Finite Difference. In this way an ideal scalability is achievable when the calculation is parallelized. The memory organization, taking advantage of shared memory parallelism, optimizes the resources by avoiding redundant copies of the data shared between the subdomains. Distributed memory architectures are made available by a hybrid parallel method that combines both paradigms of shared memory parallelism and distributed memory parallelism. For large problems, these architectures provide a greater number of processors and the amount of memory required for high-fidelity modeling. Thus, we have completed several modeling exercises to demonstrate the potential of the method: 2D full core calculation of a large pressurized water reactor and 3D colorsets of assemblies taking into account the constraints of space and energy discretization expected for high-fidelity modeling
39

Stauffert, Maxime. "Simulation numérique d'écoulements compressibles complexes par des méthodes de type Lagrange-projection : applications aux équations de Saint-Venant". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLV045/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
On étudie dans le cadre de la thèse une famille de schémas numériques permettant de résoudre les équations de Saint-Venant. Ces schémas utilisent une décomposition d'opérateur de type Lagrange-projection afin de séparer les ondes de gravité et les ondes de transport. Un traitement implicite du système acoustique (relié aux ondes de gravité) permet aux schémas de rester stable avec de grands pas de temps. La correction des flux de pression rend possible l'obtention d'une solution approchée précise quel que soit le régime d'écoulement vis-à-vis du nombre de Froude. Une attention toute particulière est portée sur le traitement du terme source qui permet la prise en compte de l'influence de la topographie. On obtient notamment la propriété dite équilibre permettant de conserver exactement certains états stationnaires, appelés état du "lac au repos". Des versions 1D et 2D sur maillages non-structurés de ces méthodes ont été étudiées et implémentées dans un cadre volumes finis. Enfin, une extension vers des méthodes ordres élevés Galerkin discontinue a été proposée en 1D avec des limiteurs classiques ainsi que combinée avec une boucle MOOD de limitation a posteriori
In this thesis we study a family of numerical schemes solving the shallow water equations system. These schemes use a Lagrange-projection like splitting operator technique in order to separate the gravity waves and the transport waves. An implicit-explicit treatment of the acoustic system (linked to the gravity waves) allows the schemes to stay stable with large time step. The correction of the pressure fluxes enables the obtain of a precise approximation solution whatever the regime flow is with respect to the Froude number. A particular attention has been paid over the source term treatment which permits to take the topography into account. We especially obtain the so-called well-balanced property giving the exact conservation of some steady states, namely the "lake at rest" state. 1D and 2D versions of this methods have been studied and implemented in the finite volumes framework. Finally, a high order discontinuous Galerkin extension has been proposed in 1D with classical limiters along with a combined MOOD loop a posteriori limiting strategy
40

Labiod, Lazhar. "Contribution au formalisme relationnel des classifications simultanées de deux ensembles". Paris 6, 2008. http://www.theses.fr/2008PA066461.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Zepeda, Salvatierra Joaquin. "Nouvelles méthodes de représentations parcimonieuses ; application à la compression et l'indexation d'images". Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00567851.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Une nouvelle structure de dictionnaire adaptés aux décompositions itératives de type poursuite, appelée un Iteration-Tuned Dictionary (ITD), est présentée. Les ITDs sont structurés en couche, chaque couche se composant d'un ensemble de dictionnaires candidats. Les décompositions itératives basées ITD sont alors réalisées en sélectionnant, à chaque itération i, l'un des dictionnaires de la i-ième couche. Une structure générale des ITDs est proposée, ainsi qu'une variante structurée en arbre appelée Tree-Structured Iteration-Tuned Dictionary (TSITD) et une version contrainte de cette dernière, appelée Iteration-Tuned and Aligned Dictionary (ITAD). Ces structures sont comparées à plusieurs méthodes de l'état de l'art et évaluées dans des applications de débruitage et de compression d'images. Un codec basé sur le schéma ITAD est également présenté et comparé à JPEG2000 dans des évaluations qualitatives et quantitatives. Dans le contexte de l'indexation d'images, un nouveau système de recherche approximative des plus proches voisins est également introduit, qui utilise les représentations parcimonieuses pour réduire la complexité de la recherche. La méthode traite l'instabilité dans la sélection des atomes lorsque l'image est soumise à de faibles transformations affines. Un nouveau système de conditionnement des données est également introduit, permettant de mieux distribuer les données sur la sphère unitaire tout en préservant leurs distances angulaires relatives. Il est montré que cette méthode améliore le compromis complexité/performance de la recherche approximative basée décompositions parcimonieuses.
42

Niang, Oumar. "Décomposition Modale Empirique : Contribution à la Modélisation Mathématique et Application en Traitement du Signal et de l'Image". Phd thesis, Université Paris XII Val de Marne, 2007. http://tel.archives-ouvertes.fr/tel-00878354.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
La Décomposition Modale Empirique (EMD), est une méthode de décomposition multi-résolution de signaux en fonctions Modes Intrinsèques (IMF) et cela, de manière auto-adaptative. En la couplant avec la transformée de Hilbert, elle devient une méthode d'analyse Temps-Fréquence , la transformée de Hilbert-Huang, permettant d'étudier bon nombre de classes de signaux. Malgré ces nombreuses applications, l'une des plus importantes limites de l'EMD est son manque de formalisme mathématique. A la place d'une interpolation par splines cubiques utilisée dans l'EMD classique, nous avons estimé l'enveloppe moyenne par une solution d'un système d'EDP. Par une méthode variationnelle, nous avons établi un cadre théorique pour prouver les résultats de convergence, d'existence de modes et la propriété de presque orthogonalité de l'EMD. La comparaison avec des bancs de filtres itératifs et les ondelettes, montre l'aspect multi-résolution de l'EMD. Deux nouvelles applications en traitement du signal et de l'image sont présentées : l'extraction des intermittences et mode mixing et la restauration par shrinkage par EMD. Enfin le modèle peut servir de base pour l'étude de l'unicité de la décomposition.
43

Szydlarski, Mikolaj. "Algebraic Domain Decomposition Methods for Darcy flow in heterogeneous media". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00550728.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Afin de répondre aux besoins de l'industrie pétrolière d'une description plus fine de la géométrie et des propriétés pétrophysiques des bassins et des réservoirs, la simulation numérique des écoulements en milieux poreux doit évoluer vers des algorithmes plus performants et plus robustes vis à vis de la taille des simulations, de la complexité des maillages et des hétérogénéités du milieu poreux. Les méthodes de décomposition de domaine constituent une alternative aux méthodes multigrilles et pourraient permettre de lever les difficultés précédentes en terme de robustesse et d'efficacité sur architectures parallèles. Elles sont par nature plus adaptées au calcul parallèle et sont plus robustes en particulier lorsque les sous domaines sont résolus par des méthodes directes. Elles permettent aussi de traiter dans un cadre unique les couplages de modèles comme les puits ou les failles conductrices et s'étendent au cas des systèmes couplés. Le travail de thèse traite plus particulièrement de méthodes définies au niveau algébrique. On ne suppose pas avoir une connaissance préalable du problème continu dont la matrice provient. On n'a pas non plus accés aux matrices avant assemblage. Ce manque d'informations a priori rend plus difficile la construction de méthodes efficaces. On propose deux nouvelles méthodes de construction de méthodes de décomposition de domaine au niveau algébrique: la construction de conditions d'interface optimisées et d'une grille grossière. Ce dernier point est particulièrement important pour avoir des méthodes robustes vis à vis du nombre des sous-domaines. Les méthodes sont adaptatives et basées sur l'analyse de l'espace de Krylov généré durant les premières itérations de la méthode de Schwarz classique. A partir des vecteurs de Ritz correspondant aux plus basses valeurs propres, on construit des conditions d'interface et des grilles grossières qui annihilent l'erreur sur ces composantes. Les méthodes ont été testées sur des calculateurs parallèles pour des matrices issues de la simulation de milieux poreux.
44

Ali, Hassan Sarah. "Estimations d'erreur a posteriori et critères d'arrêt pour des solveurs par décomposition de domaine et avec des pas de temps locaux". Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066098/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Cette thèse développe des estimations d’erreur a posteriori et critères d’arrêt pour les méthodes de décomposition de domaine avec des conditions de transmission de Robin optimisées entre les interfaces. Différents problèmes sont considérés: l’équation de Darcy stationnaire puis l’équation de la chaleur, discrétisées par les éléments finis mixtes avec un schéma de Galerkin discontinu de plus bas degré en temps pour le second cas. Pour l’équation de la chaleur, une méthode de décomposition de domaine globale en temps, avec mêmes ou différents pas de temps entre les différents sous domaines, est utilisée. Ce travail est finalement étendu à un modèle diphasique en utilisant une méthode de volumes finis centrés par maille en espace. Pour chaque modèle, un problème d’interface est résolu itérativement, où chaque itération nécessite la résolution d’un problème local dans chaque sous-domaine, et les informations sont ensuite transmises aux sous-domaines voisins. Pour les modèles instationnaires, les problèmes locaux dans les sous-domaines sont instationnaires et les données sont transmises par l’interface espace-temps. L’objectif de ce travail est, pour chaque modèle, de borner l’erreur entre la solution exacte et la solution approchée à chaque itération de l’algorithme de décomposition de domaine. Différentes composantes d’erreur en jeu de la méthode sont identifiées, dont celle de l’algorithme de décomposition de domaine, de façon à définir un critère d’arrêt efficace pour cette méthode. En particulier, pour l’équation de Darcy stationnaire, on bornera l’erreur par un estimateur de décomposition de domaine ainsi qu’un estimateur de discrétisation en espace. On ajoutera à la borne de l’erreur un estimateur de discrétisation en temps pour l’équation de la chaleur et pour le modèle diphasique. L’estimation a posteriori répose sur des techniques de reconstructions de pressions et de flux conformes respectivement dans les espaces H1 et H(div) et sur la résolution de problèmes locaux de Neumann dans des bandes autour des interfaces de chaque sous-domaine pour les flux. Ainsi, des critères pour arrêter les itérations de l’algorithme itératif de décomposition de domaine sont développés. Des simulations numériques pour des problèmes académiques ainsi qu’un problème plus réaliste basé sur des données industrielles sont présentées pour illustrer l’efficacité de ces techniques. En particulier, différents pas de temps entre les sous-domaines sont considérés pour cet exemple
This work contributes to the developpement of a posteriori error estimates and stopping criteria for domain decomposition methods with optimized Robin transmission conditions on the interface between subdomains. We study several problems. First, we tackle the steady diffusion equation using the mixed finite element subdomain discretization. Then the heat equation using the mixed finite element method in space and the discontinuous Galerkin scheme of lowest order in time is investigated. For the heat equation, a global-in-time domain decomposition method is used for both conforming and nonconforming time grids allowing for different time steps in different subdomains. This work is then extended to a two-phase flow model using a finite volume scheme in space. For each model, the multidomain formulation can be rewritten as an interface problem which is solved iteratively. Here at each iteration, local subdomain problems are solved, and information is then transferred to the neighboring subdomains. For unsteady problems, the subdomain problems are time-dependent and information is transferred via a space-time interface. The aim of this work is to bound the error between the exact solution and the approximate solution at each iteration of the domain decomposition algorithm. Different error components, such as the domain decomposition error, are identified in order to define efficient stopping criteria for the domain decomposition algorithm. More precisely, for the steady diffusion problem, the error of the domain decomposition method and that of the discretization in space are estimated separately. In addition, the time error for the unsteady problems is identified. Our a posteriori estimates are based on the reconstruction techniques for pressures and fluxes respectively in the spaces H1 and H(div). For the fluxes, local Neumann problems in bands arround the interfaces extracted from the subdomains are solved. Consequently, an effective criterion to stop the domain decomposition iterations is developed. Numerical experiments, both academic and more realistic with industrial data, are shown to illustrate the efficiency of these techniques. In particular, different time steps in different subdomains for the industrial example are used
45

Clautiaux, François. "New collaborative approaches for bin-packing problems". Habilitation à diriger des recherches, Université de Technologie de Compiègne, 2010. http://tel.archives-ouvertes.fr/tel-00749419.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce document décrit de nouvelles modélisations et approches de résolution que nous appliquons à des problèmes de découpe et de conditionnement. Nous étudions dans un premier temps plusieurs techniques de décomposition alliées à différentes méta-heuristiques basées sur des stratégies d'oscillation. Nous étudions ensuite le concept de fonctions dual-réalisables qui permettent d'obtenir des évaluations par défaut polynomiales pour des problèmes de conditionnement. Finalement, nous proposons des modèles originaux pour des problèmes de placement de rectangles. Nous utilisons ces modèles dans des méthodes de programmation par contraintes.
46

Garcia, Arias Jenny. "Disparités de mortalité par causes en Amérique latine : l'hypothèse du «biais urbain»". Thesis, Paris 1, 2020. http://www.theses.fr/2020PA01H014.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
En 1977, Michael Lipton a présenté le concept de biais urbain comme cadre pour comprendre comment la plupart des politiques macroéconomique et microéconomique ont profité au surdéveloppement des zones urbaines et au sous développement des zones rurales. En Amérique latine, l'urbanisation et la baisse de la mortalité ont historiquement été positivement liées : la transition sanitaire dans la région a été amorcée dans les principales villes et s'est poursuivit plus rapidement dans les pays à urbanisation plus élevée. Cette recherche s'inscrit dans ce cadre et cherche des preuves sur : la persistance d'un avantage urbain dans la mortalité ; et des traces d'un « biais urbain » dans les schémas des causes de décès. En utilisant un échantillon de pays d'Amérique latine sur la période 2000-2010, j'applique des méthodes de décomposition de l'espérance de vie pour analyser les disparités dans les schémas de mortalité et les causes de décès lorsque les zones urbaines et rurales sont considérées séparément. En définissant l'urbain comme une catégorie de continuum au lieu d'un concept dichotomique, trois groupes spatiaux sont reconnaissables dans chaque pays. Les pays analysés sont le Brésil, le Chili, la Colombie, l'Équateur, le Mexique, le Pérou et le Venezuela. Les résultats indiquent que l'avantage urbain est persistant et que les écarts de mortalité entre les zones rurales et urbaines ont toujours favorisé les villes. Cet avantage urbain en matière de mortalité résulte de la baisse des taux de de décès par cause qui se prêtent à des interventions primaires rendues possibles par l'existence d'infrastructures publiques de base ainsi que par la fourniture de biens et services de base
In 1977, Michael Lipton introduced the Urban Bias Thesis as a framework for understanding how most macro- and microeconomic policy initiatives have historically benefited the over-development of urban areas and the underdevelopment of rural areas. In Latin America, urbanization and mortality decline have historically been positively related: the health transition in the region has been initiated in the main cities and has tended to proceed more rapidly in countries with higher levels of urbanization. This research looks for evidence on: the persistence of an urban advantage in mortality; and traces of an "urban bias" in the causes of death patterns in the region. Using a sample of Latin American countries over the period 2000-2010, I apply decomposition methods on life expectancy at birth to analyze the disparities in mortality patterns and causes of death when urban and rural areas are considered separately. Urban is defined as a continuum category instead of a dichotomous concept. Hence, three types of spatial groups are recognizable in each country. The countries under analysis are Brazil, Chile, Colombia, Ecuador, Mexico, Peru and Venezuela. The results indicate that the urban advantage is persistent and that rural-urban mortality differentials have consistently favored cities. This advantage in mortality comes as an outcome of lower rates for causes of death that are amenable to primary interventions, meaning they are made amenable by the existence of basic public infrastructures as well as by the provision of basic goods and services
47

Xing, Feng. "Méthode de décomposition de domaines pour l’équation de Schrödinger". Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10127/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce travail de thèse porte sur le développement et la mise en oeuvre des méthodes de décomposition de domaines (DD) pour les équations de Schrödinger linéaires ou non-linéaires en une ou deux dimensions d'espace. Dans la première partie, nous considérons la méthode de relaxation d'ondes de Schwarz (SWR) pour l'équation de Schrödinger en une dimension. Dans le cas où le potentiel est linéaire et indépendant du temps, nous proposons un nouvel algorithme qui est scalable et permet une forte réduction du temps de calcul comparativement à l'algorithme classique. Pour un potentiel général, nous utilisons un opérateur linéaire préalablement défini comme un préconditionneur. Cela permet d'assurer une forte scalabilité. Nous généralisons également les travaux de Halpern et Szeftel sur la condition de transmission en utilisant des conditions absorbantes construites récemment par Antoine, Besse et Klein. Par ailleurs, nous portons les codes développés sur Cpu sur des accélérateurs Gpu. La deuxième partie concerne les méthodes DD pour l'équation de Schrödinger en deux dimensions. Nous généralisons le nouvel algorithme et l'algorithme avec préconditionneur proposés au cas de la dimension deux. Dans le chapitre 6, nous généralisons les travaux de Loisel sur la méthode de Schwarz optimisée avec points de croisement pour l'équation de Laplace, qui conduit à la méthode SWR avec points de croisement. Dans la dernière partie, nous appliquons les méthodes DD que nous avons étudiées à la simulation de condensat de Bose-Einstein qui permettent de diminuer le temps de calcul, mais aussi de réaliser des simulations plus grosses
This thesis focuses on the development and implementation of domain decomposition methods (DD) for the linear or non-linear Schrödinger equations in one or two dimensions. In the first part, we focus on the Schwarz waveform relaxation method (SWR) for the one dimensional Schrödinger equation. In the case the potential is linear and time-independent, we propose a new algorithm that is scalable and allows a significant reduction of computation time compared with the classical algorithm. For a general potential, we use a linear operator previously defined as a preconditioner. This ensures high scalability. We also generalize the work of Halpern and Szeftel on transmission condition. We use the absorbing boundary conditions recently constructed by Antoine, Besse and Klein as the transmission condition. We also adapt the codes developed originally on Cpus to the Gpu. The second part concerns with the methods DD for the Schrödinger equation in two dimensions. We generalize the new algorithm and the preconditioned algorithm proposed in the first part to the case of two dimensions. Furthermore, in Chapter 6, we generalize the work of Loisel on the optimized Schwarz method with cross points for the Laplace equation, which leads to the SWR method with cross points. In the last part, we apply the domain decomposition methods we studied to the simulation of Bose-Einstein condensate that could not only reduce the total computation time, but also realise the larger simulations
48

Machui, Jürgen. "Simulation magnétostatique de têtes magnétiques en 3D par décomposition du domaine". Paris 11, 1988. http://www.theses.fr/1988PA112055.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Ce travail porte sur la simulation de têtes magnétiques de structure planaire. Il se situe dans le contexte du développement industriel de cette tête. La méthode des éléments finis et un potentiel réduit sont utilisés pour les calculs tridimensionnels des équations magnétostatiques. Le problème particulier aux têtes magnétiques réside dans les énormes différences d'échelles entre l'entrefer et la tête entière. Il est résolu par un algorithme itératif de décomposition du domaine pour têtes symétriques, qui converge très rapidement. Le problème non-linéaire de la saturation demande une résolution avec une méthode de Newton-Raphson. L'algorithme de décomposition est également très efficace pour ce type de problèmes
This work concerns the simulation of planar magnetic recording heads in the context of its industrial development. Finite elements and reduced potential are used for the 3D calculation of the magnetostatic problem. The particular difficulty of magnetic recording heads lies in the enormous difference in scale between the gap and the whole head. We resolve this difficulty using an iteratif algorithm for domain decomposition for symmetrical heads that converges very rapidly. The non-linear saturation problem can be resolved using the Newton-Raphson method. Our decomposition algorithm is equally efficient for this kind of problem
49

Ouali, Abdelkader. "Méthodes hybrides parallèles pour la résolution de problèmes d'optimisation combinatoire : application au clustering sous contraintes". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMC215/document.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Resumen
Les problèmes d’optimisation combinatoire sont devenus la cible de nombreuses recherches scientifiques pour leur importance dans la résolution de problèmes académiques et de problèmes réels rencontrés dans le domaine de l’ingénierie et dans l’industrie. La résolution de ces problèmes par des méthodes exactes ne peut être envisagée à cause des délais de traitement souvent exorbitants que nécessiteraient ces méthodes pour atteindre la (les) solution(s) optimale(s). Dans cette thèse, nous nous sommes intéressés au contexte algorithmique de résolution des problèmes combinatoires, et au contexte de modélisation de ces problèmes. Au niveau algorithmique, nous avons appréhendé les méthodes hybrides qui excellent par leur capacité à faire coopérer les méthodes exactes et les méthodes approchées afin de produire rapidement des solutions. Au niveau modélisation, nous avons travaillé sur la spécification et la résolution exacte des problématiques complexes de fouille des ensembles de motifs en étudiant tout particulièrement le passage à l’échelle sur des bases de données de grande taille. D'une part, nous avons proposé une première parallélisation de l'algorithme DGVNS, appelée CPDGVNS, qui explore en parallèle les différents clusters fournis par la décomposition arborescente en partageant la meilleure solution trouvée sur un modèle maître-travailleur. Deux autres stratégies, appelées RADGVNS et RSDGVNS, ont été proposées qui améliorent la fréquence d'échange des solutions intermédiaires entre les différents processus. Les expérimentations effectuées sur des problèmes combinatoires difficiles montrent l'adéquation et l'efficacité de nos méthodes parallèles. D'autre part, nous avons proposé une approche hybride combinant à la fois les techniques de programmation linéaire en nombres entiers (PLNE) et la fouille de motifs. Notre approche est complète et tire profit du cadre général de la PLNE (en procurant un haut niveau de flexibilité et d’expressivité) et des heuristiques spécialisées pour l’exploration et l’extraction de données (pour améliorer les temps de calcul). Outre le cadre général de l’extraction des ensembles de motifs, nous avons étudié plus particulièrement deux problèmes : le clustering conceptuel et le problème de tuilage (tiling). Les expérimentations menées ont montré l’apport de notre proposition par rapport aux approches à base de contraintes et aux heuristiques spécialisées
Combinatorial optimization problems have become the target of many scientific researches for their importance in solving academic problems and real problems encountered in the field of engineering and industry. Solving these problems by exact methods is often intractable because of the exorbitant time processing that these methods would require to reach the optimal solution(s). In this thesis, we were interested in the algorithmic context of solving combinatorial problems, and the modeling context of these problems. At the algorithmic level, we have explored the hybrid methods which excel in their ability to cooperate exact methods and approximate methods in order to produce rapidly solutions of best quality. At the modeling level, we worked on the specification and the exact resolution of complex problems in pattern set mining, in particular, by studying scaling issues in large databases. On the one hand, we proposed a first parallelization of the DGVNS algorithm, called CPDGVNS, which explores in parallel the different clusters of the tree decomposition by sharing the best overall solution on a master-worker model. Two other strategies, called RADGVNS and RSDGVNS, have been proposed which improve the frequency of exchanging intermediate solutions between the different processes. Experiments carried out on difficult combinatorial problems show the effectiveness of our parallel methods. On the other hand, we proposed a hybrid approach combining techniques of both Integer Linear Programming (ILP) and pattern mining. Our approach is comprehensive and takes advantage of the general ILP framework (by providing a high level of flexibility and expressiveness) and specialized heuristics for data mining (to improve computing time). In addition to the general framework for the pattern set mining, two problems were studied: conceptual clustering and the tiling problem. The experiments carried out showed the contribution of our proposition in relation to constraint-based approaches and specialized heuristics
50

Zeraidi, Bubakr. "Méthode de décomposition en sous-domaines, approximation par volumes finis et implémentation sur machines parallèles". Aix-Marseille 1, 1998. http://www.theses.fr/1998AIX11064.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.

Pasar a la bibliografía