To see the other types of publications on this topic, follow the link: Méthodes de Gradient Inertiel.

Dissertations / Theses on the topic 'Méthodes de Gradient Inertiel'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthodes de Gradient Inertiel.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Monnet, Tony. "Contribution à l'identification des paramètres inertiels des segments du corps humain." Phd thesis, Université de Poitiers, 2007. http://tel.archives-ouvertes.fr/tel-00202452.

Full text
Abstract:
La détermination des paramètres inertiels des différents segments constituants le corps humain est un problème récurrent et très actuel de la biomécanique. Les méthodes classiques déterminent ces paramètres par des équations de régression (modèles de Zatsiorsky, Dempster...) ou en modélisant les segments par des formes géométriques simples (modèles d'Hanavan, de Hatze...). Les techniques d'imagerie permettent également d'obtenir ces paramètres mais ces méthodes sont peu accessibles et très onéreuses. Des problèmes similaires d'estimation des paramètres inertiels se posent pour les robots manipulateurs. Aux méthodes classiques de C.A.O. ou de mesure, les roboticiens ont proposé des méthodes d'identification. Celles-ci consistent à calculer les paramètres inertiels à partir d'un système sur-déterminé dans lequel les paramètres inertiels apparaissent linéairement. La transposition de la méthode d'identification au système polyarticulé que constitue le corps humain nécessite de développer un « modèle de réaction externe » dans lequel la cinématique des segments et les forces externes au système interviennent. En effet, alors que pour les robots manipulateurs les efforts articulaires (entre les segments) sont connus, ils ne peuvent pas être connus directement pour le corps humain et seuls les efforts externes peuvent être mesurés directement (par une plate-forme de forces par exemple). L'originalité de la thèse est de présenter une formulation matricielle des équations du mouvement dans laquelle les efforts externes sont regroupés dans une matrice antisymétrique et les paramètres inertiels sont contenus dans une matrice (3n+1×3n+1) symétrique et définie positive (n est le nombre de segments). Un algorithme de gradient conjugué projeté est ensuite développé afin de déterminer cette matrice. L'algorithme converge vers une matrice symétrique et définie positive à partir de données provenant de la cinématique des segments et des efforts externes.
Plusieurs applications de cette méthode ont été réalisées et publiées. Les premières concernent la validation de la méthode d'identification à partir de mouvements simulés obtenus à l'aide du logiciel HuMAnS (INRIA). Cette application a permis de mettre en évidence l'importance de connaître précisément les centres articulaires afin de déterminer les paramètres inertiels. Les autres applications ont été menées in vivo et les paramètres inertiels des segments du membre supérieur ont ainsi été déterminés et comparés à des modélisations classiques. La méthode d'identification permet d'obtenir les paramètres inertiels personnalisés et constitue ainsi une alternative très intéressante aux modélisations classiques particulièrement dans le cas d'études incluant des populations particulières (sportifs « hors normes », obèses, handicapés) pour lesquelles aucun modèle n'est adapté.
APA, Harvard, Vancouver, ISO, and other styles
2

Ayad, Mohammad. "Homogenization-based, higher-gradient dynamical response of micro-structured media." Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0062.

Full text
Abstract:
Une approche dynamique discrète (DDM) est proposée dans le contexte de la mécanique des poutres pour calculer les caractéristiques de dispersion des structures périodiques. Cette démarche permet de calculer les caractéristiques de dispersion de milieux périodiques unidimensionnels et bidimensionnels. Il est montré qu’un développement d'ordre supérieur suffisamment élevé des forces et des moments d’éléments structuraux est nécessaire pour décrire avec précision les modes de propagation d’ordre supérieur. Ces résultats montrent dans l’ensemble que les calculs des caractéristiques de dispersion de systèmes structurels périodiques peuvent être abordés avec une bonne précision par la dynamique des éléments discrets. Les comportements non classiques peuvent être capturés non seulement par une expansion d'ordre supérieur mais aussi par des formulations à gradient supérieur. Nous calculons ainsi les paramètres constitutifs macroscopiques jusqu'au deuxième gradient du déplacement en utilisant deux formulations différentes, soit selon une méthode d'homogénéisation dynamique à gradient supérieur (DHGE) prenant en compte les effets de micro-inertie, ou alternativement selon le principe de Hamilton. Nous analysons ensuite la sensibilité des termes constitutifs du second gradient aux paramètres microstructuraux pour des matériaux composites à microstructure périodique de type laminés. En plus, on montre que les modèles du deuxième gradient formulés à partir de l'énergie interne totale en tenant compte des termes de gradient d'ordre supérieur donnent la meilleure description du propagation d’onde à travers ces milieux. On analyse les contributions d'ordre supérieur et de micro-inertie sur le comportement mécanique de structures composites en utilisant une méthode d'homogénéisation dynamique d'ordre supérieur qui intègre les effets de micro-inertie. Nous calculons la réponse effective statique longitudinale à gradient d’ordre supérieur, en quantifiant la différence relative par rapport à la formulation classique de type Cauchy qui repose sur le premier gradient du déplacement. Nous analysons ensuite les propriétés de propagation d’ondes longitudinales en termes de fréquence propre de composites, en tenant compte de la contribution de la micro-inertie. La longueur interne joue un rôle crucial dans les contributions de micro-inertie avec un effet substantiel pour les faibles valeurs de longueur interne, et qui correspond à une large gamme de matériaux utilisés en ingénierie des structures. La méthode d’homogénéisation développée montre un effet de taille important pour les modules élastiques homogénéisés d’ordre supérieur. Par conséquent, nous développons une formulation indépendante de la taille qui est basée sur des termes de correction liée aux moment quadratique. Dans ce contexte, on analyse l’influence des termes de correction sur le comportement statique et dynamique de composites à inclusion
A discrete dynamic approach (DDM) is developed in the context of beam mechanics to calculate the dispersion characteristics of periodic structures. Subsequently, based on this dynamical beam formulation, we calculate the dispersion characteristics of one-dimensional and two-dimensional periodic media. A sufficiently high order development of the forces and moments of the structural elements is necessary to accurately describe the propagation modes of higher order. These results show that the calculations of the dispersion characteristics of structural systems can be approached with good accuracy by the dynamics of the discrete elements. Besides, non-classical behaviors can be captured not only by higher order expansion but also by higher gradient formulations. To that scope, we develop a higher gradient dynamic homogenization method with micro-inertia effects. Using this formulation, we compute the macroscopic constitutive parameters up to the second gradient, using two distinct approaches, namely Hamilton’s principle and a total internal energy formulation. We analyze the sensitivity of the second gradient constitutive terms on the inner material and geometric parameters for the case of composite materials made of a periodic, layered microstructure. Moreover, we show that the formulations based on the total internal energy taking into account higher order gradient terms give the best description of wave propagation through the composite. We analyze the higher order and micro-inertia contributions on the mechanical behavior of composite structures by calculating the effective static and dynamic properties of composite beams using a higher order dynamic homogenization method. We compute the effective longitudinal static response with higher order gradient, by quantifying the relative difference compared to the classical formulation of Cauchy type, which is based on the first gradient of displacement. We then analyze the propagation properties of longitudinal waves in terms of the natural frequency of composite structural elements, taking into account the contribution of micro-inertia. The internal length plays a crucial role in the contributions of micro-inertia, which is particularly significant for low internal length values, therefore for a wide range of materials used in structural engineering. The developed method shows an important size effect for the higher gradients, and to remove these effects correction terms have been incorporated which are related to the quadratic moment of inertia. We analyze in this context the influence of the correction terms on the static and dynamic behavior of composites with a central inclusion
APA, Harvard, Vancouver, ISO, and other styles
3

Gaujour, Etienne. "Evaluation des sources d'espèces et des déterminants de la diversité végétale des parcelles agricoles : interchamps, stock semencier, pratiques agricoles et paysage de l'Installation Expérimentale Inra ASTER Mirecourt." Thesis, Vandoeuvre-les-Nancy, INPL, 2010. http://www.theses.fr/2010INPL020N/document.

Full text
Abstract:
L'un des moyens pour faire face à la réduction de l'utilisation d'intrants de synthèse est de favoriser durablement les services agro-écologiques de la diversité végétale. Pour cela, l'agriculteur devra adapter ses modes de gestion. Ma thèse s'inscrit dans l'objectif finalisé d'apporter à l'agriculteur, de l'aide à la gestion de cette diversité végétale sur le territoire de son exploitation. Je me suis fixé 2 objectifs de recherche : i) vérifier si les interchamps et le stock semencier constituent des sources d'espèces pour le centre des parcelles agricoles et ii) quantifier l'influence de la dynamique de deux grands groupes de facteurs, représentée sous la forme de trajectoires de parcelles, sur la diversité végétale : les pratiques agricoles et les caractéristiques de la mosaïque paysagère.J'ai mené ce travail sur l'ensemble du parcellaire de l'Installation Expérimentale de l'Inra ASTER Mirecourt, dont les systèmes de production (polyculture-élevage bovin laitier) sont convertis à l'agriculture biologique depuis 2004. J'ai caractérisé la végétation - en place dans les interchamps et au centre des parcelles, et dans le stock semencier - des parcelles en prairies permanentes et en champs cultivés selon deux approches complémentaires : taxonomique au rang de l'espèce et fonctionnelle à partir de sept propriétés rendant compte de la dissémination, de l'établissement et de la survie des espèces végétales. J'ai caractérisé les trajectoires des parcelles, sur une durée de neuf ans, soit à partir des pratiques agricoles mises en œuvre chaque année, soit à partir des caractéristiques annuelles de la mosaïque paysagère. Cette mosaïque correspond aux différentes occupations du sol obtenues à partir de relevés de terrain ou d'enquêtes auprès des exploitants.Je montre que le stock semencier et les interchamps ne constituent pas des sources potentielles d'espèces végétales pour le centre des parcelles, champs cultivés ou prairies permanentes. En revanche, ce sont des refuges importants pour une grande partie des espèces prairiales. Au vu de mes résultats, je fais l'hypothèse que les interchamps sont des puits d'espèces adventices en champs cultivés. J'ai également mis en évidence que le gradient fonctionnel de la végétation prairiale entre la bordure et le centre s'étend jusqu'à 2 m seulement.Enfin, la diversité végétale des parcelles étudiées est principalement influencée par la trajectoire des parcelles selon les caractéristiques de la mosaïque paysagère et par les pratiques agricoles mises en œuvre durant l'année en cours. Les caractéristiques du sol ont un rôle très minoritaire. Ces trois groupes de facteurs expliquent à eux seuls plus des trois quarts de la variabilité de la composition fonctionnelle de la végétation.La gestion de la diversité végétale des parcelles agricoles d'une exploitation peut donc être menée en partie par l'agriculteur. Cependant, compte-tenu des effets de la trajectoire des parcelles selon les caractéristiques paysagères, il est nécessaire de mettre aussi en place une gestion collective de la végétation entre les différents acteurs partageant le territoire
One of the means to offset the decrease of pesticide use is to favour agro-ecological services of plant diversity. In this aim, farmer will have to adapt its farming management. My work partly answers to the following applied objective: to bring to the farmer some advices for the management of plant diversity on the farm territory. I have two scientific objectives: i) to verify if field boundaries and soil seed bank are potential sources of plant species for field centres; ii) to quantify the relative influence of dynamics of two factor groups, characterized as field paths, on plant diversity: farming practices and characteristics of landscape mosaïc.I have carried out this study on the experimental farm of INRA ASTER Mirecourt. Its farming systems (mixed crop-dairy systems) have been converted to organic farming since 2004. I have characterized vegetation - established vegetation in field boundaries and in field centres, and vegetation in the soil seed bank - of permanent grasslands and arable fields with complementary approaches: taxonomical approach based on the species, and functional approach based on seven functional properties about dispersal, establishment and persistence of plant species. I have characterized field paths, along nine years, either from farming practices set up on field, either from annual characteristics of landscape mosaïc. I have represented this landscape mosaïc as a mosaïc of distinct land-uses. All of them and their spatialization have been determined from farmer surveys or landscape observations.My results show that soil seed bank and field bboundaries are not potential sources of plant species for field centres, in both permanent grasslands and arable fields. On the other hand, they are efficient refuges for a large part of grassland species. According to my results, I hypothesize that field boudaries are species sinks in arable fields. I also highlight that functional gradient of grassland vegetation in the field edge, between field margins and field centres, is spread until 2 m only.Finally, plant diversity in studied fields is mainly influenced by field path according landscape mosaïc and by farming practices set up the same year of vegetation sampling. Soil characteristics have a minor influence. These three groups of influent factors explain more than 75 % of the functional composition variability of the vegetation in field centres.The management of plant diversity in agricultural fields of a given farm can be partly reach by the farmer. However, according to the effects of field paths about landscape mosaïc, it is necessary to set up a collective management of plant diversity with all actors sharing the studied territory
APA, Harvard, Vancouver, ISO, and other styles
4

Caruso, David. "Amélioration des méthodes de navigation vision-inertiel par exploitation des perturbations magnétiques stationnaires de l’environnement." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS133/document.

Full text
Abstract:
Cette thèse s'intéresse au problème du positionnement (position et orientation) dans un contexte de réalité augmentée et aborde spécifiquement les solutions à base de capteurs embarqués. Aujourd'hui, les systèmes de navigation vision-inertiel commencent à combler les besoins spécifiques de cette application. Néanmoins, ces systèmes se basent tous sur des corrections de trajectoire issues des informations visuelles à haute fréquence afin de pallier la rapide dérive des capteurs inertiels bas-coûts. Pour cette raison, ces méthodes sont mises en défaut lorsque l'environnement visuel est défavorable.Parallèlement, des travaux récents menés par la société Sysnav ont démontré qu'il était possible de réduire la dérive de l'intégration inertielle en exploitant le champ magnétique, grâce à un nouveau type d'UMI bas-coût composée – en plus des accéléromètres et gyromètres traditionnels – d'un réseau de magnétomètres. Néanmoins, cette méthode est également mise en défaut si des hypothèses de non-uniformité et de stationnarité du champ magnétique ne sont pas vérifiées localement autour du capteur.Nos travaux portent sur le développement d'une solution de navigation à l'estime robuste combinant toutes ces sources d'information: magnétiques, visuelles et inertielles.Nous présentons plusieurs approches pour la fusion de ces données, basées sur des méthodes de filtrage ou d’optimisation et nous développons un modèle de prédiction du champ magnétique inspiré d'approximation proposées en inertiel et permettant d’intégrer efficacement des termes magnétiques dans les méthodes d’ajustement de faisceaux. Les performances de ces différentes approches sont évaluées sur des données réelles et nous démontrons le bénéfice de la fusion de données comparées aux solutions vision-inertielles ou magnéto-inertielles. Des propriétés théoriques de ces méthodes liées à la théorie de l’invariance des estimateurs sont également étudiées
This thesis addresses the issue of positioning in 6-DOF that arises from augmented reality applications and focuses on embedded sensors based solutions.Nowadays, the performance reached by visual-inertial navigation systems is starting to be adequate for AR applications. Nonetheless, those systems are based on position correction from visual sensors involved at a relatively high frequency to mitigate the quick drift of low-cost inertial sensors. This is a problem when the visual environment is unfavorable.In parallel, recent works have shown it was feasible to leverage magnetic field to reduce inertial integration drift thanks to a new type of low-cost sensor, which includes – in addition to the accelerometers and gyrometers – a network of magnetometers. Yet, this magnetic approach for dead-reckoning fails if stationarity and non-uniformity hypothesis on the magnetic field are unfulfilled in the vicinity of the sensor.We develop a robust dead-reckoning solution combining simultaneously information from all these sources: magnetic, visual, and inertial sensor. We present several approaches to solve for the fusion problem, using either filtering or non-linear optimization paradigm and we develop an efficient way to use magnetic error term in a classical bundle adjustment that was inspired from already used idea for inertial terms. We evaluate the performance of these estimators on data from real sensors. We demonstrate the benefits of the fusion compared to visual-inertial and magneto-inertial solutions. Finally, we study theoretical properties of the estimators that are linked to invariance theory
APA, Harvard, Vancouver, ISO, and other styles
5

Maulen, Soto Rodrigo. "A dynamical system perspective οn stοchastic and iΙnertial methοds fοr optimizatiοn." Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMC220.

Full text
Abstract:
Motivé par l'omniprésence de l'optimisation dans de nombreux domaines de la science et de l'ingénierie, en particulier dans la science des données, ce manuscrit de thèse exploite le lien étroit entre les systèmes dynamiques dissipatifs à temps continu et les algorithmes d'optimisation pour fournir une analyse systématique du comportement global et local de plusieurs systèmes du premier et du second ordre, en se concentrant sur le cadre convexe, stochastique et en dimension infinie d'une part, et le cadre non convexe, déterministe et en dimension finie d'autre part. Pour les problèmes de minimisation convexe stochastique dans des espaces de Hilbert réels séparables de dimension infinie, notre proposition clé est de les analyser à travers le prisme des équations différentielles stochastiques (EDS) et des inclusions différentielles stochastiques (IDS), ainsi que de leurs variantes inertielles. Nous considérons d'abord les problèmes convexes différentiables lisses et les EDS du premier ordre, en démontrant une convergence faible presque sûre vers les minimiseurs sous hypothèse d'intégrabilité du bruit et en fournissant une analyse globale et locale complète de la complexité. Nous étudions également des problèmes convexes non lisses composites utilisant des IDS du premier ordre et montrons que, sous des conditions d'intégrabilité du bruit, la convergence faible presque sûre des trajectoires vers les minimiseurs, et avec la régularisation de Tikhonov la convergence forte presque sûre des trajectoires vers la solution de norme minimale. Nous développons ensuite un cadre mathématique unifié pour analyser la dynamique inertielle stochastique du second ordre via la reparamétrisation temporelle et le moyennage de la dynamique stochastique du premier ordre, ce qui permet d'obtenir une convergence faible presque sûre des trajectoires vers les minimiseurs et une convergence rapide des valeurs et des gradients. Ces résultats sont étendus à des EDS plus générales du second ordre avec un amortissement visqueux et Hessien, en utilisant une analyse de Lyapunov spécifique pour prouver la convergence et établir de nouveaux taux de convergence. Enfin, nous étudions des problèmes d'optimisation déterministes non convexes et proposons plusieurs algorithmes inertiels pour les résoudre, dérivés d'équations différentielles ordinaires (EDO) du second ordre combinant à la fois un amortissement visqueux sans vanité et un amortissement géométrique piloté par le Hessien, sous des formes explicites et implicites. Nous prouvons d'abord la convergence des trajectoires en temps continu des EDO vers un point critique pour des objectives vérifiant la propriété de Kurdyka-Lojasiewicz (KL) avec des taux explicites, et génériquement vers un minimum local si l'objective est Morse. De plus, nous proposons des schémas algorithmiques par une discrétisation appropriée de ces EDO et montrons que toutes les propriétés précédentes des trajectoires en temps continu sont toujours valables dans le cadre discret sous réserve d'un choix approprié de la taille du pas
Motivated by the ubiquity of optimization in many areas of science and engineering, particularly in data science, this thesis exploits the close link between continuous-time dissipative dynamical systems and optimization algorithms to provide a systematic analysis of the global and local behavior of several first- and second-order systems, focusing on convex, stochastic, and infinite-dimensional settings on the one hand, and non-convex, deterministic, and finite-dimensional settings on the other hand. For stochastic convex minimization problems in infinite-dimensional separable real Hilbert spaces, our key proposal is to analyze them through the lens of stochastic differential equations (SDEs) and inclusions (SDIs), as well as their inertial variants. We first consider smooth differentiable convex problems and first-order SDEs, demonstrating almost sure weak convergence towards minimizers under integrability of the noise and providing a comprehensive global and local complexity analysis. We also study composite non-smooth convex problems using first-order SDIs, and show under integrability conditions on the noise, almost sure weak convergence of the trajectory towards a minimizer, with Tikhonov regularization almost sure strong convergence of trajectory to the minimal norm solution. We then turn to developing a unified mathematical framework for analyzing second-order stochastic inertial dynamics via time scaling and averaging of stochastic first-order dynamics, achieving almost sure weak convergence of trajectories towards minimizers and fast convergence of values and gradients. These results are extended to more general second-order SDEs with viscous and Hessian-driven damping, utilizing a dedicated Lyapunov analysis to prove convergence and establish new convergence rates. Finally, we study deterministic non-convex optimization problems and propose several inertial algorithms to solve them derived from second-order ordinary differential equations (ODEs) combining both non-vanishing viscous damping and geometric Hessian-driven damping in explicit and implicit forms. We first prove convergence of the continuous-time trajectories of the ODEs to a critical point under the Kurdyka-Lojasiewicz (KL) property with explicit rates, and generically to a local minimum under a Morse condition. Moreover, we propose algorithmic schemes by appropriate discretization of these ODEs and show that all previous properties of the continuous-time trajectories still hold in the discrete setting under a proper choice of the stepsize
APA, Harvard, Vancouver, ISO, and other styles
6

Audouze, Christophe. "Méthodes performantes d'approximations de solutions en chimie quantique moléculaire." Paris 11, 2004. http://www.theses.fr/2004PA112336.

Full text
Abstract:
Cette thèse comprend trois chapitres traitant de problèmes issus de la chimie quantique moléculaire. Dans le premier chapitre, on propose un théorème de décomposition d'une fonction d'onde associée à 2N fermions dans le cadre des multiconfigurations. On obtient un développement relativement optimal en terme de configurations ainsi qu'une estimation de l'erreur en énergie en fonction de cette décomposition. Le deuxième chapitre est consacré à la recherche d'un grand nombre d'éléments propres en parallèle pour le modèle Kohn-Sham, calculant N fonctions d'ondes orthonormées et de complexité O(N^3). On propose un algorithme parallèle basé sur le découpage spectral d'une bande d'énergie à déterminer. On calcule de manière indépendante des clusters de valeurs propres avec réorthogonalisations locales. Suivant l'algorithme de recherche de valeurs propres utilisé, on dispose d'un critère de découpage de la bande d'énergie adapté. En collaboration avec le CEA, cette méthode doit conduire à terme à un algorithme de complexité O(N^2) au sein du projet ABINIT. Le troisième chapitre présente une nouvelle manière d'aborder le problème de recherche de valeurs propres en considérant des flots de gradient pour minimiser une fonctionnelle sous contraintes. On construit des flots adaptés aux problèmes aux valeurs propres linéaire et non linéaire, correspondant respectivement à la diagonalisation non self-consistent en chimie et à la minimisation de l'énergie Hartree­Fock sans autocohérence. Une étude théorique de ces flots permet de proposer des versions préconditionnées. Une dernière application consiste à traiter le cas d'une molécule perturbée par un champ électrique constant
This thesis is composed of three chapters dealing with problems derived from molecular quantum chemsitry. Ln the first chapter, we propose a theorem of decomposition for a wave function associated with 2N fermions in multiconfigurations framework. We get a relatively optimal development in term of configurations and an energy error estimate according to the previous decomposition. The second chapter is devoted to the research of numerous eigenstates in parallel for the Kohn-Sham madel which computes N orthonormal wave functions and owes a O(N^3) complexity. We propose a new parallel algorithm based on a spectral partitionning of an energy band which is to be determined. We calculate independently clusters of eigenvalues with local orthogonalizations. We give a partitionning criterium of the energy band adapted to the kind of eigenvalue algorithm used. In collaboration with the CEA, this method should lead to an algorithm of complexity O(N^2) in the ABINIT project. The third chapter presents a new way to attack the eigenproblem by considering gradient flows to minimize a functional with constraints. We create adapted flows to the linear and non linear eigenproblems, corresponding respectively to the non self-consistent diagonalization in chemistry and to the Hartree-Fock energy minimization without the self-consistance. A theoretical survey allows to propose preconditionned versions of these flows. Finally, we treat a molecule subjected to a constant electric field
APA, Harvard, Vancouver, ISO, and other styles
7

Zhang, Hanyu. "Méthodes itératives à retard pour architecture massivement parallèles." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC068.

Full text
Abstract:
Avec l'avènement de machine parallèles multi-coeurs, de nombreux algorithmes doivent être modifiés ou conçus pour s'adapter à ces architectures. Ces algorithmes consistent pour la plupart à diviser le problème original en plusieurs petits sous-problèmes et à les distribuer sur les différentes unités de calcul disponibles. La résolution de ces petits sous-problèmes peut être exécutée en parallèle, des communications entre les unités de calcul étant indispensables pour assurer la convergence de ces méthodes.Ma thèse propose de nouveaux algorithmes parallèles pour résoudre de grands systèmes linéaires.Les algorithmes proposés sont ici basés sur la méthode du gradient. Deux points fondamentaux de la méthode du gradient sont la direction de descente de la solution approchée et la valeur du pas de descente, qui détermine la modification à effectuer à chaque itération. Nous proposons dans cette thèse de calculer la direction et le pas indépendamment et localement sur chaque unité de calcul, ce qui nécessite moins de synchronisation entre les processeurs, et par suite rend chaque itération simple et plus rapide, et rend son extension dans un contexte asynchrone possible.Avec les paramètres d'échelle appropriés pour le pas des longueurs, la convergence peut être démontrée pour les deux versions synchrone et asynchrone des algorithmes. De nombreux tests numériques illustrent l’efficacité de ces méthodes.L'autre partie de ma thèse propose d'utiliser une méthode d'extrapolation pour accélérer les méthodes itératives classiques avec retard. Bien que les séquences de vecteur générées par des méthodes itératives asynchrones générales classiques ne peut être accélérée, nous sommes en mesure de démontrer que, une fois le modèle de calcul et de communication fixés au cours de l’exécution, la séquence de vecteurs générés peut être accéléré. De nombreux tests numériques illustrent l’efficacité de ces accélérations dans le cas des méthodes avec retard
With the increase of architectures composed of multi-cores, many algorithms need to revisited and be modified to exploit the power of these new architectures. These algorithms divide the original problem into “small pieces” and distribute these pieces to different processors at disposal, thus communications among them are indispensible to assure the convergence. My thesis mainly focus on solving large sparse systems of linear equations in parallel with new methods. These methods are based on the gradient methods. Two key parameters of the gradient methods are descent direction and step-length of descent for each iteration. Our methods compute the directions locally, which requires less synchronization and computation, leading to faster iterations and make easy asynchronization possible. Convergence can be proved in both synchronized or asynchronized cases. Numerical tests demonstrate the efficiency of these methods. The other part of my thesis deal with the acceleration of the vector sequences generated by classical iterative algorithms. Though general chaotic sequences may not be accelerated, it is possible to prove that with any fixed retard pattern, then the generated sequence can be accelerated. Different numerical tests demonstrate its efficiency
APA, Harvard, Vancouver, ISO, and other styles
8

Nounah, Hassan. "Modélisation et caractérisation des matériaux à gradient de propriétés mécaniques par des méthodes microacoustiques." Montpellier 2, 1995. http://www.theses.fr/1995MON20117.

Full text
Abstract:
Si actuellement les methodes quantitatives d'analyse en microscopie acoustique sont largement developpees sur des echantillons ayant une structure quasi-homogene, et dont les proprietes acoustiques ne varient pratiquement pas au voisinage de la surface, il n'en est pas de meme pour les materiaux ayant un gradient dans leurs proprietes mecaniques. C'est pour cela que nous avons developpe une importante etude aussi bien theorique que experimentale pour modeliser et caracteriser ces materiaux par des methodes microacoustiques. Sur le plan theorique, nous avons propose une methode originale de modelisation: elle est basee sur la subdivision du materiau a gradient en un nombre de couches suffisamment important pour que les parametres acoustiques varient de facon quasi-continue en fonction de la profondeur z suivant le profil du gradient considere. Ensuite, une etude fondamentale detaillee sur les courbes de dispersion pour differents couples de materiaux est presentee. L'analyse de ces courbes nous a permis de mettre en evidence deux points importants qui sont, suivant le couple de materiaux etudie: le point d'inflexion et le maximum de la courbure. Afin de completer cette etude, nous nous sommes interesses au probleme inverse qui nous permet, grace a ces points, de retrouver les caracteristiques physiques des materiaux a gradient. Les resultats experimentaux obtenus sur des echantillons d'acier, de verre et de materiaux metal/semi-conducteurs (in/gasb) ont confirme les previsions theoriques
APA, Harvard, Vancouver, ISO, and other styles
9

Scala, Ilaria. "Caractérisation d’interphase par des méthodes ultrasonores : applicationaux tissus péri-prothétiques." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1107/document.

Full text
Abstract:
Cette thèse se concentre sur la caractérisation ultrasonore de l’interphase os-implant. Cette région est une zone de transition où a lieu le processus d’ostéointégration (i.e. le processus de guérison du tissu entourant l’implant). Donc, cette interphase a un rôle crucial dans l’ancrage à long-terme de l’implant, puisqu’elle dépend de la quantité ainsi que la qualité du tissu osseux environnant. Ensuite, en plus d’être un milieu complexe en remodelage continu, l’os néoformé présente une nature multi échelle et qui évolue dans le temps. Toutes ces motivations rendent la caractérisation de l’interphase os-implant critique et difficile. Dans ce contexte, les méthodes ultrasonores sont largement utilisées aujourd’hui dans le domaine clinique pour leur capacité de donner des informations sur les propriétés biomécaniques du tissu osseux. Compte tenu de ces éléments, dans le but de caractériser les propriétés mécaniques et microstructurales de l’interphase os-implant à travers des méthodes ultrasonores, il est important de développer et valider des modèles mécaniques ainsi que de méthodes de traitement du signal. A cause de la complexité du problème, afin de décrire avec précision le tissu environnant à l’implant, il est d’abord essentiel une modélisation fiable du tissu osseux. Pour cela, on étudie l’interaction entre une onde ultrasonore et le tissu osseux, en considérant aussi les effets dues à la microstructure. Pour ce faire, un modèle continu généralisé a été utilisé. Dans ce contexte, un test de transmission/réflexion réalisé sur un échantillon poroélastique immergé dans un fluide a renforcé la fiabilité du modèle. Les champs de pression réfléchi et transmis sont influencés par les paramètres de la microstructure. De plus, les résultats issus de l’analyse de dispersion sont en accord avec ceux observés dans les expériences pour les échantillons poroélastiques. Après, le problème a été compliqué en considérant une interphase qui se situe entre l’os et l’implant. Ainsi, on peut gérer la complexité ajoutée par la présence du tissu néoformé. Comme on l’a déjà mentionné, une difficulté additionnelle est représentée par le fait que l’interphase est un milieu hétérogène, un mélange de phases solides et fluides dont les propriétés évoluent avec le temps. Donc, afin de modéliser l’interaction des ondes ultrasonores avec une interphase, on a considéré dans le modèle une couche très fine avec des propriétés élastiques et inertielles. En partant de ça, on a étudié les effets des propriétés de réflexion d’une transition entre un milieu homogène et un milieu microstructuré. De même, il a aussi été étudié la caractérisation du milieu via des techniques avances de traitement du signal. En particulier, la réponse dynamique due à l’excitation ultrasonore du système os-implant a été analysée à travers une approche multifractale. Une première analyse basée sur les coefficients des ondelettes a montré une signature multifractale pour les signaux dérivants des simulations et aussi des expériences. Ensuite, une étude de sensibilité a aussi montré que la variation des paramètres tels que la fréquence centrale et la densité de l’os trabéculaire ne contribue pas à un changement dans la réponse. L’originalité réside dans le fait qu’il s’agit d’un des premiers efforts d’exploiter l’approche multifractale dans la propagation ultrasonore dans un milieu hétérogène
This thesis focus on the ultrasonic characterization of bone-implant interphase. This region is a transition zone where the osteointegration process (i.e. the healing process of the tissues surrounding the implant) takes place. Thus, this interphase is of crucial importance in the long-term anchorage of the implant, since it depends on the quantity and quality of the surrounding bone tissue. However, other than being a complex medium in constant remodeling, the newly formed bone presents a multiscale and time evolving nature. All these reasons make the characterization of the bone-implant interphase critical and difficult. In this context, ultrasound methods are nowadays widely used in the clinic field because of their ability to give information about the biomechanical properties of bone tissue. On this basis, with the aim of characterizing the mechanical and microstructural properties of the bone-implant interphase by ultrasound methods, it is important to develop and validate mechanical models and signal processing methods. Due to the complexity of the problem, in order to precisely describe the bone tissue surrounding the implant, first an accurate modelling of bone tissue is essential. Thus, the interaction between an ultrasonic wave and bone tissue has been investigated by also taking into account the effects dues to the microstructure. To do this, a generalized continuum modelling has been used. In this context, a transmission/reflection test performed on a poroelastic sample dipped in a fluid enhanced the reliability of the model. The reflected and transmitted pressure fields result to be affected by the microstructure parameters and the results coming from the dispersion analysis are in agreement with those observed in experiments for poroelastic specimens. Then, the problem has been complicated by considering the interphase taking place between the bone and the implant. In this way, we could handle the complexity added by the presence of the newly formed tissue. As already said, the fact that this interphase is a heterogeneous medium, a mixture of both solid and fluid phases whose properties evolve with time is an additional difficulty. Thus, in order to model the interaction of ultrasonic waves with this interphase, a thin layer with elastic and inertial properties has been considered in the model. The effects on the reflection properties of a transition between a homogeneous and a microstructured continuum have been investigated.Therefore, the characterization of the medium also via advanced signal processing techniques is investigated. In particular, the dynamic response due to the ultrasonic excitation of the bone-implant system is analyzed through the multifractal approach. A first analysis based on the wavelet coefficients pointed out a multifractal signature for the signals from both simulations and experiences. Then, a sensitivity study has also shown that the variation of parameters such as central frequency and trabecular bone density does not lead to a change in the response. The originality lies in the fact that it is one of the early efforts to exploit the multifractal approach in the ultrasonic propagation inside a heterogeneous medium
APA, Harvard, Vancouver, ISO, and other styles
10

Kunhappan, Deepak. "Modélisation numérique de l’écoulement de suspensions de fibres souples en régime inertiel." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAI045/document.

Full text
Abstract:
Un modèle numérique décrivant le comportement de fibres souples en suspension dans un écoulement de fluide en régime inertiel a été développé au moyen d'un couplage entre la méthode des éléments discrets et la méthode des volumes finis. Chaque fibre est discrétisée en plusieurs éléments de type poutre permettant de prendre en compte une déformation (flexion, torsion, allongement) et un mouvement de corps rigide. Les équations du mouvement des fibres sont résolues au moyen d'un schéma explicite du second ordre (temps et espace). Le mouvement de la phase fluide est décrit par les équations de Navier-Stokes, qui sont discrétisées et résolues au moyen d'un schéma aux volumes finis non structurés, d'ordre 4 (temps et espace). Le couplage entre la phase solide (discrète) et la phase fluide (continue) est obtenue par une pseudo méthode IBM (Immersed Boundary Method) dans laquelle l'effort hydrodynamique est calculé analytiquement. Plusieurs modèles de force hydrodynamique issus de la littérature sont analysés et leur validité ainsi que leurs limites sont identifiées. Pour des nombres de Reynolds (Re) correspondant au régime inertiel (0.01 < Re < 100, Re défini à l'échelle de la fibre), des formulations non-linéaires de la force hydrodynamique exercée par un écoulement uniforme sur un cylindre infini sont utilisées. Le couplage a aussi été utilisé pour des fibres rigides en écoulement de Stokes, en utilisant l'expression de la force de traînée issue de la théorie des corps élancés (`slender body theory'). Une expression du moment hydrodynamique par unité de longueur est obtenu à partir de simulations numériques par volumes finis de l'écoulement autour d'un cylindre élancé.Le modèle développé a été validé par comparaison avec plusieurs résultats expérimentaux et analytiques, du régime de Stokes (pour des fibres rigides) jusqu'aux régimes inertiels. Dans le cas du régime de Stokes, des simulations numériques du cisaillement de suspensions de fibres semi-diluées ont été réalisées. Le modèle développé permet de capturer les interactions hydrodynamiques et non-hydrodynamiques entre les fibres. Les interactions élasto-hydrodynamiques pour $Re$ fini ont été validées dans deux cas. Dans le premier cas, la flèche d'une fibre encastrée-libre dans un écoulement uniforme a été obtenu par calcul numérique et le résultat validé par comparaison aux résultats expérimentaux de la littérature. Dans le second cas, la conformation de fibres élancées et très déformables dans un écoulement turbulent homogène et isotrope a été obtenu par calcul numérique et le résultat validé par comparaison aux résultats expérimentaux de la littérature. Deux études numériques ont été réalisées pour étudier l'effet de la présence de fibres en suspension sur la turbulence au sein du fluide suspensif. Le modèle numérique a permis de reproduire le phénomène de réduction/amplification de la turbulence dans un écoulement en canal ou en conduite, dû à l'évolution microstructurale de la phase fibreuse
A numerical model describing the behavior of flexible fibers under inertial flows was developed by coupling a discrete element solver with a finite volume solver.Each fiber is discretized into several beam segments, such that the fiber can bend, twist and rotate. The equations of the fiber motion were solved usinga second order accurate explicit scheme (space and time). The three dimensional Navier-Stokes equations describing the motion of the fluid phase was discretizedusing a fourth th order accurate (space and time) unstructured finite volume scheme. The coupling between the discrete fiber phase and the continuous fluid phasewas obtained by a pseudo immersed boundary method as the hydrodynamic force on the fiber segments were calculated based on analytical expressions.Several hydrodynamic force models were analyzed and their validity and short-comings were identified. For Reynolds numbers (Re) at the inertial regime(0.01 < Re < 100, Re defined at the fiber scale), non linear drag force formulations based on the flow past an infinite cylinder was used. For rigid fibers in creeping flow, the drag force formulation from the slender body theory was used. A per unit length hydrodynamic torque model for the fibers was derived from explicit numerical simulations of shear flow past a high aspect ratio cylinder. The developed model was validated against several experimental studies and analytical theories ranging from the creeping flow regime (for rigid fibers) to inertial regimes. In the creeping flow regime, numerical simulations of semi dilute rigid fiber suspensions in shear were performed.The developed model wasable to capture the fiber-fiber hydrodynamic and non-hydrodynamic interactions. The elasto-hydrodynamic interactions at finite Reynolds was validated with against two test cases. In the first test case, the deflection of the free end of a fiber in an uniform flow field was obtained numerically and the results were validated. In the second test case the conformation of long flexible fibers in homogeneous isotropic turbulence was obtained numerically and the results were compared with previous experiments. Two numerical studies were performed to verify the effects of the suspended fibers on carrier phase turbulence and the numerical model was able to reproduce the damping/enhancement phenomena of turbulence in channel and pipe flows as a consequence of the micro-structural evolution of the fibers
APA, Harvard, Vancouver, ISO, and other styles
11

Lahbazi, Ahmed. "Modélisation et identification des matériaux architecturés et composites par des méthodes d'homogénéisation à gradient d'ordre supérieur." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0153.

Full text
Abstract:
L'organisation multiéchelles complexe de la sous-structure fibreuse au sein d'un composite conduit à la non séparabilité des échelles, à l'existence de grandes rotations à l'échelle de la fibre et globalement à une réponse mécanique anisotrope non linéaire montrant des effets d'imbrication des échelles. Les non-linéarités géométriques prononcées dues à la très faible rigidité en flexion conduisent à des comportements non classiques aux échelles mésoscopique et macroscopique, ce qui demande d'étendre le cadre d'élasticité de Cauchy pour lequel le premier gradient de déplacement est l'unique descripteur cinématique. La grande mobilité des fibres induit en effet une réponse non affine de la microstructure fibreuse, induisant également des couplages entre différents modes de chargement, par exemple traction - torsion pour une tresse. Les hypothèses de séparation des échelles inhérentes à la théorie de l'homogénéisation classique sont invalides pour ce type des matériaux complexes, ce qui nécessite de recourir à des milieux continus généralisés (de type Cosserat, second gradient, ou micromorphe) pour modéliser l'imbrication d'échelles. Les premières tentatives de modélisation de textiles 2D et 3D par des milieux continus enrichis sont récentes, de sorte que ce domaine de recherche très actif est largement ouvert. Malgré les travaux existants dans la littérature consacrée à la modélisation de milieux complexes, tels que les tissages 2D et 3D et les matériaux architecturés par des milieux continus enrichis, il n'existe encore aucun schéma numérique permettant d'évaluer des modules supérieurs indépendants de la taille de l'élément de volume représentatif (RVE), ce même en petites déformations. En outre, il n'existe pas de méthode permettant de mesurer ces modules additionnels. La très faible rigidité en flexion des renforts fibreux implique la présence de non linéarités géométriques, de sorte que des méthodes d'homogénéisation non linéaires doivent être développées pour prédire leur réponse dans différentes conditions de chargement. De plus, il est nécessaire d'acquérir une meilleure compréhension de l'origine microstructurale des comportements non linéaires observés grâce à des simulations numériques
The general objective of the thesis is to identify second gradient, chiral Cosserat media and micromorphic models of fibrous media having a regular periodic internal architecture - 2D and 3D textiles, complex yarns - based on suitable discrete and continuous homogenization schemes, first in small strains and then under large strains. Considering the large strains regime, the form of the strain energy density for second gradient and micromorphic hyperelastic effective continua will be identified, selecting for their arguments a set of physically meaningful invariants reflecting the deformation modes of the fibrous microstructure. Discrete and continuous homogenization schemes towards higher order media will be developed and compared; they will lead to incremental formulations to predict the nonlinear elastic response. Continuous second gradient homogenization simulations will serve as a reference solution to assess the accuracy of the effective mechanical responses computed by discrete homogenization.The development of efficient computational models will be accompanied by the design and realization of novel measurement protocols to identify the higher order mechanical moduli of the enriched models. Applications of the developed theoretical and experimental methods will be done for a selection of fibrous architectures prone to such internal scale effects. The predicted nonlinear responses of well-chosen fibrous media will be validated by measurements (done in LPMT for fibrous materials; microstructures produced by additive printing in LEM3 will also be tested there)
APA, Harvard, Vancouver, ISO, and other styles
12

Froehly, Luc. "Nouveaux matériaux à gradient d'indice pour l'optique : étude des procédés de fabrication existants et développement de méthodes de caractèrisation." Saint-Etienne, 2000. http://www.theses.fr/2000STET4005.

Full text
Abstract:
Les composants à gradient d'indice sont, au vu des simulations effectuées à l'aide de codes de calculs optiques (code V), d'un grand intérêt pour la correction des combinaisons optiques de haute qualité. Les calculs indiquent, en effet, que la réalisation de composants à profil d'indice et de dispersion contrôlés peut permettre la correction d'aberrations d'ordres élevés tel que le sphéro-chromatisme. Actuellement plusieurs méthodes existent pour fabriquer des composants à gradient d'indice (procédés de diffusion, procédés de pecvd, procédés sol gel etc. ), cependant aucune de ces méthodes ne permet l'obtention simultanée des profils d'indice et de dispersion adaptés ainsi que les dimensions requises dans des matériaux de qualité optique acceptables. Quant aux méthodes de caractérisation (2e volet de notre étude) elles ne sont optimales que pour les composants d'optique guidée ou les matériaux à gradient constant. Nous avons de surcroit montré dans notre étude que la mesure d'indice de réfraction ne peut s'effectuer qu'avec une précision qui dépend de la pente locale du gradient. Pour chaque méthode de caractérisation il existe bien sur des limites inhérentes à chacune d'entre elles. De plus, quelle que soit la méthode utilisée la mesure d'indice de réfraction dans les gradients est fondamentalement limitée par les incertitudes induites sur les directions des rayons (normales aux surfaces d'onde) dues à la diffraction. Ces concepts ont été développés dans le manuscrit autour de trois procédés de caractérisation optique classique que nous avons adaptés à notre problème (ellipsométrie à zéro type Brewster ; méthode du couteau de Foucault ; méthode de la caustique). Il a été trouvé, à titre d'exemple, que pour un gradient d'indice de 10 2/mm la précision sur la mesure de l'indice de réfraction (et donc sur sa définition même !) tombe à 10 2 10 3 au lieu de 10 5 10 6 pour un verre homogène
APA, Harvard, Vancouver, ISO, and other styles
13

Caillabet, Laurent. "Equation d'état ab initio de l'hydrogène dans la matière dense et tiède et application à l'implosion de cibles pour la fusion pour le confinement inertiel." Palaiseau, Ecole polytechnique, 2011. http://pastel.archives-ouvertes.fr/docs/00/59/92/83/PDF/Memoire.pdf.

Full text
Abstract:
Dans le domaine de la fusion par confinement inertiel (FCI), l'équation d'état (EoS) de l'hydrogène et de ses isotopes est très certainement une des propriétés les plus importantes à connaître. Les EoS basées sur des modèles chimiques peinent à donner une description univoque de l'hydrogène dans le domaine de couplage et de dégénérescence partiels, appelé matière dense et tiède, ou Warm Dense Matter (WDM). En effets, ces modèles utilisent des potentiels ad hoc pour décrire les interactions à N corps dont les effets sont importants dans la WDM. Au contraire, les méthodes de calcul ab initio s'affranchissent de ces approximations en résolvant de manière exacte (ou presque) le problème quantique à N corps et sont donc particulièrement pertinentes dans ce domaine. Dans la première partie de cette thèse, nous décrivons comment nous avons construit une table d'EoS multi-phase de l'hydrogène, à partir de méthodes de calcul ab initio dans le domaine de la WDM. Nous montrons notamment que cette EoS est en très bon accord avec la plupart des données expérimentales disponibles (Hugoniot principale, vitesse du son dans le fluide moléculaire, courbe de fusion à basse pression, mesures de chocs multiples). Dans la deuxième partie, nous présentons une application directe de notre EoS en montrant son influence sur les critères d'allumage et de combustion de deux types de cibles pour la FCI : une cible auto-allumante qui sera utilisée sur le Laser MegaJoule (LMJ), et une cible destinée à l'allumage par choc. Nous montrons notamment que l'optimisation de l'impulsion laser permettant de maximiser l'énergie thermonucléaire dégagée par les cibles est fortement dépendante de la précision de l'EoS dans le domaine de couplage et de dégénérescence forts
In the field of the inertial confinement fusion ( ICF), the equation of state ( EoS) of the hydrogen and its isotopes is one of the most important properties to know. The EoS based on chemical models have difficulty in giving an unambiguous description of the hydrogen in the strong coupled and partial degenerate regime, called Warm Dense Matter ( WDM). Indeed, these models use potential with adjustable parameters to describe the many body interactions which are important in the WDM. On the other hand, the ab initio methods resolve almost exactly the quantum many body problem and are thus particularly relevant in this domain. In the first part of this thesis, we describe how we built a table of a multi-phase EoS of the hydrogen, using ab initio methods in the field of the WDM. We show in particular that this EoS is in very good agreement with most of the available experimental data (principal Hugoniot, sound velocity in the molecular fluid, melting curve at low pressure, measurements of multiple shocks). In the second part, we present a direct application of our EoS by showing its influence on the criteria of ignition and combustion of two target designs for ICF: a self-ignited target which will be used on the Laser MegaJoule ( LMJ), and a shock-ignited target. We show in particular that the optimization of the laser pulse allowing maximizing the thermonuclear energy is strongly dependent on the precision of the EoS in the strong coupled and degenerate domain
APA, Harvard, Vancouver, ISO, and other styles
14

Radi, Bouchaïb. "Méthodes de calcul par sous-domaines : application au problème de contact entre deux solides déformables." Besançon, 1992. http://www.theses.fr/1992BESA2041.

Full text
Abstract:
On s'intéresse aux méthodes de calcul par sous-domaines et aux problèmes de contact entre deux solides déformables. Après une revue détaillée des méthodes de calcul par sous-domaines, l'étude porte sur les méthodes relatives à la décomposition sans recouvrement. Les mises en oeuvre numérique de ces méthodes sont présentées. Dans le cas d'une décomposition en série, nous proposons (i) une méthode itérative de relaxation, (ii) le préconditionnement ssor relatif à la méthode du gradient conjugué pour la résolution du système condensé sur les interfaces. Des comparaisons numériques des différentes méthodes sont données. Nous montrons ensuite que les problèmes de contact entre deux solides déformables sont équivalents à la recherche d'un point selle. Grâce à cette dernière formulation, nous aboutissons à deux sous-problèmes couples pour lesquels la pression normale, sur la zone de contact, joue le rôle de paramètre de couplage. Nous proposons deux méthodes de résolution (i) une méthode de dualité dans le cas d'un contact sans frottement (ii) une méthode de penalité dualité, basée sur la méthode de pénalisation bornée et la méthode duale, dans le cas d'un contact avec frottement. Des tests de validation numérique prouvant la validité des approches retenues sont présentés
APA, Harvard, Vancouver, ISO, and other styles
15

Moufawad, Sophie. "Enlarged Krylov Subspace Methods and Preconditioners for Avoiding Communication." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066438/document.

Full text
Abstract:
La performance d'un algorithme sur une architecture donnée dépend à la fois de la vitesse à laquelle le processeur effectue des opérations à virgule flottante (flops) et de la vitesse d'accès à la mémoire et au disque. Etant donné que le coût de la communication est beaucoup plus élevé que celui des opérations arithmétiques, celle-là forme un goulot d'étranglement dans les algorithmes numériques. Récemment, des méthodes de sous-espace de Krylov basées sur les méthodes 's-step' ont été développées pour réduire les communications. En effet, très peu de préconditionneurs existent pour ces méthodes, ce qui constitue une importante limitation. Dans cette thèse, nous présentons le préconditionneur nommé ''Communication-Avoiding ILU0'', pour la résolution des systèmes d’équations linéaires (Ax=b) de très grandes tailles. Nous proposons une nouvelle renumérotation de la matrice A ('alternating min-max layers'), avec laquelle nous montrons que le préconditionneur en question réduit la communication. Il est ainsi possible d’effectuer « s » itérations d’une méthode itérative préconditionnée sans communication. Nous présentons aussi deux nouvelles méthodes itératives, que nous nommons 'multiple search direction with orthogonalization CG' (MSDO-CG) et 'long recurrence enlarged CG' (LRE-CG). Ces dernières servent à la résolution des systèmes linéaires d’équations de très grandes tailles, et sont basées sur l’enrichissement de l’espace de Krylov par la décomposition du domaine de la matrice A
The performance of an algorithm on any architecture is dependent on the processing unit’s speed for performing floating point operations (flops) and the speed of accessing memory and disk. As the cost of communication is much higher than arithmetic operations, and since this gap is expected to continue to increase exponentially, communication is often the bottleneck in numerical algorithms. In a quest to address the communication problem, recent research has focused on communication avoiding Krylov subspace methods based on the so called s-step methods. However there are very few communication avoiding preconditioners, and this represents a serious limitation of these methods. In this thesis, we present a communication avoiding ILU0 preconditioner for solving large systems of linear equations (Ax=b) by using iterative Krylov subspace methods. Our preconditioner allows to perform s iterations of the iterative method with no communication, by applying a heuristic alternating min-max layers reordering to the input matrix A, and through ghosting some of the input data and performing redundant computation. We also introduce a new approach for reducing communication in the Krylov subspace methods, that consists of enlarging the Krylov subspace by a maximum of t vectors per iteration, based on the domain decomposition of the graph of A. The enlarged Krylov projection subspace methods lead to faster convergence in terms of iterations and to parallelizable algorithms with less communication, with respect to Krylov methods. We discuss two new versions of Conjugate Gradient, multiple search direction with orthogonalization CG (MSDO-CG) and long recurrence enlarged CG (LRE-CG)
APA, Harvard, Vancouver, ISO, and other styles
16

Nicolas, Dimitri. "Couplage de méthodes d'échantillonnage et de méthodes d'optimisation de formes pour des problèmes de diffraction inverse." Phd thesis, Ecole Polytechnique X, 2012. http://pastel.archives-ouvertes.fr/pastel-00761675.

Full text
Abstract:
On s'intéresse au problème de retrouver la forme d'un objet 2d par la mesure des ondes qu'il diffracte. On développe ainsi des couplages de méthodes issue des méthodes d'échantillonnage et des méthodes d'optimisation de forme dans les cadres des conducteurs parfaits et des objets diélectriques. Après avoir calculé les dérivées de forme (du premier ou second ordre) et/ou topologiques et avoir effectué des tests numériques en scilab/Fortran dans ces deux cadres, cette thèse a permis de créer un couplage LSM-DGLS2-GT précis et robuste avec un coût de calcul modéré. On y recherche aussi d'autres types de fonctionnelles à minimiser et cherchons à calculer la dérivée seconde de forme difficile à obtenir dans une forme pratique à implémenter afin d'accélerer la convergence du précédent couplage mis en place.
APA, Harvard, Vancouver, ISO, and other styles
17

Caldani, Romain. "Atomic interferometry for simultaneous measurement of g and its vertical gradient Differential phase extraction in dual interferometers exploiting the correlation between classical and quantum sensors Simultaneous accurate determination of both gravity and its vertical gradient." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS511.

Full text
Abstract:
Mes travaux de thèse portent sur le développement d’un capteur inertiel à atomes froids à portée métrologique de nouvelle génération. Son architecture est basée sur deux sources atomiques indépendantes interrogées simultanément par une séquence d’interférométrie atomique commune aux deux sources. Aussi, dans l’optique d’atteindre des performances de mesure ultimes, notre instrument repose sur des fonctions optiques de manipulation d’atomes froids de dernières générations: oscillations de Bloch et séparatrices multi-photoniques. En trois ans, notre instrument a atteint un niveau de développement suffisant pour faire la démonstration de son principe de fonctionnement, permettant de mesurer simultanément l’accélération de la pesanteur g et son gradient vertical. En particulier, nous avons démontré une nouvelle méthode de mesure qui permet de s’affranchir non seulement des bruits en mode commun, mais aussi des fluctuations de la ligne de base de l’instrument, pour la détermination du gradient de gravité. Pour mener à bien ces travaux, j’ai également utilisé un prototype de banc optique industriel pour application spatiale, développé dans le cadre d’un projet financé par l’Agence Spatiale Européenne (ESA) et coordonné par la société Muquans. En parallèle des développements sur notre instrument, nous avons testé et caractérisé ce banc fibré qui réalise toutes les fonctions optiques nécessaires au fonctionnement d’un interféromètre atomique dans l’espace
This work focuses on the development of a new generation of cold-atom inertial sensor. Its architecture is based on two independent atomic sources simultaneously interrogated by an interferometric sequence common to both sources. In addition, in order to achieve ultimate measurement performance, our instrument is based on the latest optical methods for atomic manipulation: Bloch oscillations and multi-photon transitions. During my thesis, the instrument has reached a level of development to perform a proof-of-principle operation, allowing to simultaneously measure the gravity acceleration g and its vertical gradient. In particular, we demonstrated a new measurement method that allows to overcome not only common mode noise, but also the baseline fluctuations of the instrument, for the determination of the gravity gradient. To carry out this work, I also used a prototype of industrial optical bench for space application, developed as part of a project funded by the European Space Agency (ESA) and coordinated by the Muquans company. In parallel with the developments of our instrument, we tested and characterized this fiber bench which fulfills all the optical functionalities necessary for the operation of an atom interferometer in space
APA, Harvard, Vancouver, ISO, and other styles
18

Pham, Kim. "Construction et analyse de modèles d'endommagement à gradient." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00559405.

Full text
Abstract:
L'objectif de cette thèse est d'étudier les matériaux adoucissants à l'aide de modèles d'endommagement à gradient. On construit dans un premier temps le modèle local sous-jacent en montrant sa forme nécessairement standard, ce qui fournit automatiquement un cadre variationnel à l'écriture du problème d'évolution quasi-statique. Celui-ci est constitué des trois principes physiques d'irréversibilité, de stabilité et de bilan d'énergie. Cependant, la modélisation des matériaux adoucissants requiert un enrichissement du modèle local. La régularisation se fait par l'introduction de termes `a gradient d'endommagement dans le travail de déformation. Les mérites de l'approche variationnelles ainsi que les apports de la régularisation sont mis en évidence via l'étude des états homogènes. Dans une deuxième partie, on mène une étude de bifurcations et de stabilité d'une barre adoucissante en traction simple. On construit explicitement des états localisés bifurquant depuis la branche fondamentale homogène. On peut alors mettre en lumière différents phénomènes tels que la localisation conduisant `a la ruine de la structure ou les snap-back dans la réponse globale. Cette étude permet aussi mieux de comprendre le phénomène de localisation en termes de critères de sélection tels que ceux de non-bifurcation ou de stabilité. Par ailleurs, on illustre sur cet exemple l'utilisation du principe de conservation d'énergie pour gérer dans le cadre quasi-statique les évolutions non-régulières en temps. Finalement on propose dans une dernière partie des méthodes pour l'identification des paramètres du modèle dans le cas du béton. Par une analogie avec la mécanique de la rupture, on identifie tout d'abord la longueur interne au modèle `a l'aide de la densité d'énergie de surface du matériau. Les lois de rigidité et de dissipation sont quant à elles identifiées par le biais des états homogènes en se servant des diagrammes contrainte-déformation et de stabilité de la réponse homogène. On reprend alors l'essai PIED qui vise à stabiliser ces états dans un essai de traction simple en l'analysant dans le détail et en soulignant par une étude théorique et numérique l'utilité et le potentiel de cet essai.
APA, Harvard, Vancouver, ISO, and other styles
19

Lemoine, Carole. "Mécanismes de combustion de charbon en grains isolés et en nuages de grains sous fort gradient thermique." Mulhouse, 1990. http://www.theses.fr/1990MULH0148.

Full text
Abstract:
L'objectif des recherches est d'obtenir des données sur la physico-chimie de la volatilisation et de la combustion d'un charbon bitumineux de Freyming dans les conditions représentatives de température et de composition gazeuse d'un four 3 MW développé au CERCHAR. Les expériences ont été réalisées dans un four à chute entre 1000 et 1400°C (vitesses de chauffe : 104-105 K/S) avec les mélanges N2/O2/CO2 et trois tranches granulométriques: >125 µm, 70-90 µm, <63 µm. La combustion de nuages de particules a permis d'établir une corrélation entre le rendement en matières volatiles et la teneur en exinite des particules. Le rendement en suies est lié à la taille des particules et à la température du four. De petites quantités d'O2 (5-8%) suffisent pour diminuer considérablement ce rendement, par contre il n'est pas affecté par le CO2 qui ne réagit que partiellement avec le coke. La combustion de particules isolées a été étudiée grâce à un dispositif pyrométrique à 3 couleurs. Le délai d'inflammation ne dépend pas de la nature des gaz et diminue quand la température augmente. La durée de combustion hétérogène du coke augmente avec la taille des particules et diminue avec l'augmentation du pourcentage d'O2. La température de combustion hétérogène dépend peu de la taille et augmente avec le pourcentage d'O2. Un modèle de simulation a été développé, dans lequel la combustion est contrôlée par la diffusion externe de l'oxydant. Nous avons d'abord supposé que le CO2 est un produit primaire comme CO. Puis nous avons attribué un facteur de forme à la particule. Cette deuxième hypothèse permet d'obtenir une meilleure corrélation entre les températures et durée de combustion hétérogènes calculées et celles mesurées
APA, Harvard, Vancouver, ISO, and other styles
20

Krzyworzcka, Sonia. "Extension des méthodes de types lanczos à la résolution de systèmes non linéaires." Lille 1, 1996. http://www.theses.fr/1996LIL10178.

Full text
Abstract:
Grace à des transformations de suites de vecteurs nous étendons différentes méthodes de résolution de systèmes linéaires à la résolution plus générale de systèmes non linéaires. Nous nous intéressons en particulier à l'extension au cas non linéaire des méthodes de type lanczos, du cgs (conjugate gradient squared), de certaines méthodes cgm (conjugate gradient multiplied), et des méthodes mpe, mmpe et rre issues en linéaire de l'étude des polynômes bi orthogonaux. Pour chaque nouvelle méthode non linéaire construite nous donnons des résultats de convergence quadratique locale, des tests numériques, et des comparaisons avec des méthodes non linéaires connues. Enfin, nous utilisons le principe des méthodes hybrides non linéaires afin d'améliorer les résultats numériques obtenus grâce aux nouvelles méthodes.
APA, Harvard, Vancouver, ISO, and other styles
21

Godoy, Campbell Matias. "Sur le problème inverse de détection d'obstacles par des méthodes d'optimisation." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30220/document.

Full text
Abstract:
Cette thèse porte sur l'étude du problème inverse de détection d'obstacle/objet par des méthodes d'optimisation. Ce problème consiste à localiser un objet inconnu oméga situé à l'intérieur d'un domaine borné connu Oméga à l'aide de mesures de bord et plus précisément de données de Cauchy sur une partie Gammaobs de thetaOmega. Nous étudions les cas scalaires et vectoriels pour ce problème en considérant les équations de Laplace et de Stokes. Dans tous les cas, nous nous appuyons sur une résultat d'identifiabilité qui assure qu'il existe un unique obstacle/objet qui correspond à la mesure de bord considérée. La stratégie utilisée dans ce travail est de réduire le problème inverse à la minimisation d'une fonctionnelle coût: la fonctionnelle de Kohn-Vogelius. Cette approche est fréquemment utilisée et permet notamment d'utiliser des méthodes d'optimisation pour des implémentations numériques. Cependant, afin de bien définir la fonctionnelle, cette méthode nécessite de connaître une mesure sur tout le bord extérieur thetaOmega. Ce dernier point nous conduit à étudier le problème de complétion de données qui consiste à retrouver les conditions de bord sur une région inaccessible, i.e. sur thetaOmega\Gammaobs, à partir des données de Cauchy sur la région accessible Gammaobs. Ce problème inverse est également étudié en minimisant une fonctionnelle de type Kohn-Vogelius. La caractère mal posé de ce problème nous amène à régulariser la fonctionnelle via une régularisation de Tikhonov. Nous obtenons plusieurs propriétés théoriques comme des propriétés de convergence, en particulier lorsque les données sont bruitées. En tenant compte de ces résultats théoriques, nous reconstruisons numériquement les données de bord en mettant en oeuvre un algorithme de gradient afin de minimiser la fonctionnelle régularisée. Nous étudions ensuite le problème de détection d'obstacle lorsque seule une mesure de bord partielle est disponible. Nous considérons alors les conditions de bord inaccessibles et l'objet inconnu comme les variables de la fonctionnelle et ainsi, en utilisant des méthodes d'optimisation de forme géométrique, en particulier le gradient de forme de la fonctionnelle de Kohn-Vogelius, nous obtenons la reconstruction numérique de l'inclusion inconnue. Enfin, nous considérons, dans le cas vectoriel bi-dimensionnel, un nouveau degré de liberté en étudiant le cas où le nombre d'objets est inconnu. Ainsi, nous utilisons l'optimisation de forme topologique afin de minimiser la fonctionnelle de Kohn-Vogelius. Nous obtenons le développement asymptotique topologique de la solution des équations de Stokes 2D et caractérisons le gradient topologique de cette fonctionnelle. Nous déterminons alors numériquement le nombre d'obstacles ainsi que leur position. De plus, nous proposons un algorithme qui combine les méthodes d'optimisation de forme topologique et géométrique afin de déterminer numériquement le nombre d'obstacles, leur position ainsi que leur forme
This PhD thesis is dedicated to the study of the inverse problem of obstacle/object detection using optimization methods. This problem consists in localizing an unknown object omega inside a known bounded domain omega by means of boundary measurements and more precisely by a given Cauchy pair on a part Gammaobs of thetaOmega. We cover the scalar and vector scenarios for this problem considering both the Laplace and the Stokes equations. For both cases, we rely on identifiability result which ensures that there is a unique obstacle/object which corresponds to the considered boundary measurements. The strategy used in this work is to reduce the inverse problem into the minimization of a cost-type functional: the Kohn-Vogelius functional. This kind of approach is widely used and permits to use optimization tools for numerical implementations. However, in order to well-define the functional, this approach needs to assume the knowledge of a measurement on the whole exterior boundary thetaOmega. This last point leads us to first study the data completion problem which consists in recovering the boundary conditions on an inaccessible region, i.e. on thetaOmega\Gammaobs, from the Cauchy data on the accessible region Gammaobs. This inverse problem is also studied through the minimization of a Kohn-Vogelius type functional. The ill-posedness of this problem enforces us to regularize the functional via a Tikhonov regularization. We obtain several theoretical properties as convergence properties, in particular when data is corrupted by noise. Based on these theoretical results, we reconstruct numerically the boundary data by implementing a gradient algorithm in order to minimize the regularized functional. Then we study the obstacle detection problem when only partial boundary measurements are available. We consider the inaccessible boundary conditions and the unknown object as the variables of the functional and then, using geometrical shape optimization tools, in particular the shape gradient of the Kohn-Vogelius functional, we perform the numerical reconstruction of the unknown inclusion. Finally, we consider, into the two dimensional vector case, a new degree of freedom by studying the case when the number of objects is unknown. Hence, we use the topological shape optimization in order to minimize the Kohn-Vogelius functional. We obtain the topological asymptotic expansion of the solution of the 2D Stokes equations and characterize the topological gradient for this functional. Then we determine numerically the number and location of the obstacles. Additionally, we propose a blending algorithm which combines the topological and geometrical shape optimization methods in order to determine numerically the number, location and shape of the objects
APA, Harvard, Vancouver, ISO, and other styles
22

Vilar, François. "Utilisation des méthodes Galerkin discontinues pour la résolution de l'hydrodynamique Lagrangienne bi-dimentsionnelle." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14605/document.

Full text
Abstract:
Le travail présenté ici avait pour but le développement d'un schéma de type Galerkin discontinu (GD) d'ordre élevé pour la résolution des équations de la dynamique des gaz écrites dans un formalisme Lagrangien total, sur des maillages bi-dimensionnels totalement déstructurés. À cette fin, une méthode progressive a été utilisée afin d'étudier étape par étape les difficultés numériques inhérentes à la discrétisation Galerkin discontinue ainsi qu'aux équations de la dynamique des gaz Lagrangienne. Par conséquent, nous avons développé dans un premier temps des schémas de type Galerkin discontinu jusqu'à l'ordre trois pour la résolution des lois de conservation scalaires mono-dimensionnelles et bi-dimensionnelles sur des maillages déstructurés. La particularité principale de la discrétisation GD présentée est l'utilisation des bases polynomiales de Taylor. Ces dernières permettent, dans le cadre de maillages bi-dimensionnels déstructurés, une prise en compte globale et unifiée des différentes géométries. Une procédure de limitation hiérarchique, basée aux noeuds et préservant les extrema réguliers a été mise en place, ainsi qu'une forme générale des flux numériques assurant une stabilité globale L_2 de la solution. Ensuite, nous avons tâché d'appliquer la discrétisation Galerkin discontinue développée aux systèmes mono-dimensionnels de lois de conservation comme celui de l'acoustique, de Saint-Venant et de la dynamique des gaz Lagrangienne. Nous avons noté au cours de cette étude que l'application directe de la limitation mise en place dans le cadre des lois de conservation scalaires, aux variables physiques des systèmes mono-dimensionnels étudiés provoquait l'apparition d'oscillations parasites. En conséquence, une procédure de limitation basée sur les variables caractéristiques a été développée. Dans le cas de la dynamique des gaz, les flux numériques ont été construits afin que le système satisfasse une inégalité entropique globale. Fort de l'expérience acquise, nous avons appliqué la discrétisation GD mise en place aux équations bi-dimensionnelles de la dynamique des gaz, écrites dans un formalisme Lagrangien total. Dans ce cadre, le domaine de référence est fixe. Cependant, il est nécessaire de suivre l'évolution temporelle de la matrice jacobienne associée à la transformation Lagrange-Euler de l'écoulement, à savoir le tenseur gradient de déformation. Dans le travail présent, la transformation résultant de l'écoulement est discrétisée de manière continue à l'aide d'une base Éléments Finis. Cela permet une approximation du tenseur gradient de déformation vérifiant l'identité essentielle de Piola. La discrétisation des lois de conservation physiques sur le volume spécifique, le moment et l'énergie totale repose sur une méthode Galerkin discontinu. Le schéma est construit de sorte à satisfaire de manière exacte la loi de conservation géométrique (GCL). Dans le cas du schéma d'ordre trois, le champ de vitesse étant quadratique, la géométrie doit pouvoir se courber. Pour ce faire, des courbes de Bézier sont utilisées pour la paramétrisation des bords des cellules du maillage. Nous illustrons la robustesse et la précision des schémas mis en place à l'aide d'un grand nombre de cas tests pertinents, ainsi que par une étude de taux de convergence
The intent of the present work was the development of a high-order discontinuous Galerkin scheme for solving the gas dynamics equations written under total Lagrangian form on two-dimensional unstructured grids. To achieve this goal, a progressive approach has been used to study the inherent numerical difficulties step by step. Thus, discontinuous Galerkin schemes up to the third order of accuracy have firstly been implemented for the one-dimensional and two-dimensional scalar conservation laws on unstructured grids. The main feature of the presented DG scheme lies on the use of a polynomial Taylor basis. This particular choice allows in the two-dimensional case to take into general unstructured grids account in a unified framework. In this frame, a vertex-based hierarchical limitation which preserves smooth extrema has been implemented. A generic form of numerical fluxes ensuring the global stability of our semi-discrete discretization in the $L_2$ norm has also been designed. Then, this DG discretization has been applied to the one-dimensional system ofconservation laws such as the acoustic system, the shallow-water one and the gas dynamics equations system written in the Lagrangian form. Noticing that the application of the limiting procedure, developed for scalar equations, to the physical variables leads to spurious oscillations, we have described a limiting procedure based on the characteristic variables. In the case of the one-dimensional gas dynamics case, numerical fluxes have been designed so that our semi-discrete DG scheme satisfies a global entropy inequality. Finally, we have applied all the knowledge gathered to the case of the two-dimensional gas dynamics equation written under total Lagrangian form. In this framework, the computational grid is fixed, however one has to follow the time evolution of the Jacobian matrix associated to the Lagrange-Euler flow map, namely the gradient deformation tensor. In the present work, the flow map is discretized by means of continuous mapping, using a finite element basis. This provides an approximation of the deformation gradient tensor which satisfies the important Piola identity. The discretization of the physical conservation laws for specific volume, momentum and total energy relies on a discontinuous Galerkin method. The scheme is built to satisfying exactly the Geometric Conservation Law (GCL). In the case of the third-order scheme, the velocity field being quadratic we allow the geometry to curve. To do so, a Bezier representation is employed to define the mesh edges. We illustrate the robustness and the accuracy of the implemented schemes using several relevant test cases and performing rate convergences analysis
APA, Harvard, Vancouver, ISO, and other styles
23

Baillet, Séverine. "Optimisation de forme d'une pompe générique de fond de puits." Phd thesis, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00344716.

Full text
Abstract:
L'objectif de l'optimisation de forme d'une pompe générique de fond de puits est de maximiser le gain de pression par unité de longueur de la pompe, en redessinant ses aubes et son moyeu, tout en respectant un certain nombre de contraintes géométriques. On génère la représentation de la géométrie 3D de la pompe grâce à des B-splines paramétriques cubiques 2D. Pour l'optimisation on utilise une méthode de gradient classique. On emploie Fluent, un logiciel de modélisation de mécanique des fluides "boîte noire" et on procède par conséquent à un calcul de gradient incomplet de la fonction coût. Pour cela on écrit l'expression analytique exacte du gradient à l'aide d'une formule d'intégration sur les bords variables puis on ne prend en compte que les termes que l'on peut calculer ou déterminer numériquement. Les termes généralement écartés sont les dérivées des solutions de l'équation d'état par rapport au déplacement d'un point de contrôle. On a d'abord développé un code d'optimisation pour le moyeu de la pompe seul, sans aubages, et on présente les résultats obtenus. On utilise une méthode d'optimisation sans contrainte et on prend en compte par réduction du problème des contraintes d'égalité linéaires. On constate qu'après une première phase de décroissance, la fonction coût ne converge pas vers un minimum. On propose alors quelques tests de façon à analyser ce résultat. Parmi ceux-là, l'emploi des différences finies confirme que le gradient incomplet n'est pas systématiquement une direction de descente. Enfin quelques pistes sont évoquées pour l'expliquer.
APA, Harvard, Vancouver, ISO, and other styles
24

Li, Tianyi. "Gradient-damage modeling of dynamic brittle fracture : variational principles and numerical simulations." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX042/document.

Full text
Abstract:
Une bonne tenue mécanique des structures du génie civil en béton armé sous chargements dynamiques sévères est primordiale pour la sécurité et nécessite une évaluation précise de leur comportement en présence de propagation dynamique de fissures. Dans ce travail, on se focalise sur la modélisation constitutive du béton assimilé à un matériau élastique-fragile endommageable. La localisation des déformations sera régie par un modèle d'endommagement à gradient où un champ scalaire réalise une description régularisée des phénomènes de rupture dynamique. La contribution de cette étude est à la fois théorique et numérique. On propose une formulation variationnelle des modèles d'endommagement à gradient en dynamique. Une définition rigoureuse de plusieurs taux de restitution d'énergie dans le modèle d'endommagement est donnée et on démontre que la propagation dynamique de fissures est régie par un critère de Griffith généralisé. On décrit ensuite une implémentation numérique efficace basée sur une discrétisation par éléments finis standards en espace et la méthode de Newmark en temps dans un cadre de calcul parallèle. Les résultats de simulation de plusieurs problèmes modèles sont discutés d'un point de vue numérique et physique. Les lois constitutives d'endommagement et les formulations d'asymétrie en traction et compression sont comparées par rapport à leur aptitude à modéliser la rupture fragile. Les propriétés spécifiques du modèle d'endommagement à gradient en dynamique sont analysées pour différentes phases de l'évolution de fissures : nucléation, initiation, propagation, arrêt, branchement et bifurcation. Des comparaisons avec les résultats expérimentaux sont aussi réalisées afin de valider le modèle et proposer des axes d'amélioration
In civil engineering, mechanical integrity of the reinforced concrete structures under severe transient dynamic loading conditions is of paramount importance for safety and calls for an accurate assessment of structural behaviors in presence of dynamic crack propagation. In this work, we focus on the constitutive modeling of concrete regarded as an elastic-damage brittle material. The strain localization evolution is governed by a gradient-damage approach where a scalar field achieves a smeared description of dynamic fracture phenomena. The contribution of the present work is both theoretical and numerical. We propose a variationally consistent formulation of dynamic gradient damage models. A formal definition of several energy release rate concepts in the gradient damage model is given and we show that the dynamic crack tip equation of motion is governed by a generalized Griffith criterion. We then give an efficient numerical implementation of the model based on a standard finite-element spatial discretization and the Newmark time-stepping methods in a parallel computing framework. Simulation results of several problems are discussed both from a computational and physical point of view. Different damage constitutive laws and tension-compression asymmetry formulations are compared with respect to their aptitude to approximate brittle fracture. Specific properties of the dynamic gradient damage model are investigated for different phases of the crack evolution: nucleation, initiation, propagation, arrest, kinking and branching. Comparisons with experimental results are also performed in order to validate the model and indicate its further improvement
APA, Harvard, Vancouver, ISO, and other styles
25

Ollier, Edouard. "Sélection de modèles statistiques par méthodes de vraisemblance pénalisée pour l'étude de données complexes." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEN097.

Full text
Abstract:
Cette thèse est principalement consacrée au développement de méthodes de sélection de modèles par maximum de vraisemblance pénalisée dans le cadre de données complexes. Un premier travail porte sur la sélection des modèles linéaires généralisés dans le cadre de données stratifiées, caractérisées par la mesure d’observations ainsi que de covariables au sein de différents groupes (ou strates). Le but de l’analyse est alors de déterminer quelles covariables influencent de façon globale (quelque soit la strate) les observations mais aussi d’évaluer l’hétérogénéité de cet effet à travers les strates.Nous nous intéressons par la suite à la sélection des modèles non linéaires à effets mixtes utilisés dans l’analyse de données longitudinales comme celles rencontrées en pharmacocinétique de population. Dans un premier travail, nous décrivons un algorithme de type SAEM au sein duquel la pénalité est prise en compte lors de l’étape M en résolvant un problème de régression pénalisé à chaque itération. Dans un second travail, en s’inspirant des algorithmes de type gradient proximaux, nous simplifions l’étape M de l’algorithme SAEM pénalisé précédemment décrit en ne réalisant qu’une itération gradient proximale à chaque itération. Cet algorithme, baptisé Stochastic Approximation Proximal Gradient algorithm (SAPG), correspond à un algorithme gradient proximal dans lequel le gradient de la vraisemblance est approché par une technique d’approximation stochastique.Pour finir, nous présentons deux travaux de modélisation statistique, réalisés au cours de cette thèse
This thesis is mainly devoted to the development of penalized maximum likelihood methods for the study of complex data.A first work deals with the selection of generalized linear models in the framework of stratified data, characterized by the measurement of observations as well as covariates within different groups (or strata). The purpose of the analysis is then to determine which covariates influence in a global way (whatever the stratum) the observations but also to evaluate the heterogeneity of this effect across the strata.Secondly, we are interested in the selection of nonlinear mixed effects models used in the analysis of longitudinal data. In a first work, we describe a SAEM-type algorithm in which the penalty is taken into account during step M by solving a penalized regression problem at each iteration. In a second work, inspired by proximal gradient algorithms, we simplify the M step of the penalized SAEM algorithm previously described by performing only one proximal gradient iteration at each iteration. This algorithm, called Stochastic Approximation Proximal Gradient Algorithm (SAPG), corresponds to a proximal gradient algorithm in which the gradient of the likelihood is approximated by a stochastic approximation technique.Finally, we present two statistical modeling works realized during this thesis
APA, Harvard, Vancouver, ISO, and other styles
26

Zou, Qinmeng. "Iterative methods with retards for the solution of large-scale linear systems." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC042.

Full text
Abstract:
Toute perturbation dans les systèmes linéaires peut gravement dégrader la performance des méthodes itératives lorsque les directions conjuguées sont constituées. Ce problème peut être partiellement résolu par les méthodes du gradient à retards, qui ne garantissent pas la descente de la fonction quadratique, mais peuvent améliorer la convergence par rapport aux méthodes traditionnelles. Les travaux ultérieurs se sont concentrés sur les méthodes du gradient alternées avec deux ou plusieurs types de pas afin d'interrompre le zigzag. Des papiers récents ont suggéré que la révélation d'information de second ordre avec des pas à retards pourrait réduire de manière asymptotique les espaces de recherche dans des dimensions de plus en plus petites. Ceci a conduit aux méthodes du gradient avec alignement dans lesquelles l'étape essentielle et l'étape auxiliaire sont effectuées en alternance. Des expériences numériques ont démontré leur efficacité. Cette thèse considère d'abord des méthodes du gradient efficaces pour résoudre les systèmes linéaires symétriques définis positifs. Nous commençons par étudier une méthode alternée avec la propriété de terminaison finie à deux dimensions. Ensuite, nous déduisons davantage de propriétés spectrales pour les méthodes du gradient traditionnelles. Ces propriétés nous permettent d’élargir la famille de méthodes du gradient avec alignement et d’établir la convergence de nouvelles méthodes. Nous traitons également les itérations de gradient comme un processus peu coûteux intégré aux méthodes de splitting. En particulier, nous abordons le problème de l’estimation de paramètre et suggérons d’utiliser les méthodes du gradient rapide comme solveurs internes à faible précision. Dans le cas parallèle, nous nous concentrons sur les formulations avec retards pour lesquelles il est possible de réduire les coûts de communication. Nous présentons également de nouvelles propriétés et méthodes pour les itérations de gradient s-dimensionnelles. En résumé, cette thèse s'intéresse aux trois sujets interreliés dans lesquelles les itérations de gradient peuvent être utilisées en tant que solveurs efficaces, qu’outils intégrés pour les méthodes de splitting et que solveurs parallèles pour réduire la communication. Des exemples numériques sont présentés à la fin de chaque sujet pour appuyer nos résultats théoriques
Any perturbation in linear systems may severely degrade the performance of iterative methods when conjugate directions are constructed. This issue can be partially remedied by lagged gradient methods, which does not guarantee descent in the quadratic function but can improve the convergence compared with traditional gradient methods. Later work focused on alternate gradient methods with two or more steplengths in order to break the zigzag pattern. Recent papers suggested that revealing of second-order information along with lagged steps could reduce asymptotically the search spaces in smaller and smaller dimensions. This led to gradient methods with alignment in which essential and auxiliary steps are conducted alternately. Numerical experiments have demonstrated their effectiveness. This dissertation first considers efficient gradient methods for solving symmetric positive definite linear systems. We begin by studying an alternate method with two-dimensional finite termination property. Then we derive more spectral properties for traditional steplengths. These properties allow us to expand the family of gradient methods with alignment and establish the convergence of new methods. We also treat gradient iterations as an inexpensive process embedded in splitting methods. In particular we address the parameter estimation problem and suggest to use fast gradient methods as low-precision inner solvers. For the parallel case we focus on the lagged formulations for which it is possible to reduce communication costs. We also present some new properties and methods for s-dimensional gradient iterations. To sum up, this dissertation is concerned with three inter-related topics in which gradient iterations can be employed as efficient solvers, as embedded tools for splitting methods and as parallel solvers for reducing communication. Numerical examples are presented at the end of each topic to support our theoretical findings
APA, Harvard, Vancouver, ISO, and other styles
27

Watremetz, Benoît. "Modèle thermomécanique 3D d'un matériau à gradient de propriétés à l'aide de techniques multigrilles : application aux moules d'injection de polymères." Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0057/these.pdf.

Full text
Abstract:
La notion de traitement de surface recouvre un grand nombre de procédés et de gammes de traitements. Leur objectif est de donner à la surface traitée d'une pièce des propriétés physico-chimiques, mécaniques ou géométriques particulières afin de la protéger des agressions extérieures tout en conservant les propriétés en volume de la pièce. Ce travail a pour but d'enrichir les modélisations existantes et de développer un modèle innovant en proposant une description englobant les traitements de surface dans leur ensemble. De ce fait il est alors nécessaire de prendre en compte une variation continue et quelconque des propriétés mécaniques et thermiques dans l'épaisseur du matériau. Nous avons développé un modèle thermoélastique 3D basé sur les équations de Lamé généralisées et l'équation de la conduction dans un solide non homogène. Le problème est résolu à l'aide d'une discrétisation aux différences finies du deuxième ordre. Le système linéaire en résultant est traité à l'aide de la méthode itérative de Gauss-Seidel couplée avec les techniques Multigrilles. Des méthodes numériques spécifiques ont été mises en place pour garantir la convergence optimale du solveur même dans les cas les plus sévères (variation de propriétés importantes). L'application visée ici concerne l'amélioration du procédé d'injection des matières plastiques et l'augmentation de la durée de vie des moules avec l'utilisation de traitements à la surface à leur surface. Cette étude a nécessité la mesure des propriétés des différents revêtements sélectionnés et la mise en place d'un modèle d'injection simplifié à partir d'essais sur moule instrumenté. Enfin, une étude utilisant un modèle simplifié à permis d'expliquer l'état de contrainte dans le revêtement et de choisir le traitement le plus approprié en fonction des sollicitations thermomécaniques subies
Surface treatments cover a wide range of processes and treatments. Their aim is to increase life and operating performances of engineering materials by giving surfaces specific mechanical, thermal, and chemical properties. The task of determining which type of coating (material, thickness, and deposition process) is optimal is a complicated task. Optimizing a coating for a specific application requires bringing together knowledge from very different disciplines: physics, structural mechanic, surface chemistry, etc. This makes the development and selection of treatment a complex and costly task. It can only be undertaken with a recursive method, which includes experimental procedures and numerical calculations. The current work aims at developing a 3D thermo-mechanical model for functionally graded materials (FGM). Such materials are commonly used to protect surfaces from tribological damages. They may be either coating materials or interface regions between successive coatings with varying properties. The model is based on second order Finite Difference (FD) formulation of the thermal and elasticity equations in a non-homogeneous solid. It can handle any kind of depth dependence of the material properties. Multigrid techniques and local refinement strategies have been implemented to accelerate the convergence, reduce CPU time and thus permit the use of fine grids to accurately describe the variation in the material properties. Specific numerical techniques are used to guaranty an optimal convergence rate of the numerical technique even in the most severe cases. One application of this work is the analysis of the effect of different prospective coatings in polymer injection molding. The aim is to increase the mold life by protecting the surface and avoid the development of surface damages due to the process. An approximate model is developed for the thermal and mechanical conditions to which the coating is exposed in the different phases of the process. This study is completed with experimental methods that were used to characterize the coating properties. Finally, a simplified model is used to complete the results obtained using the time dependant analysis. It helps understanding the thermo-mechanical coupling and stress calculated in the prospective coatings to determine the most appropriate treatment for this application
APA, Harvard, Vancouver, ISO, and other styles
28

Pierucci, Federico. "Optimisation non-lisse pour l'apprentissage statistique avec régularisation matricielle structurée." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM024/document.

Full text
Abstract:
La phase d’apprentissage des méthodes d’apprentissage statistique automatique correspondent à la résolution d’un problème d’optimisation mathématique dont la fonction objectif se décompose en deux parties: a) le risque empirique, construit à partir d’une fonction de perte, dont la forme est déterminée par la métrique de performance et les hypothèses sur le bruit; b) la pénalité de régularisation, construite a partir d’une norme ou fonction jauge, dont la structure est déterminée par l’information à priori disponible sur le problème a résoudre.Les fonctions de perte usuelles, comme la fonction de perte charnière pour la classification supervisée binaire, ainsi que les fonctions de perte plus avancées comme celle pour la classification supervisée avec possibilité d’abstention, sont non-différentiables. Les pénalités de régularisation comme la norme l1 (vectorielle), ainsi que la norme nucléaire (matricielle), sont également non- différentiables. Cependant, les algorithmes d’optimisation numériques les plus simples, comme l’algorithme de sous-gradient ou les méthodes de faisceaux, ne tirent pas profit de la structure composite de l’objectif. Le but de cette thèse est d’étudier les problèmes d’apprentissage doublement non-différentiables (perte non- différentiable et régularisation non-différentiable), ainsi que les algorithmes d’optimisation numérique qui sont en mesure de bénéficier de cette structure composite.Dans le premier chapitre, nous présentons une nouvelle famille de pénalité de régularisation, les normes de Schatten par blocs, qui généralisent les normes de Schatten classiques. Nous démontrons les principales propriétés des normes de Schatten par blocs en faisant appel à des outils d’analyse convexe et d’algèbre linéaire; nous retrouvons en particulier des propriétés caractérisant les normes proposées en termes d’enveloppe convexes. Nous discutons plusieurs applications potentielles de la norme nucléaire par blocs, pour le filtrage collaboratif, la compression de bases de données, et l’annotation multi-étiquettes d’images.Dans le deuxième chapitre, nous présentons une synthèse de différentes tech- niques de lissage qui permettent d’utiliser des algorithmes de premier ordre adaptes aux objectifs composites qui de décomposent en un terme différentiable et un terme non-différentiable. Nous montrons comment le lissage peut être utilisé pour lisser la fonction de perte correspondant à la précision au rang k, populaire pour le classement et la classification supervises d’images. Nous décrivons dans les grandes lignes plusieurs familles d’algorithmes de premier ordre qui peuvent bénéficier du lissage: i) les algorithmes de gradient conditionnel; ii) les algorithmes de gradient proximal; iii) les algorithmes de gradient incrémental.Dans le troisième chapitre, nous étudions en profondeur les algorithmes de gradient conditionnel pour les problèmes d’optimisation non-différentiables d’apprentissage statistique automatique. Nous montrons qu’une stratégie de lis- sage adaptative associée à un algorithme de gradient conditionnel donne lieu à de nouveaux algorithmes de gradient conditionnel qui satisfont des garanties de convergence théoriques. Nous présentons des résultats expérimentaux prometteurs des problèmes de filtrage collaboratif pour la recommandation de films et de catégorisation d’images
Training machine learning methods boils down to solving optimization problems whose objective functions often decomposes into two parts: a) the empirical risk, built upon the loss function, whose shape is determined by the performance metric and the noise assumptions; b) the regularization penalty, built upon a norm, or a gauge function, whose structure is determined by the prior information available for the problem at hand.Common loss functions, such as the hinge loss for binary classification, or more advanced loss functions, such as the one arising in classification with reject option, are non-smooth. Sparse regularization penalties such as the (vector) l1- penalty, or the (matrix) nuclear-norm penalty, are also non-smooth. However, basic non-smooth optimization algorithms, such as subgradient optimization or bundle-type methods, do not leverage the composite structure of the objective. The goal of this thesis is to study doubly non-smooth learning problems (with non-smooth loss functions and non-smooth regularization penalties) and first- order optimization algorithms that leverage composite structure of non-smooth objectives.In the first chapter, we introduce new regularization penalties, called the group Schatten norms, to generalize the standard Schatten norms to block- structured matrices. We establish the main properties of the group Schatten norms using tools from convex analysis and linear algebra; we retrieve in particular some convex envelope properties. We discuss several potential applications of the group nuclear-norm, in collaborative filtering, database compression, multi-label image tagging.In the second chapter, we present a survey of smoothing techniques that allow us to use first-order optimization algorithms designed for composite objectives decomposing into a smooth part and a non-smooth part. We also show how smoothing can be used on the loss function corresponding to the top-k accuracy, used for ranking and multi-class classification problems. We outline some first-order algorithms that can be used in combination with the smoothing technique: i) conditional gradient algorithms; ii) proximal gradient algorithms; iii) incremental gradient algorithms.In the third chapter, we study further conditional gradient algorithms for solving doubly non-smooth optimization problems. We show that an adaptive smoothing combined with the standard conditional gradient algorithm gives birth to new conditional gradient algorithms having the expected theoretical convergence guarantees. We present promising experimental results in collaborative filtering for movie recommendation and image categorization
APA, Harvard, Vancouver, ISO, and other styles
29

Drummond, Lewis Leroy Anthony. "Résolution de systèmes linéaires creux par des méthodes itératives par blocs dans des environnements distribués hétérogènes." Toulouse, INPT, 1995. http://www.theses.fr/1995INPT098H.

Full text
Abstract:
Nous etudions l'implantation de methodes iteratives par blocs, dans des environnements multiprocesseur a memoire distribuees, pour la resolution de systemes lineaires quelconques. Dans un premier temps, nous nous interessons a l'etude du potentiel de la methode du gradient conjugue classique en environnement parallele. Dans un deuxieme temps, nous etudions la methode du gradient conjugue par blocs. La complexite algorithmique de la methode du gradient conjugue par blocs est superieure a celle de la methode du gradient conjugue classique, car elle demande plus de calculs par iteration, et necessite en outre plus de memoire. Malgre cela, la methode du gradient conjugue par blocs apparait comme etant mieux adaptee aux environnements vectoriels et paralleles. Nous avons etudie trois variantes du gradient conjugue par blocs basees sur differents modeles paralleles et leur efficacite a ete comparees sur divers environnements. Pour la resolution des systemes lineaires non symetriques, nous considerons l'utilisation de methodes iteratives de projection par lignes, accelerees par la methode du gradient conjugue par blocs. En particulier, nous etudions l'implantation dans des environnements distribues de la methode de cimmino par blocs acceleree par la methode du gradient conjugue par blocs. La combinaison de ces deux techniques presentent en effet un bon potentiel de parallelisme. Pour une bonne performance de l'implantation de cette derniere methode dans des environnements distribues heterogenes, nous avons etudie differentes strategies de repartition des taches aux divers processeurs, et nous comparons deux sequencements statiques realisant cette repartition. Le premier a pour but de maintenir l'equilibre des charges et le second a pour objectif de reduire en premier les communications entre les processeurs tout en essayant d'equilibrer aux mieux leurs charges. Finalement, nous etudions des strategies de pretraitement des systemes lineaires pour ameliorer la performance de la methode de cimmino par blocs
APA, Harvard, Vancouver, ISO, and other styles
30

Hadjou, Tayeb. "Analyse numérique des méthodes de points intérieurs : simulations et applications." Rouen, 1996. http://www.theses.fr/1996ROUES062.

Full text
Abstract:
La thèse porte sur une étude à la fois théorique et pratique des méthodes de points intérieurs pour la programmation linéaire et la programmation quadratique convexe. Dans une première partie, elle donne une introduction aux méthodes de points intérieurs pour la programmation linéaire, décrit les outils de base, classifie et présente d'une façon unifiée les différentes méthodes. Elle présente dans la suite un exposé des algorithmes de trajectoire centrale pour la programmation linéaire et la programmation quadratique convexe. Dans une seconde partie sont étudiées des procédures de purification en programmation linéaire. Il s'agit des procédures qui déterminent, via une méthode de points intérieurs, un sommet (ou face) optimal. Dans cette partie, nous avons introduit et développé une nouvelle procédure de purification qui permet de mener dans tous les cas à un sommet optimal et de réduire le temps de calcul. La dernière partie est consacrée aux illustrations et aux expériences numériques.
APA, Harvard, Vancouver, ISO, and other styles
31

Martinroche, Guillaume. "Quantification et caractérisation des maladies auto-immunes et allergiques à l'aide de méthodes d'apprentissage profond." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0154.

Full text
Abstract:
Les outils d’aide au diagnostic utilisant l’intelligence artificielle (IA) aideront très prochainement les praticiens à proposer une médecine plus personnalisée et de précision pour les patients. Les maladies auto-immunes et allergiques (MAIA) sont le parfait exemple de maladies au diagnostic complexe pouvant bénéficier de ces outils. Les anticorps antinucléaires (ANA) sur les cellules épithéliales humaines (HEp-2) sont la référence pour le dépistage et le diagnostic des maladies auto-immunes (MAI). Pour une harmonisation des pratiques de laboratoires et cliniques, une lecture et une classification automatiques des aspects d’ANA observés sur cellules HEp-2 par immunofluorescence indirecte (IIF) respectant la classification recommandée par l’International Consensus on Antinuclear Antibody Patterns (ICAP) sont des exigences croissantes. A partir d’une collection complète d’images de cellules HEp-2 du CHU de Bordeaux et en utilisant une méthodologie d’apprentissage supervisé, un système de classification automatique des aspects d’IFI pour les images de cellules HEp-2 a été développé à partir des recommandations de l’ICAP et adaptées aux pratiques locales. Il repose sur un classificateur pour les aspects du noyau seulement (16 aspects et jusqu’à 2 aspects par image) et un second classificateur pour les aspects du cytoplasme seulement. Fort de résultats prometteurs, le système proposé devrait contribuer à la reconnaissance automatique des aspects d’ANA permettant des tests quantitatifs réflexes ciblés sur quelques auto-anticorps afin de faciliter in fine un diagnostic efficace et précis des MAI. Les puces à allergènes, permettent de rechercher simultanément jusqu’à 300 IgE spécifiques et s’intègrent dans une démarche diagnostique ascendante des allergies où, à partir d’une analyse la plus large possible, nous cherchons ensuite à déterminer quel(s) allergène(s) est (sont) susceptible(s) d’expliquer les symptômes du patient. Néanmoins, la masse de données produites dépasse la capacité d’analyse de l’utilisateur moyen et le grand nombre de résultats obtenus peut masquer ceux qui sont réellement pertinents cliniquement. Une base de données a été constituée à partir de 4271 résultats de puces (Société Française d’Allergologie), et de vingt-cinq données démographiques et cliniques. Un data challenge international a permis l’obtention de premiers modèles capables de prédire les profils allergiques des patients. Un outil plus complet et adapté à la pratique quotidienne est en cours de développement. L’outil pourra procurer au clinicien une probabilité d’allergie moléculaire par famille de protéines à partir de la puce à allergènes et un nombre très restreint de données cliniques ou démographiques, limitant ainsi les délais diagnostiques et le recours aux tests de provocation orale. Les outils d’aide aux diagnostics utilisant les technologies dites d’IA participent notamment à l’amélioration de l’efficience des techniques actuelles pour libérer du temps vis-à-vis de tâches répétitives et à faible valeur ajoutée. Ils sont généralement mal perçus par les praticiens considérant perdre leur expertise, voire être remplacés par les algorithmes. Particulièrement forte en Biologie Médicale, cette amélioration touche directement à la fonction de Biologiste Médical. Pour tenter de mieux comprendre, nous nous sommes intéressés au lien de confiance, s’il peut en être un, entre le praticien et l’outil d’aide au diagnostic. Les notions de fiabilité et de véracité ont pu être discutées. Une enquête nationale auprès des biologistes médicaux pratiquant l’IFI sur cellules HEp-2 a permis de révéler une réticence avec des raisons liées aux performances et à une méconnaissance des systèmes. Le déploiement et l’adhésion faisant l’unanimité de stratégies similaires dans le domaine de la cytologie une fois les performances constatées, montre un réel intérêt. [...]
Diagnostic tools based on artificial intelligence (AI) and capable of integrating several types of data, will be crucial in the next coming years in helping practitioners provide more personalized, precision medicine for patients. Autoimmune and allergic diseases are perfect examples of complex, multi-parametric diagnostics that could benefit from such tools. Antinuclear antibodies (ANA) on human epithelial cells (HEp-2) are important biomarkers for the screening and diagnosis of autoimmune diseases. For harmonization of biological practices and clinical management, automatic reading and classification of ANA immunofluorescence patterns for HEp-2 images according to the nomenclature recommended by the International Consensus on Antinuclear Antibody Patterns (ICAP) seems to be a growing requirement. In our study, an automatic classification system for Indirect Immunofluorescence (IIF) patterns of HEp-2 cells images was developed using a supervised learning methodology, based on a complete collection of HEp-2 cell images from Bordeaux University Hospital labelled accordingly to ICAP recommendations and local practices. The system consists of a classifier for nucleus patterns only (16 patterns and allowing recognition of up to two aspects per image) and a second classifier for cytoplasm aspects only. With this contribution to the automation of ANA in medical biology laboratories, it will enable reflex quantitative tests targeted on a few autoantibodies, ultimately facilitating efficient and accurate diagnosis of autoimmune diseases. Allergen microarrays, enable the simultaneous detection of up to 300 specific IgE antibodies and are part of a bottom-up diagnostic approach in which, on the basis of the broadest possible analysis, we then seek to determine which allergen(s) is (are) likely to explain the patient's symptoms. However, the mass of data produced by this single analysis is beyond the analytical capacity of the average user and the large number of results obtained simultaneously can mask those that are truly clinically relevant. A database of 4271 patients (Société Française d'Allergologie) was created, including allergen microarrays data and twenty-five demographic and clinical data. This database allowed the development of the first models capable of predicting patients' allergic profiles thanks to an international data challenge. The best F1-scores were around 80%. A more comprehensive tool adapted to daily practice is currently under development. Based essentially on microarrays data and a very few clinical and demographic data, it will be able to provide clinicians with a probability of molecular allergy by protein family, thus limiting diagnostic delays and the need for oral provocation tests. Diagnostic tools using so-called AI technologies are helping to improve the efficiency of current techniques, leveraging locks for repetitive, low-value-added tasks. These tools are generally poorly perceived by practitioners, who feel that they are losing their expertise, and even that they are being replaced by algorithms. This impression is particularly strong in Medical Biology, where this improvement directly affects the function of the Medical Biologist. In an attempt to better understand this, we took a closer look at the relationship of trust, if there can be one, between the practitioner and the diagnostic tool. The concepts of reliability and veracity were discussed. Thanks to a survey of medical biologists working on the analysis of aspects of HEp-2 cells, a certain reticence can be highlighted, with reasons linked to performance scores and unfamiliarity with the systems. The deployment and commitment to similar strategies in the field of biological hematology shows real interest once performance has been established. The development of two diagnostic tools for autoimmune and allergic diseases is laying the foundations for improved results and lasting integration into a more personalized, precision medicine
APA, Harvard, Vancouver, ISO, and other styles
32

Drullion, Frédérique. "Définition et étude de systèmes linéaires pour la simulation d'écoulements et l'optimisation de formes aérodynamiques par méthode de gradient." Bordeaux 1, 2004. http://www.theses.fr/2004BOR12898.

Full text
Abstract:
Cette thèse présente l'étude des systèmes linéaires issus de l'application de schéma backward-Euler pour la résolution des équations RANS complétées par le modèle de turbulence k-? d'une part, et pour la résolution des équations linearisée et adjointe qui interviennent dans le processus d'optimisation par méthode de gradients. La résolution de ces systèmes est critique pour la convergence du schéma, il est donc important de les définir et de les résoudre aussi bien que possible. Pour les équations RANS, dans un premier temps, puis pour les équations linearisée et adjointe, sont exposées et testées différentes propositions visant à accélérer la convergence des schémas, celles-ci portent soit sur le membre de gauche des équations, soit sur la méthode de résolution des systèmes linéaires. L'ensemble de ces propositions est testé sur différents cas test bi-dimensionnels et tridimensionnels, aussi bien pour des écoulements de fluide parfaits que de fluide visqueux et pour des cas d'aérodynamique interne aussi bien qu'externe.
APA, Harvard, Vancouver, ISO, and other styles
33

Boussandel, Sahbi. "Méthodes de résolution d'équations algébriques et d'évolution en dimension finie et infinie." Electronic Thesis or Diss., Metz, 2010. http://www.theses.fr/2010METZ027S.

Full text
Abstract:
Dans la présente thèse, on s’intéresse à la résolution de problèmes algébriques et d’évolution en dimension finie et infinie. Dans le premier chapitre, on a étudié l’existence globale et la régularité maximale d’un système gradient abstrait avec des applications à des problèmes de diffusion non-linéaires et à une équation de la chaleur avec des coefficients non-locaux. La méthode utilisée est la méthode d’approximation de Galerkin. Dans le deuxième chapitre, on a étudié l’existence locale, l’unicité et la régularité maximale des solutions de l’équation de raccourcissement des courbes en utilisant le théorème d’inversion locale. Finalement, dans le dernier chapitre, on a résolu une équation algébrique entre deux espaces de Banach en utilisant la méthode de Newton continue avec une application à une équation différentielle avec des conditions aux limites périodiques
In this work, we solve algebraic and evolution equations in finite and infinite-dimensional sapces. In the first chapter, we use the Galerkin method to study existence and maximal regularity of solutions of a gradient abstract system with applications to non-linear diffusion equations and to non-degenerate quasilinear parabolic equations with nonlocal coefficients. In the second chapter, we Study local existence, uniqueness and maximal regularity of solutions of the curve shortening flow equation by using the local inverse theorem. Finally, in the third chapter, we solve an algebraic equation between two Banach spaces by using the continuous Newton’s method and we apply this result to solve a non-linear ordinary differential equation with periodic boundary conditions
APA, Harvard, Vancouver, ISO, and other styles
34

Chizat, Lénaïc. "Transport optimal de mesures positives : modèles, méthodes numériques, applications." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED063/document.

Full text
Abstract:
L'objet de cette thèse est d'étendre le cadre théorique et les méthodes numériques du transport optimal à des objets plus généraux que des mesures de probabilité. En premier lieu, nous définissons des modèles de transport optimal entre mesures positives suivant deux approches, interpolation et couplage de mesures, dont nous montrons l'équivalence. De ces modèles découle une généralisation des métriques de Wasserstein. Dans une seconde partie, nous développons des méthodes numériques pour résoudre les deux formulations et étudions en particulier une nouvelle famille d'algorithmes de "scaling", s'appliquant à une grande variété de problèmes. La troisième partie contient des illustrations ainsi que l'étude théorique et numérique, d'un flot de gradient de type Hele-Shaw dans l'espace des mesures. Pour les mesures à valeurs matricielles, nous proposons aussi un modèle de transport optimal qui permet un bon arbitrage entre fidélité géométrique et efficacité algorithmique
This thesis generalizes optimal transport beyond the classical "balanced" setting of probability distributions. We define unbalanced optimal transport models between nonnegative measures, based either on the notion of interpolation or the notion of coupling of measures. We show relationships between these approaches. One of the outcomes of this framework is a generalization of the p-Wasserstein metrics. Secondly, we build numerical methods to solve interpolation and coupling-based models. We study, in particular, a new family of scaling algorithms that generalize Sinkhorn's algorithm. The third part deals with applications. It contains a theoretical and numerical study of a Hele-Shaw type gradient flow in the space of nonnegative measures. It also adresses the case of measures taking values in the cone of positive semi-definite matrices, for which we introduce a model that achieves a balance between geometrical accuracy and algorithmic efficiency
APA, Harvard, Vancouver, ISO, and other styles
35

Latard, Véronique. "Méthodes de visualisation par gradient d'indice en mécanique des milieux non homogènes : application à la diffusion acoustique et aux écoulements diphasiques." Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/55376-1998-5.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Giraud, Luc. "Implantations parallèles de méthodes de sous-domaines synchrones et asynchrones pour résoudre des problèmes aux limites." Toulouse, INPT, 1991. http://www.theses.fr/1991INPT067H.

Full text
Abstract:
L'objet de cette these est l'implantation parallele et l'evaluation des performances de deux types de methodes de sous-domaines pour resoudre des problemes aux limites lineaires et non lineaires. Les premieres sont les methodes de relaxation paralleles synchrones et asynchrones pour lesquelles une decomposition sans recouvrement est consideree. Les secondes sont differentes variantes a retards de la methode alternee de schwarz mises en uvre pour resoudre les problemes bidimensionnels issus de la discretisation par plans d'un probleme lineaire tridimensionnel. Le systeme produit est alors resolu par differentes methodes de gradient conjugue preconditionne
APA, Harvard, Vancouver, ISO, and other styles
37

Zhao, Zhidong. "Optimisation d'antennes et de réseaux d'antennes planaires par gradient de forme et ensembles de niveaux (Level Sets)." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4097.

Full text
Abstract:
L'objectif de cette thèse est de trouver la forme optimale d'une antenne planaire ou d'un réseau d'antennes planaires à partir de contraintes imposées (diagramme de rayonnement, gain ou directivité) ou de reconstruire la forme à partir de mesures expérimentales. L'algorithme d'optimisation développé est basé sur une méthode de type gradient et la reconstruction des contours par une méthode d'ensembles de niveaux (Level Sets) ou "contours actifs". Le problème direct est résolu en utilisant une formulation intégrale du problème électromagnétique et une méthode d'éléments finis pour la discrétisation. Le gradient de forme est calculé en utilisant deux méthodes différentes. Tout d'abord, une méthode par différences finies basée sur la dérivée à un nœud du maillage, pour une modification infinitésimale des éléments triangulaires du contour, suivant la direction de la normale extérieure. La deuxième méthode est basée sur le gradient topologique pour le calcul de la déformation des contours. Une méthode d'ensembles de niveaux avec bande étroite a été développée pour faire évoluer le contour des antennes utilisant la vitesse de déformation calculée à partir du gradient de forme. Différentes configurations d'antennes et réseaux d'antennes planaires ont été utilisées pour étudier les performances de l'algorithme d'optimisation. Des techniques de type saut de fréquence et multifréquence ont été utilisées pour optimiser la forme dans une bande de fréquence. L'optimisation de forme pour la miniaturisation d'antennes planaires concerne de nombreuses applications, en particulier, pour les réseaux réflecteurs
The objective of this thesis work is to find the optimal shape of planar antenna elements and arrays from imposed constraints (e.g. desired or imposed radiation patterns, gain or directivity) or to reconstruct the shape from experimental measurements. The optimization algorithm is based on the gradient-type method and an active contour reconstruction by means of the Level Set method. The forward problem is solved using an integral formulation of the EM problem with finite element discretization. The shape gradient is computed using two different methods: one is finite differential method based on nodal point mesh derivation with an infinitesimal modification of the triangular elements on the contour along the outward normal direction, another the topological shape gradient, which is computed based on a topological deformation on a contour. A narrow band level set method has been developed to evolve the contour of antennas and arrays using the deformation velocity computed from the shape gradient. Different configurations of antennas and antenna arrays are studied for investigating the performance of the optimization algorithm. Frequency hopping and multi-frequency techniques have been used for optimizing the shape within a frequency band. Shape optimization for planar antenna miniaturization has a large number of applications, particularly, for reflectarrays
APA, Harvard, Vancouver, ISO, and other styles
38

Décamps, Jérôme. "Méthodes itératives par blocs pour la résolution de problèmes linéaires et non linéaires à structures partiellement séparables." Toulouse, INPT, 1997. http://www.theses.fr/1997INPT092H.

Full text
Abstract:
La resolution de problemes d'optimisation partiellement separable de grande taille passe par l'exploitation des structures non assemblees des systemes lineaires sous-jacents. Dans un premier temps, nous validons l'utilisation des preconditionneurs dits element-par-element, initialement introduits pour la resolution des systemes lineaires provenant des methodes d'elements finis. Les tests effectues demontrent l'interet de ces preconditionneurs dans le contexte de l'optimisation de grande taille, des lors que les equations de newton a resoudre sont suffisamment mal conditionnees. L'utilisation d'algorithmes d'amalgamation engendre des gains substantiels dans la convergence du preconditionneur, ainsi qu'une diminution du temps d'execution mono-processeur. L'efficacite parallele des preconditionneurs element-par-element est egalement demontree. Dans un deuxieme temps, nous utilisons des preconditionneurs structures pour resoudre des systemes lineaires non assembles composes d'elements de faible rang. Une classe de preconditionneurs de sous-espaces (appeles sbs) est definie sur le modele du preconditionneur element-par-element ebe. Ce preconditionneur sbs s'avere efficace dans un grand nombre de cas pour resoudre des systemes aux moindres carres lineaires. Melange avec le preconditionneur ebe, il se revele d'un grand interet pour la resolution de problemes d'optimisation ou l'apparition de termes de faible rang est tres courante. Dans un troisieme temps, nous etudions les techniques d'etirement de matrices par bloc. Un systeme augmente equivalant au systeme initial est defini par etirement des variables. Une methode de complement de schur permet de resoudre efficacement le systeme ainsi defini et offre un potentiel parallele superieur a une methode classique. Parmi les preconditionneurs utilises pour la resolution iterative du complement de schur, les preconditionneurs ebe et sbs se revelent particulierement attractifs.
APA, Harvard, Vancouver, ISO, and other styles
39

Muyl, Frédérique. "Méthodes d'optimisation hybrides appliquées à l'optimisation de formes en aérodynamique automobile." Paris 6, 2003. http://www.theses.fr/2003PA066397.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Touhami, Ahmed. "Utilisation des filtres de Tchebycheff et construction de préconditionneurs spectraux pour l'accélération des méthodes de Krylov." Phd thesis, Toulouse, INPT, 2005. http://oatao.univ-toulouse.fr/7422/1/touhami.pdf.

Full text
Abstract:
Le Contexte de ce travail est l'algèbre linéaire numérique. Plus précisément, on s'est intéressé à des préconditionnements pour les méthodes de Krylov, basés sur une connaissance de certains espaces propres. Ces techniques sont en particulier très utiles lorsque l'on résout une séquence de systèmes linéaires avec la même matrice mais différents second membres. L'information sur les espaces propres est extraite dans une phase d'initialisation, ou au cours de la résolution du premier système, et utilisée dans la résolution des systèmes suivants. L'approche développée dans cette thèse se base sur l'utilisation des filtres polynomiaux de Tchebycheff et sur la construction de préconditionneurs spectraux pour l'accélération des méthodes de Krylov.
APA, Harvard, Vancouver, ISO, and other styles
41

ROLAND, Christophe. "Méthodes d'Accélération de Convergence en Analyse Numérique et en Statistique." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2005. http://tel.archives-ouvertes.fr/tel-00010238.

Full text
Abstract:
La première partie est consacrée à la résolution de systèmes linéaires. Le chapitre 1 expose des résultats théoriques et numériques sur les méthodes proposées par Altman et précise le lien avec les méthodes de Krylov. Le chapitre 2 utilise des techniques d'extrapolation introduites par Brezinski pour obtenir une estimation du vecteur erreur. Plusieurs méthodes de projection sont retrouvées et de nouvelles procédures d'accélération données. Dans la deuxième partie, une nouvelle stratégie inspirée de la méthode de Cauchy-Barzilai-Borwein permet de définir de nouveaux schémas résolvant des problèmes de point fixe. Des résultats numériques sur un problème de bifurcation et un théorème de convergence sont donnés. Les chapitres 4, 5 et 6 sont consacrés à l'accélération de l'algorithme EM utilisé pour calculer des estimateurs du maximum de vraisemblance. Une classe de schémas itératifs basés sur la stratégie précédente est présentée, un théorème de convergence et une application à un problème de tomographie sont donnés. La dernière partie, fruit d'un projet du cemracs 2003, traite d'un problème issu de la physique des plasmas : l'amélioration des Codes Particles in Cell à l'aide d'une reconstruction de la densité basée sur une méthode d'ondelettes et sa validation numérique.
APA, Harvard, Vancouver, ISO, and other styles
42

Valentin, Vincent. "Optimisation aérodynamique 3-D des aubages dans les turbomachines axiales multi-étages." Paris 6, 2002. http://www.theses.fr/2002PA066360.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Tinzefte, Abdellatif. "Étude algorithmique et théorique de quelques méthodes de type Lanczos." Lille 1, 2006. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/4f702b59-cffe-4448-8753-7984d036aaba.

Full text
Abstract:
La méthode de Lanczos est l'une des méthodes itératives les plus utilisées pour la résolution des systèmes linéaires. Les polynômes orthogonaux formels permettent la mise en oeuvre des différentes méthodes de type-Lanczos. Cependant des divisions par zéro ("breakdown") peuvent être rencontrées dans le calcul de ces polynômes par des relations de récurrence. Dans la première partie de cette thèse, nous avons effectué une étude détaillée de ce phénomène, le rapport entre les différentes situations de breakdown a été établi. Cela nous a permis, d'une part, de donner une nouvelle implantation du processus de Lanczos par des récurrences à deux termes, d'autre part, d'appliquer le look-ahead à la méthode du Gradient Biconjugué. Les polynômes orthogonaux formels sont ensuite utilisés pour introduire le préconditionneur dans quelques méthodes de type-Lanczos qui utilisent le look-ahead. Ensuite, nous nous sommes particulièrement intéressés à l'algorithme MRZ-stab. Une normalisation de ses vecteurs de direction nous a permis la mise en oeuvre d'un algorithme qui évite les situations de dépassement de capacité qui sont très fréquents dans l'algorithme MRZstab. Une adaptation de l'algorithme obtenu au cas symétrique non-défini positif est proposée. A la fin de cette thèse, pour la résolution des systèmes linéaires avec plusieurs seconds membres, nous avons Proposé une nouvelle approche basée sur une projection oblique par rapport aux Sous-espaces de Krylov matriciels qui nous a permis de développer le processus de Lanczos global, ainsi que les méthodes de type-Lanczos globales. Enfin, nous avons proposé des versions avec look-ahead de certaines méthodes de type-Lanczos globales.
APA, Harvard, Vancouver, ISO, and other styles
44

Vu, Do Huy Cuong. "Méthodes numériques pour les écoulements et le transport en milieu poreux." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112348/document.

Full text
Abstract:
Cette thèse porte sur la modélisation de l’écoulement et du transport en milieu poreux ;nous effectuons des simulations numériques et démontrons des résultats de convergence d’algorithmes.Au Chapitre 1, nous appliquons des méthodes de volumes finis pour la simulation d’écoulements à densité variable en milieu poreux ; il vient à résoudre une équation de convection diffusion parabolique pour la concentration couplée à une équation elliptique en pression.Nous nous appuyons sur la méthode des volumes finis standard pour le calcul des solutions de deux problèmes spécifiques : une interface en rotation entre eau salée et eau douce et le problème de Henry. Nous appliquons ensuite la méthode de volumes finis généralisés SUSHI pour la simulation des mêmes problèmes ainsi que celle d’un problème de bassin salé en dimension trois d’espace. Nous nous appuyons sur des maillages adaptatifs, basés sur des éléments de volume carrés ou cubiques.Au Chapitre 2, nous nous appuyons de nouveau sur la méthode de volumes finis généralisés SUSHI pour la discrétisation de l’équation de Richards, une équation elliptique parabolique pour le calcul d’écoulements en milieu poreux. Le terme de diffusion peut être anisotrope et hétérogène. Cette classe de méthodes localement conservatrices s’applique àune grande variété de mailles polyédriques non structurées qui peuvent ne pas se raccorder.La discrétisation en temps est totalement implicite. Nous obtenons un résultat de convergence basé sur des estimations a priori et sur l’application du théorème de compacité de Fréchet-Kolmogorov. Nous présentons aussi des tests numériques.Au Chapitre 3, nous discrétisons le problème de Signorini par un schéma de type gradient,qui s’écrit à l’aide d’une formulation variationnelle discrète et est basé sur des approximations indépendantes des fonctions et des gradients. On montre l’existence et l’unicité de la solution discrète ainsi que sa convergence vers la solution faible du problème continu. Nous présentons ensuite un schéma numérique basé sur la méthode SUSHI.Au Chapitre 4, nous appliquons un schéma semi-implicite en temps combiné avec la méthode SUSHI pour la résolution numérique d’un problème d’écoulements à densité variable ;il s’agit de résoudre des équations paraboliques de convection-diffusion pour la densité de soluté et le transport de la température ainsi que pour la pression. Nous simulons l’avance d’un front d’eau douce assez chaude et le transport de chaleur dans un aquifère captif qui est initialement chargé d’eau froide salée. Nous utilisons des maillages adaptatifs, basés sur des éléments de volume carrés
This thesis bears on the modelling of groundwater flow and transport in porous media; we perform numerical simulations by means of finite volume methods and prove convergence results. In Chapter 1, we first apply a semi-implicit standard finite volume method and then the generalized finite volume method SUSHI for the numerical simulation of density driven flows in porous media; we solve a nonlinear convection-diffusion parabolic equation for the concentration coupled with an elliptic equation for the pressure. We apply the standard finite volume method to compute the solutions of a problem involving a rotating interface between salt and fresh water and of Henry's problem. We then apply the SUSHI scheme to the same problems as well as to a three dimensional saltpool problem. We use adaptive meshes, based upon square volume elements in space dimension two and cubic volume elements in space dimension three. In Chapter 2, we apply the generalized finite volume method SUSHI to the discretization of Richards equation, an elliptic-parabolic equation modeling groundwater flow, where the diffusion term can be anisotropic and heterogeneous. This class of locally conservative methods can be applied to a wide range of unstructured possibly non-matching polyhedral meshes in arbitrary space dimension. As is needed for Richards equation, the time discretization is fully implicit. We obtain a convergence result based upon a priori estimates and the application of the Fréchet-Kolmogorov compactness theorem. We implement the scheme and present numerical tests. In Chapter 3, we study a gradient scheme for the Signorini problem. Gradient schemes are nonconforming methods written in discrete variational formulation which are based on independent approximations of the functions and the gradients. We prove the existence and uniqueness of the discrete solution as well as its convergence to the weak solution of the Signorini problem. Finally we introduce a numerical scheme based upon the SUSHI discretization and present numerical results. In Chapter 4, we apply a semi-implicit scheme in time together with a generalized finite volume method for the numerical solution of density driven flows in porous media; it comes to solve nonlinear convection-diffusion parabolic equations for the solute and temperature transport as well as for the pressure. We compute the solutions for a specific problem which describes the advance of a warm fresh water front coupled to heat transfer in a confined aquifer which is initially charged with cold salt water. We use adaptive meshes, based upon square volume elements in space dimension two
APA, Harvard, Vancouver, ISO, and other styles
45

Vincent, Christian. "Méthodes de gradient conjugué préconditionné et techniques multigrilles pour la résolution du problème de stokes par éléments finis mixtes Q1-PO stabilisés : applications." Aix-Marseille 1, 1991. http://www.theses.fr/1991AIX11343.

Full text
Abstract:
Dans cette these, nous presentons differents solveurs de stokes par elements finis mixtes q1-p0 stabilises. Plusieurs methodes de gradient conjugue (avec preconditionneur de type macro-blocs) et techniques multigrilles, ont ete proposees pour une formulation mixte ou duale de ce probleme. En application, nous utilisons le solveur de stokes par formulation duale stabilisee pour la resolution de certains problemes non lineaires (ecoulement de navier-stokes, fluides quasi-newtoniens)
APA, Harvard, Vancouver, ISO, and other styles
46

Chantalat, Frédéric. "Méthodes level-set et de pénalisation pour l'optimisation et le contrôle d'écoulements." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13828/document.

Full text
Abstract:
Ce travail est consacré à la résolution e?cace de problèmes d’optimisation de forme ou de contrôle d’écoulements. Le couplage entre la pénalisation, permettant d’imposer des conditions aux bords sur maillage cartésien, et la méthode Level-Set, autorisant une représentation d’obstacles non-paramétrique et un suivi d’interface précis, est implémenté. En première partie, un problème inverse modèle, puis une optimisation géométrique en régime de Stokes, sont traités itérativement. Une attention particulière est portée à la solution des EDP près des zones pénalisées, et une montée en ordre est réalisée. Divers préconditionnements du gradient de forme sont aussi discutés a?n d’améliorer la convergence. La seconde partie est dédiée à la simulation directe d’écoulements au voisinage d’un actionneur dans le cadre d’un contrôle par jets pulsés exercé sur le corps d’Ahmed. L’étude locale montre l'in?uence de paramètres comme la fréquence de pulsation ou l’allure des pro?ls de vitesse en sortie sur la qualité de l’action. En guise de synthèse, une optimisation de la forme de l’actionneur du chapitre deux est pratiquée sous contraintes topologiques et dans un cadre simpli?é, à l’aide du couplage Level-Set/pénalisation préalablement introduit. L’objectif du problème inverse posé est de modi?er la géométrie intérieure du MEMS pour obtenir un pro?l de vitesses désiré en sortie de jet
This work deals with e?cient numerical solving of problems linked with shape optimization or ?ow control. The combination between penalization, that allows to impose boundary conditions while avoiding the use of body-?tted grids, and Level-Set methods, which enable a natural non-parametric representation of the geometries to be optimized, is implemented. In the ?rst part, a model inverse problem, and an application pertaining to optimal design in Stokes ?ows, are treated with an iterative algorithm. Special care is devoted to the solution of the PDE’s in the vicinity of the penalized regions. The discretization accuracy is increased. Various gradient preconditionings aiming at improving the convergence are also discussed. The second part is dedicated to direct numerical simulation of ?ows in the neighborhood of an actuator, in the context of active control by pulsed jets used on the Ahmed body. The local study emphasizes the in?uence of various parameters on the action quality, in particular the pulsation frequency, or the aspect of exit velocity pro?les. As a synthesis, shape optimization is performed on the actuator of chapter two, thanks to the previously introduced coupling between Level-Set and penalization. The framework is simpli?ed and topological constraints are imposed. The inverse problem we set intends to modify the MEMS inner geometry to retrieve a given jet pro?le on the exit section
APA, Harvard, Vancouver, ISO, and other styles
47

Boussandel, Sahbi. "Méthodes de résolution d'équations algébriques et d'évolution en dimension finie et infinie." Thesis, Metz, 2010. http://www.theses.fr/2010METZ027S/document.

Full text
Abstract:
Dans la présente thèse, on s’intéresse à la résolution de problèmes algébriques et d’évolution en dimension finie et infinie. Dans le premier chapitre, on a étudié l’existence globale et la régularité maximale d’un système gradient abstrait avec des applications à des problèmes de diffusion non-linéaires et à une équation de la chaleur avec des coefficients non-locaux. La méthode utilisée est la méthode d’approximation de Galerkin. Dans le deuxième chapitre, on a étudié l’existence locale, l’unicité et la régularité maximale des solutions de l’équation de raccourcissement des courbes en utilisant le théorème d’inversion locale. Finalement, dans le dernier chapitre, on a résolu une équation algébrique entre deux espaces de Banach en utilisant la méthode de Newton continue avec une application à une équation différentielle avec des conditions aux limites périodiques
In this work, we solve algebraic and evolution equations in finite and infinite-dimensional sapces. In the first chapter, we use the Galerkin method to study existence and maximal regularity of solutions of a gradient abstract system with applications to non-linear diffusion equations and to non-degenerate quasilinear parabolic equations with nonlocal coefficients. In the second chapter, we Study local existence, uniqueness and maximal regularity of solutions of the curve shortening flow equation by using the local inverse theorem. Finally, in the third chapter, we solve an algebraic equation between two Banach spaces by using the continuous Newton’s method and we apply this result to solve a non-linear ordinary differential equation with periodic boundary conditions
APA, Harvard, Vancouver, ISO, and other styles
48

Bounaim, Aïcha. "Méthodes de décomposition de domaine : application à la résolution de problèmes de contrôle optimal." Phd thesis, Université Joseph Fourier (Grenoble), 1999. http://tel.archives-ouvertes.fr/tel-00004809.

Full text
Abstract:
Ce travail porte sur l'étude des méthodes de décomposition de domaine et leur application pour résoudre des problèmes de contrôle optimal régis par des équations aux dérivées partielles. Le principe de ces méthodes consiste à ramener des problèmes de grande taille sur des géométries complexes en une suite de sous-problèmes de taille plus petite sur des géométries plus simples. En considérant une décomposition sans recouvrement, l'intérêt de ces méthodes pour les problèmes de contrôle optimal réside au niveau de l'intégration de l'équation d'état, puisqu'il est possible de partitionner le problème en une suite de problèmes plus petits, quitte à contraindre les interfaces entre les sous-domaines à obéir à des conditions de raccordement afin de déduire la solution globale à partir des solutions locales. Dans une première partie, nous étudions le cas elliptique. Nous considérons simultanément la minimisation de la fonction coût et des raccordements sur les frontières entre les sous-domaines. Cette combinaison de problèmes de minimisation et de méthodes de décomposition de domaine est traitée par des techniques de Lagrangien augmenté. Nous montrons que, sur le domaine décomposé, le problème initial se réduit à la recherche d'un point-selle. Une étude des méthodes de Lagrangien nous a permis de choisir une variante d'algorithmes existants dans la littérature et de les combiner avec un algorithme de décomposition de domaine. Dans la seconde partie, nous développons l'extension de cette approche aux problèmes de contrôle optimal régis par des systèmes paraboliques en considérant uniquement une décomposition en espace du domaine de calcul. Dans une dernière partie, nous considérons une décomposition de domaine avec recouvrement à chaque pas de la minimisation. D'une part, nous construisons un algorithme parallèle en utilisant la méthode de Schwarz multiplicative en tant que solveur. Ceci permet de déduire naturellement l'état adjoint par transposition des systèmes directs locaux. L'algorithme global défini par la méthode de minimisation de type quasi-Newton et ce solveur de Schwarz constitue une méthode robuste de résolution du problème de contrôle optimal, mais coûteuse. D'autre part, et plus particulièrement, pour des problèmes de grande taille, l'algorithme de type quasi-Newton, combiné avec le solveur de Krylov BiCGSTAB préconditionné par une méthode de Schwarz additive, est plus compétitif dans la mesure oû l'on obtient de bonnes performances parallèles. De nombreux résultats sont présentés pour préciser le comportement des algorithmes d'optimisation quand ils sont utilisés avec des méthodes de Schwarz.
APA, Harvard, Vancouver, ISO, and other styles
49

Schwob, Cyrille. "Approche non locale probabiliste pour l'analyse en fatigue des zones à gradient de contraintes." Toulouse 3, 2007. http://www.theses.fr/2007TOU30246.

Full text
Abstract:
Les choix de conception de pièces et structures sont habituellement validés en fatigue à l'aide de critère de fatigue tels que les critères de Crossland, Dang Van ou encore Papadopoulos. Ces critères sont idéalement identifiés à partir de données expérimentales obtenues sur des éprouvettes simples. Cependant l'application de ces modèles ne conduit pas toujours à une prévision fiable du comportement en fatigue de la pièce étudiée. En effet le transfert vers une pièce réelle des caractéristiques de fatigue d'un matériau, à l'aide de critères, ne prend généralement pas directement en compte de nombreux effets, notamment les effets de concentrations de contraintes. De plus la réponse binaire d'un critère de fatigue ne reflète pas de façon adéquate l'importante dispersion observée expérimentale lors de tout essai de fatigue. Les travaux de thèses s'attachent à définir un critère de fatigue prenant en compte l'effet de gradient de contrainte et à l'intégrer dans une démarche probabiliste générale. Le critère développé est un critère non local qui moyenne un critère classique sur une zone d'influence définie par un critère mésoscopique inspiré de l'analyse de Papadopoulos. Les prédictions de durée de vie moyenne réalisées à l'aide de ce critère ont été comparées à des résultats issus de la littérature scientifique d'une part et d'une base de données sur un alliage d'aluminium réalisée au cours de la thèse d'autre part. Au cours de cette campagne, plusieurs configurations géométriques (éprouvettes trouées et plates) et plusieurs rapports de chargements ont été testés. Les bonnes corrélations obtenues dans tous les cas montrent la robustesse du critère vis-à-vis de la géométrie et du chargement. L'intégration de ce modèle dans une démarche probabiliste nécessite alors de traiter les deux points suivants. .
A fatigue criterion taking into account the stress gradient effect has been developed and integrated in a global probabilistic framework. The proposed criterion is a non local criterion averaging a classical criterion over a particular area. This area is defined by a mesoscopic criterion derived from Papadopoulos analysis. The predictions of the new criterion are compared to experimental results coming from a dedicated test campaign on an aluminium alloy. Results are found to be in good agreement with experiments for a wide variety of geometry and load, thus demonstrating the relative robustness of the fatigue model. The fatigue model is then integrated in a probabilistic framework, the results being again satisfactorily confronted to experimental results on the same alloy. In particular the statistical quality of the probabilized SN curves obtained from the whole model is similar to the experimental one
APA, Harvard, Vancouver, ISO, and other styles
50

Roland, Christophe. "Méthodes d'accélération de convergence en analyse numérique et en statistique." Lille 1, 2005. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2005/50376-2005-Roland.pdf.

Full text
Abstract:
En premier lieu (chap. 1), je me suis intéressé à deux méthodes différentes proposées par Altman (1960) pour résoudre un système linéaire. Ces méthodes peuvent être considérées cornme des méthodes de sous-espaces de Krylov pour résoudre un système projeté du système initial. Le lien avec les méthodes classiques de sous-espaces de Krylov est précisé et des résultats théoriques et numériques sur le comportement de la:convergence sont donnés. Ensuite (chap. 2), en utilisant des techniques d'extrapolation introduites par Brezinski (1999); j'ai obtenu diverses estimations du vecteur erreur. Cette nouvelle approche permet de retrouver plusieurs méthodes connues de projection et de donner de nouvelles procédures d'accélération. Puis (chap. 3), j'ai introduit une nouvelle méthode itérative pour résoudre des problèmes non linéaires de point fixe. Cette méthode inspirée par la méthode de Cauchy-Barzilai-Borwein (Raydan et al (2002)) peut être considérée comme une modification des méthodes Delta k introduites par Brezinski et Chehab (1998). Des résultats numériques concernant la solution d'un problème de réaction-diffusion avec bifurcations illustrent l'efficacité de cette nouvelle méthode. Un résultat théorique de convergence est donné. Finalement, je me suis intéréssé à l'accélération de la convergence de l'algorithme E. M. (chap. 4) qui est utilisé pour calculer des estimateurs du maximum de vraisemblance dans des problèmes de données incomplètes. J'ai présenté une nouvelle stratégie appelée Squaring (chap. 5) qui permet d'obtenir une classe de schémas itératifs afin d'accélérer la convergence de cet algorithme. Des résultats de convergence et des expériences numériques variées dont une application en tomographie (chap. 6) montrent l'intérêt de ces schémas. D'autre part (chap. 7), dans le cadre du Cemracs 2003, je me suis intéressé à un problème issu de la physique des plasmas concernant la résolution d'une équation de Vlasov-Poisson. Le but était d'améliorer l'efficacité des codes Particles ln Cell (PIC) à l'aide d'une reconstruction de la densité basée sur une méthode d'ondelettes. Des résultats numériques en une dimension concernant le problème de l'amortissement Landau ont été obtenus pour valider la méthode.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography