Tesis sobre el tema "Méthodes de conception inverses"

Siga este enlace para ver otros tipos de publicaciones sobre el tema: Méthodes de conception inverses.

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Méthodes de conception inverses".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Fontchastagner, Julien. "Résolution du problème inverse de conception d'actionneurs électromagnétiques par association de méthodes déterministes d'optimisation globale avec des modèles analytiques et numériques". Phd thesis, Toulouse, INPT, 2007. http://oatao.univ-toulouse.fr/7621/1/fontchastagner.pdf.

Texto completo
Resumen
Les travaux présentés dans cette thèse apportent une nouvelle méthodologie de résolution du problème inverse de conception des actionneurs électromagnétiques. Après avoir abordé les aspects généraux du problème, nous choisirons de le résoudre avec des méthodes déterministes d'optimisation globale, ne nécessitant aucun point de départ, utilisant tout type de variables et assurant le caractère exact de l'optimum trouvé. Étant jusqu'alors utilisées seulement avec des modèles simples, nous les appliquerons en les associant avec des modèles analytiques de type champ, reposant sur des hypothèses moins restrictives, donc plus complexes, nécessitant d'étendre notre algorithme d'optimisation. Un logiciel complet de calcul par éléments finis a ensuite été créé, puis doté d'une procédure d'évaluation du couple moyen dans le cas d'un moteur à aimant. Le problème initial a été reformulé et résolu en intégrant la contrainte numérique de couple, le modèle analytique servant de guide au nouvel algorithme.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Fontchastagner, Julien. "Résolution du problème inverse de conception d'actionneurs électromagnétiques par association de méthodes déterministes d'optimisation globale avec des modèles analytiques et numériques". Phd thesis, Toulouse, INPT, 2007. https://hal.science/tel-02945546v1.

Texto completo
Resumen
Les travaux présentés dans cette thèse apportent une nouvelle méthodologie de résolution du problème inverse de conception des actionneurs électromagnétiques. Après avoir abordé les aspects généraux du problème, nous choisirons de le résoudre avec des méthodes déterministes d'optimisation globale, ne nécessitant aucun point de départ, utilisant tout type de variables et assurant le caractère exact de l'optimum trouvé. Étant jusqu'alors utilisé seulement avec des modèles simples, nous les appliquerons en utilisant des modèles analytiques de type champ, reposant sur des hypothèses moins restrictives, donc plus complexes, nécessitant d'étendre notre algorithme d'optimisation. Un logiciel complet de calcul par éléments finis a ensuite été créé, puis doté d'une procédure d'évaluation du couple moyen dans le cas d'un moteur à aimant. Le problème initial a été reformulé et résolu en intégrant la contrainte numérique de couple, le modèle analytique servant de guide au nouvel algorithme
The work presented in this thesis brings a new methodology to solve the inverse problem of electromagnetic actuators design. After treating the general aspects of the problem, we will choose to solve it with deterministic methods of global optimization, which do not require any starting point, use each kind of variables and ensure to obtain the global optimum. Being hitherto used only with simple models, we apply them with analytical models based on an analytical resolution of the magnetic field, using less restrictive hypotheses. They are so more complex, and require we extend our optimization algorithm. A full finite elements software was then created, and equipped with a procedure which permit the evaluation of the average torque in the particular case of a magnet machine. The initial problem was reformulated and solve by integrating the numerical constraint of couple, the analytical model being used as guide with the new algorithm
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Biret, Maëva. "Contribution à la résolution de problèmes inverses sous contraintes et application de méthodes de conception robuste pour le dimensionnement de pièces mécaniques de turboréacteurs en phase avant-projets". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066294/document.

Texto completo
Resumen
L'objectif de ce travail est de proposer une nouvelle démarche pour améliorer et accélérer les études de dimensionnement des pièces de turboréacteurs en avant-projets. Il s'agit de fournir une méthodologie complète pour la conception robuste sous contraintes. Cette méthodologie consiste en trois étapes : la réduction de la dimension et la méta-modélisation, la conception robuste sous contraintes puis la résolution de problèmes inverses sous contraintes. Ce sont les trois principaux sujets abordés dans cette thèse. La réduction de la dimension est un pré-traitement indispensable à toute étude. Son but est de ne conserver, pour une sortie choisie du système, que les entrées influentes. Ceci permet de réduire la taille du domaine d'étude afin de faciliter la compréhension du système et diminuer les temps de calculs des études. Les méthodes de méta-modélisations contribuent également à ces deux objectifs. L'idée est de remplacer le code de calculs coûteux par un modèle rapide à évaluer et qui représente bien la relation entre la sortie étudiée et les entrées du système. La conception robuste sous contraintes est une optimisation bi-objectifs où les différentes sources d'incertitudes du système sont prises en compte. Il s'agit, dans un premier temps, de recenser et modéliser les incertitudes puis de choisir une méthode de propagation de ces incertitudes dans le code de calculs. Ceci permet d'estimer les moments (moyenne et écart-type) de la loi de la sortie d'intérêt. L'optimisation de ces moments constitue les deux objectifs de la conception robuste. En dernier lieu, il s'agit de choisir la méthode d'optimisation multi-objectifs qui sera utilisée pour obtenir l'optimum robuste sous contraintes. La partie innovante de cette thèse porte sur le développement de méthodes pour la résolution de problèmes inverses mal posés. Ce sont des problèmes pour lesquels il peut y avoir une infinité de solutions constituant des ensembles non convexes et même disjoints. L'inversion a été considérée ici comme un complément à l'optimisation robuste dans laquelle l'optimum obtenu ne satisfaisait pas une des contraintes. Les méthodes d'inversion permettent alors de résoudre ce problème en trouvant plusieurs combinaisons des entrées qui satisfont la contrainte sous la condition de rester proche de l'optimum robuste. Le but est d'atteindre une valeur cible de la contrainte non satisfaite tout en respectant les autres contraintes du système auxquelles on ajoute la condition de proximité à l'optimum. Appliquée au dimensionnement d'un compresseur HP en avants-projets, cette méthodologie s'inscrit dans l'amélioration et l'accélération des études marquées par de nombreux rebouclages chronophages en termes de ressources informatiques et humaines
The aim of this PhD dissertation is to propose a new approach to improve and accelerate preliminary design studies for turbofan engine components. This approach consists in a comprehensive methodology for robust design under constraints, following three stages : dimension reduction and metamodeling, robust design under constraints and finally inverse problem solving under constraints. These are the three main subjects of this PhD dissertation. Dimension reduction is an essential pre-processing for any study. Its aim is to keep only inputs with large effects on a selected output. This selection reduces the size of the domain on which is performed the study which reduces its computational cost and eases the (qualitative) understanding of the system of interest. Metamodeling also contributes to these two objectives by replacing the time-consuming computer code by a faster metamodel which approximates adequately the relationship between system inputs and the studied output. Robust design under constraints is a bi-objectives optimization where different uncertainty sources are included. First, uncertainties must be collected and modeled. Then a propagation method of uncertainties in the computation code must be chosen in order to estimate moments (mean and standard deviation) of output distribution. Optimization of these moments are the two robust design objectives. Finally, a multi-objectives optimization method has to be chosen to find a robust optimum under constraints. The development of methods to solve ill-posed inverse problems is the innovative part of this PhD dissertation. These problems can have infinitely many solutions constituting non convex or even disjoint sets. Inversion is considered here as a complement to robust design in the case where the obtained optimum doesn't satisfy one of the constraints. Inverse methods then enable to solve this problem by finding several input datasets which satisfy all the constraints and a condition of proximity to the optimum. The aim is to reach a target value of the unsatisfied constraint while respecting other system constraints and the optimum proximity condition. Applied to preliminary design of high pressure compressor, this methodology contributes to the improvement and acceleration of studies currently characterized by a numerous of loopbacks which are expensive in terms of cpu-time and human resources
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Sanogo, Satafa. "Conception optimale de circuits magnétiques dédiés à la propulsion spatiale électrique par des méthodes d'optimisation topologique". Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30015/document.

Texto completo
Resumen
Dans ces travaux, nous présentons des méthodes d'optimisation théoriques et numériques pour la conception optimale de circuits magnétiques pour propulseurs à effet Hall. Ces problèmes de conception sont des problèmes inverses très difficiles à résoudre que nous formulons sous forme de problèmes d'optimisation topologique. Les problèmes resultant sont non convexes avec des contraintes aux équations différentielles de Maxwell. Au cours de ces travaux, des approches originales ont été proposées afin de résoudre efficacement ces problèmes d'optimisation topologique. L'approche de densité de matériaux SIMP (Solid Isotropic Material with Penalization) qui est une variante de la méthode d'homogénéisation a été privilégiées. De plus, les travaux de ma thèse ont permis la mise en place de codes d'optimisation dénommé ATOP (Algorithm To Optimize Propulsion) utilisant en parallèle les logiciels de calculs scientifiques Matlab et d'élément finis FEMM (Finite Element Method Magnetics). Dans ATOP, nous utilisant à la fois des algorithmes d'optimisation locale de type descente basés sur une analyse de la sensibilité du problème et des algorithmes d'optimisation globale principalement de type Branch and Bound basés sur l'Arithmétique des Intervals. ATOP permettra d'optimiser à la fois la forme topologique des circuits magnétiques mais aussi le temps et le coût de production de nouvelles génération de propulseurs électriques
In this work, we present theoretical and numerical optimization method for designing magnetic circuits for Hall effect thrusters. These design problems are very difficult inverse ones that we formulate under the form of topology optimization problems. Then, the obtained problems are non convex subject to Maxwell equations like constraints. Some original approaches have been proposed to solve efficiently these topology optimization problems. These approaches are based on the material density model called SIMP approach (Solid Isotropic Material with Penalization) which is a variante of the homogenization method. The results in my thesis allowed to provide optimization source code named ATOP (Algorithm To Optimize Propulsion) unsung in parallel two scientific computing softwares namely Matlab and FEMM (Finite Element Method Magnetics). In ATOP, we use both local optimization algorithms based on sensitivity analysis of the design problem; and global optimization algorithms mainly of type Branch and Bound based on Interval Arithmetic analysis. ATOP will help to optimize both the topological shape of the magnetic circuits and the time and cost of production (design process) of new generations of electrical thrusters
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Ben, Elechi Slim. "Analyse et conception rapides de paramètres du procédé d'emboutissage pour le contrôle du retour élastique". Compiègne, 2004. http://www.theses.fr/2004COMP1538.

Texto completo
Resumen
L'Approche Inverse (AI) est une méthode originale développée à l'UTC depuis 1990. Dans cette étude nous avons apporté une nouvelle modification à cette méthode que nous avons baptisée "Approche Inverse Améliorée" (AIA). Cette nouvelle formulation s'est montrée très efficace pour l'estimation de la répartition des contraintes dans les zones de brins libres qui ont un effet très important sur le retour élastique. La deuxième partie de la thèse est consacrée à la simulation rapide du retour élastique après retrait des outils en fin d'emboutissage. Un couplage de notre code de simulation numérique d'emboutissage REFORM utilisant l'AIA, avec le code incrémentaI REFLEX, utilisant la Formulation Lagrangienne Actualisée (FLAI), est fait pour la simulation rapide et automatique du retour élastique. La dernière partie de notre travail était consacrée à l'optimisation des paramètres du procédé d'emboutissage pour la réduction des effets du retour élastique après retrait des outils
The inverse approach is an original method developed at UTC since 1990. Ln this study we introduce a new modification to the method called "Itnproved Inverse Approach" (lIA). This new approach has showen to be very efficient for the evaluation of stress distribution in the zone between the blank and the die wich has a great effect on the springback results. The second part of the thesis is dedicated to the fast springback simulation after the removal of tools at the end of the stamping process. A coupling of our numerical simulation between a deep drawing software code called REFORM based on the lIA, with an incremental code called REFLEX based on the Updated Lagrangian Formulation for the fast and automatic simulation of the springback. The last p. Art of our work is dedicated to the optimization of the deep drawing process parameters in order to reduce the springback after the removal of tools at the end of forming
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Gazut, Stéphane. "Conception et mise en œuvre de nouvelles méthodes d'élaboration de plans d'expériences pour l'apprentissage de modèles non linéaires". Paris 11, 2007. http://www.theses.fr/2007PA112071.

Texto completo
Resumen
Dans le cadre de la simulation numérique, la thèse aborde le problème posé par la construction de modèles simplifiés de codes de calcul généralement complexes et lourds à mettre en oeuvre. La problématique de construction des modèles simplifiés rappelle celle des surfaces de réponse et des plans d’expériences. Dans le cadre de la simulation numérique, les expériences ”lourdes” correspondent aux calculs à réaliser. Il est donc important de disposer de méthodes permettant d’optimiser la planification des expériences simulées. Compte tenu du caractère déterministe des expériences, les méthodes proposées s’appuient sur la théorie de l’apprentissage statistique. Les modèles simplifiés sont construits en utilisant la famille des réseaux de neurones et les techniques statistiques d’estimation de l’erreur de généralisation pour contrôler l’apprentissage (leave-one-out, validation croisée, bootstrap). Il est montré que le bootstrap permet de contrôler le sur-apprentissage et d’étendre la notion de levier (mesure de l’influence des expériences sur l’estimation des paramètres), introduite en régression linéaire, aux modèles non linéaires en les paramètres. La thèse propose une procédure itérative de planification d’expériences numériques. Elle est fondée sur l’apprentissage actif en procédant à la construction de plusieurs modèles simplifiés à partir de répliques bootstrap. Par une approche de type Bagging, la variance des prédictions des modèles est analysée. Les nouvelles simulations sont planifiées de façon à réduire cette variance des prédictions. Cette procédure est comparée aux approches classiques des plans d'expériences optimaux et en particulier avec la D-optimalité
This thesis adresses the problem of the construction of surrogate models in numerical simulation. Whenever numerical experiments are costly, the simulation model is complex and difficult to use. It is important then to select the numerical experiments as efficiently as possible in order to minimize their number. In statistics, the selection of experiments is known as optimal experimental design. In the context of numerical simulation where no measurement uncertainty is present, we describe an alternative approach based on statistical learning theory and resampling techniques. The surrogate models are constructed using neural networks and the generalization error is estimated by leave-one-out, cross-validation and bootstrap. It is shown that the bootstrap can control the over-fitting and extend the concept of leverage for non linear in their parameters surrogate models. The thesis describes an iterative method called LDR for Learner Disagreement from experiment Resampling, based on active learning using several surrogate models constructed on bootstrap samples. The method consists in adding new experiments where the predictors constructed from bootstrap samples disagree most. We compare the LDR method with other methods of experimental design such as D-optimal selection
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Agazzi, Alban. "Contribution à l'optimisation de la thermique des outillages dans le procédé d'injection des polymères thermoplastiques". Nantes, 2011. http://www.theses.fr/2011NANT2045.

Texto completo
Resumen
Dans le procédé d'injection des matériaux thermoplastiques, les transferts de chaleur dans l'outillage sont transitoires et cycliques, et conditionnent fortement la productivité du procédé ainsi que la qualité des pièces fabriquées. Un refroidissement inapproprié de la pièce peut engendrer des défauts comme des déformations, du retrait, des contraintes résiduelles thermiques. . . Dans cette thèse, une méthodologie est développée, permettant de concevoir le système de régulation thermique d'un outillage, sans a priori sur le nombre, la forme et la position des canaux. Une première étape, consiste à déterminer la répartition spatiale optimale des températures de fluide le long de la surface enveloppe de refroidissement (appelée « dilaté »). Basée sur une approche « conformal cooling », cette surface est créée à partir de concepts de morphologie mathématique. Les objectifs de l'optimisation sont d'obtenir, à la fin de la période de refroidissement prédéterminé, un niveau de température dans la pièce tout en reduisant les gradients thermiques surfaciques. La méthode du gradient conjugé couplé avec la technique du multiplicateur de Lagrange est développée. A partir de cette distribution de température, les canaux de régulation sont conçus, en se basant sur la forme spatiale des isovaleurs de température dans la zone thermique stationnaire du moule. Deux cas simples, en 2D et 2D axisymétrique, sont considérés et les résultats comparés respectivement avec ceux de la littérature et ceux obtenus avec une conception conventionnelle. Finalement, la démarche globale est appliquée pour la conception du système de régulation d'une pièce industrielle 3D. Un dépôt de brevet (« procédé MCOOL ») valorise cette étude
Heat transfers in thermoplastic injection processes are transient and cyclic. They impact directly the productivity of the process and the quality of the parts. A non efficient cooling can lead to defects in the part like, warpage, shrinkage, thermal residual stresses. . . In this thesis, a methodology is developed that allows the design of the cooling system of the mould with no a priori on the number, the shape and the location of channels. A first stage consists in the determination of the optimal spatial distribution of fluid temperature along a cooling surface (named « dilation »). Based on a conformal cooling approach, this surface is created thanks to morphological mathematic concepts. The objectives of the optimization problem are to reach, at the end of the pre-determined cooling time, a level of temperature in the part while minimizing thermal gradients along the part surface. The conjugate gradient algorithm coupled with a Lagrangian technique is used. From this temperature distribution, cooling channels are designed, by locating the shapes of temperature iso-values in the thermal stationary area of the mould. Two cases, 2D Cartesian and 2D axisymmetric, are considered and results are compared respectively with those from literature and/or got by conventional cooling design. Finally, a global approach is applied for the design of the cooling system of an industrial 3D part. A patent application («MCOOL process ») was filed
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Derkaoui, Abdechafik. "Dimensionnement pour des critères dynamiques et énergétiques de systèmes mécatroniques comportant des sous-systèmes à paramètres répartis : approche par méthode inverse". Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0080/these.pdf.

Texto completo
Resumen
Ce travail de thèse a pour objectif d'explorer l'extension de la méthodologie de dimensionnement par démarche inverse développée au laboratoire à une nouvelle classe de systèmes : les systèmes à paramètres répartis ou distribués (SPR). Un cahier des charges étant imposé et une structure choisie pour la chaîne d'actionnement, cette démarche permet de vérifier que les composants d'un système mécatronique permettent de suivre les trajectoires imposées sur des sorties du système par le cahier des charges tout en respectant les contraintes de puissance. Dans une approche système, la modélisation se base principalement sur l'analyse des phénomènes macroscopiques et conduit à des modèles à paramètres localisés, toutefois il peut être nécessaire de tenir compte du caractère réparti des grandeurs physiques pour certains sous-systèmes. La nécessité de conduire une étude spécifique pour cette classe de systèmes est liée à la forme mathématique des équations qui régissent leur comportement. Notre propos n'est pas d'étudier dans le cas général les conditions d'inversibilité des systèmes d'équations aux dérivées partielles, mais bien d'analyser l'influence de sous-systèmes à paramètres répartis à support physique sur le dimensionnement par démarche inverse des systèmes mécatroniques. Notre apport permet d'étendre cette méthodologie, jusque là valable pour des systèmes multi-physiques, à des considérations multi-échelles. A partir de la représentation Bond Graph de différentes formulations des EDP, nous avons étudié les propriétés d'inversibilité structurelle de ces sous-systèmes. Des exemples issus de la mécanique des structures et de la mécanique des fluides sont développés dans ce mémoire afin d'illustrer l'extension de la méthodologie de dimensionnement à cette classe de sous-systèmes et pour mettre en évidence les problèmes associés au choix de la méthode d'approximation
This work of thesis aims to explore the extension of the methodology of dimensioning using inverse procedure developed at the laboratory with a new class of systems: systems with distributed parameters (DPS). A schedule of conditions being imposed and a selected structure for the chain of actuation, this step makes it possible to check that the components of a system mecatronic make it possible to follow the trajectories imposed on outputs of the system by the schedule of conditions while respecting the constraints of power. In a system-approach, modeling is mainly based on the analysis of the macroscopic phenomena and led to models with localized parameters; however it can be necessary to take account of the distributed characteristic of the physical parameters for some subsystems. The need for leading a specific study for this class of systems is related to the mathematical form of the equations which govern their behavior. Our intention is not to study in the general case the conditions of inversibility of the systems of partial differential equations, but to analyze the influence of distributed parameters subsystems with physical support on dimensioning of the mecatronic systems by inverse procedure. Our contribution makes it possible to extend this methodology, valid for multi-physics systems, with multi-scales considerations. From the Bond Graph representation of various formulations of the PDE, we studied the properties of structural inversibility of these subsystems. Examples resulting from the structural mechanics and fluid mechanics are developed in this memory in order to illustrate the extension of the methodology of dimensioning to this type of subsystems and to highlight the problems associated to the choice of the approximation method
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Zou, Long. "Simulation of laser energy deposition with structured light beams in air and machine learning data treatment for LIBS analysis of remote targets". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAX053.

Texto completo
Resumen
La propagation d'impulsions laser ultra-courtes et ultra-intenses dans l'atmosphère est de plus en plus étudiée. Un contrôle précis de la focalisation du champ laser et de la distribution des filaments de lumière qui s’étendent au-delà du foyer est nécessaire pour de nombreuses applications, comme la mission d'exploration de Mars qui comprend l'analyse des éléments chimiques à l'aide de la spectroscopie de désintégration induite par laser (LIBS), l'analyse de la composition de l'atmosphère par des techniques de détection et de télémétrie lumineuses (LIDAR), le déclenchement et le guidage de décharges électriques entre les nuages, ou la génération de lasers à lumière blanche par filamentation laser. Un contrôle quantitatif des propriétés de l'impulsion laser est très difficile en raison de l'interaction non-linéaire complexe entre l'impulsion laser intense et le milieu. Actuellement, les méthodes couramment utilisées reposent sur le contrôle des paramètres initiaux de l’impulsion laser en fonction du champ laser observé sur la cible. La grande dimension de l'espace des paramètres et la sensibilité des résultats aux conditions initiales rendent l'ajustement du champ laser hors du laboratoire difficile et inefficace pour répondre aux exigences des applications pratiques. Dans ce contexte, cette thèse propose une réponse à quelques-uns des défis de la propagation d’impulsions laser femtoseconde à longue portée, basée sur des scénarios de modulation de l'impulsion laser qui garantissent d'atteindre un champ laser sur cible avec les propriétés souhaitées. Ces scénarios ont été obtenus en associant méthodes d'ingénierie inverse et simulations numériques. Nous montrons que différents champs cibles peuvent être facilement et efficacement atteints en modulant le champ en sortie du laser. Chaque fois que cela est possible, la modulation est obtenue par simulation de la propagation inverse du champ cible vers le laser. Cette thèse se concentre sur deux objectifs différents de contrôle du champ laser : la projection à longue distance dans l'air (1) d'un filament de longueur prédéfinie, et (2) d’une intensité élevée.(1) Pour atteindre le premier objectif, une des innovations de cette thèse consiste à introduire un faisceau intermédiaire contrôlable proche de la cible, de type Bessel-Gauss, et à utiliser un algorithme numérique pour propager ce champ électrique en avant afin d’obtenir la distribution des filaments au point cible ainsi que rétropropager le champ intermédiaire pour obtenir la sortie laser souhaitée. Les paramètres de sortie laser obtenus sont ensuite liés aux caractéristiques du filament (point de départ, longueur, densité), fournissant une carte des paramètres clés définissant l'impulsion laser modulée qui peut être projetée sur le champ cible et le filament désirés.(2) Pour l'objectif de transmission d’intensités élevées à des distances kilométriques, nous examinons la propagation non-linéaire de faisceaux d'Airy circulaires et montrons qu'une puissance laser de quelques dizaines de GW est suffisante pour ioniser l'air et former un filament court à une distance de 1 km, ce qui pourrait faciliter les conditions de fonctionnement du laser par rapport aux lasers de classe TW utilisés dans les solutions conventionnelles pour projeter des intensités élevées à ces distances.Dans une étude séparée, nous proposons une amélioration de l'algorithme d'analyse élémentaire du spectre LIBS. L’algorithme est appliqué à la détection en ligne de la teneur en KCl et H[dollar]_2[dollar]O dans les engrais potassiques par LIBS, dans lequel la modélisation de régression de corrélation des spectres LIBS est combinée à un algorithme d'apprentissage automatique qui extrait efficacement les informations liées aux changements de contenu élémentaire à partir des spectres en ligne complexes, ce qui améliore considérablement la vitesse de détection tout en garantissant la précision de la détection et renforce encore la compétitivité
The propagation of ultrashort and ultra-intense laser pulses in the atmosphere is increasingly studied.Precise control of the focusing of the laser field and the distribution of light filaments extending beyond the focus is required for many applications, such as the Mars exploration mission on the analysis of chemical elements using Laser Induced Breakdown Spectroscopy (LIBS), the analysis of the composition of air by Light Detection and Ranging (LIDAR) techniques, the triggering and guiding of electric discharges between clouds, or the generation of white light laser by filamentation. A quantitative control of the light pulse properties is very difficult due to the complex nonlinear interaction between the intense laser pulse and the medium. At present, commonly used methods rely on the parameter control of the initial laser output and the feedback of the field at the target position. The high-dimension of the parameter space and the high sensitivity of the results to the initial conditions make the adjustment of the laser field outside the laboratory difficult and inefficient to meet the requirements of practical applications.In this context, this thesis proposes an answer to some of the challenges of long-range femtosecond laser pulse propagation, based on laser pulse modulation scenarios that guarantee to reach an on-target laser field with the desired properties. These scenarios were obtained by combining reverse engineering methods and numerical simulations. We show that different target fields can be easily and efficiently achieved by modulating the laser output field. Whenever possible, the modulation is obtained by simulating the reverse propagation of the target field towards the laser.This thesis focuses on two different objectives of laser field control: the long-range projection in the air of (1) a filament of predefined length, and (2) high intensity.(1) To achieve the first objective, one of the innovations of this thesis consists in introducing a controllable intermediate Bessel-Gauss beam close to the target, and in using a numerical algorithm to propagate this electric field forward in order to obtain the distribution of the filaments at the target point as well as back-propagate the intermediate field to obtain the desired laser output. The obtained laser output parameters are then related to filament features (starting point, length, density), providing a map for the key parameters defining the modulated laser pulse that can be projected onto the desired target field and filament.(2) For the objective of transmitting high intensities at kilometric distances, we examine the nonlinear propagation of circular Airy beams and show that a laser power of a few tens of GW is sufficient to ionize the air and form a short filament at a distance of 1 km, which could facilitate laser operating conditions compared to TW-class lasers used in conventional solutions to project high intensities at these distances.In a separate study, we propose an improvement of the elemental analysis algorithm of LIBS spectrum. The algorithm is applied to the extit{in situ} online detection of KCl and H[dollar]_2[dollar]O content in potash fertilizer by LIBS, in which correlation regression modeling of LIBS spectra is combined with a machine learning algorithm that efficiently extracts the information related to elemental content changes from the complex online collected spectra, which greatly improves the detection speed while ensuring the detection accuracy and further enhances the competitiveness
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Matjinouche, Mohamed Yassine. "Méthode inverse pour la conception aérodynamique d'éléments de turbomachines". Ecully, Ecole centrale de Lyon, 1992. http://www.theses.fr/1994ECDLA002.

Texto completo
Resumen
Beaucoup de méthodes de dessin utilisées par les ingénieurs en matière de conception d'éléments de turbomachines sont basées sur les hypothèses classiques 'quasi-tridimensionnelles' (surfaces aube à aube axisymétrique). Il a été montré récement que cette hypothèse n'était pas pertinente pour certains éléments de turbomachines, et qu'il pouvait être plus axact de les considérer comme des canaux isolés. La nécessité d'une méthode inverse pour de tels passges est alors clairement apparue, la présente étude tente de satisfaire cette nécessité. La méthode développée dans le cadre de ce travail, repose sur le calcul du champ aérodynamique (vitesse, pression statique) autour d'une ligne moyenne. Pour cela, un développement en série de Taylor est effectué sur les composantes du champ. Les termes du développement sont calculés jusqu'à un degré fixé par l'utilisateur. Les équations d'Euler sont dérivées autant de fois que nécessite le degré imposé puis sont discrétisées par une méthode aux différences finies. Le système résultant n'est pas fermé. Cette non fermeture est utilisée pour imposéz à l'écoulement certains desiderata par le biais de relations dites arbitraires. Ces relations peuvent prendre la forme de minimisation d'une vitesse de transpiration, on obtient alors un calcul direct. Ainsi, il a été possible de rendre compte de l'importance des effets des écoulements secondaires et de la validité limitée des hypothèses quasi-3D. D'autres types de relations conduisent à des calculs inverses ou semi-inverse. Ainsi, il a été possible d'imposer à l'écoulement à titre d'exemple, une rotation solide, une réduction de charge sur les cotés d'un coude , ou encore une distribution de charge variable. Une expérimentation numérique a été faite afin de mieux cerner le comportement du code et d'acquérir une expérience de son utilisation. Plusieurs cas tests ont été effectués aussi bien en inverse qu'en direct. Ils permettent une confrontation avec des calculs Euler 3D directs ou des résultats expérimentaux. Quelques voies pouvant conduire au desin d'un canal de retour ont été également explorées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Chabchoub, Mohamed-Amine. "Méthodes Energétiques Simplifiées Inverses : formulations et applications". Phd thesis, Ecole Centrale de Lyon, 2010. http://tel.archives-ouvertes.fr/tel-00916927.

Texto completo
Resumen
Pour élargir le domaine fréquentiel d'analyse vibroacoustique des méthodes éléments finis et de la SEA (Statistical Energy Analysis), la Méthode Énergétique Simplifiée MES utilisant des variables quadratiques permet de considérer aussi bien les moyennes que les hautes fréquences. Cette méthode est basée sur une analyse des ondes propagatives vibratoires et acoustiques. Dans ce travail, la formulation inverse de la MES est proposée. A partir d'un vecteur de densité d'énergie et intensité vibroacoustique données, la formulation MES inverse permet de remonter aux sources. Elle permet d'identifier les sources de vibration dans des systèmes bidimensionnels (plaque excitée en flexion,...) et les sources acoustiques dans des systèmes tridimensionnels (cavité acoustique excitée,...). La formulation MES inverse est numériquement validée dans plusieurs cas de figures. Une analyse paramétrique est effectuée afin de tester la robustesse et l'efficacité de cette approche. Par exemple, la sensibilité avec les données d'entrée ou à la nature des sources envisagées est traitée.Une comparaison entre les résultats numériques obtenus par la MES et ceux obtenus par la SEA est abordée permettant de présenter les avantages de la MES au niveau de l'identification des sources. Une application industrielle de la MES inverse est réalisée dans le cadre de ce travail. Elle montre la fiabilité de la méthode pour le cas d'une cabine excitée par un bruit blanc. Finalement, la MES est utilisée pour réduire les nuisances sonores détectées dans les cabines. Un programme d'optimisation est développé permettant de trouver la meilleure répartition des absorbants et de définir leurs caractéristiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Tran, Duc Toan. "Reconstruction de sollicitations dynamiques par méthodes inverses". Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10146.

Texto completo
Resumen
Dans le domaine de l'ingénierie, connaitre le chargement appliqué sur une structure permet de résoudre des problèmes directs dont le résultat est le champ de déplacement, de déformation dans une structure. Il est alors possible d'effectuer un dimensionnement. Cependant, parfois ce chargement doit être identifie a posteriori. Malheureusement, il n'est pas toujours possible de mesurer ce chargement : ainsi, par exemple, on ne sait pas a priori où aura lieu le chargement, ou bien il n'est pas possible de placer un capteur sans l'endommager ou encore il peut nécessiter un encombrement trop important. On a alors recours à des mesures indirectes de déplacement, de déformation, d'accélération et on est alors amené à résoudre des problèmes inverses, qui sont en général mal posés. Il est alors nécessaire d'ajouter une (des) conditions supplémentaire(s) pour obtenir une solution unique et stable : c'est la régularisation du problème. Ces techniques sont bien connues et leur essor est dû à l'utilisation des décompositions en valeurs singulières des matrices de transfert. Toutefois, elles nécessitent l'utilisation d'un paramètre additionnel qui pondère cette condition supplémentaire : la détermination de ce paramètre est délicate. Peu de travaux ayant été réalisé pour tester de façon intensive les méthodes usuelles de régularisation (Tikhonov et troncature de la (G)SVD), en association avec les différents critères de détermination du paramètre de régularisation et les différentes réponses possibles, on a effectué un tel travail pour tirer des conclusions sur la méthodologie optimale. On a pu mettre en évidence que la mesure de l'accélération associée à un critère faisant intervenir les dérivées du signal à reconstruire donne en général les meilleurs résultats sous réserve d'utiliser le critère GCV pour déterminer le paramètre de régularisation. Ces méthodes supposent que la localisation de la zone de chargement est connue. Aussi on s'est intéressé à déduire cette zone de chargement en tentant de reconstruire des chargements identiquement nuls. Cette identification a été effectuée aisément sous réserve qu'on ait peu de forces à identifier par rapport au nombre de mesures disponibles. En revanche une telle identification est délicate lorsqu'on n'a pas plus de mesures que de forces à identifier. Finalement on s'est tourné vers l'identification de chargement ayant plastifié la structure étudiée. On a alors essayé de reconstruire le chargement en supposant que la structure reste linéaire élastique, alors qu'elle a été plastifiée : on a utilisé la méthode du double chargement et effectue des simulations à l'aide du logiciel de simulation Ls-dyna.La force reconstruite fait alors apparaitre une composante statique traduisant la déformation résiduelle dans la structure. Dans ce cas, la réponse à utiliser pour identifier le chargement est une déformation dans une zone non plastifiée
In the field of the engineering, knowing the load applied on the structure which allows to solve the direct problem of which the results are given the field of displacement and strain in a structure. It is possible to perform a dimensioning. However, sometimes this load must be identified a posteriori. Unfortunately, it is not always possible to measure this load. Thus, for example, we do not know a priori where it will be loaded, either it is not possible to place a sensor without damaging it or needs too much space. We then have to use indirect measures of displacement, strain, acceleration and then we are lead to solve the inverse problems which are generally an ill-posed. It is then necessary to add one (or more) conditions to obtain a unique and stable solution: it is the regularization of the problem. These techniques are well known and their development is due to the use of the singular value decomposition of the transfer matrix. However, they require the use of an additional parameter that weights this additional condition: the determination of this parameter is difficult. Few studies having been realized in way the usual regularization methods of (Tikhonov and truncation of the (G)SVD), in association with the various criteria for determining the regularization parameter and the various possible responses, we conducted a such work, to draw conclusions on the optimal methodology. It has been highlighted that the measurement of the acceleration associated with a criterion involving the derived signal to reconstruct generally gives the best results via the GCV criterion to determine the regularization parameter. These methods suppose that the location of the loading area is known. We also were interested to deduct this loading area while trying to reconstruct load that is identically zero. This identification was performed easily that has little load to identify compared to the number of measurements available. However such identification is difficult when there are no more measures than loads to identify. Finally we turned to the identification of loading with the plastic structure. We then tried to reconstruct the load assuming that the structure remains linear-elastic, while it was plasticized: we used the method of the double load and performed simulations using the software ls-dyna. The reconstructed load then shows a static component reflecting the residual strain in the structure. In this case, the response used to identify the load is a strain in a non-plasticized zone
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Ia, Davuth. "Méthodes d'imagerie et d'identification en électromagnétisme". Toulouse 3, 2008. http://thesesups.ups-tlse.fr/1586/.

Texto completo
Resumen
Un des enjeux récents en électromagnétisme concerne le contrôle non-destructif appliqué à la détection de défauts, d'objets diffractants ou encore de sources dans des milieux dont les paramètres physiques sont globalement connus. L'objectif visé par ce type d'études est à la fois de localiser et de caractériser, par leurs propriétés diélectriques, ces différents éléments. D'un point de vue mathématique, la formalisation de ces problèmes se traduit généralement par un système couplé problème direct - problème adjoint dont l'un au moins ne donne pas lieu à une résolvante compacte. D'un point de vue numérique, la résolution de cet ensemble de problèmes peut donner un système mal conditionné dont le traitement sans connaissance a priori sur les grandeurs recherchées se traduit par des coûts de simulation importants, eût égard à la quantité de paramètres recherchés, et voir même à une absence de convergence de la méthode dans certains cas. Par ailleurs, des méthodes de localisations "rapides" d'inhomogénéités et/ou de sources ont été développées ces dernières années. Le but de telles méthodes est d'essayer de décrire le ou les éléments recherchés d'un point de vue géométrique sans s'attacher à la restitution d'une des caractéristiques de ceux-ci. Il s'en suit généralement des algorithmes performants. Dans cette thèse, on se propose ainsi d'adopter une stratégie en deux temps : d'abord une première étape de localisation rapide, et ensuite une étape de caractérisation
One of the recent problems in electromagnetism concerns the non destructive control applied to the detection of defaults, scattering objects or sources lying in middles which physical parameters are approximately known. The goal of these studies is to localize and to characterize, by their dielectrical properties, these differents elements. In a mathematical point of view, these problems are formalized in general by a coupled system of problems : direct problem - adjoint problem which one at least doesn't have a compact resolvent. In a numerical point of view, the resolution of this set of problems can lead to a ill conditioned problem which solving without a priori knowledge on the searched values have a huge numerical cost and even the lack of convergence in certain cases. By the way, some "fast" localization methods of inhomogeneities and/or sources have been developed these last years. The aim of these methods is to try to describe the searched elements in a geometrical point of view without trying to compute one its characteristics. These algorithms are in general fast. In this work, we adopt a two step strategy : first a fast localization step, then a characterization step
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Nodet, Maëlle. "Problèmes inverses pour l'environnement : outils, méthodes et applications". Habilitation à diriger des recherches, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00930102.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Arhab, Slimane. "Profilométrie optique par méthodes inverses de diffraction électromagnétique". Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4321/document.

Texto completo
Resumen
La profilométrie optique est une technique de métrologie de surface rapide et non destructive. Dans ce mémoire, nous avons abordé cette problématique par des méthodes inverses de diffraction électromagnétique et dans une configuration de type Microscopie Tomographique Optique par Diffraction (ODTM). La surface est sondée par un éclairement sous plusieurs angles d'incidences ; la mesure en amplitude et en phase du champ lointain diffracté constitue les données du problème. Des profils de surfaces ont été reconstruits en considérant différents modèles de diffraction, parmi lesquelles une méthode approchée fondée sur les approximations de diffusion simple et de paraxialité. La résolution latérale de cette méthode et des techniques classiques de profilométrie est limitée par le critère d'Abbe-Rayleigh, défini sur la base de l'ouverture numérique pour l'éclairement et la détection du champ. Afin de dépasser cette limite de résolution, nous avons développé une méthode itérative de Newton-Kantorovitch régularisée. L'opérateur de diffraction y est rigoureusement modélisé par une méthode des moments, résolution numérique des équations du formalisme intégral de frontière, et l'expression de la dérivée de Fréchet de cet opérateur est obtenue par la méthode des états adjoints, à partir du théorème de réciprocité. Pour les surfaces unidimensionnelles métalliques, notre technique permet d'inverser à partir de données synthétiques des surfaces très rugueuses avec une résolution au delà du critère d'Abbe-Rayleigh
Optical profilometry is a nondestructive and fast noncontact surface metrology technique. In this thesis, we have tackled this issue with inverse scattering electromagnetic methods and in an Optical Digital Tomographic Microscopy (ODTM) configuration. The surface is probed with illuminations under several incidence angles; the measure of far scattered field amplitude and phase constitutes the problem data. Surface profiles have been reconstructed using different scattering models among which an approximate theory based on single scattering and paraxiality. The lateral resolution of this technique and classical profilometric approaches is limited by the so-called Abbe-Rayleigh's criterion defined out of the numerical aperture for illumination and field detection. In order to overpass this resolution limit, we have developed a regularized iterative Newton-Kantorovitch's method. The scattering operator is rigorously modelized with the method of moments, that is a numerical solution of boundary integral equations, and its Fréchet derivative adjoint states expression is deduced from the reciprocity theorem. For one-dimensional metallic surfaces, our method succeeds in inverting from synthetic data very rough surfaces with the resolutions beyond the Abbe-Rayleigh's criterion. The performance of this technique and inversion conditions clearly differ from one polarization to the other : in the TM case, interactions at longer distance than in the TE case improve yet the resolution. This work includes also an experimental validation of our inverse model on grooves in indium phosphure substrate at 633 nm
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Liscouet, Jonathan. "Conception préliminaire des actionneurs électromécaniques : approche hybride, directe/inverse". Thesis, Toulouse, INSA, 2010. http://www.theses.fr/2010ISAT0001/document.

Texto completo
Resumen
L’objectif de cette thèse est de proposer des méthodes innovantes de conception préliminaire d’actionneurs électromécaniques (EMA) et de les implémenter sous la forme d’outils logiciels rapidement disponibles pour les industriels. Cet objectif répond à une demande forte de l’industrie, en particulier en aéronautique dans le cadre du développement d’avions plus électriques. Dans un premier temps, cette thèse propose une méthode hybride (montante et descendante) de recherche systématique d’architectures solutions et de sélection vis-à-vis des exigences du cahier des charges et de l’état de l’art technologique. Dans un deuxième temps, des méthodes d’évaluation d’architectures en termes de puissance, d’intégration (enveloppe géométrique et masse), de fiabilité et de performances en boucle fermée sont proposées. L’implémentation de ces méthodes se base sur la modélisation acausale et la combinaison de simulations numériques inverses et directes. Des lois d’échelle, représentatives des phénomènes physiques dimensionnants, sont établies pour réduire la complexité d’utilisation des modèles et l'intervention d’experts de domaine dans les phases préliminaires. Les méthodes proposées et leur implémentation dans l'environnement de simulation Modelica/Dymola ont été appliquées avec succès aux exemples d’actionneurs électromécaniques d’orientation d’un train avant d’atterrissage, de commandes de vol primaires et de contrôle de la poussée vectorielle du premier étage de propulsion d’un lanceur spatial. De cette façon, la durée de la phase d’évaluation d’architectures a pu passer d’un ordre de grandeur en jour à un ordre de grandeur en heure
The aim of this thesis is to propose innovative methods for the preliminary design of electromechanical actuators (EMA), and to implement them in software tools rapidly available for the industry. This objective is motivated by a strong demand of the industry, especially in aeronautics within the frame of the development of more electric aircrafts. First, this thesis puts forward a hybrid methodology (top-down/bottom-up) to generate and select systematically architectures with respect to requirements and the state of the art of technology. Second, methods to evaluate architectures in terms of power, integration (geometrical envelop and mass), reliability and closed loop performances are developed. The implementation of these methods is based on non-causal modelling combined to direct and inverse numerical simulations. Scaling laws, representative of the main sizing phenomena, are established to reduce the complexity of the models and the need for domain experts during the preliminary phases. The proposed methods and their implementation within the simulation framework Modelica/Dymola have been applied successfully to the examples of electromechanical actuators for the steering of a nose landing gear, the primary flight control of an aircraft and the thrust vector control of a space launcher. As a result, the duration of the architecture evaluation has been reduced from day-scale to hour-scale
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Luo, Qiu. "L'étude et l'application des méthodes inverses aux problèmes vibro-acoustiques". Compiègne, 1997. http://www.theses.fr/1997COMP1075.

Texto completo
Resumen
Des méthodes existantes pour l'identification et la caractérisation des sources vibro-acoustiques y compris les techniques de cohérence et des spectres principaux, sont confrontées par des difficultés d'application lorsque les sources multiples sont fortement corrélées ou difficilement disponibles. L'objectif initial des recherches présentées dans ce mémoire était donc de développer des méthodes qui pourraient apporter une meilleure caractérisation des sources multiples et de les appliquer à des différents problèmes industriels et de recherches. Après un rappel des éléments mathématiques associés aux méthodes qui sont présentées dans ce mémoire, la décomposition en valeurs singulières et la pseudo-inverse des matrices, la méthode inverse MMS (Méthode de Matrice Spectrale) est systématiquement étudiée à l'aide des simulations numériques et des tests expérimentaux. Les résultats nous permettent d'évaluer qualitativement et quantitativement la précision de la méthode inverse MMS pour l'identification et la caractérisation des sources, indépendantes ou cohérentes. Plusieurs applications basées sur la méthode inverse MMS sont développées dans les domaines vibratoires et acoustiques. Chacune de ces applications est développée soit directement d'un projet industriel soit d'une extension de l'étude initiale couvrant un des sujets suivants : - Mesure d'intensimétrie vibratoire, en vue de l'amélioration de sa précision et le conditionnement des composants individuels lors des multiples sources, - Caractérisation des forces de coupe des machines-outils en usinage, en vue de l'établissement d'un modèle paramétrique des vibrations de la machine-outil, - Identification du bruit émis par les brûleurs de chaudière, en vue de sa modélisation et sa réduction, - Prévision des rayonnements acoustiques d'un panneau à partir des mesures vibratoires, en vue d'évaluer la sensibilité acoustique vis-à-vis de la vibration mécanique de différents matériaux. Dans l'annexe une nouvelle méthode de l'identification des propriétés dynamiques des joints mécaniques est présentée. Cette méthode est basée sur l'identification des ondes de flexion associée à la technique de pseudo-inverse de matrice.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Gao, Ying. "Conception d'une sonde fluxmétrique cylindrique : Application à la caractérisation thermophysique de matériaux granulaires par méthode inverse". Artois, 2008. http://www.theses.fr/2008ARTO0206.

Texto completo
Resumen
Dans ce travail, une méthode de caractérisation thermophysique de matériaux granulaires basée sur l’utilisation d’une nouvelle sonde fluxmétrique a été développée. La sonde a été conçue et réalisée dans le cadre de ce travail. Une résistance chauffante plane enveloppe un support cylindre. Trois capteurs de flux et de température répartis à la périphérique permettent de mesurer simultanément les évolutions de flux et de température suite à une dissipation de chaleur assurée par la résistance chauffante. La détermination des caractéristiques thermophysiques d’un matériau est obtenue par une procédure inverse s’appuyant sur une modélisation numérique en différences finies. Elle nous permet d’identifier la diffusivité et l’effusivité thermique du matériau testé ainsi que la résistance contact de sonde/ matériau à partir d’un seul essai. Des résultats satisfaisants ont été obtenus pour un sable sec
In this study, a thermophysical characterization method of granular material based on the use of new fluxmetric probe has been developed. The probe has been designed as part of this study. A plan heating resistance encloses a cylindric support. Following the dissipation of resistance heat, the progress of flux and temperature are measured by three flux and temperature sensors distributed along the periphery. The determination of thermophysical characteristics of material is obtained by an inverse process predicated on a numerical model with finite differences. It can allow to identify the thermical diffusivity and effusivity of tested material as well as the "probe/material" contact resistance from only one test. Satisfying results have been obtained with dry sand
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Sakami, Mohamed. "Application des méthodes inverses à la métrologie thermique par spectrométrie infrarouge". Poitiers, 1994. http://www.theses.fr/1994POIT2278.

Texto completo
Resumen
Des methodes d'inversion de l'equation de transfert de la luminance ont ete developpees en vue de la reconstitution des spectres d'absorption, des profils d'absorption et de temperature dans les milieux semi-transparents (mst) portes a haute temperature. Ce travail experimental et numerique concerne: 1) l'identification dans l'infrarouge entre 1 et 25 m du spectre d'absorption de verres de silicates et d'anhydride borique a haute temperature par spectrometrie d'emission par la methode de la couche anisotherme; 2) la restitution des profils de temperature monodimensionnels par inversion de l'emission thermique spectrale de couche plane parallele de verres; 3) la restitution de profils d'absorption et de temperature dans un milieu semi-transparent axisymetrique avec l'application aux flammes de premelange (propane-air); 4) la tomographie de temperature des milieux transparents par utilisation des donnees de deflexion et semi-transparent a distribution thermique asymetrique par inversion des donnees d'emission
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Michaux, Bertrand. "Méthodes inverses pour la détermination des profils d'aubes transsoniques des turbomachines". Paris 11, 1988. http://www.theses.fr/1988PA112004.

Texto completo
Resumen
L'objet de ce travail est de présenter une nouvelle méthode numérique permettant le calcul de la géométrie des profils d'aubes transsoniques pour les turbomachines. Sous les hypothèses que le fluide est parfait et l'écoulement isentropique, et à partir de la donnée du nombre de Mach à l'infini amont de la grille, de la distribution de nombre de Mach sur l'extrados et l'intrados du profil ainsi que des angles d'entrée et de sortie du fluide à la traversée du canal inter aubes, nous développons dans un premier temps une méthode bidimensionnelle. Celle-ci repose sur l'intégration numérique d'une équation aux dérivées partielles de type mixte (elliptique, hyperbolique) fortement non linéaire, obtenue après transformation du domaine physique en un domaine de calcul défini par les lignes de courant et les équipotentielles du fluide. Nous nous attachons enfin, dans la deuxième partie de ce travail, à l'extension de la formulation de cette méthode pour la détermination d'aubes tridimensionnelles faisant appel aux calcul des champs méridiens et aubes à aubes
The aim of this work is to introduce a new numerical method allowing the computation of transonic blade profiles geometry for the turbomachineries. Under the assumptions that the flow is perfect and isentropic and from the data of the upstream Mach number, the Mach number distribution on the succion and pressure sides as well as the inlet and outlet flow angles, we develop first a two-dimensional method. This method is based on the numerical integration of a non-linear mixed type equation (elliptic, hyperbolic) which is obtained by transformation of physical domain in the plane defined by the streamlines and the potential lines of fluid. In the second part of this work, we consider the extension of the formulation of this method for the blade cascade design on stream surface of revolution
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Maeght, Jean. "Analyse et méthodes pour un problème inverse en tomographie dynamique". Toulouse 3, 2000. http://www.theses.fr/2000TOU30239.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Rota, Laurent. "Application de méthodes inverses au dépouillement de l'essai aux barres de Hopkinson". Phd thesis, Ecole Polytechnique X, 1997. http://pastel.archives-ouvertes.fr/pastel-00000895.

Texto completo
Resumen
Ce travail a pour but l'optimisation du dépouillement de l'essai aux barres de Hopkinson dans les cas où une analyse classique ne peut s'appliquer. L'analyse classique suppose, en effet, l'équilibre des efforts imposés à l'échantillon au cours du èhargement. Le comportement est, dans ce 'cas assimilable à une situation quasi-statique et où les champs mécaniques dans l'échantillon sont considérés comme homogènes, donné sous la forme d'une courbe contrainte - déformation. Dans certains cas cependant, cette hypothèse d'équilibre est illicite: l'échantillon doit être considéré comme une structure et non plus comme un élément de matière, puisque les effets d'inertie y jouent un rôle important. Il s'agit alors de trouver le comportement de l'échantillon à partir des efforts et des vitesses mesurées durant l'essai. Ceci constitue un problème de type inverse pour lequel l'information (sur le comportement) réside dans la donnée de conditions aux limites duales. On propose une résolution du problème inverse général qui consiste à déterminer le comportement d'une structure pour laquelle on se donne le chargement à la fois en effort et en déplacement sur la frontière, comme fonctions du temps. Cette analyse permet, dans ce cadre mal posé (et pour des problèmes voisins comme le problème de Cauchy), de donner une solution au problème d'évolution de la structure. La résolution de ce problème inversé répose sur une notion d'écart au comportement, développée et discutée dans ce travail.
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Chata, Florent. "Estimation par méthodes inverses des profils d’émission des machines à bois électroportatives". Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0161/document.

Texto completo
Resumen
Cette thèse est dédiée à l'estimation de l'intensité d'une source de polluant de type particulaire par inversion de signaux de concentration mesurés avec un nombre fini de capteurs placés loin de la source. Cette méthode d'estimation inclut deux étapes distinctes. La première étape consiste à déterminer les paramètres du modèle d'inversion en utilisant une source d'aérosol connue et les mesures de concentration en particules correspondantes. Dans une seconde étape, une source d'aérosol inconnue est reconstruite à partir de l'inversion du modèle et des mesures de la concentration. Ce manuscrit traite dans un premier temps du cas stationnaire. L'approche théorique exposée permet de proposer un placement optimal des capteurs en plus de la méthode d'estimation de la source. Dans un second temps, on considère le cas où la source inconnue d'aérosol est instationnaire. La méthode d'estimation repose sur une approche convolutive du système, en introduisant la notion d'impédance source/capteur. Après une présentation de la technique d'inversion propre à la méthode d'estimation, elle est appliquée expérimentalement au cas des machines à bois éléctroportatives, dans le but de les discriminer en fonction de leur caractère émissif
This thesis is dedicated to the determination of unknown aerosol sources emission profiles from aerosol concentration measurements in the far-field. This procedure includes two distinct steps. The first step consists in determining the model linking the aerosol source and the concentration measurements using a known source of aerosols and the corresponding dust measurements. In a second step, the unknown source of aerosols is reconstructed by inverting the model for the measured aerosol concentrations. This manuscript deals in a first time with the stationary case. The exposed theoretical approach allows to suggest an optimal sensors placement in addition to the source estimation method. In a second time, we consider the case where the unknown aerosol source is unsteady. The estimation method is then based on a convolutive system approach, introducing the concept of source/sensor impedance. After a presentation of the numerical inversion technique, the method is applied experimentally to the real case of hand-held wood working machines so as to classify the machines with respect to their emission rate
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Mosbeux, Cyrille. "Quantification des processus responsables de l’accélération des glaciers émissaires par méthodes inverses". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAI085/document.

Texto completo
Resumen
Le réchauffement climatique actuel a une conséquence directe sur la perte de masse des calottes polaires. Reproduire les mécanismes responsables de cette perte de masse et prévoir la contribution des calottes à l’élévation du niveau des océans d’ici la fin du siècle est dès lors l’un des défis majeurs de la modélisation de l’écoulement des calottes polaires. Les modèles d’écoulement permettent de réaliser de telles prévisions mais ces simulations, à court terme, sont très sensibles à leur état initial habituellement construit à partir d’observations de terrain. Malheureusement, certains paramètres comme le frottement entre la glace et le socle rocheux ainsi que la topographie basale sont souvent méconnus à cause du manque d’observations directes ou des larges incertitudes liées à ces observations. Améliorer la connaissance de ces deux paramètres à la fois pour le Groenland et l’Antarctique est donc un pré-requis pour réaliser des projections fiables. Les méthodes d’assimilation de données et les méthodes inverses permettent alors de surmonter ce problème.Cette thèse présente deux algorithmes d’assimilation de données permettant de mieux contraindre simultanément le frottement basal et la topographie basale à partir d’observations de surface. L’un des algorithmes est entièrement basé sur la méthode adjointe tandis que le second se base sur une méthode cyclique couplant l’inversion du frottement basal avec la méthode adjointe et l’inversion de la géométrie basale à l’aide de la relaxation newtonienne. Les deux algorithmes ont été implémentés dans le modèle d’écoulement de glace éléments finis Elmer/Ice et testés dans une expérience jumelle qui montre une nette amélioration de la connaissance des deux paramètres recherchés. L’application des deux algorithmes à la région de la Terre de Wilkes réduit l’incertitude liée aux conditions basales en permettant, par exemple, d’obtenir plus de détails sur la géométrie basale en comparaison avec les modèles numériques de terrain habituels. De plus la reconstruction simultanée du frottement et de la géométrie basale permet de réduire significativement les anomalies de divergence de flux habituellement obtenues lors de l’inversion du frottement seul. Nous étudions finalement l’impact des conditions basales ainsi inversées sur des simulations pronostiques afin de comparer la capacité des deux algorithmes à mieux contraindre la contribution future des calottes polaires à l’augmentation du niveau des océans
The current global warming has direct consequences on ice-sheet mass loss. Reproducing the responsible mechanisms and forecasting the potential ice-sheets contribution to 21st century sea level rise is one of the major challenges in ice-sheet and ice flow modelling. Ice flow models are now routinely used to forecast the potential ice-sheets contribution to sea level rise. Such short term simulations are very sensitive to model initial state, usually build from field observations. However, some parameters, such as the basal friction between icesheet and bedrock as well as the basal topography, are still badly known because of a lake of direct observations or large uncertainty on measurements. Improving the knowledge of these two parameters for Greenland and Antarctica is therefore a prerequisite for making reliable projections. Data assimilation and inverse methods have been developed in order to overcome this problem. This thesis presents two different assimilation algorithms to better constrain simulaneouslybasal friction and bedrock elevation parameters using surface observations. The first algorithm is entierly based on adjoint method while the second algorithm uses a cycling method coupling inversion of basal friction with adjoint method and inversion of bedrock topography with nudging method. Both algorithms have been implemented in the finite element ice sheet and ice flow model Elmer/Ice and tested in a twin experiment showing a clear improvement of both parameters knowledge. The application of both algorithms to regions such as the Wilkes Land in Antartica reduces the uncertainty on basal conditions, for instance providing more details to the bedrock geometry when compared to usual DEM. Moreover,the reconstruction of both bedrock elevation and basal friction significantly decreases ice flux divergence anomalies when compared to classical methods where only friction is inversed. We finaly sudy the impact of such inversion on pronostic simulation in order to compare the efficiency of the two algorithms to better constrain future ice-sheet contribution to sea level rise
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Ramananjaona, Christophe Jean Gabriel. "Méthodes d'ensembles de niveaux pour la résolution de problèmes inverses des ondes". Versailles-St Quentin en Yvelines, 2002. http://www.theses.fr/2002VERS0026.

Texto completo
Resumen
This work concerns the non-linearised reconstruction of a bidimensional homogeneous object,infinitely long in the axial direction), possibly multiply connected, buried in a free or half space, from the measurement of the time-harmonic wave field, which is scattered from it. The problem in an inverse one and its solution is sought iteratively by using a representation of the object as a level set. Its deformation is controlled by a velocity field satisfying minimisation conditions of an objective functional, characterising the discrepancy between the true scattered field and the reconstructed one; both are computed without approximation and using a method of moments derived from domain integrals. The novelty of this approach lies in the extension of the method to the layered configuration as well as the use of a lagrangian formulation of the objective functional, in order to properly calculate its derivative. This is made possible due to the good use of Green functions properties, which gather the complete geometry of the experiment. The analysis was developed in the context of the Transverse Magnetic polarisation (TM) and particularly the Transverse Electric polarisation (TE), as this is new work. Particular attention is given to the numerical subtlety required to handle this problem. Furthermore, an algorithm combining an optimisation method involving level stes and the Levenberg-Marquardt method has enabled the retrieval of obstacles of unknow contrast. Finally, a so-called"fixed-point" algorithm is developed, which involves a direct discretisation of the optimality conditions, given the volume of the object. This is shown to achieve satisfactory results within one or two iterations. Experimental laboratory data, involving the illumination of conductive or dielectric objects in the microwage regime, have been processed and provide good results
Cette étude traite de la reconstruction non linéaire d'un objet homogène bidimensionnel (infiniment long dans la direction axiale) de connexité simple ou multiple, enfoui dans un espace libre ou un demi-espace, à partir de mesures de champ d'ondes harmoniques diffractées par celui-ci. Il s'agit d'un problème inverse dont la solution est recherchée itérativement à l'aide d'une représentation de l'objet sous forme d'un ensemble de niveaux, dont la déformation est contrôlée par une vitesse satisfaisant des conditions de minimisation d'une fonctionnelle objectif caractérisant l'erreur entre le champ diffracte et le champ reconstruit; les champs étant calculés sans approximation grâce à une méthode de moments reposant sur des intégrales de domaine. La nouveauté de ce travail tient notamment à l'extension de la méthode à la configuration stratifiée, ainsi qu'à l'utilisation d'une formulation lagrangienne de la fonctionnelle objectif, afin de calculer convenablement la dérivée, grâce au bon usage des propriétés des fonctions de Green, qui rassemblent de manière synthétique toute la configuration géométrique de l'expérience. L'analyse a été développée pour les ondes electromagnétiques en polarisation Transverses Magnétique (TM) et Electrique (TE), l'accent étant porté sur le mode TE-dont l'analyse est nouvelle-, qui numériquement requiert une attention particulière. Un algorithme alliant une méthode d'optimisation utilisant les ensembles de niveaux et la méthode de Levenberg-Marquardt a permis d'autre part de reconstruire des objets de contraste inconnu. Enfin, il a été développé un algorithme de point fixe qui, mettant en jeu une discrétisation directe des conditions d'optimalité, et moyennant la connaissance du volume de l'objet a reconstruire, permet d'obtenir un résultat satisfaisant en une ou deux itérations. Des données expérimentales acquises en laboratoire sur des objets conducteurs ou diélectriques en régime microonde ont été traitées avec de bons résultats
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Doumenc, Frédéric. "Coefficients d'échange thermique superficiel : détermination par méthodes inverses en conduction bidimensionnelle transitoire". Lyon, INSA, 1993. http://www.theses.fr/1993ISAL0020.

Texto completo
Resumen
Ce travail traite du refroidissement par air comprimé des poinçons utilisés pour le formage d'ébauches d'articles en verre. Une mauvaise maîtrise de la température de ces poinçons entraînant une augmentation des défauts de fabrication, le but est de développer un modèle thermique permettant de prédire leur température, afin d'améliorer la conception du système de refroidissement. Dans une première étape, le champ de température dans le système poinçon / verre / moule est calculé grâce à un modèle monodimensionnel, reproduisant les différentes étapes d'un cycle de formage. Ce modèle est utilisé dans le but de mieux comprendre la nature des transferts de chaleur dans le système poinçon / verre / moule, et pour préciser les hypothèses du modèle destiné à l'optimisation du système de refroidissement du poinçon. La modélisation fine du poinçon nécessitant la connaissance des conditions aux limites aux surfaces soumises au contact avec le verre d'une part, et à l'action de la ventilation d'autre part, ces dernières sont obtenues expérimentalement, en utilisant des méthodes inverses en conduction. Les valeurs du coefficient d'échange entre le poinçon et le verre, et entre le poinçon et l'air comprimé sont présentées et discutées, pour différentes conditions expérimentales. Pour finir, le modèle bidimensionnel de simulation thermique du poinçon, basé sur la résolution de l'équation de la conduction par éléments finis, et utilisant les conditions aux limites déterminées expérimentalement est décrit, et un exemple de simulation est détaillé
This work concerns the cooling by compressed air flow of the plungers used in the glass forming processes. The bad control of the plunger temperature leads to an increase of the fabrication default. Thus the objective of the study is to develop a thermal model which will allow the calculation of the plunger temperature field and which-will be used to optimize the cooling system configuration. In a first stage, the temperature field in the plunger/glass/mold system is determined with a on dimensional model. The radiation in the glass is treated with the discrete ordinate method and the model takes into account the different steps of forming cycle. This simplified model is used tio better understand the dehavior of the heat transfer in the plunger/glass/mold system and to determine the parameter that must be known accurately. The boundary conditions at the plunger/glass interface and at the inner surface cooled by air must be known accuraltely ti determine the plunger temperature. Two experimental set-up have been realized to determine by inverse heat conduction methods thes unknown boundary condition. The heat transfer coefficient between the plunger and the galss and between the plunger and the air are shown and examined for different experimental situations. The two dimensional thermal model solved with the finite elements technique is then described. Based on the boundary conditions determined experimentally, an example of the plunger temperature field during a glass forming cycle is given
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Hakiel, Lukasz. "Conception et optimisation des nouvelles méthodes d'abattage". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0020/MQ55761.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Zeaiter, Amal. "Thermal Modeling and Cooling of Electric Motors : Application to the Propulsion of Hybrid Aircraft Thermal Sensitivity Analysis of a High Power Density Electric Motor for Aeronautical Application Numerical Approach to Determining Windings’ Thermal Conductivity Electro-thermal Models and Design Approach for High Specific Power Electric Motor for Hybrid Aircraft Determination of electric motor losses and critical temperatures through an inverse approach". Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2020. http://www.theses.fr/2020ESMA0015.

Texto completo
Resumen
Le travail présenté dans ce mémoire concerne la modélisation thermique de moteurs électriques de forte densité de puissance. Le but est de trouver les techniques de refroidissement efficaces et adaptées aux moteurs conçus pour application à la propulsion de l’avion hybride du futur. Deux cibles de densité de puissance, 5 kW/kg pour le court terme (année 2025) et 10 kW/kg pour le long terme (année 2035), sont abordées avec leurs propres exigences. Les moteurs électriques étudiés sont de type synchrone à aimants permanents montés en surface du rotor. Ce type de moteur est caractérisé par un rendement élevé et contraint par les températures maximales admissibles relativement faibles de son bobinage et de ses aimants. Une fois atteintes, ces valeurs de température entraînent le dysfonctionnement du moteur ou la limitation de sa durée de vie. En outre, avec un design fermé imposé et des densités élevées de flux de chaleur dissipées dans la machine, une optimisation du refroidissement est incontournable.Pour se familiariser avec le problème, un état de l’art détaillé sur le refroidissement des machines électriques est réalisé. En conséquence, les différentes techniques utilisées et les avancements technologiques récents sont analysés vis-à-vis de notre cas d’application. Ensuite, afin de prédire le comportement thermique du moteur et d’assurer le suivi des températures critiques (surtout au bobinage et aux aimants), un modèle nodal transitoire est mis en place et résolu sous Matlab. Ce dernier est construit en considérant l’intégralité du système moteur avec son circuit de refroidissement. Les conditions externes liées à l’environnement sont prises en compte, en particulier la variation de la température d’air extérieur en fonction de l’altitude et le profil de mission de vol de l’avion. En effet, les pertes dans le moteur, qui constituent les sources de chaleur, varient en fonction de la puissance pendant le vol. Afin d’identifier précisément les paramètres intrinsèques du modèle, une étude par éléments finis a été menée et des corrélations permettant l’estimation de la conductivité thermique du bobinage en sont déduites par interpolation polynomiale. Plusieurs études ont ensuite été menées concernant l’influence des propriétés thermophysiques, de la température extérieure, de la nature du liquide de refroidissement, de son débit ainsi que la surface extérieure de l’échangeur sur les réponses en température du modèle. Plusieurs designs du moteur sont étudiés grâce à ce modèle afin de proposer des solutions de refroidissement adaptées. Pour chacune des cibles, une configuration optimale du moteur avec son système de refroidissement a été adoptée.Par ailleurs, les pertes électromagnétiques et mécaniques étant difficiles à estimer dans ces machines, un chapitre est consacré à leur identification par résolution d’un problème inverse. La technique est séquentielle et utilise la spécification de fonction de Beck comme méthode de régularisation. Trois cas, de complexité croissante, sont étudiés et montrent la fiabilité de la méthode qui permet également d’estimer les températures inaccessibles dans le moteur. C’est finalement ce modèle nodal à faible nombre de degré de liberté qui nous permet d’assurer, en temps réel, le suivi des points chauds
The concern of this thesis is the thermal modeling of high-specific power electric motors. The aim is to allow finding the efficient and adequate cooling solutions of the motors designed for hybrid aircraft propulsion application. Two specific power values, 5 kW/kg for the short-term (year 2025) and 10 kW/kg for the long-term (year 2035), are targeted, each with specific requirements. The investigated type of electric motors is the synchronous machine with surface-mounted permanent magnets. This motor type is constrained by relatively low values of maximum allowed temperatures in windings and magnets. Once reached, these temperature values lead to a failure in motor operation or at least to shortening its lifetime. Moreover, with a closed motor design and high heat fluxes generated, the optimization of the cooling is essential.To become acquainted with the issue, a detailed state of the art on electric machine cooling is elaborated. Then, the commonly used techniques and the recent technological advancements are analyzed with respect to our case study. Afterward, in order to predict motor thermal behavior and ensure the monitoring of critical temperatures (windings and magnets), a nodal transient model is implemented and solved on Matlab software. This latter is built for the whole system of the motor and cooling circuit. Specific conditions of the flight are taken into account, particularly the outside air temperature variation in terms of altitude and the flight mission profile. Actually, the motor losses, generating the heat in the machine, vary depending on the motor power during the mission. For the identification of crucial parameters, a Finite-Element study was conducted and corresponding correlations were elaborated to estimate the windings thermal conductivity through polynomial interpolation.Several studies were carried out involving the influence of the thermo-physical properties, the outside temperature, the coolant nature, its flow rate as well as the exchanger surface, on the temperature response of the model. This model has allowed studying several motor designs and proposing adequate cooling solutions. For each target, a final optimal configuration of the motor with its cooling system was adopted.Besides, since the electromagnetic and mechanical losses are hardly estimated in this machine type, a chapter was dedicated to identifying them through an inverse approach. A sequential technique, that uses Beck’s function specification for regularization, was developed. Three cases of unknown losses, with increasing complexity, were studied, proving the method's reliability. Finally, using the same developed low-order model, the real-time procedure also allows monitoring low-accessibility motor temperatures (specifically hot spots)
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Weisz-Patrault, Daniel y Daniel Weisz-Patrault. "Recherche et utilisation de méthodes analytiques inverses pour des problèmes couplés thermo élastiques". Phd thesis, Université Paris-Est, 2012. http://pastel.archives-ouvertes.fr/pastel-00809347.

Texto completo
Resumen
Ce travail de doctorat porte sur l'utilisation des mathématiques analytiques dans le cadre de méthodes inverses appliquées à l'industrie. Ces travaux tiennent au développement de capteurs inverses en temps réel adaptés au laminage industriel. Le producteur d'acier ArcelorMittal dirige un projet européen, qui vise à montrer la faisabilité de capteurs mesurant les champs (température, contraintes) dans le contact entre le produit et l'outil sans altérer les conditions de ce contact. Les travaux de thèse présentés dans ce mémoire ont été réalisés au sein du laboratoire Navier et financé par l'école des Ponts ParisTech. Cependant un contrat sur trois ans signé avec ArcelorMittal a permis à l'auteur d'être partie prenante de ce projet européen, et ainsi de voir ses recherches concrétisées par une demande industrielle réelle. L'enjeu de cette thèse est double, académique et industriel. Académique en ce sens que les travaux cherchent à recenser et utiliser efficacement les méthodes de résolution analytiques existantes, pour des problèmes inverses en thermoélasticité, dans le cadre d'une métrologie en temps réel. En effet, les solutions analytiques sont souvent exploitées comme des cas purement théoriques, trouvant à bien des égards un certain succès dans la culture de l'ingénieur (comme c'est le cas par exemple du calcul en élasticité linéaire des facteurs d'intensité de contraintes), mais qui par bien des aspects sont reléguées à des cas d'écoles anciens servant au mieux à valider des codes de calculs numériques sur des exemples particulièrement simples. Ces solutions et méthodes de résolution analytiques ne font d'ailleurs guère plus l'objet de recherches en mathématiques pures. Cependant les problématiques propres, liées au caractère inverse des problèmes à traiter, pénalisent les méthodes de résolution numériques, en ce sens que les problèmes inverses sont mal posés, et qu'une stabilisation des algorithmes numériques est nécessaire mais souvent délicate si l'on considère les conditions extrêmes (champs très singuliers) appliquées aux outils industriels de laminage. Par ailleurs la métrologie en temps réel exclut l'utilisation de codes numériques trop coûteux en temps de calcul (méthodes itératives etc...). Ces deux aspects contribuent à renouveler assez largement l'intérêt pour les solutions analytiques. Il convient alors d'en regrouper (dans la mesure du possible) les méthodes les plus efficaces (en termes de précision et de temps de calcul notamment) et les plus adaptées pour la métrologie. Nous verrons notamment différents développements en séries élémentaires permettant non seulement de donner à une suite de points mesurés une forme analytique, mais également de simplifier les équations aux dérivées partielles à résoudre. D'autre part l'enjeu de cette thèse est également industriel, car ces travaux s'inscrivent dans une démarche de développement de capteurs adaptés à la mise en forme de l'acier par laminage. Ainsi l'étude de la robustesse au bruit de mesure, les contraintes technologiques liées à l'insertion des capteurs, les limitations en terme de fréquence d'acquisition et les problématiques de calibrage sont au coeur des développements. Ainsi, l'ensemble des travaux présentés, peut constituer une sorte de réhabilitation des méthodes analytiques, dont la supériorité sur les méthodes numériques (en termes de temps de calcul et parfois aussi de précision) est mise en lumière, dans le contexte précis de la métrologie en temps réel sur des géométries simples. Trois méthodes inverses en deux dimensions, adaptées au laminage industriel, ont été menées à bien (élastique isotherme, thermique et couplage thermoélastique), ainsi qu'une série d'applications expérimentales réalisées sur le laminoir de laboratoire d'ArcelorMittal. Par ailleurs, des extensions en trois dimensions des méthodes inverses élastiques et thermiques sont également détaillées
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Weisz-Patrault, Daniel. "Recherche et utilisation de méthodes analytiques inverses pour des problèmes couplés thermo élastiques". Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1171/document.

Texto completo
Resumen
Ce travail de doctorat porte sur l'utilisation des mathématiques analytiques dans le cadre de méthodes inverses appliquées à l'industrie. Ces travaux tiennent au développement de capteurs inverses en temps réel adaptés au laminage industriel. Le producteur d'acier ArcelorMittal dirige un projet européen, qui vise à montrer la faisabilité de capteurs mesurant les champs (température, contraintes) dans le contact entre le produit et l'outil sans altérer les conditions de ce contact. Les travaux de thèse présentés dans ce mémoire ont été réalisés au sein du laboratoire Navier et financé par l'école des Ponts ParisTech. Cependant un contrat sur trois ans signé avec ArcelorMittal a permis à l'auteur d'être partie prenante de ce projet européen, et ainsi de voir ses recherches concrétisées par une demande industrielle réelle. L'enjeu de cette thèse est double, académique et industriel. Académique en ce sens que les travaux cherchent à recenser et utiliser efficacement les méthodes de résolution analytiques existantes, pour des problèmes inverses en thermoélasticité, dans le cadre d'une métrologie en temps réel. En effet, les solutions analytiques sont souvent exploitées comme des cas purement théoriques, trouvant à bien des égards un certain succès dans la culture de l'ingénieur (comme c'est le cas par exemple du calcul en élasticité linéaire des facteurs d'intensité de contraintes), mais qui par bien des aspects sont reléguées à des cas d'écoles anciens servant au mieux à valider des codes de calculs numériques sur des exemples particulièrement simples. Ces solutions et méthodes de résolution analytiques ne font d'ailleurs guère plus l'objet de recherches en mathématiques pures. Cependant les problématiques propres, liées au caractère inverse des problèmes à traiter, pénalisent les méthodes de résolution numériques, en ce sens que les problèmes inverses sont mal posés, et qu'une stabilisation des algorithmes numériques est nécessaire mais souvent délicate si l'on considère les conditions extrêmes (champs très singuliers) appliquées aux outils industriels de laminage. Par ailleurs la métrologie en temps réel exclut l'utilisation de codes numériques trop coûteux en temps de calcul (méthodes itératives etc...). Ces deux aspects contribuent à renouveler assez largement l'intérêt pour les solutions analytiques. Il convient alors d'en regrouper (dans la mesure du possible) les méthodes les plus efficaces (en termes de précision et de temps de calcul notamment) et les plus adaptées pour la métrologie. Nous verrons notamment différents développements en séries élémentaires permettant non seulement de donner à une suite de points mesurés une forme analytique, mais également de simplifier les équations aux dérivées partielles à résoudre. D'autre part l'enjeu de cette thèse est également industriel, car ces travaux s'inscrivent dans une démarche de développement de capteurs adaptés à la mise en forme de l'acier par laminage. Ainsi l'étude de la robustesse au bruit de mesure, les contraintes technologiques liées à l'insertion des capteurs, les limitations en terme de fréquence d'acquisition et les problématiques de calibrage sont au coeur des développements. Ainsi, l'ensemble des travaux présentés, peut constituer une sorte de réhabilitation des méthodes analytiques, dont la supériorité sur les méthodes numériques (en termes de temps de calcul et parfois aussi de précision) est mise en lumière, dans le contexte précis de la métrologie en temps réel sur des géométries simples. Trois méthodes inverses en deux dimensions, adaptées au laminage industriel, ont été menées à bien (élastique isotherme, thermique et couplage thermoélastique), ainsi qu'une série d'applications expérimentales réalisées sur le laminoir de laboratoire d'ArcelorMittal. Par ailleurs, des extensions en trois dimensions des méthodes inverses élastiques et thermiques sont également détaillées
This thesis is about the use of analytical mathematics within the framework of inverse methods applied to industry. These works are devoted to the development of sensors using real-time inverse methods adapted for rolling process. Steel producer ArcelorMittal leads a European project that aims to demonstrate the feasibility of sensors measuring fields (temperature, stress) in the contact between the product and the tool without altering physical conditions of this contact. The thesis has been funded by l'école des Ponts ParisTech. However, a three-year contract signed with ArcelorMittal has enabled the author to be part of the European project, and thus his research has been motivated by a real industrial demand. The aim of this thesis is twofold, academic and industrial; academic in the sense that these works seek to identify and use efficiently existing analytical methods for inverse problems occurring in thermo-elasticity in the context of real-time metrology. Indeed, analytical solutions are often exploited as purely theoretical cases, finding in many ways some success in engineering (for example in linear elasticity with stress intensity factors), but are most of the time relegated to the validation of numerical codes under simple assumptions. As a matter of fact, there is no research any more in pure mathematics concerning these solutions and analytical methods. However, the specific complications related to the inverse nature of problems under consideration, penalize numerical algorithms because inverse problems are ill-posed and stabilization is needed. But it remains often difficult if we consider the extreme loads (very sharp gradients) applied to industrial tools during rolling. Moreover, the real-time metrology excludes the use of numerical codes too costly in terms of computation time (iterative methods etc...). Both aspects contribute to renew widely interest for analytical solutions. It is then necessary to collect most effective and efficient (in terms of computation time and precision) methods and emphasis the most suitable for metrology. We will see various series expansions, not only to give a sequence of measured points an analytical form, but also to simplify the partial differential equations to solve. On the other hand, the goal of this thesis is also industrial, as these works are part of a process of development of sensors adapted for steel rolling industry. Thus, the robustness to measurement noise, technological constraints related to the local measurement systems (such as limitations in terms of frequency of acquisition) and calibration issues are central in the developments. Thus, the whole work can be a kind of rehabilitation of analytical methods. Their superiority over numerical methods (in terms of computation time and sometime accuracy) is highlighted, in the specific context of metrology in real-time on simple geometries. Three inverse methods in two-dimensions suitable for rolling process were developed successfully (isothermal elastic, thermal and thermoelastic coupling) and a series of experimental tests were made on the laboratory mill of ArcelorMittal. In addition, three-dimensional extensions of elastic and thermal inverse methods are also detailed
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Acuna, Diego. "Méthodes scientifiques de conception produit : Approche Franco-Américaine". Paris, ENSAM, 2004. http://www.theses.fr/2004ENAM0010.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

De, Buhan Maya. "Problèmes inverses et simulations numériques en viscoélasticité 3D". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00552111.

Texto completo
Resumen
Dans cette thèse, nous abordons plusieurs problèmes mathématiques et numériques relatifs aux équations de la viscoélasticité en trois dimensions. Dans la première partie, nous considérons le système linéaire et nous nous intéressons au problème inverse de récupération d'un coefficient viscoélastique. Pour ce système, nous démontrons une inégalité de Carleman (Chapitre 1) et un résultat de stabilité dans le prolongement unique (Chapitre 2). Nous utilisons ensuite ces résultats pour prouver deux inégalités de stabilité pour le problème inverse, l'une relative à une unique mesure interne et l'autre à une unique mesure sur une partie arbitrairement petite de la frontière (Chapitre 3). Finalement, nous proposons une méthode pour résoudre ce problème numériquement et présentons une application en imagerie médicale (Chapitre 4). Dans la deuxième partie, nous étudions le système de la viscoélasticité non linéaire. Nous présentons des méthodes numériques pour le résoudre et l'implémentation de ces dernières en trois dimensions sur des géométries complexes (Chapitre 5). Une application biomédicale à la simulation des déformations des structures cérébrales est ensuite décrite (Chapitre 6). Enfin, nous abordons une question de modélisation en proposant un modèle couplé viscoélastique/viscoplastique en grandes déformations (Chapitre7).
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Dardé, Jérémi. "Méthodes de quasi-réversibilité et de lignes de niveau appliquées aux problèmes inverses elliptiques". Phd thesis, Université Paris-Diderot - Paris VII, 2010. http://tel.archives-ouvertes.fr/tel-00551853.

Texto completo
Resumen
Ce travail s'intéresse à l'utilisation de la méthode de quasi-réversibilité pour la résolution de problèmes inverses, un exemple typique étant le problème inverse de l'obstacle. Nous proposons pour ce dernier une nouvelle approche couplant la méthode de quasi-réversibilité et une méthode de lignes de niveau. Plus précisément, à partir d'un ouvert candidat C, nous résolvons un problème de Cauchy à l'extérieur de C, puis nous mettons à jour cet ouvert par la méthode de lignes de niveau. La solution approchée du problème de Cauchy est obtenue en utilisant la méthode de quasi-réversibilité, introduite par J.L. Lions et R. Lattès dans les années soixante. Nous proposons différentes formulations de cette méthode, ainsi que sa discrétisation par éléments finis non conformes adaptés à l'espace de Sobolev H2, et nous prouvons la convergence des éléments finis. En présence d'une donnée bruitée, nous introduisons une nouvelle méthode basée sur la dualité en optimisation et le principe de Morozov. Nous montrons que cette méthode fournit des données régularisées et un choix de paramètre de régularisation pertinent pour la quasi-réversibilité. En ce qui concerne la mise à jour de l'ouvert C, nous proposons deux méthodes de lignes de niveau très différentes : la première est basée sur une équation eikonale, la seconde sur une équation de Poisson. Nous prouvons que ces deux approches assurent la convergence vers l'obstacle. Finalement, nous présentons des résultats numériques pour cette approche couplant quasi-réversibilité/lignes de niveau dans différentes situations : problème inverse de l'obstacle avec condition de Dirichlet, détection de défauts dans une structure élasto-plastique...
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Soulez, Ferréol. "Une approche problèmes inverses pour la reconstruction de données multi-dimensionnelles par méthodes d'optimisation". Phd thesis, Université Jean Monnet - Saint-Etienne, 2008. http://tel.archives-ouvertes.fr/tel-00379735.

Texto completo
Resumen
Ce travail utilise l'approche « problèmes inverses » pour la reconstruction dans deux domaines différents : l'holographie numérique de micro-particules et la deconvolution aveugle.
L'approche « problèmes inverses » consiste à rechercher les causes à partir des effets ; c'est-à-dire estimer les paramètres décrivant un système d'après son observation. Pour cela, on utilise un modèle physique décrivant les liens de causes à effets entre les paramètres et les observations. Le terme inverse désigne ainsi l'inversion de ce modèle direct. Seulement si, en règle générale, les mêmes causes donnent les mêmes effets, un même effet peut avoir différentes causes et il est souvent nécessaire d'introduire des a priori pour restreindre les ambiguïtés de l'inversion. Dans ce travail, ce problème est résolu en estimant par des méthodes d'optimisations, les paramètres minimisant une fonction de coût regroupant un terme issu du modèle de formation des données et un terme d'a priori.

Nous utilisons cette approche pour traiter le problème de la déconvolution aveugle de données multidimensionnelles hétérogène ; c'est-à-dire de données dont les différentes dimensions ont des significations et des unités différentes. Pour cela nous avons établi un cadre général avec un terme d'a priori séparable, que nous avons adapté avec succès à différentes applications : la déconvolution de données multi-spectrales en astronomie, d'images couleurs en imagerie de Bayer et la déconvolution aveugle de séquences vidéo bio-médicales (coronarographie, microscopie classique et confocale).

Cette même approche a été utilisée en holographie numérique pour la vélocimétrie par image de particules (DH-PIV). Un hologramme de micro-particules sphériques est composé de figures de diffraction contenant l'information sur la la position 3D et le rayon de ces particules. En utilisant un modèle physique de formation de l'hologramme, l'approche « problèmes inverses » nous a permis de nous affranchir des problèmes liées à la restitution de l'hologramme (effet de bords, images jumelles...) et d'estimer les positions 3D et le rayon des particules avec une précision améliorée d'au moins un facteur 5 par rapport aux méthodes classiques utilisant la restitution. De plus, nous avons pu avec cette méthode détecter des particules hors du champs du capteur élargissant ainsi le volume d'intérêt d'un facteur 16.
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Maréchal, William. "Utilisation de méthodes inverses pour la caractérisation de matériaux à changement de phase (MCP)". Thesis, Pau, 2014. http://www.theses.fr/2014PAUU3014/document.

Texto completo
Resumen
Avec le développement des énergies intermittentes et la raréfaction des énergies fossiles, le sujet du stockage de l’énergie prend de plus en plus d’ampleur. Une des voies étudiée est le stockage thermique par utilisation de matériaux à changement de phase (MCP). Cette voie est en outre développée pour améliorer l’inertie thermique dans le secteur du bâtiment. Pour utiliser au mieux ces matériaux il est nécessaire de pouvoir prévoir leur comportement énergétique. Cela nécessite une connaissance précise des propriétés thermophysiques, et en premier lieu de la fonction enthalpie massique . Actuellement, il est souvent proposé d'approximer cette enthalpie par l'intégration directe des thermogrammes de la calorimétrie utilisant notamment la notion de capacité calorifique "équivalente". Cette approche est cependant fausse car le thermogramme n’est qu'une représentation en fonction du temps de phénomènes complexes faisant intervenir non seulement les propriétés énergétique du matériaux mais également les transferts thermiques au sein de la cellule du calorimètre. Il en résulte, par exemple, que la forme des thermogrammes, et donc l’enthalpie apparente, dépend de la vitesse de réchauffement et de la masse de l'échantillon ce qui n'est pas le cas de l'enthalpie des MCP qui ne dépend, à pression fixe, que de la température ou de la concentration (pour les solutions). On propose de comparer la sortie d’un modèle numérique direct avec des thermogrammes expérimentaux. L’objectif principal de cette thèse est alors d’utiliser ce modèle dans le cadre d’une méthode inverse permettant l’identification des paramètres de l’équation d’état permettant alors de calculer l’enthapie massique . Dans un premier temps, il est donc présenté le détail d'un modèle 2D dit enthalpique qui néglige la convection, validé par l'expérience, permettant de reconstituer les thermogrammes de corps purs ou de solutions binaires dont les enthalpies sont connues. Il en est déduit une étude de l'influence des différents paramètres ( , , , ...) sur la forme des thermogrammes pour en déduire leurs sensibilités. Une réduction de ce modèle est ensuite effectuée pour réduire le temps de calcul du modèle direct en vue de l’utilisation dans une méthode inverse. Cette dernière est décrite ainsi que les algorithmes d’optimisation correspondants (de Levenberg-Marquardt, génétique ou du simplexe qui s'est avéré le plus rapide) dans un second temps. Nous appliquerons ensuite cet algorithme pour identifier, à partir d'expériences, la fonction enthalpie de corps purs ou de solutions binaires. Les résultats obtenus montrent qu’il est possible d’identifier une fonction independante de la vitesse de réchauffement et de la masse, ce qui valide la méthode. Une analyse des différentes sources d’erreurs dans le processus d’identification et leurs influences sur le résultat permet d’évaluer la qualité de la fonction enthalpie que l’on identifie. Enfin, cette même approche a été utilisée pour analyser une expérience réalisée sur un échantillon d’un matériau composite utilisé dans le bâtiment (ciment avec inclusion de MCP micro-encapsulé). Dans ce cas encore, nos méthodes permettent une caractérisation énergétique pertinente
With the development of intermittent sources of energy and the depletion of fossil fuels, the subject of energy storage is becoming an important topic. One of the studied options is tthe latent hermal storage using of phase change materials (PCM). One application for this type of energy storage is to improve the thermal insulation in buildings. To make the best use of these materials it is necessary to be able to predict their energy behavior. This requires a precise knowledge of their thermophysical properties, first of all of the specific enthalpy function of the material . Currently, it is often suggested to approximate the enthalpy by the direct integration of the thermograms obtained through calorimetry experiments (notion of "equivalent" calorific capacity). This approach is false because thermograms are only a time related representation of complex phenomena where thermal transfers arise in the cell of the calorimeter acting with the thermophysical properties. As a result, for example, the shape of thermograms depends on the heating rate and on the mass of the sample, which is not the case for the enthalpy of the PCM, which depends, at constant pressure, only on the temperature or on the concentration (for the solutions). We propose to compare the results given by a of a numerical direct model with experimental thermograms. The main objective in this thesis is then to use this direct model in an inverse method in order to identify the parameters of the equation of state, which enables us to calculate the specific enthalpy . First of all, the detail of an enthalpy model is presented, and then validated by comparison with experiments, allowing us to reconstruct the thermograms of pure substances or of salt solutions, of which the enthalpies are known. A study of the influence of the various parameters ( , , , .,..) on the shape of thermograms is also undertaken in order to deduce their sensibilities. A reduced model is then developed in order to reduce the calculating time of the direct model. This optimized model allows the use of inverse methods with acceptable durations. Several inverses algorithms are then presented: Levenberg-Marquardt, evolutionary and Simplex which has proved to be the fastest). We shall then apply this algorithm to identify, from calorimetric experiments, the enthalpy function of pure substances or of salt solutions. The results that we obtain show that it is possible to identify a function independent of the heating rate and of the mass, which validates the method. An analysis of the various sources of errors in the identification process and of their influences on the result allows us to estimate the quality of the enthalpy function that we identify
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Dib, Rabih. "Caractérisation vibratoire des machines industrielles par des méthodes pseudo-inverses : méthodologie, instrumentation et expérimentation". Compiègne, 2002. http://www.theses.fr/2002COMP1424.

Texto completo
Resumen
La caractérisation des sources vibratoires dans les machines est nécessaire pour diminuer les vibrations et le bruit émis. Une nouvelle approche expérimentale a été développée basée sur les techniques inverses, avec une instrumentation et des méthodes de traitement du signal adaptées. Cette caractérisation se résume à une identification des forces d’excitation à l’interface d’un actionneur placé dans son environnement industriel. La machine étudiée est un moteur électrique avec une alimentation PWM, intégré sur un banc d’essai. Une approche initiale, utilisait les méthodes de pseudo inversion de la matrice des fonctions de transfert associée à la matrice spectrale de la réponse vibratoire de la machine. On a montré qu’il est difficile d’identifier les forces d’excitation du moteur en présence des parasites engendrées par les autres sources vibratoires telles que le frein (un générateur). Une méthode de conditionnement des signaux, basées sur les cohérences partielles est proposée pour s’affranchir de ces parasites. Cette approche n’est pas valable si les signaux des capteurs de références utilisés pour appliquer cette technique sont trop contaminés, les résultats sont biaisés. Pour les cas des sources indépendantes les résultats sont améliorés, mais dans d’autre cas l’estimation n’est pas exacte. Une nouvelle approche (le Minorant ajusté) est proposée pour obtenir une meilleure estimation de la contribution de chaque source. Cette méthode permet une amélioration significative des estimations pour chaque source représentée par les forces à chaque interface. Elle est également applicable à d’autres cas pratiques de traitement utilisant les systèmes MIMO.
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Aiboud, Fazia. "Méthodes approchées pour la résolution de problèmes inverses : identificaiton paramétrique et génération de formes". Thesis, Clermont-Ferrand 2, 2013. http://theses.bu.uca.fr/nondiff/2013CLF22399_AIBOUD.pdf.

Texto completo
Resumen
Cette thèse est réalisée dans le cadre d’un projet de collaboration entre le LIMOS et L’entreprise Integrative Bio-Computing (IBC). Cette entreprise développe une plateforme générique de simulation et de modélisation, qui génère des modèles multi-échelles des systèmes biologiques en particulier les organes humains. Cette plateforme combine des modèles à deux niveaux de description : macroscopique pour modéliser le fonctionnement de l’organe par des équations différentielles et microscopique pour modéliser les interactions au niveau cellulaire par automates cellulaires.L’objectif de cette thèse est de proposer des méthodes approchées pour résoudre, d’une part le problème d’identification des paramètres des équations différentielles, d’autre part, la détermination des règles (ou fonction de transition) de l’automate cellulaire permettant d’obtenir la bonne structure de l’organe.Les méthodes proposées pour la modélisation macroscopique sont à base de métaheuristiques (recuit simulé et algorithme génétique). Elles consistent à déterminer les paramètres des équations différentielles à partir d’un ensemble d’observations temporelles.Dans le cas de la modélisation microscopique, des heuristiques (algorithme glouton, recherches locales déterministes) et métaheuristiques (algorithme génétique, recherche locale itérée et recuit simulé) ont été proposées. Elles ont pour rôle de déterminer la fonction de transition de l’automate cellulaire et son nombre de générations permettant d'obtenir une forme voulue. Différentes approches, codages, critères, systèmes de voisinage et systèmes d’interaction ont été proposés. Différentes expérimentations ont été menées pour la génération de formes (pleines, symétriques et quelconques)
This work is realized in collaboration between LIMOS laboratory and IBC Company. Thiscompany develops a generic simulation and modeling framework, which generates multi-scales biological systems models, particularly, synthetic human organs. This framework combines different models with two description scales: macroscopic with differential equations to model the organ operation and microscopic to model cellular interactions by cellular automata. The aim of this work is to propose methods to solve two problems: parameter identification of differential equations and rules determination of cellular automata which modeled the organ structure. Proposed methods to microscopic modeling are based on metaheuristics (simulated annealing and genetic algorithm). These methods determine the parameters of differential equations from a set of temporal observations. Heuristics (greedy algorithm and deterministic local search) and metaheuristics (genetic algorithm, iterated local search and simulated annealing) are proposed in the case of macroscopic modeling. These methods determine the transition function and the number of generations of the cellular automaton generating a shape as near as a targeted shape. Different approaches, encoding, criteria, neighborhood systems and interaction system are proposed. Experimentations are realized to generate some type of shapes (full, symmetric and any shape)
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Celse, Benoît. "Reconnaissance tridimensionnelle en avant du front de taille par méthodes sismiques". Lille 1, 1999. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1999/50376-1999-261.pdf.

Texto completo
Resumen
Une nouvelle méthode de reconnaissance géophysique à l'avancement utilisant les ondes sismiques est proposée. Le dispositif nécessite un forage, instrumente d'hydrophones et des sources sont disposées le long du front de taille. Pour élargir le champ d'investigation et localiser les hétérogénéités majeures, nous proposons d'utiliser conjointement les ondes directes et réfléchies à l'aide de la tomographie réflexion. Le projet a été découpé en trois étapes. Une étude directe de sensibilité a permis de déterminer les caractéristiques des failles les plus facilement détectables, de caractériser les ondes réfléchies et de mettre au point un algorithme d'optimisation du dispositif. Celui-ci répond à plusieurs critères : optimisation du champ d'investigation, maximisation de l'énergie réfléchie et séparation des fenêtres temporelles d'arrivée des ondes d'interface et des ondes réfléchies. L'algorithme du recuit-simulé a alors été utilisé pour minimiser la fonctionnelle obtenue. A partir des enseignements de l'étude précédente, une stratégie de traitement du signal a ensuite été proposée et s'est montrée efficace sur des signaux numériques et réels. Nous avons vérifié que les filtres utilisés n'introduisaient pas d'artefacts sur les temps d'arrivée des ondes de compression directes (p) et réfléchies (pp). Cette information pouvait donc être utilisée dans un algorithme d'inversion : la tomographie réflexion. Cette méthode permet à la fois de localiser précisément un réflecteur majeur (faille, filon) et de déterminer finement le massif en avant du front de taille en déterminant une cartographie des vitesses, dont on pourra estimer les modules. Cette méthode tridimensionnelle a permis de localiser sur plusieurs sites des fractures et des hétérogénéités majeures.
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Abdessalam, Hichem. "Modélisation thermo-rhéo-cinétique, simulation numérique et caractérisation expérimentale du procédé de moussage du polyuréthane". Thesis, Reims, 2015. http://www.theses.fr/2015REIMS004.

Texto completo
Resumen
Avec l'augmentation de l'utilisation des mousses polyuréthanes dans l'industrie automobile et la complexité des formes des pièces, plusieurs défauts de production qui influent sur la qualité des produits finaux peuvent apparaître. L'utilisation des outils numériques pour la simulation du procédé de moussage du polyuréthane est une solution pour prédire le comportement de la mousse pendant le remplissage du moule et détecter les défauts à l'avance. Dans ce contexte, les travaux de cette thèse avaient pour objectif de modéliser et de simuler le procédé de moussage du polyuréthane. Des modèles prenant en compte les deux principales réactions chimiques de la formation du polyuréthane, l'effet exothermique de ces réactions ainsi que le couplage thermo-rhéo-cinétique caractérisant ce procédé ont été proposés. Ces modèles ont été implémentés dans le logiciel NOGRID-points basé sur une méthode sans maillage (FPM) qui donne plus de flexibilité en termes de simulation des écoulements à surface libre. Une technique d'identification inverse qui permet de minimiser l'écart entre les résultats numériques et les résultats expérimentaux obtenus suite à un travail expérimental de caractérisation a permis de déterminer les paramètres des modèles utilisés. Les résultats numériques ont été validés en réalisant des incomplets avec un sous-système de forme simple et un moule d'une pièce industrielle de forme complexe. Cette validation a consisté à comparer les positions des fronts de la mousse obtenues expérimentalement avec celles obtenues numériquement. Nous avons également proposé une prédiction de certaines caractéristiques acoustiques de la mousse en se basant sur les résultats de la simulation numérique du moussage et un modèle semi-phénoménologique
With the increasing use of polyurethane foam in the automotive industry and the complexity of the shapes of the parts, several production defects that affect the quality of the final products may occur. The use of numerical simulation tools is a valuable method to control the mold filling during the foaming process and to detect defects at an early stage. In this context, this work aimed to model and to simulate the polyurethane foaming process. Models taking into account the two main chemical reactions of the formation of polyurethane, the exothermic effect of these reactions as well as the thermo-rheo-kinetic coupling characterizing this process have been proposed. These models have beenimplemented in the software NOGRID-points based on a meshless method (FPM) which gives more flexibility in terms of simulation of free surface flows. The parameters of the used models were identified by an inverse analysis method which minimizes the difference between the numerical and the experimental results obtained by an experimental characterization work. The numerical resultswere validated by carrying out a set of short shot foams using a panel mold cavity and an automotive underlay carpet cavity. The validation was to compare the flow front positions obtained experimentally with the numerical ones. We have also proposed a prediction of some acoustic foam characteristics based on the results of the numerical simulation of the foaming process and a semiphenomenological model
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Bourmaud, Gaëtan. "Les systèmes d'instruments : méthodes d'analyse et perspectives de conception". Phd thesis, Université Paris VIII Vincennes-Saint Denis, 2006. http://tel.archives-ouvertes.fr/tel-00109046.

Texto completo
Resumen
Cette thèse porte sur les outils des opérateurs chargés de la planification et de
l'ordonnancement de la maintenance dans une entreprise de télédiffusion. Nous nous
inscrivons dans le cadre théorique des activités avec instruments qui propose une approche
psychologique des outils, alors nommés instruments. Les instruments ne sont pas donnés
d'emblée, ils sont constitués par le sujet lui-même dans le cadre de processus de genèses
instrumentales assimilables à une poursuite de la conception dans l'usage. Notre travail se
propose d'étudier les instruments comme un ensemble cohérent et organisé par le sujet pour
répondre à la variété des situations rencontrées, nous parlons alors de système
d'instruments. Dans cette recherche, l'enrichissement du cadre théorique tient (1) en une
approche méthodologique spécifique des systèmes d'instruments et (2) en la proposition de
perspectives nouvelles pour une conception anthropocentrée sur la base des caractéristiques
des systèmes d'instruments.
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Migeot, Jean-Louis. "Méthodes numériques pour la conception vibro-acoustique des structures". Doctoral thesis, Universite Libre de Bruxelles, 1997. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212099.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Feredj, Mohamed. "Etude des méthodes de conception de composants domaine-polymorphes". Paris 11, 2005. http://www.theses.fr/2005PA112230.

Texto completo
Resumen
Les systèmes embarqués sont utilisés dans plusieurs domaines d'application et mélangent plusieurs technologies, ce qui fait d'eux des systèmes hétérogènes complexes. Ainsi, ils sont composés de sous systèmes dont chacun obéit à un modèle de calcul qui lui est approprié. Les modèles de calcul sont des lois qui régissent les interactions des systèmes. Actuellement, pour exécuter un composant atomique, dont le comportement est spécifié suivant la sémantique d'un modèle de calcul, dite sémantique de spécification, sous différents modèles de calcul, on peut utiliser soit l'approche hiérarchique, soit l'approche non hiérarchique, soit des composants domaine-spécifiques. Un composant domaine spécifique étant un composant dont le fonctionnement correct n'est garanti que sous le modèle de calcul pour lequel il est conçu. Cependant, ces approches présentent plusieurs désavantages. Pour éviter ces problèmes, nous proposons dans cette thèse un nouveau modèle de composant, appelé composant domaine-polymorphe. Un composantdomaine-polymorphe est un composant atomique ayant la capacité d'exécuter son comportement interne suivant la sémantique de spécification tout en garantissant un fonctionnement correct sous différents modèles de calcul. En découplant la sémantique de spécification et celle d'exécution, cette approche offre une bonne modularité. L'adaptation à la sémantique d'exécution étant automatique, ces composants sont facilement réutilisables etparamétrables afin d'expliciter les interactions entre modèles de calcul, ce qui augmente la productivité et facilite la maintenabilité ainsi que le processus de validation
Embedded systems are used in numerous application domains and mix several technologies, what makes them complex and heterogeneous systems. They are composed of subsystems that are designed using a model of computation (MoC) that suits the needs of their designers. The MoCs are the laws that govern the interaction of the components of a subsystem. In order to use an atomic component, the behavior of which is specified according to a given MoC, in a model that obeys a different MoC, we can use the hierarchical approach, the non-hierarchical approach or build a domain-specific component (DSC). Such components obey the MoC for which they have been designed. To overcome these problems, we propose a new model of component, that we call <>. Such a component is atomic and able to execute its core behavior, specified under a given MoC, under different host MoCs. By decoupling the semantics of the specification and the semantics of the execution context, our approach provides good modularity. The adaptation to the semantic of execution is automatic, so the domain-polymorph components are easily reusable. It is possible to customize their adaptation to the host MoC in order to get explicit control on the interactionsbetween MoCs, what facilitates the maintainability and the process of validation of the systems
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Behar-Cany, Linda. "Méthodes d'aide à la conception optimale des systèmes multicorps". Cachan, Ecole normale supérieure, 1998. http://www.theses.fr/1998DENS0017.

Texto completo
Resumen
L'objet de ce travail est d'élargir les applications de l'optimisation structurale au cas des systèmes composés de corps déformables articulés, en vue de l'amélioration du comportement cinématique et dynamique de ces systèmes multi corps. Nous travaillons sur la formulation discrétisée du problème. Puis l'on résout le problème d'optimisation en combinant les concepts d'approximation et les méthodes de programmation mathématique. Une première analyse des méthodes d'optimisation structurale nous conduit à adopter l'algorithme de programmation récursive quadratique développé par Powell (1977). Nous montrons alors la nécessité d'utiliser une méthode directe d'analyse de sensibilité qui permet de résoudre simultanément les problèmes dynamique et de sensibilité. Par rapport à une méthode classique d'approximation par différences finies, il ne se pose pas de problème de differentiabilité, les résultats sont plus fiables et le cout de calcul est nettement réduit. Ces résultats sont rendus possibles par l'avancement des méthodes d'analyse dynamique du type mécano. Elles se basent sur une formulation de type dynamique non linéaire des structures, avec prise en compte des grandes rotations dans la matrice d'itération à l'aide du vecteur rotation. Les problèmes de conception traites introduisent des variables de conception géométriques (coordonnées de nœuds) et une dépendance temporelle des fonctions de contrainte et/ou objectif. Nous avons donc dégagé l'ensemble des précautions à prendre pour formuler le bon problème d'optimisation. L'ensemble de ces méthodes sont illustrées par l'application à l'optimisation de l'épure cinématique du train arrière de la Peugeot 406, ce qui contribue à l'amélioration du comportement routier du véhicule.
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Faget, Xavier. "Application expérimentale de méthodes inverses avancées pour l'imagerie des propriétés électromagnétiques d'un matériau magnéto-diélectrique". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0039/document.

Texto completo
Resumen
Cette thèse porte sur la caractérisation non destructive de structures 2D magnéto-diélectriques inhomogènes complexes. L’ensemble des étapes allant de l’expérience au traitement du problème inverse est traité. Dans un premier temps, un modèle direct reliant le champ diffusé aux propriétés électromagnétiques du matériau a été mis en place. Ce modèle requiert des calculs par éléments finis de la propagation de l’onde électromagnétique, en présence de l’objet observé lorsque celui-ci est positionné sur un support métallique. Une validation expérimentale a été réalisée via la mise en place d'un banc de mesure multi statique. Différentes étapes d'ajustements et d'étalonnages ont permis la réduction du bruit de mesure ainsi que des biais. L’inversion est traitée principalement par une approche linéaire, avec un choix attentif de la valeur des hyper paramètres qui y sont associés. Une fois les outils mis en place, six études ont été réalisées pour la validation de notre système d’imagerie 2D des propriétés électromagnétiques de matériaux magnéto-diélectriques inhomogènes. Cela comprend l’évaluation des incertitudes de mesure, de la résolution spatiale, la mesure de différents matériaux magnétiques et l’utilisation de différents supports à géométries variées. L’ensemble des résultats expérimentaux réalisés se place dans une hypothèse de géométrie 2D. C’est pourquoi, nous avons ensuite orienté nos travaux vers la recherche d’un design innovant permettant de faire évoluer le banc de mesure en un dispositif d’imagerie 3D. Dans cette perspective, une source secondaire vient se déplacer proche de la cible pour acquérir de l’information selon la troisième dimension
The subject of this thesis is the non-destructive characterization of complex inhomogeneous magneto-dielectric structures. Successively, the experimental developments, the modelling and the data treatments stages are addressed. A forward model that links the scattered field to the electromagnetic properties is established. This model requires some finite element computations in order to estimate the propagation of the electromagnetic wave in presence of the magneto-dielectric object which is glued on a metallic support. A multistatic bench has been designed and constructed in order to collect measured scattered fields. Several adjustments and calibration procedures have been carried out to reduce the measurement noise and biases. Next, the inverse problem has been dealt with, in order to retrieve the electromagnetic properties of the samples, from the measured scattered field. The inverse problem is mainly solved with a linear approach, with a careful selection of the hyperparameters. Once the system has been fine tuned, six studies have been realized to validate our 2D imaging system. The assessment of the measurement uncertainty, the evaluation of the spatial resolution, the characterization of various magnetics materials and the use of different supports with variable geometries have been performed. So far, all the developments were done under a 2D hypothesis. That is why, we have then focused our research on the design of a 3D innovative imaging setup. To this end, a secondary source moving close to the target has been added in order to gain information in the third direction. A numerical study has been performed to assess the expected performances of this new setup
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Mourad, Firas. "Estimation par méthodes inverses des paramètres de glissement et de diffusion des calottes glaciaires d'Antarctique". Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT021.

Texto completo
Resumen
Les modèles décrivant certains phénomènes naturels peuvent dépendre de paramètres non mesurables, d'où la nécessité de les estimer par méthodes inverses. Notre objectif est d'utiliser de telles techniques pour permettre une meilleure initialisation des modèles de simulations des calottes glaciaires en Antarctique. Cela permettra l'obtention de meilleures prévisions dans le cadre des études climatiques. Nous nous intéressons au paramètre de glissement basale qui caractérise le contact de la calotte glaciaire avec le socle rocheux. De même qu'au paramètre de diffusion qui dicte la dynamique au sein de l'équation différentielle partielle de continuité de masse décrivant son mouvement. Une approche basée sur la théorie de Lyapunov est proposée pour contrôler la convergence des modèles de transport inhomogènes 1D et 2D, vers un équilibre correspondant aux mesures de la topographie de surface de la calotte glaciaire de l'Antarctique. Notre travail propose une nouvelle loi pour l'inversion en 1D du coefficient de glissement basal. Nous utilisons également l'inversion adaptative de paramètres distribués pour récupérer le glissement basal depuis le paramètre de diffusion dans des modèles 1D et 2D. Ces deux méthodes sont testées sur des cas d'études et des données réelles. Nos résultats montrent que les méthodes proposées réussissent à inverser les paramètres de glissement et de diffusion tout en reproduisant les données disponibles
Models describing natural phenomena can depend on parameters that cannot be directly measured, hence the necessity to develop inverse techniques to determine them. Our goal is to utilize such techniques to enable better initialization of ice sheet models for Antarctica. This will help such models to produce better forecasts as part of climate studies. The parameters of interest are the basal sliding coefficient, which characterizes the contact of the ice sheet with the bed underneath, and the diffusion coefficient which dictates the dynamics within the mass-continuity partial differential equation describing the movement of ice sheets. A Lyapunov based approach is proposed to control the convergence of the 1D and 2D inhomogeneous transport models toward a feasible equilibrium matching the measurements of surface topography of the Antarctic ice sheet. Our work offers a new 1D update law for the basal sliding coefficient inversion. We also use adaptive distributed parameter inversion to retrieve basal sliding from diffusion in 1D and 2D models. These two methods are tested on study cases and real data. Our results show that the methods proposed are successful in inverting for sliding and diffusion while replicating the available data
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Mugnier, Laurent. "Problèmes inverses en Haute Résolution Angulaire". Habilitation à diriger des recherches, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00654835.

Texto completo
Resumen
Les travaux exposés portent sur les techniques d'imagerie optique à haute résolution et plus particulièrement sur les méthodes, dites d'inversion, de traitement des données associées à ces techniques. Ils se situent donc à la croisée des chemins entre l'imagerie optique et le traitement du signal et des images. Ces travaux sont appliqués à l'astronomie depuis le sol ou l'espace, l'observation de la Terre, et l'imagerie de la rétine. Une partie introductive est dédiée au rappel de caractéristiques importantes de l'inversion de données et d'éléments essentiels sur la formation d'image (diffraction, turbulence, techniques d'imagerie) et sur la mesure des aberrations (analyse de front d'onde). La première partie des travaux exposés porte sur l'étalonnage d'instrument, c'est-à-dire l'estimation d'aberrations instrumentales ou turbulentes. Ils concernent essentiellement la technique de diversité de phase : travaux méthodologiques, travaux algorithmiques, et extensions à l'imagerie à haute dynamique en vue de la détection et la caractérisation d'exoplanètes. Ces travaux comprennent également des développements qui n'utilisent qu'une seule image au voisinage du plan focal, dans des cas particuliers présentant un intérêt pratique avéré. La seconde partie des travaux porte sur le développement de méthodes de traitement (recalage, restauration et reconstruction, détection) pour l'imagerie à haute résolution. Ces développements ont été menés pour des modalités d'imagerie très diverses : imagerie corrigée ou non par optique adaptative (OA), mono-télescope ou interférométrique, pour l'observation de l'espace ; imagerie coronographique d'exoplanètes par OA depuis le sol ou par interférométrie depuis l'espace ; et imagerie 2D ou 3D de la rétine humaine. Enfin, une dernière partie présente des perspectives de recherches.
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Repetti, Audrey. "Algorithmes d'optimisation en grande dimension : applications à la résolution de problèmes inverses". Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1032/document.

Texto completo
Resumen
Une approche efficace pour la résolution de problèmes inverses consiste à définir le signal (ou l'image) recherché(e) par minimisation d'un critère pénalisé. Ce dernier s'écrit souvent sous la forme d'une somme de fonctions composées avec des opérateurs linéaires. En pratique, ces fonctions peuvent n'être ni convexes ni différentiables. De plus, les problèmes auxquels on doit faire face sont souvent de grande dimension. L'objectif de cette thèse est de concevoir de nouvelles méthodes pour résoudre de tels problèmes de minimisation, tout en accordant une attention particulière aux coûts de calculs ainsi qu'aux résultats théoriques de convergence. Une première idée pour construire des algorithmes rapides d'optimisation est d'employer une stratégie de préconditionnement, la métrique sous-jacente étant adaptée à chaque itération. Nous appliquons cette technique à l'algorithme explicite-implicite et proposons une méthode, fondée sur le principe de majoration-minimisation, afin de choisir automatiquement les matrices de préconditionnement. L'analyse de la convergence de cet algorithme repose sur l'inégalité de Kurdyka-L ojasiewicz. Une seconde stratégie consiste à découper les données traitées en différents blocs de dimension réduite. Cette approche nous permet de contrôler à la fois le nombre d'opérations s'effectuant à chaque itération de l'algorithme, ainsi que les besoins en mémoire, lors de son implémentation. Nous proposons ainsi des méthodes alternées par bloc dans les contextes de l'optimisation non convexe et convexe. Dans le cadre non convexe, une version alternée par bloc de l'algorithme explicite-implicite préconditionné est proposée. Les blocs sont alors mis à jour suivant une règle déterministe acyclique. Lorsque des hypothèses supplémentaires de convexité peuvent être faites, nous obtenons divers algorithmes proximaux primaux-duaux alternés, permettant l'usage d'une règle aléatoire arbitraire de balayage des blocs. L'analyse théorique de ces algorithmes stochastiques d'optimisation convexe se base sur la théorie des opérateurs monotones. Un élément clé permettant de résoudre des problèmes d'optimisation de grande dimension réside dans la possibilité de mettre en oeuvre en parallèle certaines étapes de calculs. Cette parallélisation est possible pour les algorithmes proximaux primaux-duaux alternés par bloc que nous proposons: les variables primales, ainsi que celles duales, peuvent être mises à jour en parallèle, de manière tout à fait flexible. A partir de ces résultats, nous déduisons de nouvelles méthodes distribuées, où les calculs sont répartis sur différents agents communiquant entre eux suivant une topologie d'hypergraphe. Finalement, nos contributions méthodologiques sont validées sur différentes applications en traitement du signal et des images. Nous nous intéressons dans un premier temps à divers problèmes d'optimisation faisant intervenir des critères non convexes, en particulier en restauration d'images lorsque l'image originale est dégradée par un bruit gaussien dépendant du signal, en démélange spectral, en reconstruction de phase en tomographie, et en déconvolution aveugle pour la reconstruction de signaux sismiques parcimonieux. Puis, dans un second temps, nous abordons des problèmes convexes intervenant dans la reconstruction de maillages 3D et dans l'optimisation de requêtes pour la gestion de bases de données
An efficient approach for solving an inverse problem is to define the recovered signal/image as a minimizer of a penalized criterion which is often split in a sum of simpler functions composed with linear operators. In the situations of practical interest, these functions may be neither convex nor smooth. In addition, large scale optimization problems often have to be faced. This thesis is devoted to the design of new methods to solve such difficult minimization problems, while paying attention to computational issues and theoretical convergence properties. A first idea to build fast minimization algorithms is to make use of a preconditioning strategy by adapting, at each iteration, the underlying metric. We incorporate this technique in the forward-backward algorithm and provide an automatic method for choosing the preconditioning matrices, based on a majorization-minimization principle. The convergence proofs rely on the Kurdyka-L ojasiewicz inequality. A second strategy consists of splitting the involved data in different blocks of reduced dimension. This approach allows us to control the number of operations performed at each iteration of the algorithms, as well as the required memory. For this purpose, block alternating methods are developed in the context of both non-convex and convex optimization problems. In the non-convex case, a block alternating version of the preconditioned forward-backward algorithm is proposed, where the blocks are updated according to an acyclic deterministic rule. When additional convexity assumptions can be made, various alternating proximal primal-dual algorithms are obtained by using an arbitrary random sweeping rule. The theoretical analysis of these stochastic convex optimization algorithms is grounded on the theory of monotone operators. A key ingredient in the solution of high dimensional optimization problems lies in the possibility of performing some of the computation steps in a parallel manner. This parallelization is made possible in the proposed block alternating primal-dual methods where the primal variables, as well as the dual ones, can be updated in a quite flexible way. As an offspring of these results, new distributed algorithms are derived, where the computations are spread over a set of agents connected through a general hyper graph topology. Finally, our methodological contributions are validated on a number of applications in signal and image processing. First, we focus on optimization problems involving non-convex criteria, in particular image restoration when the original image is corrupted with a signal dependent Gaussian noise, spectral unmixing, phase reconstruction in tomography, and blind deconvolution in seismic sparse signal reconstruction. Then, we address convex minimization problems arising in the context of 3D mesh denoising and in query optimization for database management
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Bouffard, Émilie. "Conception de bâtiments solaires : méthodes et outils des architectes dans les phases initiales de conception". Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29945/29945.pdf.

Texto completo
Resumen
L’énergie solaire disponible sur la terre constitue une ressource naturelle abondante et renouvelable. Toutefois, l’utilisation de cette énergie demeure, à ce jour, relativement peu répandue dans la pratique courante de l’architecture. Afin de contrer cette tendance, l’Agence Internationale de l’énergie (AIE) a mis sur pied la Tâche 41 "Énergie solaire et Architecture", dont le but principal est d’encourager et d’accélérer le développement d’une architecture solaire de haute qualité à l’échelle internationale. Réalisée dans le cadre de la Tâche 41 de l’AIE, cette recherche a pour objectif d’analyser des projets d’architecture choisis pour leur utilisation de l’énergie solaire, afin d’élargir les horizons des créateurs du domaine de la construction et, de manière plus générale, des citoyens concernés par leur environnement bâti. En marge de cet objectif, la recherche vise à présenter des méthodes et des outils d’exploitation du solaire pour les phases initiales du processus de conception de projets par les architectes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Gillard, Frédéric. "Conception et réalisation d’un micro-spectromètre dans l’infrarouge". Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112043/document.

Texto completo
Resumen
Pour répondre au besoin de miniaturisation des spectromètres de terrain travaillant dans l’infrarouge, l’ONERA a développé un nouveau concept baptisé MICROSPOC. Ce dispositif est un détecteur infrarouge auquel a été intégré un interféromètre à deux ondes, constituant un spectromètre statique par transformée de Fourier. Ce plan focal infrarouge modifié, qui fusionne la fonction interférométrique et la fonction de détection, associé à une optique de tête simplifiée, permet d’envisager la réalisation d’instruments très compacts. L’objectif de cette thèse est de concevoir un spectromètre infrarouge miniature basé sur le dispositif MICROSPOC. Dans un premier temps, un travail théorique a été mené, dans l’objectif de dimensionner un système optique très compact. Notre choix s’étant orienté vers un système optique de collection (le détecteur voit une source étendue à distance finie), l’étude de l’acceptance angulaire de MICROSPOC dans ces conditions d’éclairement est indispensable afin de prévoir le contraste et la forme des franges d’interférence. Les résultats montreront la grande acceptance angulaire de MICROSPOC.Dans un second temps, un démonstrateur basé sur un composant MICROSPOC et sur le système optique simplifié a été réalisé. Ce démonstrateur a été caractérisé en laboratoire puis utilisé sur le terrain lors d’une campagne de mesures. Ces différentes exploitations ont montré la robustesse de l’instrument malgré l’obtention d’interférogrammes présentant divers défauts.Dans un troisième temps, une chaîne de traitement a été développée afin d’estimer un spectre à partir d’un interférogramme obtenu à l’aide du démonstrateur. Du fait des caractéristiques intrinsèques de MICROSPOC, la transformée de Fourier n’est pas la meilleure solution pour estimer un spectre. Nous l’avons montré en nous intéressant aux effets des disparités de longueur d’onde de coupure du détecteur sur l’estimation d’un spectre. Nous nous sommes alors tournés vers une approche consistant à utiliser la caractérisation spectrale de l’instrument pour inverser la mesure. Cette approche donne des résultats satisfaisants.Enfin, le but principal de cette thèse a été élargi par la conception et la réalisation de différents démonstrateurs combinant une fonction d’imagerie à une fonction de spectrométrie. Les premières pistes pour la conception d’un spectromètre qui tient dans la main ont été données
In order to satisfy the need for handheld infrared spectrometers, the ONERA developed a new concept called MICROSPOC. This device is an infrared focal plane array with a built-in two-wave wedge-like interferometer and forms a static Fourier-transform spectrometer. This modified focal plane array, which merges the detection function and the interferometric function, in association with a simplified optical system, allows to consider the realisation of a much compact instrument. The goal of this thesis is to design and to realize a miniaturized infrared spectrometer based on the MICROSPOC concept.Firstly, a theoritical work has been led in order to design a compact optical system. Since we have chosen a collection optical system (the focal plane array sees an extended source placed at a finite distance), the study of MICROSPOC angular acceptance in these lightening conditions is needed in order to predict the contrast and the shape of interference fringes. The huge angular acceptance of MICROSPOC will be established with the results of this study.Secondly, a demonstrator based on MICROSPOC device and on the simplified optical system has been realized. This demonstrator has been caracterized in the laboratory and used in real conditions of a measurement campaign. These different exploitations have shown the robustness of the instrument despite some defaults on acquired interferograms.Then, a processing chain has been developed in order to estimate a spectrum from an interferogram acquired with our demonstrator. Considering the MICROSPOC’s own characteristics, the Fourier-transform is not the best way to estimate a spectrum. We have come to this conclusion by studying the effects of cut-off wavelenghts disparities of the detector on the spectrum estimation. At this point we have considered an approach that consists of using the spectral characterization of the instrument in order to inverse the measure. This approach gives satisfying results.Finaly, the main goal has been widened with the design and the realisation of other instruments that combine a spectrometric function and a imaging function. The first elements for the design of a handheld spectrometer have been given
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Moreau-Villéger, Valérie. "Méthodes variationnelles et séquentielles pour l'étude de la contraction cardiaque". Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00634169.

Texto completo
Resumen
L'utilisation de l'imagerie médicale et de mesures électrophysiologiques pour l'étude du cœur permet de mieux comprendre son fonctionnement et les pathologies cardiaques, de fournir des outils d'aide au diagnostic et à la planification de thérapies. Dans cette thèse, nous nous intéressons à l'exploitation de ces données sous deux angles différents. La première partie du travail concerne l'estimation de mouvements dans des séquences d'images échocardiographiques à l'aide de l'imagerie par Doppler tissulaire (TDI). La deuxième partie de ce travail concerne l'analyse de mesures de l'activité électrique du cœur en estimant des paramètres d'un modèle électrophysiologique du cœur. La modalité TDI fournit une information quantitative sur la vitesse des tissus dans la direction de la sonde échographique. Le but de ce travail est d'étudier la déformation du muscle cardiaque en utilisant conjointement le TDI et l'échographie classique. Notre approche combine des calculs de flot optique par la méthode de Horn et Schunck sur la séquence classique d'images échographiques, la mesure partielle de vitesse issue de l'imagerie par Doppler tissulaire (TDI) et une régularisation spatio-temporelle pour estimer les champs de vitesse dans un cadre variationnel. Nous validons cette méthode sur des données synthétiques puis nous l'utilisons sur des séquences réelles. Dans la deuxième partie de cette thèse, nous nous intéressons à l'estimation de paramètres du modèle d'Aliev et Panfilov de propagation du potentiel d'action dans les ventricules en utilisant des mesures électrophysiologiques. Grâce à une collaboration avec le ''National Institutes of Health'', nous disposons des temps de dépolarisation mesurés sur l'épicarde de plusieurs cœurs de chiens. Les méthodes classiques ne permettent pas de minimiser l'écart entre le modèle et les données dans ce cas spécifique. Après une étape d'ajustement global, nous proposons de minimiser l'écart quadratique entre les données et le modèle en fonction d'un des paramètres que nous faisons varier localement. Le paramètre choisi est le coefficient de diffusion que nous appelons conductivité apparente car ses variations reflètent à la fois les variations de conductivité et les variations des paramètres de réaction. En utilisant la causalité de la propagation modélisée, nous ramenons le problème à des minimisations unidimensionnelles successives par la méthode de Brent. Nous appliquons cette approche à des données réelles dans des cas normaux et aussi dans des cas de cœurs infarcis. Dans ce dernier cas, nous trouvons une forte corrélation entre les zones de faibles conductivités apparentes et l'infarctus. A l'issue de ce travail, nous envisageons l'utilisation de ces méthodes avec des mesures moins invasives telles que celles obtenues par des systèmes intracavitaires sans contact ou même des électrocardiogrammes. Une autre perspective pour ce travail est l'estimation de paramètres d'un modèle du fonctionnement électromécanique du cœur à partir d'images de déplacement comme celles obtenues grâce à l'IRM marquée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía