Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Résolution directe et inverse des problèmes.

Dissertationen zum Thema „Résolution directe et inverse des problèmes“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-35 Dissertationen für die Forschung zum Thema "Résolution directe et inverse des problèmes" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Sassi, Mohamed. „Résolution des problèmes direct et inverse pour la détermination et le contrôle des frontières mobiles“. Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0080.

Der volle Inhalt der Quelle
Annotation:
Deux problèmes concernant la discipline des frontières mobiles. Dans la première partie une nouvelle solution exacte est proposée pour résoudre la formulation du problème de changement de phase liquide/solide. Elle consiste, moyennant une équation nouvelle mathématiquement dépourvue d'approximation et que nous avons appelé « équation de Moknine », à scinder la formulation d'un tel problème en deux formulations élémentaires. La première correspond à la formulation sans discontinuité due à la frontière mobile. La deuxième est une déduction des différentes distributions qui prennent en compte cette discontinuité. Dans la deuxième partie, nous traitons le problème inverse de conduction de la chaleur avec changement de phase. L'objectif est de déterminer les conditions aux limites thermiques aux frontières fixes, afin de permettre le contrôle de l'évolution des différents paramètres à l'interface mobile. Pour résoudre ce problème, nous avons utilisé une méthode de retour vers la surface. Nous avons été amenés à définir une nouvelle molécule d'inversion. La fiabilité d'une telle et son extension au cas bidimensionnel sont démontrées par une simulation numérique
The objective we have set ourselves for this these is to solve two problems dealing with the « moving boundary problems » : Direct problem : In this part, we have establish a relation called « Moknine equation», it gives us the ability to produce the exact solution of the moving boundary problems, the procedure consists of dividing the formulation into two ones, at the first the solution without accounting the discontinuity at the moving boundary is easily calculated, and eventually the final solution that corresponds to the discontinuity is concluded. To better illustrate the methodology, the case of solid liquid phase change problem is considered. Inverse problem: in order to govern a solidification process, the thermal parameters at the moving boundary are prescribed (velocity, thermal flux and the interface form), and the beat flux at the fix boundaries to makes the desired behaviour is estimated, the technical used to solve this inverse boundary problem is the space marching method. As a consequence, of the difficulties accounted to apply the Weber and M. Raynaud schemes due to the moving boundary, a new scheme is proposed. It is applied in the case of ID and 2D cases. It’s fiability is demonstrate through a numerical simulation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Manoochehrnia, Pooyan. „Characterisatiοn οf viscοelastic films οn substrate by acοustic micrοscοpy. Direct and inverse prοblems“. Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMLH38.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de cette thèse de doctorat, la caractérisation des films épais et minces déposés sur un substrat a été réalisée à l'aide de la microscopie acoustique via des algorithmes de résolution de problèmes directs et inverses. La méthode de Strohm est utilisée pour la résolution directe des problèmes, tandis qu'une variété de modèles mathématiques comprenant le modèle de la série de Debye (DSM), le modèle de la ligne de transmission (TLM) et la méthode spectrale utilisant le modèle de la rapport entre les réflexions multiples (MRM) ont été utilisés pour résoudre les problèmes inverses. Une application spécifique de la microscopie acoustique a été utilisée, consistant à monter des transducteurs à ondes planes à haute fréquence (50 MHz et 200 MHz) au lieu d'utiliser les transducteurs à focalisation traditionnels utilisés pour l'imagerie acoustique, ainsi qu'à utiliser le A-Scan à ondes complètes, qui pourrait être étendu à l'analyse en vrac des A-Scan consécutifs. Les modèles ont été validés expérimentalement par un film épais en époxy-résine d'une épaisseur d'environ 100μm et un film mince en vernis d'environ 8μm. Les paramètres caractérisés comprennent des paramètres mécaniques (par exemple la densité et l'épaisseur) ainsi que des paramètres viscoélastiques (par exemple la vitesse longitudinale acoustique et l'atténuation acoustique) et parfois le déphasage du transducteur
In the framework of this PhD thesis, the characterisation of the thick and thin films deposited on asubstrate has been done using acoustic microscopy via direct and inverse problem-solving algorithms.Namely the Strohm’s method is used for direct problem-solving while a variety of mathematical modelsincluding Debye series model (DSM), transmission line model (TLM) and spectral method using ratiobetween multiple reflections model (MRM) have been used to solve inverse-problem. A specificapplication of acoustic microscopy has been used consisting of mounting the plane-wave high frequency(50 MHz and 200MHz) transducers instead of use of the traditional focus transducers used for acousticimaging as well as using full-wave A-scan which could be well extended to bulk analysis of consecutivescans. Models have been validated experimentally by a thick film made of epoxy-resin with thicknessof about 100μm and a thin film made of polish of about 8μm. The characterised parameters includemechanical parameters (e.g. density and thickness) as well as viscoelastic parameters (e.g. acousticlongitudinal velocity and acoustic attenuation) and occasionally transducer phase-shift
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Sabouroux, Pierre. „Résolution de problèmes directs et inverses en électromagnétisme. Approche expérimentale“. Habilitation à diriger des recherches, Université de Provence - Aix-Marseille I, 2006. http://tel.archives-ouvertes.fr/tel-00358355.

Der volle Inhalt der Quelle
Annotation:
approche experimentale de techniques en propagation libre ou guidée pour évaluer :
- des champs électromagnétiques diffractés ou rayonnés
- des caractéristiques électromagnétiques de matériaux
dans le domaine des hyperfréquences
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Gassa, Narimane. „Méthodes numériques pour la résolution de problèmes cliniques en électrophysiologie cardiaque“. Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0045.

Der volle Inhalt der Quelle
Annotation:
Les maladies cardiovasculaires représentent la principale cause de décès dans le monde. Elles englobent un ensemble de troubles affectant le coeur et les vaisseaux sanguins, notamment les maladies coronariennes, l’insuffisance cardiaque, les arythmies et les maladies valvulaires, entre autres. Les arythmies ectopiques, telles que les extrasystoles ventriculaires (ESV), impliquent des impulsions électriques anormales perturbant le rythme cardiaque régulier, entraînant des contractions prématurées. Bien que des ESV occasionnelles puissent être bénignes, des occurrences fréquentes ou complexes peuvent indiquer des problèmes cardiaques sous-jacents. Comprendre et traiter les arythmies cardiaques sont cruciaux pour gérer la santé cardiovasculaire et prévenir des complications plus graves. Ainsi, il est nécessaire d’assurer des interventions ciblées, comme les ablations cardiaques, pour traiter efficacement ces conditions. Notre recherche se concentre sur le domaine de l’électrophysiologie cardiaque, où nous utilisons des modèles mathématiques à plusieurs échelles, allant des canaux ioniques via les cellules, aux tissus et aux organes. L’objectif principal est d’utiliser les méthodes numériques pour améliorer les soins aux patients en médecine cardiaque, en se concentrant particulièrement sur la caractérisation non invasive des foyers ectopiques. Dans ce contexte, nous nous sommes penchés sur l’étude de l’imagerie électrocardiographique (ECGI), une technique bien établie qui a évolué au fil des ans et présente un potentiel significatif pour faire progresser la cartographie cardiaque. Malgré ses limitations, dont certaines que nous avons également investiguées, l’ECGI reste un outil précieux dans notre exploration de méthodes de cartographie améliorées. Dans notre quête de solutions plus innovantes, nous avons introduit une nouvelle approche comme alternative à l’ECGI conventionnelle, spécifique au patient. Cette méthode repose sur l’utilisation de modèles de propagation cardiaque personnalisés avec un compromis entre une modélisation fidèle et un temps de calcul réduit, rendant faisable l’applicabilité clinique
Cardiovascular disease is the world’s leading cause of death. They represent a group of conditions that affect the heart and blood vessels, including coronary heart disease, heart failure, arrhythmias and valvular disease, among others. Ectopic arrhythmias, such as premature ventricular contractions (PVCs), involve abnormal electrical impulses that disrupt the regular rhythm of the heart, leading to premature contractions. While occasional PVCs may be benign, frequent or complex occurrences can indicate underlying heart issues. Understanding and addressing cardiac arrhythmias are crucial for managing cardiovascular health and preventing more severe complications. Therefore, there’s a need for accurate diagnostic tools and targeted interventions, such as cardiac ablations, to address these conditions effectively. Our research is focused on the field of heart electrophysiology, where we employ multiscale mathematical models from ion channels via cells to tissues and organs. The prime objective is to leverage numerical methods in order to improve patient care in cardiac medicine, specifically for the non-invasive characterization of ectopic arrhythmias. For this purpose, we delved into the study of electrocardiographic imaging (ECGI), a well-established technique that has evolved over the years and shows significant potential to advance safe cardiac mapping. Despite its limitations, some of which we have also investigated, ECGI remains a valuable tool in our exploration of improved mapping methods. In our pursuit of more innovative and accurate solutions, we introduced a novel approach that shifts from the conventional ECGI methodology offering a more tailored and patientspecific workflow. This new method revolves around the use of personalized propagation models with a trade-off between good accuracy and computational efficiency making it feasible for the workflow to be integrated into a clinical time frame
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Aires, Filipe. „Problèmes inverses et réseaux de neurones : application à l'interféromètre haute résolution IASI et à l'analyse de séries temporelles“. Paris 9, 1999. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1999PA090006.

Der volle Inhalt der Quelle
Annotation:
Nous nous sommes intéressés, dans cette thèse, à la résolution des problèmes inverses par la technique des réseaux de neurones formels. Deux cadres théoriques sont à distinguer pour cette technique statistique : l'apprentissage supervisé et l'apprentissage non supervisé. Dans ces deux cas, la technique des réseaux de neurones est particulièrement bien adaptée car il est possible d'introduire de l'information à priori sur le problème inverse. Concernant l'apprentissage supervisé, nous avons étudié l'exemple du sondage vertical satellitaire pour la restitution du profil vertical de la température atmosphérique. Deux instruments ont été utilisés : premièrement, le radiomètre TOVS, en vol depuis 1979 sur la série des satellites opérationnels américains de la NOAA. Nous avons développé une approche originale pour la régularisation de l'apprentissage des réseaux de neurones : le weight smoothing. Deuxièmement, l'interféromètre haute résolution IASI, devant être embarqué vers 2003 sur la plateforme METOP de l'ESA. On a montré que notre technique, prenant en compte le bruit instrumental de l'appareil, est à même de répondre aux contraintes de précision fixées par l'organisation mondiale de météorologie. Pour l'apprentissage non supervisé, notre application principale concerne l'analyse de séries temporelles géophysiques par la technique d'analyse en composantes indépendantes. Cette technique neuronale a pour but d'extraire non linéairement, dans les observations, des composantes statistiquement indépendantes. Cette contrainte est plus forte que la simple décorrélation qui est à la base des techniques statistiques classiques (analyse en composantes principales, décomposition en valeurs singulière ou analyse factorielle). L'étude de la variabilité de la température de surface de l’océan tropical montre que l'ACI est plus performante que la DVS pour déterminer la présence de phénomènes climatologiques tels que El-Nino ou l'oscillation quasi-biennale.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Cointepas, Yann. „Modélisation homotopique et segmentation 3D du cortex cérébral à partir d'IRM pour la résolution des problèmes directs et inverses en EEG et en MEG“. Phd thesis, Télécom ParisTech, 1999. http://tel.archives-ouvertes.fr/tel-00005652.

Der volle Inhalt der Quelle
Annotation:
Ce travail a pour but de proposer une méthode de modélisation et de segmentation du cortex en IRM qui soit adaptée aux utilisations en électroencéphalographie (EEG) et en magnétoencéphalographie (MEG). La complexité du cortex a nécéssité le développement de modèles mathématiques spécifiques. Les contributions de la thèse se situent donc à deux niveaux : au niveau théorique avec le développement d'un modèle discret à la fois volumique et surfacique reposant sur les complexes cellulaires, l'étude de ses propriétés, et le développement d'une méthodologie de segmentation prenant en compte ses caractéristiques ; et au niveau applicatif avec l'utilisation de ce modèle sur des IRM tridimensionnelles pour des applications en EEG et en MEG. L'étude des aspects algorithmiques, imposé par le volume de données, a également constitué une partie importante du travail.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Cuintepas, Yann. „Modélisation homotopique et segmentation tridimensionnelles du cortex cérébral à partir d'irm pour la résolution des problèmes directs et inverses en eeg et en meg“. Paris, ENST, 1999. http://www.theses.fr/1999ENST0025.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est de fournir une contribution aux études anatomiques et fonctionnelles du cerveau en proposant une méthode de modélisation et de segmentation du cortex en IRM qui soit adaptée aux utilisations en électroencéphalographie (EEG) et en magnétoencéphalographie (Meg). Dans la première partie de ce travail, nous abordons rapidement les différentes modalités d'imagerie fonctionnelle cérébrale et montrons l'importance que revêt la modélisation de l'anatomie corticale pour l'analyse des données fonctionnelles, en particulier pour la Meg et l’EEG. Ensuite, nous faisons le point sur les différentes méthodes permettant d'extraire l'anatomie corticale à partir d'une image IRM. Nous montrons que la prise en compte de la géométrie et de la topologie des sillons ne peut se faire qu'en développant d'une modélisation appropriée. La seconde partie de ce rapport présente un modèle cellulaire permettant d'accroitre les possibilités de modélisation des images classiques en permettant notamment de représenter, sans apparition de paradoxe topologique, des scènes constituées de plusieurs objets ayant différentes dimensions locales. Nous introduisons ensuite une caractérisation originale des déformations homotopiques d'un objet discret s'appuyant sur son graphe de voisinage. Nous utilisons ces résultats pour caractériser localement les déformations homotopiques élémentaires d'une scène représentée par un modèle cellulaire. Enfin nous présentons un cadre informatique permettant de représenter et d'utiliser un modèle cellulaire homotopiquement déformable. La dernière partie de ce manuscrit présente une méthode de segmentation de la surface corticale s'appuyant sur les déformations homotopiques d'un modèle cellulaire. Le modèle est initialise à partir d'une segmentation du cerveau lisse puis déforme homotopiquement vers l'intérieur des sillons, la modélisation cellulaire permettant au modèle de s'adapter à la géométrie profonde des sillons corticaux.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Cornaggia, Rémi. „Développement et utilisation de méthodes asymptotiques d'ordre élevé pour la résolution de problèmes de diffraction inverse“. Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLY012.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail fut le développement de nouvelles méthodes pour aborder certains problèmes inverses en élasticité, en tirant parti de la présence d'un petit paramètre dans ces problèmes pour construire des approximation asymptotiques d'ordre élevé. La première partie est consacrée à l'identification de la taille et la position d'une inhomogénéité Bᵗʳᵘᵉ enfouie dans un domaine élastique tridimensionnel. Nous nous concentrons sur l'étude de fonctions-coûts ��(Bₐ) quantifiant l'écart entre Bᵗʳᵘᵉ et une hétérogénéité ``test'' Bₐ. Une telle fonction-coût peut en effet être minimisée par rapport à tout ou partie des caractéristiques de l'inclusion ``test'' Bₐ (position, taille, propriétés mécaniques ...) pour établir la meilleure correspondance possible entre Bₐ et Bᵗʳᵘᵉ. A cet effet, nous produisons un développement asymptotique de �� en la taille a de Bₐ, qui en constitue une approximation polynomiale plus aisée à minimiser. Ce développement, établi jusqu'à l'ordre O(a⁶), est justifié par une estimation du résidu. Une méthode d'identification adaptée est ensuite présentée et illustrée par des exemples numériques portant sur des obstacles de formes simples dans l'espace libre ℝ³.L'objet de la seconde partie est de caractériser une inclusion microstructurée de longueur L, modélisée en une dimension, composée de couches de deux matériaux alternés périodiquement, en supposant que les plus basses de ses fréquences propres de transmission (TEs) sont connues. Ces fréquences sont les valeurs propres d'un problème dit de transmission intérieur (ITP). Afin de disposer d'un modèle propice à l'inversion, tout en prenant en compte les effets de la microstructure, nous nous reposons sur des approximations de l'ITP exact obtenues par homogénéisation. A partir du modèle homogénéisé d'ordre 0, nous établissons tout d'abord une méthode simple pour déterminer les paramètres macroscopiques (L et contrastes matériaux)d'une telle inclusion. Pour avoir accès à la période de la microstructure, nous nous intéressons ensuite à des modèles homogénéisés d'ordre élevé, pour lesquels nous soulignons le besoin de conditions aux limites adaptées
The purpose of this work was to develop new methods to address inverse problems in elasticity,taking advantage of the presence of a small parameter in the considered problems by means of higher-order asymptoticexpansions.The first part is dedicated to the localization and size identification of a buried inhomogeneity Bᵗʳᵘᵉ in a 3Delastic domain. In this goal, we focused on the study of functionals ��(Bₐ) quantifying the misfit between Bᵗʳᵘᵉ and a trial homogeneity Bₐ. Such functionals are to be minimized w.r.t. some or all the characteristics of the trial inclusion Bₐ (location, size, mechanical properties ...) to find the best agreement with Bᵗʳᵘᵉ. To this end, we produced an expansion of �� with respect to the size a of Bₐ, providing a polynomial approximation easier to minimize. This expansion, established up to O(a⁶) in a volume integral equations framework, is justified by an estimate of the residual. A suited identification procedure is then given and supported by numerical illustrations for simple obstacles in full-space ℝ³.The main purpose of this second part is to characterize a microstructured two-phases layered1D inclusion of length L, supposing we already know its low-frequency transmission eigenvalues (TEs). Those are computed as the eigen values of the so-called interior transmission problem (ITP). To provide a convenient invertible model, while accounting for the microstructure effects, we then relied on homogenized approximations of the exact ITP for the periodic inclusion. Focusing on the leading-order homogenized ITP, we first provide a straightforward method tore cover the macroscopic parameters (L and material contrast) of such inclusion. To access to the period of themicrostructure, higher-order homogenization is finally addressed, with emphasis on the need for suitable boundary conditions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Mugnier, Laurent. „Problèmes inverses en Haute Résolution Angulaire“. Habilitation à diriger des recherches, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00654835.

Der volle Inhalt der Quelle
Annotation:
Les travaux exposés portent sur les techniques d'imagerie optique à haute résolution et plus particulièrement sur les méthodes, dites d'inversion, de traitement des données associées à ces techniques. Ils se situent donc à la croisée des chemins entre l'imagerie optique et le traitement du signal et des images. Ces travaux sont appliqués à l'astronomie depuis le sol ou l'espace, l'observation de la Terre, et l'imagerie de la rétine. Une partie introductive est dédiée au rappel de caractéristiques importantes de l'inversion de données et d'éléments essentiels sur la formation d'image (diffraction, turbulence, techniques d'imagerie) et sur la mesure des aberrations (analyse de front d'onde). La première partie des travaux exposés porte sur l'étalonnage d'instrument, c'est-à-dire l'estimation d'aberrations instrumentales ou turbulentes. Ils concernent essentiellement la technique de diversité de phase : travaux méthodologiques, travaux algorithmiques, et extensions à l'imagerie à haute dynamique en vue de la détection et la caractérisation d'exoplanètes. Ces travaux comprennent également des développements qui n'utilisent qu'une seule image au voisinage du plan focal, dans des cas particuliers présentant un intérêt pratique avéré. La seconde partie des travaux porte sur le développement de méthodes de traitement (recalage, restauration et reconstruction, détection) pour l'imagerie à haute résolution. Ces développements ont été menés pour des modalités d'imagerie très diverses : imagerie corrigée ou non par optique adaptative (OA), mono-télescope ou interférométrique, pour l'observation de l'espace ; imagerie coronographique d'exoplanètes par OA depuis le sol ou par interférométrie depuis l'espace ; et imagerie 2D ou 3D de la rétine humaine. Enfin, une dernière partie présente des perspectives de recherches.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Ben, Salem Nabil. „Modélisation directe et inverse de la dispersion atmosphérique en milieux complexes“. Thesis, Ecully, Ecole centrale de Lyon, 2014. http://www.theses.fr/2014ECDL0023.

Der volle Inhalt der Quelle
Annotation:
La modélisation inverse de la dispersion atmosphérique consiste à reconstruire les caractéristiques d’une source (quantité de polluants rejetée, position) à partir de mesures de concentration dans l’air, en utilisant un modèle direct de dispersion et un algorithme d’inversion. Nous avons utilisé dans cette étude deux modèles directs de dispersion atmosphérique SIRANE (Soulhac, 2000; Soulhac et al., 2011) et SIRANERISK (Cierco et Soulhac, 2009a; Lamaison et al., 2011a, 2011b). Il s’agit de deux modèles opérationnels de « réseau des rues », basés sur le calcul du bilan de masse à différents niveaux du réseau. Leur concept permet de décrire correctement les différents phénomènes physiques de dispersion et de transport de la pollution atmosphérique dans des réseaux urbains complexes. L’étude de validation de ces deux modèles directs de dispersion a été effectuée après avoir évalué la fiabilité des paramétrages adoptés pour simuler les échanges verticaux entre la canopée et l'atmosphère, les transferts aux intersections de rues et la canalisation de l’écoulement à l’intérieur du réseau de rues. Pour cela, nous avons utilisé des mesures en soufflerie effectuées dans plusieurs configurations académiques. Nous avons développé au cours de cette thèse un système de modélisation inverse de dispersion atmosphérique (nommé ReWind) qui consiste à déterminer les caractéristiques d’une source de polluant (débit, position) à partir des concentrations mesurées, en résolvant numériquement le système matriciel linéaire qui relie le vecteur des débits au vecteur des concentrations. La fiabilité des résultats et l’optimisation des temps de calcul d’inversion sont assurées par le couplage de plusieurs méthodes mathématiques de résolution et d’optimisation, bien adaptées pour traiter le cas des problèmes mal posés. L’étude de sensibilité de cet algorithme d’inversion à certains paramètres d’entrée (comme les conditions météorologiques, les positions des récepteurs,…) a été effectuée en utilisant des observations synthétiques (fictives) fournies par le modèle direct de dispersion atmosphérique. La spécificité des travaux entrepris dans le cadre de ce travail a consisté à appliquer ReWind dans des configurations complexes de quartier urbain, et à utiliser toute la variabilité turbulente des mesures expérimentales obtenues en soufflerie pour qualifier ses performances à reconstruire les paramètres sources dans des conditions représentatives de situations de crise en milieu urbain ou industriel. L’application de l’approche inverse en utilisant des signaux instantanés de concentration mesurés en soufflerie plutôt que des valeurs moyennes, a montré que le modèle ReWind fournit des résultats d’inversion qui sont globalement satisfaisants et particulièrement encourageants en termes de reproduction de la quantité de masse totale de polluant rejetée dans l’atmosphère. Cependant, l’algorithme présente quelques difficultés pour estimer à la fois le débit et la position de la source dans certains cas. En effet, les résultats de l’inversion sont assez influencés par le critère de recherche (d’optimisation), le nombre de récepteurs impactés par le panache, la qualité des observations et la fiabilité du modèle direct de dispersion atmosphérique
The aim of this study is to develop an inverse atmospheric dispersion model for crisis management in urban areas and industrial sites. The inverse modes allows for the reconstruction of the characteristics of a pollutant source (emission rate, position) from concentration measurements, by combining a direct dispersion model and an inversion algorithm, and assuming as known both site topography and meteorological conditions. The direct models used in these study, named SIRANE and SIRANERISK, are both operational "street network" models. These are based on the decomposition of the urban atmosphere into two sub-domains: the urban boundary layer and the urban canopy, represented as a series of interconnected boxes. Parametric laws govern the mass exchanges between the boxes under the assumption that the pollutant dispersion within the canopy can be fully simulated by modelling three main bulk transfer phenomena: channelling along street axes, transfers at street intersections and vertical exchange between a street canyon and the overlying atmosphere. The first part of this study is devoted to a detailed validation of these direct models in order to test the parameterisations implemented in them. This is achieved by comparing their outputs with wind tunnel experiments of the dispersion of steady and unsteady pollutant releases in idealised urban geometries. In the second part we use these models and experiments to test the performances of an inversion algorithm, named REWind. The specificity of this work is twofold. The first concerns the application of the inversion algorithm - using as input data instantaneous concentration signals registered at fixed receptors and not only time-averaged or ensemble averaged concentrations. - in urban like geometries, using an operational urban dispersion model as direct model. The application of the inverse approach by using instantaneous concentration signals rather than the averaged concentrations showed that the ReWind model generally provides reliable estimates of the total pollutant mass discharged at the source. However, the algorithm has some difficulties in estimating both emission rate and position of the source. We also show that the performances of the inversion algorithm are significantly influenced by the cost function used to the optimization, the number of receptors and the parameterizations adopted in the direct atmospheric dispersion model
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Gaultier, Clément. „Conception et évaluation de modèles parcimonieux et d'algorithmes pour la résolution de problèmes inverses en audio“. Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S009/document.

Der volle Inhalt der Quelle
Annotation:
Dans le contexte général de la résolution de problèmes inverses en acoustique et traitement du signal audio les défis sont nombreux. Pour la résolution de ces problèmes, leur caractère souvent mal posé nécessite de considérer des modèles de signaux appropriés. Les travaux de cette thèse montrent sur la base d'un cadre algorithmique générique polyvalent comment les différentes formes de parcimonie (à l'analyse ou à la synthèse, simple, structurée ou sociale) sont particulièrement adaptées à la reconstruction de signaux sonores dans un cadre mono ou multicanal. Le cœur des travaux de thèse permet de mettre en évidence les limites des conditions d'évaluation de l'état de l'art pour le problème de désaturation et de mettre en place un protocole rigoureux d'évaluation à grande échelle pour identifier les méthodes les plus appropriées en fonction du contexte (musique ou parole, signaux fortement ou faiblement dégradés). On démontre des améliorations de qualité substantielles par rapport à l'état de l'art dans certains régimes avec des configurations qui n'avaient pas été précédemment considérées, nous obtenons également des accélérations conséquentes. Enfin, un volet des travaux aborde la localisation de sources sonores sous l'angle de l'apprentissage statistique « virtuellement supervisé ». On montre avec cette méthode des résultats encourageants sur l'estimation de directions d'arrivée et de distance
Today's challenges in the context of audio and acoustic signal processing inverse problems are multiform. Addressing these problems often requires additional appropriate signal models due to their inherent ill-posedness. This work focuses on designing and evaluating audio reconstruction algorithms. Thus, it shows how various sparse models (analysis, synthesis, plain, structured or “social”) are particularly suited for single or multichannel audio signal reconstruction. The core of this work notably identifies the limits of state-of-the-art methods evaluation for audio declipping and proposes a rigourous large-scale evaluation protocol to determine the more appropriate methods depending on the context (music or speech, moderately or highly degraded signals). Experimental results demonstrate substantial quality improvements for some newly considered testing configurations. We also show computational efficiency of the different methods and considerable speed improvements. Additionally, a part of this work is dedicated to the sound source localization problem. We address it with a “virtually supervised” machine learning technique. Experiments show with this method promising results on distance and direction of arrival estimation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Aiboud, Fazia. „Méthodes approchées pour la résolution de problèmes inverses : identificaiton paramétrique et génération de formes“. Thesis, Clermont-Ferrand 2, 2013. http://theses.bu.uca.fr/nondiff/2013CLF22399_AIBOUD.pdf.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est réalisée dans le cadre d’un projet de collaboration entre le LIMOS et L’entreprise Integrative Bio-Computing (IBC). Cette entreprise développe une plateforme générique de simulation et de modélisation, qui génère des modèles multi-échelles des systèmes biologiques en particulier les organes humains. Cette plateforme combine des modèles à deux niveaux de description : macroscopique pour modéliser le fonctionnement de l’organe par des équations différentielles et microscopique pour modéliser les interactions au niveau cellulaire par automates cellulaires.L’objectif de cette thèse est de proposer des méthodes approchées pour résoudre, d’une part le problème d’identification des paramètres des équations différentielles, d’autre part, la détermination des règles (ou fonction de transition) de l’automate cellulaire permettant d’obtenir la bonne structure de l’organe.Les méthodes proposées pour la modélisation macroscopique sont à base de métaheuristiques (recuit simulé et algorithme génétique). Elles consistent à déterminer les paramètres des équations différentielles à partir d’un ensemble d’observations temporelles.Dans le cas de la modélisation microscopique, des heuristiques (algorithme glouton, recherches locales déterministes) et métaheuristiques (algorithme génétique, recherche locale itérée et recuit simulé) ont été proposées. Elles ont pour rôle de déterminer la fonction de transition de l’automate cellulaire et son nombre de générations permettant d'obtenir une forme voulue. Différentes approches, codages, critères, systèmes de voisinage et systèmes d’interaction ont été proposés. Différentes expérimentations ont été menées pour la génération de formes (pleines, symétriques et quelconques)
This work is realized in collaboration between LIMOS laboratory and IBC Company. Thiscompany develops a generic simulation and modeling framework, which generates multi-scales biological systems models, particularly, synthetic human organs. This framework combines different models with two description scales: macroscopic with differential equations to model the organ operation and microscopic to model cellular interactions by cellular automata. The aim of this work is to propose methods to solve two problems: parameter identification of differential equations and rules determination of cellular automata which modeled the organ structure. Proposed methods to microscopic modeling are based on metaheuristics (simulated annealing and genetic algorithm). These methods determine the parameters of differential equations from a set of temporal observations. Heuristics (greedy algorithm and deterministic local search) and metaheuristics (genetic algorithm, iterated local search and simulated annealing) are proposed in the case of macroscopic modeling. These methods determine the transition function and the number of generations of the cellular automaton generating a shape as near as a targeted shape. Different approaches, encoding, criteria, neighborhood systems and interaction system are proposed. Experimentations are realized to generate some type of shapes (full, symmetric and any shape)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Fritsch, Jean-François. „Propagation des ondes dans les guides partiellement enfouis : résolution du problème direct et imagerie par méthode de type échantillonnage“. Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAE001.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse porte sur le contrôle non destructif de structures élancées partiellement enfouies ou immergées, par exemple un câble d'acier partiellement enfoui dans du béton ou une plaque d'acier partiellement immergée dans du sodium liquide. Ces structures peuvent être vues comme la jonction d'un guide fermé et d'un guide ouvert. Pour effectuer des calculs, nous avons tronqué transversalement la partie ouverte de la structure avec des PML finies. Un guide partiellement enfoui peut alors être traité comme la jonction de deux guides fermés, dont la propagation des ondes dans l'un des guides est régie par une équation impliquant des coefficients complexes liés à la présence des PML. Ce constat nous a amené à commencer par traiter dans un premier temps le cas plus simple de la jonction de deux guides acoustiques fermés. Pour ce cas simple, nous avons proposé une démarche de résolution du problème inverse adaptée aux jonctions de guides d'ondes fermés. Elle repose d'une part sur l'introduction des champs de référence, qui sont les réponses de la structure totale sans défaut à un mode provenant d'un des deux demi-guides, et d'autre part sur l'utilisation de la relation de réciprocité de la fonction de Green de la structure sans défaut. Suivant cette démarche, nous avons obtenu une formulation modale efficace de la LSM qui nous a permis d'identifier des défauts. Dans ce cas simple, nous avons tiré parti de la complétude des modes pour analyser les problèmes direct et inverse. Dans un second temps, nous avons traité le cas d'un guide acoustique partiellement enfoui. La perte de complétude des modes dans le demi-guide tronqué transversalement avec des PML nous a amenée à étudier le problème direct à l'aide de la théorie de Kondratiev. Les outils introduits pour la jonction de deux guides fermés ont été ensuite adaptés à la résolution du problème inverse. Dans un troisième temps, nous avons abordé le cas plus réaliste, mais plus complexe, d'un guide élastique partiellement immergé dans un fluide. Pour ce cas difficile, nous avons développé des outils de simulation adaptés et étendus les outils introduits précédemment pour résoudre le problème inverse
This work is about the non destructive testing of partially buried or immersed slendered structures such as a steel cable partially buried in concrete or a steel plate partially immersed in liquid sodium. Such structures can be seen as the junction of two closed waveguides. In order to perform computing, the open part of the structure is truncated in the transverse direction with PMLs. As a result, a partially buried waveguide can be treated as the junction of two closed waveguides, in one of which the propagation of waves is governed by an equation involving complex coefficients due to the presence of the PMLs. This observation has lead us to tackle first the simpler case of the junction of two closed acoustic waveguides. For this simple case, we have proposed a strategy to solve the inverse problems based on the one hand on the introduction of the so-called reference fields, which are the total field response of the structure without defects to an incident field coming frome both half-guides, and on the other hand on the use of the reciprocity of the Green function of the structure without defect. Following this strategy, we have obtained an efficient modal formulation of the LSM which has enabled us to retrieve defects. In this simple case, we have taken advantage of the completeness of the modes to analyze the forward and inverse problems. The loss of the completeness of the modes in the half-guide truncated in the transverse direction with PMLs has led us to study the forward problem with Kondratiev theory. The tools introduced for the junction of two closed waveguides have been adapted to solve the inverse problem. Finally, we have tackled the more complex, but more realsitic case of an elastic waveguide partially immersed in a fluid. For this difficult case, we have developped adapted computing tools adapted and extended the tools introduced before solving the inverse problem
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Cherni, Afef. „Méthodes modernes d'analyse de données en biophysique analytique : résolution des problèmes inverses en RMN DOSY et SM“. Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAJ055/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’intéresse à la création de nouvelles approches algorithmiques pour la résolution du problème inverse en biophysiques. Dans un premier temps, on vise l’application RMN de type DOSY: une nouvelle approche de régularisation hybride a été proposée avec un nouvel algorithme PALMA (http://palma.labo.igbmc.fr/). Cet algorithme permet d’analyser des données réelles DOSY avec une précision importante quelque soit leur type. Dans un deuxième temps, notre intérêt s’est tourné vers l’application de spectrométrie de masse. Nous avons proposé une nouvelle approche par dictionnaire dédiée à l’analyse protéomique en utilisant le modèle averagine et une stratégie de minimisation sous contraintes d'une pénalité de parcimonie. Afin d’améliorer la précision de l’information obtenue, nous avons proposé une nouvelle méthode SPOQ, basée sur une nouvelle fonction de pénalisation, résolue par un nouvel algorithme Forward-Backward à métrique variable localement ajustée. Tous nos algorithmes bénéficient de garanties théoriques de convergence, et ont été validés expérimentalement sur des spectres synthétisés et des données réelles
This thesis aims at proposing new approaches to solve the inverse problem in biophysics. Firstly, we study the DOSY NMR experiment: a new hybrid regularization approach has been proposed with a novel PALMA algorithm (http://palma.labo.igbmc.fr/). This algorithm ensures the efficient analysis of real DOSY data with a high precision for all different type. In a second time, we study the mass spectrometry application. We have proposed a new dictionary based approach dedicated to proteomic analysis using the averagine model and the constrained minimization approach associated with a sparsity inducing penalty. In order to improve the accuracy of the information, we proposed a new SPOQ method based on a new penalization, solved with a new Forward-Backward algorithm with a variable metric locally adjusted. All our algorithms benefit from sounded convergence guarantees, and have been validated experimentally on synthetics and real data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Ferrier, Renaud. „Stratégies de résolution numérique pour des problèmes d'identification de fissures et de conditions aux limites“. Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN034/document.

Der volle Inhalt der Quelle
Annotation:
Le but de cette thèse est d'étudier et de développer des méthodes permettant de résoudre deux types de problèmes d'identification portant sur des équations elliptiques. Ces problèmes étant connus pour leur caractère fortement instable, les méthodes proposées s'accompagnent de procédures de régularisation, qui permettent d'assurer que la solution obtenue conserve un sens physique.Dans un premier temps, on étudie la résolution du problème de Cauchy (identification de conditions aux limites) par la méthode de Steklov-Poincaré. On commence par proposer quelques améliorations basées sur le solveur de Krylov utilisé, en introduisant notamment une méthode de régularisation consistant à tronquer la décomposition de Ritz de l'opérateur concerné. Par la suite, on s'intéresse à l'estimation d'incertitude en utilisant des techniques issues de l'inversion Bayésienne. Enfin, on cherche à résoudre des problèmes plus exigeants, à savoir un problème transitoire en temps, un cas non-linéaire, et on donne des éléments pour effectuer des résolutions sur des géométries ayant un très grand nombre de degrés de liberté en s'aidant de la décomposition de domaine.Pour ce qui est du problème d'identification de fissures par la méthode de l'écart à la réciprocité, on commence par proposer et tester numériquement différents moyens de stabiliser la résolution (utilisation de fonctions-tests différentes, minimisation des gradients a posteriori ou régularisation de Tikhonov). Puis on présente une autre variante de la méthode de l'écart à la réciprocité, qui est applicable aux cas pour lesquels les mesures sont incomplètes. Cette méthode, basée sur une approche de Petrov-Galerkine, est confrontée entre autres à un cas expérimental. Enfin, on s'intéresse à certaines idées permettant d'étendre la méthode de l'écart à la réciprocité à l'identification de fissures non planes
The goal of this thesis is to study and to develop some methods in order to solve two types of identification problems in the framework of elliptical equations. As those problems are known to be particularly unstable, the proposed methods are accompanied with regularization procedures, that ensure that the obtained solutions keep a physical meaning.Firstly, we study the resolution of the Cauchy problem (boundary conditions identification) by the Steklov-Poincaré method. We start by proposing some improvements based on the used Krylov solver, especially by introducing a regularization method that consists in truncating the Ritz values decomposition of the operator in question. We study afterwards the estimation of uncertainties by the mean of techniques stemming from Bayesian inversion. Finally, we aim at solving more demanding problems, namely a time-transient problem, a non-linear case, and we give some elements to carry out resolutions on geometries that have a very high number of degrees of freedom, with help of domain decomposition.As for the problem of crack identification by the reciprocity gap method, we firstly propose and numerically test some ways to stabilize the resolution (use of different test-functions, a posteriori minimization of the gradients or Tikhonov regularization). Then we present an other variant of the reciprocity gap method, that is applicable on cases for which the measurements are incomplete. This method, based on a Petrov-Galerkin approach, is confronted, among others, with an experimental case. Finally, we investigate some ideas that allow to extend the reciprocity gap method for the identification of non-plane cracks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Giraud, François. „Analyse des modèles particulaires de Feynman-Kac et application à la résolution de problèmes inverses en électromagnétisme“. Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00834920.

Der volle Inhalt der Quelle
Annotation:
Dans une première partie théorique, nous nous penchons sur une analyse rigoureuse des performances de l'algorithme Sequential Monte Carlo (SMC) conduisant à des résultats de type bornes L^p et inégalités de concentration. Nous abordons notamment le cas particulier des SMC associés à des schémas de température, et analysons sur ce sujet un processus à schéma adaptatif.Dans une seconde partie appliquée, nous illustrons son utilisation par la résolution de problèmes inverses concrets en électromagnétisme. Le plus important d'entre eux consiste à estimer les propriétés radioélectriques de matériaux recouvrant un objet de géométrie connue, et cela à partir de mesures de champs rétrodiffusés. Nous montrons comment l'algorithme SMC, couplé à des calculs analytiques, permet une inversion bayésienne, et fournit des estimées robustes enrichies d'estimations des incertitudes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Cantalloube, Faustine. „Détection et caractérisation d'exoplanètes dans des images à grand contraste par la résolution de problème inverse“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAY017/document.

Der volle Inhalt der Quelle
Annotation:
L’imagerie d’exoplanètes permet d’obtenir de nombreuses informations sur la lumière qu’elles émettent, l’interaction avec leur environnement et sur leur nature. Afin d’extraire l’information des images, il est indispensable d’appliquer des méthodes de traitement d’images adaptées aux instruments. En particulier, il faut séparer les signaux planétaires des tavelures présentes dans les images qui sont dues aux aberrations instrumentales quasi-statiques. Dans mon travail de thèse je me suis intéressée à deux méthodes innovantes de traitement d’images qui sont fondés sur la résolution de problèmes inverses.La première méthode, ANDROMEDA, est un algorithme dédié à la détection et à la caractérisation de point sources dans des images haut contraste via une approche maximum de vraisemblance. ANDROMEDA exploite la diversité temporelle apportée par la rotation de champ de l’image (où se trouvent les objets astrophysiques) alors que la pupille (où les aberrations prennent naissance) est gardée fixe. A partir de l’application sur données réelles de l’algorithme dans sa version originale, j’ai proposé et qualifié des améliorations afin de prendre en compte les résidus non modélisés par la méthode tels que les structures bas ordres variant lentement et le niveau résiduel de bruit correlé dans les données. Une fois l’algorithme ANDROMEDA opérationnel, j’ai analysé ses performances et sa sensibilité aux paramètres utilisateurs, montrant la robustesse de la méthode. Une comparaison détaillée avec les algorithmes les plus utilisés dans la communauté a prouvé que cet algorithme est compétitif avec des performances très intéressantes dans le contexte actuel. En particulier, il s’agit de la seule méthode qui permet une détection entièrement non-supervisée. De plus, l’application à de nombreuses données ciel venant d’instruments différents a prouvé la fiabilité de la méthode et l’efficacité à extraire rapidement et systématiquement (avec un seul paramètre utilisateur à ajuster) les informations contenues dans les images. Ces applications ont aussi permis d’ouvrir des perspectives pour adapter cet outil aux grands enjeux actuels de l’imagerie d’exoplanètes.La seconde méthode, MEDUSAE, consiste à estimer conjointement les aberrations et les objets d’intérêt scientifique, en s’appuyant sur un modèle de formation d’images coronographiques. MEDUSAE exploite la redondance d’informations apportée par des images multi-spectrales. Afin de raffiner la stratégie d’inversion de la méthode et d’identifier les paramètres les plus critiques, j’ai appliqué l’algorithme sur des données générées avec le modèle utilisé dans l’inversion. J’ai ensuite appliqué cette méthode à des données simulées plus réalistes afin d’étudier l’impact de la différence entre le modèle utilisé dans l’inversion et les données réelles. Enfin, j’ai appliqué la méthode à des données réelles et les résultats préliminaires que j’ai obtenus ont permis d’identifier les informations importantes dont la méthode a besoin et ainsi de proposer plusieurs pistes de travail qui permettraient de rendre cet algorithme opérationnel sur données réelles
Direct imaging of exoplanets provides valuable information about the light they emit, their interactions with their host star environment and their nature. In order to image such objects, advanced data processing tools adapted to the instrument are needed. In particular, the presence of quasi-static speckles in the images, due to optical aberrations distorting the light from the observed star, prevents planetary signals from being distinguished. In this thesis, I present two innovative image processing methods, both based on an inverse problem approach, enabling the disentanglement of the quasi-static speckles from the planetary signals. My work consisted of improving these two algorithms in order to be able to process on-sky images.The first one, called ANDROMEDA, is an algorithm dedicated to point source detection and characterization via a maximum likelihood approach. ANDROMEDA makes use of the temporal diversity provided by the image field rotation during the observation, to recognize the deterministic signature of a rotating companion over the stellar halo. From application of the original version on real data, I have proposed and qualified improvements in order to deal with the non-stable large scale structures due to the adaptative optics residuals and with the remaining level of correlated noise in the data. Once ANDROMEDA became operational on real data, I analyzed its performance and its sensitivity to the user-parameters proving the robustness of the algorithm. I also conducted a detailed comparison to the other algorithms widely used by the exoplanet imaging community today showing that ANDROMEDA is a competitive method with practical advantages. In particular, it is the only method that allows a fully unsupervised detection. By the numerous tests performed on different data set, ANDROMEDA proved its reliability and efficiency to extract companions in a rapid and systematic way (with only one user parameter to be tuned). From these applications, I identified several perspectives whose implementation could significantly improve the performance of the pipeline.The second algorithm, called MEDUSAE, consists in jointly estimating the aberrations (responsible for the speckle field) and the circumstellar objects by relying on a coronagraphic image formation model. MEDUSAE exploits the spectral diversity provided by multispectral data. In order to In order to refine the inversion strategy and probe the most critical parameters, I applied MEDUSAE on a simulated data set generated with the model used in the inversion. To investigate further the impact of the discrepancy between the image model used and the real images, I applied the method on realistic simulated images. At last, I applied MEDUSAE on real data and from the preliminary results obtained, I identified the important input required by the method and proposed leads that could be followed to make this algorithm operational to process on-sky data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Napal, Kevish. „Sur l'utilisation de méthodes d'échantillonnages et des signatures spectrales pour la résolution de problèmes inverses en diffraction“. Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLX102.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est une contribution aux problèmes inverses en diffraction acoustique. Nous nous intéressons plus précisément au contrôle non destructif de matériaux hétérogènes tels que les matériaux composites. Surveiller l'état de ce type de matériaux en milieu industriel présente un enjeu majeur. Cependant leurs structures complexes rendent cette tâche difficile. Les méthodes dites d'échantillonnage semblent très prometteuses pour répondre à cette problématique. Nous développons ces techniques pour détecter l'apparition de défauts à partir de données de champs lointains. Les défauts considérés sont des obstacles impénétrables de type Neumann. Nous en distinguons deux catégories qui nécessitent chacune un traitement particulier : les fissures et les obstacles d'intérieur non vide.Grâce à deux factorisations complémentaires de l'opérateur de champ lointain que nous établissons, nous montrons qu'il est possible d'approcher la solution du Problème de Transmission Intérieur (PTI) à partir des données. Le PTI est un système d'équations différentielles qui met en jeu les paramètres physiques du matériau sondé. Nous montrons qu'il est alors possible de détecter une anomalie en comparant les solutions de deux PTI différents, l'un associé aux mesures faites avant l'apparition du défaut et l'autre associé aux mesures faites après. La validité de la méthode décrite nécessite d'éviter des fréquences particulières correspondant au spectre du PTI pour lequel ce problème est mal posé. Nous montrons que ce spectre est un ensemble infini, dénombrable et sans point fini d'accumulation.Dans le dernier chapitre, nous utilisons la notion récente de milieux artificiels pour imager des réseaux de fissures au sein d'un milieu homogène. Cette approche permet le design du problème de transmission intérieur par le choix du milieu artificiel, par exemple composé d'obstacle impénétrables. Le spectre associé est alors sensible à la présence de fissures à l'intérieur de l'obstacle artificiel. Ceci permet de quantifier localement la densité de fissure. Cependant, le calcul du spectre nécessite des données pour un intervalle de fréquence et est très coûteux en temps de calcul. Nous proposons une alternative n'utilisant qu'une seule fréquence et qui consiste à travailler avec les solutions du PTI plutôt qu'avec son spectre
This thesis is a contribution to inverse scattering theory. We are more specifically interested in the non-destructive testing of heterogeneous materials such as composite materials by using acoustic waves. Monitoring this type of materials in an industrial environment is of major importance, but their complex structure makes this task difficult. The so-called sampling methods seem very promising to address this issue. We develop these techniques to detect the appearance of defects from far field data. The defects considered are impenetrable Neumann obstacles. We distinguish two categories of them, each requiring a specific treatment: cracks and obstacles with non empty interior.Thanks to the two complementary factorizations of the far field operator that we establish, we show that it is possible to approach the solution of the Interior Transmission Problem (ITP) from the data. The ITP is a system of partial differential equations that takes into account the physical parameters of the material being surveyed. We show that it is then possible to detect an anomaly by comparing the solutions of two different ITPs, one associated with measurements made before the defect appeared and the other one associated with measurements made after. The validity of the described method requires avoiding particular frequencies, which are the elements of the ITP spectrum for which this problem is not well posed. We show that this spectrum is an infinite set, countable and without finite accumulation points.In the last chapter, we use the recent notion of artificial backgrounds to image crack networks embedded in a homogeneous background. This approach allows us to design a transmission problem with the choice of the artificial background, for instance made of an obstacle. The associated spectrum is then sensitive to the presence of cracks inside the artificial obstacle. This allows to quantify locally the crack density. However, the computation of the spectrum requires data at several frequencies and is expensive in terms of calculations. We propose an alternative method using only data at fixed frequency and which consists in working with the solutions of the ITP instead of it's spectrum
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Fontchastagner, Julien. „Résolution du problème inverse de conception d'actionneurs électromagnétiques par association de méthodes déterministes d'optimisation globale avec des modèles analytiques et numériques“. Phd thesis, Toulouse, INPT, 2007. https://hal.science/tel-02945546v1.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans cette thèse apportent une nouvelle méthodologie de résolution du problème inverse de conception des actionneurs électromagnétiques. Après avoir abordé les aspects généraux du problème, nous choisirons de le résoudre avec des méthodes déterministes d'optimisation globale, ne nécessitant aucun point de départ, utilisant tout type de variables et assurant le caractère exact de l'optimum trouvé. Étant jusqu'alors utilisé seulement avec des modèles simples, nous les appliquerons en utilisant des modèles analytiques de type champ, reposant sur des hypothèses moins restrictives, donc plus complexes, nécessitant d'étendre notre algorithme d'optimisation. Un logiciel complet de calcul par éléments finis a ensuite été créé, puis doté d'une procédure d'évaluation du couple moyen dans le cas d'un moteur à aimant. Le problème initial a été reformulé et résolu en intégrant la contrainte numérique de couple, le modèle analytique servant de guide au nouvel algorithme
The work presented in this thesis brings a new methodology to solve the inverse problem of electromagnetic actuators design. After treating the general aspects of the problem, we will choose to solve it with deterministic methods of global optimization, which do not require any starting point, use each kind of variables and ensure to obtain the global optimum. Being hitherto used only with simple models, we apply them with analytical models based on an analytical resolution of the magnetic field, using less restrictive hypotheses. They are so more complex, and require we extend our optimization algorithm. A full finite elements software was then created, and equipped with a procedure which permit the evaluation of the average torque in the particular case of a magnet machine. The initial problem was reformulated and solve by integrating the numerical constraint of couple, the analytical model being used as guide with the new algorithm
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Fontchastagner, Julien. „Résolution du problème inverse de conception d'actionneurs électromagnétiques par association de méthodes déterministes d'optimisation globale avec des modèles analytiques et numériques“. Phd thesis, Toulouse, INPT, 2007. http://oatao.univ-toulouse.fr/7621/1/fontchastagner.pdf.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans cette thèse apportent une nouvelle méthodologie de résolution du problème inverse de conception des actionneurs électromagnétiques. Après avoir abordé les aspects généraux du problème, nous choisirons de le résoudre avec des méthodes déterministes d'optimisation globale, ne nécessitant aucun point de départ, utilisant tout type de variables et assurant le caractère exact de l'optimum trouvé. Étant jusqu'alors utilisées seulement avec des modèles simples, nous les appliquerons en les associant avec des modèles analytiques de type champ, reposant sur des hypothèses moins restrictives, donc plus complexes, nécessitant d'étendre notre algorithme d'optimisation. Un logiciel complet de calcul par éléments finis a ensuite été créé, puis doté d'une procédure d'évaluation du couple moyen dans le cas d'un moteur à aimant. Le problème initial a été reformulé et résolu en intégrant la contrainte numérique de couple, le modèle analytique servant de guide au nouvel algorithme.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Alonzo, Flavien. „Méthodes numériques pour le Glioblastome Multiforme et pour la résolution de problèmes inverses autour des systèmes de réaction-diffusion“. Electronic Thesis or Diss., Ecole centrale de Nantes, 2022. http://www.theses.fr/2022ECDN0059.

Der volle Inhalt der Quelle
Annotation:
Le Glioblastome Multiforme est la tumeur cérébrale gliale la plus fréquente et la plus mortelle chez l’Homme. Les mathématiques ont l’opportunité de pouvoir innover la prise en charge des patients dans la démarche actuelle de médecine personnalisée. Cette thèse propose deux contributions majeures autour de cette thématique. Une premièrecontribution porte sur la modélisation et la simulation la plus réaliste possible de la propagation des cellules tumorales du Glioblastome Multiforme chez un patient après son diagnostic. Ce travail modélise le phénomène d’angiogenèse induite par la tumeur. Un schéma et algorithme numérique sont utilisés pour conserver la positivité des solutions. Enfin, les simulations sont comparées aux connaissances issues de la médecine. Une seconde contribution porte sur l’estimationdes paramètres des modèles de type réactiondiffusion. La méthode développée permet de résoudre des problèmes inverses en résolvant deux systèmes d’équations aux dérivées partielles avec une contrainte fonctionnelle, et non avec des outils statistiques. La résolution numérique d’un tel problème est donnée et évaluée sur deux exemples de modèles avecdes données synthétiques. La méthode permet ainsi de déterminer des paramètres d’un modèle avec des données éparses en temps
Glioblastoma Multiforme is the most frequent and deadliest brain tumour. Mathematics stand as an innovative tool to enhance patient care in the context of personalized medicine. This PhD showcases two major contribution to this theme. A first contribution works on the modelling and simulating of a realistic spreading of the tumour cells in Glioblastoma Multiforme from a patient’s diagnosis. This work models tumour induced angiogenesis. A numerical scheme and algorithmare used to ensure positivity of solutions. Finally, simulations are compared to empirical knowledge from Medicine. A second contribution is on parameter estimation for reaction-diffusion models. The developed method solves inverse problems by solving two partial differential equation systems with a functional constraint, without using statistical tools. Numerical resolution of such problems is given and showcased on two examples of models with synthetic data. This method enables to calibrate parameters from a model using sparse data in time
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Abboud, Feriel. „Restoration super-resolution of image sequences : application to TV archive documents“. Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1038/document.

Der volle Inhalt der Quelle
Annotation:
Au cours du dernier siècle, le volume de vidéos stockées chez des organismes tel que l'Institut National de l'Audiovisuel a connu un grand accroissement. Ces organismes ont pour mission de préserver et de promouvoir ces contenus, car, au-delà de leur importance culturelle, ces derniers ont une vraie valeur commerciale grâce à leur exploitation par divers médias. Cependant, la qualité visuelle des vidéos est souvent moindre comparée à celles acquises par les récents modèles de caméras. Ainsi, le but de cette thèse est de développer de nouvelles méthodes de restauration de séquences vidéo provenant des archives de télévision française, grâce à de récentes techniques d'optimisation. La plupart des problèmes de restauration peuvent être résolus en les formulant comme des problèmes d'optimisation, qui font intervenir plusieurs fonctions convexes mais non-nécessairement différentiables. Pour ce type de problèmes, on a souvent recourt à un outil efficace appelé opérateur proximal. Le calcul de l'opérateur proximal d'une fonction se fait de façon explicite quand cette dernière est simple. Par contre, quand elle est plus complexe ou fait intervenir des opérateurs linéaires, le calcul de l'opérateur proximal devient plus compliqué et se fait généralement à l'aide d'algorithmes itératifs. Une première contribution de cette thèse consiste à calculer l'opérateur proximal d'une somme de plusieurs fonctions convexes composées avec des opérateurs linéaires. Nous proposons un nouvel algorithme d'optimisation de type primal-dual, que nous avons nommé Algorithme Explicite-Implicite Dual par Blocs. L'algorithme proposé permet de ne mettre à jour qu'un sous-ensemble de blocs choisi selon une règle déterministe acyclique. Des résultats de convergence ont été établis pour les deux suites primales et duales de notre algorithme. Nous avons appliqué notre algorithme au problème de déconvolution et désentrelacement de séquences vidéo. Pour cela, nous avons modélisé notre problème sous la forme d'un problème d'optimisation dont la solution est obtenue à l'aide de l'algorithme explicite-implicite dual par blocs. Dans la deuxième partie de cette thèse, nous nous sommes intéressés au développement d'une version asynchrone de notre l'algorithme explicite-implicite dual par blocs. Dans cette nouvelle extension, chaque fonction est considérée comme locale et rattachée à une unité de calcul. Ces unités de calcul traitent les fonctions de façon indépendante les unes des autres. Afin d'obtenir une solution de consensus, il est nécessaire d'établir une stratégie de communication efficace. Un point crucial dans le développement d'un tel algorithme est le choix de la fréquence et du volume de données à échanger entre les unités de calcul, dans le but de préserver de bonnes performances d'accélération. Nous avons évalué numériquement notre algorithme distribué sur un problème de débruitage de séquences vidéo. Les images composant la vidéo sont partitionnées de façon équitable, puis chaque processeur exécute une instance de l'algorithme de façon asynchrone et communique avec les processeurs voisins. Finalement, nous nous sommes intéressés au problème de déconvolution aveugle, qui vise à estimer le noyau de convolution et la séquence originale à partir de la séquence dégradée observée. Nous avons proposé une nouvelle méthode basée sur la formulation d'un problème non-convexe, résolu par un algorithme itératif qui alterne entre l'estimation de la séquence originale et l'identification du noyau. Notre méthode a la particularité de pouvoir intégrer divers types de fonctions de régularisations avec des propriétés mathématiques différentes. Nous avons réalisé des simulations sur des séquences synthétiques et réelles, avec différents noyaux de convolution. La flexibilité de notre approche nous a permis de réaliser des comparaisons entre plusieurs fonctions de régularisation convexes et non-convexes, en terme de qualité d'estimation
The last century has witnessed an explosion in the amount of video data stored with holders such as the National Audiovisual Institute whose mission is to preserve and promote the content of French broadcast programs. The cultural impact of these records, their value is increased due to commercial reexploitation through recent visual media. However, the perceived quality of the old data fails to satisfy the current public demand. The purpose of this thesis is to propose new methods for restoring video sequences supplied from television archive documents, using modern optimization techniques with proven convergence properties. In a large number of restoration issues, the underlying optimization problem is made up with several functions which might be convex and non-necessarily smooth. In such instance, the proximity operator, a fundamental concept in convex analysis, appears as the most appropriate tool. These functions may also involve arbitrary linear operators that need to be inverted in a number of optimization algorithms. In this spirit, we developed a new primal-dual algorithm for computing non-explicit proximity operators based on forward-backward iterations. The proposed algorithm is accelerated thanks to the introduction of a preconditioning strategy and a block-coordinate approach in which at each iteration, only a "block" of data is selected and processed according to a quasi-cyclic rule. This approach is well suited to large-scale problems since it reduces the memory requirements and accelerates the convergence speed, as illustrated by some experiments in deconvolution and deinterlacing of video sequences. Afterwards, a close attention is paid to the study of distributed algorithms on both theoretical and practical viewpoints. We proposed an asynchronous extension of the dual forward-backward algorithm, that can be efficiently implemented on a multi-cores architecture. In our distributed scheme, the primal and dual variables are considered as private and spread over multiple computing units, that operate independently one from another. Nevertheless, communication between these units following a predefined strategy is required in order to ensure the convergence toward a consensus solution. We also address in this thesis the problem of blind video deconvolution that consists in inferring from an input degraded video sequence, both the blur filter and a sharp video sequence. Hence, a solution can be reached by resorting to nonconvex optimization methods that estimate alternatively the unknown video and the unknown kernel. In this context, we proposed a new blind deconvolution method that allows us to implement numerous convex and nonconvex regularization strategies, which are widely employed in signal and image processing
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Monnier, Jean-Baptiste. „Quelques contributions en classification, régression et étude d'un problème inverse en finance“. Phd thesis, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00650930.

Der volle Inhalt der Quelle
Annotation:
On s'intéresse aux problèmes de régression, classification et à un problème inverse en finance. Nous abordons dans un premier temps le problème de régression en design aléatoire à valeurs dans un espace euclidien et dont la loi admet une densité inconnue. Nous montrons qu'il est possible d'élaborer une stratégie d'estimation optimale par projections localisées sur une analyse multi-résolution. Cette méthode originale offre un avantage calculatoire sur les méthodes d'estimation à noyau traditionnellement utilisées dans un tel contexte. On montre par la même occasion que le classifieur plug-in construit sur cette nouvelle procédure est optimal. De plus, il hérite des avantages calculatoires mentionnés plus haut, ce qui s'avère être un atout crucial dans de nombreuses applications. On se tourne ensuite vers le problème de régression en design aléatoire uniformément distribué sur l'hyper-sphère et on montre comment le tight frame de needlets permet de généraliser les méthodes traditionnelles de régression en ondelettes à ce nouveau contexte. On s'intéresse finalement au problème d'estimation de la densité risque-neutre à partir des prix d'options cotés sur les marchés. On exhibe une décomposition en valeurs singulières explicite d'opérateurs de prix restreints et on montre qu'elle permet d'élaborer une méthode d'estimation de la densité risque-neutre qui repose sur la résolution d'un simple programme quadratique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Abou, Khachfe Refahi. „Résolution numérique de problèmes inverses 2D non linéaires de conduction de la chaleur par la méthode des éléments finis et l'algorithme du gradient conjugué : validation expérimentale“. Nantes, 2000. http://www.theses.fr/2000NANT2045.

Der volle Inhalt der Quelle
Annotation:
Ce travail vise à développer de nouveaux outils numériques d'analyse des transferts de chaleur par conduction inverse. L'étude est basée sur la mise en œuvre conjointe de la méthode des éléments finis et de l'algorithme du gradient conjugue. Le choix des éléments finis garantit une approche générale à la résolution numérique de l'équation parabolique. Cette méthode est également bien adaptée aux cas non linéaires, fréquents en pratique. Le choix du gradient conjugue découle de la démarche globale unique adoptée pour formuler les différents types de problèmes inverses. Cet algorithme itératif est également bien adapté à la mise en œuvre du principe de régularisation itérative, le caractère mal pose des problèmes inverses est ainsi traite numériquement sans introduire de paramètres "régularisateurs" supplémentaires. Le code numérique inverse a été développé en exploitant les ressources de la bibliothèque d'éléments finis modulef. Il est ainsi compatible avec les nombreux processeurs utilitaires disponibles dans cette bibliothèque ainsi que dans certains grands codes commerciaux (maillage, traitement graphique, interface,). Les principaux problèmes résolus concernent les applications les plus fréquentes de l'analyse thermique inverse : a) l'estimation d'une condition à la frontière du domaine, le cas d'une distribution spatiale et temporelle, et celui d'une fonction dépendant de la température ont été considérés, b) l'estimation simultanée des positions et intensités de sources ponctuelles, c) l'estimation simultanée du tenseur de conductivité et de la chaleur spécifique dans un milieu orthotrope. Pour chaque problème traité, un dispositif expérimental a été mis au point, en vue de valider les résultats numériques obtenus.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Omar, Oumayma. „Sur la résolution des problèmes inverses pour les systèmes dynamiques non linéaires. Application à l’électrolocation, à l’estimation d’état et au diagnostic des éoliennes“. Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENT083/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse concerne principalement la résolution des problèmes d’inversion dynamiquedans le cadre des systèmes dynamiques non linéaires. Ainsi, un ensemble de techniquesbasées sur l’utilisation des trains de mesures passées et sauvegardées sur une fenêtreglissante, a été développé. En premier lieu, les mesures sont utilisées pour générerune famille de signatures graphiques, qui constituent un outil de classification permettantde discriminer les diverses valeurs des variables à estimer pour un système non linéairedonné. Cette première technique a été appliquée à la résolution de deux problèmes : leproblème d’électolocation d’un robot doté du sens électrique et le problème d’estimationd’état dans les systèmes à dynamiques non linéaires. Outre ces deux applications, destechniques d’inversion à horizon glissant spécifiques au problème de diagnostic des défautsd’éoliennes dans le cadre d’un benchmark international ont été développées. Cestechniques sont basées sur la minimisation de critères quadratiques basés sur des modèlesde connaissance
This thesis mainly concerns the resolution of dynamic inverse problems involvingnonlinear dynamical systems. A set of techniques based on the use of trains of pastmeasurements saved on a sliding window was developed. First, the measurements areused to generate a family of graphical signatures, which is a classification tool, in orderto discriminate between different values of variables to be estimated for a given nonlinearsystem. This technique was applied to solve two problems : the electrolocationproblem of a robot with electrical sense and the problem of state estimation in nonlineardynamical systems. Besides these two applications, receding horizon inversion techniquesdedicated to the fault diagnosis problem of a wind turbine proposed as an internationalbenchmark were developed. These techniques are based on the minimization of quadraticcriteria based on knowledge-based models
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Biret, Maëva. „Contribution à la résolution de problèmes inverses sous contraintes et application de méthodes de conception robuste pour le dimensionnement de pièces mécaniques de turboréacteurs en phase avant-projets“. Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066294/document.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail est de proposer une nouvelle démarche pour améliorer et accélérer les études de dimensionnement des pièces de turboréacteurs en avant-projets. Il s'agit de fournir une méthodologie complète pour la conception robuste sous contraintes. Cette méthodologie consiste en trois étapes : la réduction de la dimension et la méta-modélisation, la conception robuste sous contraintes puis la résolution de problèmes inverses sous contraintes. Ce sont les trois principaux sujets abordés dans cette thèse. La réduction de la dimension est un pré-traitement indispensable à toute étude. Son but est de ne conserver, pour une sortie choisie du système, que les entrées influentes. Ceci permet de réduire la taille du domaine d'étude afin de faciliter la compréhension du système et diminuer les temps de calculs des études. Les méthodes de méta-modélisations contribuent également à ces deux objectifs. L'idée est de remplacer le code de calculs coûteux par un modèle rapide à évaluer et qui représente bien la relation entre la sortie étudiée et les entrées du système. La conception robuste sous contraintes est une optimisation bi-objectifs où les différentes sources d'incertitudes du système sont prises en compte. Il s'agit, dans un premier temps, de recenser et modéliser les incertitudes puis de choisir une méthode de propagation de ces incertitudes dans le code de calculs. Ceci permet d'estimer les moments (moyenne et écart-type) de la loi de la sortie d'intérêt. L'optimisation de ces moments constitue les deux objectifs de la conception robuste. En dernier lieu, il s'agit de choisir la méthode d'optimisation multi-objectifs qui sera utilisée pour obtenir l'optimum robuste sous contraintes. La partie innovante de cette thèse porte sur le développement de méthodes pour la résolution de problèmes inverses mal posés. Ce sont des problèmes pour lesquels il peut y avoir une infinité de solutions constituant des ensembles non convexes et même disjoints. L'inversion a été considérée ici comme un complément à l'optimisation robuste dans laquelle l'optimum obtenu ne satisfaisait pas une des contraintes. Les méthodes d'inversion permettent alors de résoudre ce problème en trouvant plusieurs combinaisons des entrées qui satisfont la contrainte sous la condition de rester proche de l'optimum robuste. Le but est d'atteindre une valeur cible de la contrainte non satisfaite tout en respectant les autres contraintes du système auxquelles on ajoute la condition de proximité à l'optimum. Appliquée au dimensionnement d'un compresseur HP en avants-projets, cette méthodologie s'inscrit dans l'amélioration et l'accélération des études marquées par de nombreux rebouclages chronophages en termes de ressources informatiques et humaines
The aim of this PhD dissertation is to propose a new approach to improve and accelerate preliminary design studies for turbofan engine components. This approach consists in a comprehensive methodology for robust design under constraints, following three stages : dimension reduction and metamodeling, robust design under constraints and finally inverse problem solving under constraints. These are the three main subjects of this PhD dissertation. Dimension reduction is an essential pre-processing for any study. Its aim is to keep only inputs with large effects on a selected output. This selection reduces the size of the domain on which is performed the study which reduces its computational cost and eases the (qualitative) understanding of the system of interest. Metamodeling also contributes to these two objectives by replacing the time-consuming computer code by a faster metamodel which approximates adequately the relationship between system inputs and the studied output. Robust design under constraints is a bi-objectives optimization where different uncertainty sources are included. First, uncertainties must be collected and modeled. Then a propagation method of uncertainties in the computation code must be chosen in order to estimate moments (mean and standard deviation) of output distribution. Optimization of these moments are the two robust design objectives. Finally, a multi-objectives optimization method has to be chosen to find a robust optimum under constraints. The development of methods to solve ill-posed inverse problems is the innovative part of this PhD dissertation. These problems can have infinitely many solutions constituting non convex or even disjoint sets. Inversion is considered here as a complement to robust design in the case where the obtained optimum doesn't satisfy one of the constraints. Inverse methods then enable to solve this problem by finding several input datasets which satisfy all the constraints and a condition of proximity to the optimum. The aim is to reach a target value of the unsatisfied constraint while respecting other system constraints and the optimum proximity condition. Applied to preliminary design of high pressure compressor, this methodology contributes to the improvement and acceleration of studies currently characterized by a numerous of loopbacks which are expensive in terms of cpu-time and human resources
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Ramos, Fernando Manuel. „Résolution d'un problème inverse multidimensionnel de diffusion par la méthode des éléments analytiques et par le principe de l'entropie maximale : contribution à la caractérisation de défauts internes“. Toulouse, ENSAE, 1992. http://www.theses.fr/1992ESAE0015.

Der volle Inhalt der Quelle
Annotation:
Une méthode de reconstruction défectométrique permettant de reconstituer une distribution tridimensionnelle représentative de défauts situés au sein d'un solide, à partir d'un ensemble incomplet et bruité de données, est présentée. Le problème direct est résolu numériquement par la méthode des éléments analytiques, en utilisant un schéma implicite à directions alternées. Un algorithme itératif d'optimisation avec contraintes, associe à une technique de régularisation basée sur le principe de l'entropie maximale est utilisé pour résoudre le problème inverse. Des résultats numériques et expérimentaux attestent la bonne performance de la méthode d'inversion proposée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Renzi, Cédric. „Identification Expérimentale de Sources vibratoires par Résolution du problème Inverse modélisé par un opérateur Eléments Finis local“. Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00715820.

Der volle Inhalt der Quelle
Annotation:
L'objet de cette thèse est l'extension aux structures complexes de la méthode de Résolution Inverse Fenêtrée Filtrée (RIFF). L'idée principale se base sur le modèle Eléments Finis local et libre d'une partie de la structure étudiée. Tout d'abord, la méthode a été développée dans le cas des poutres. Les mesures de vibrations sont alors injectées dans le modèle Eléments Finis de la partie de poutre analysée. Les rotations sont estimées à l'aide de mesures de déplacements supplémentaires et des fonctions de forme sur le support élémentaire. La méthode étant sensible vis-à-vis des incertitudes de mesures, une régularisation a dû être développée. Celle-ci repose sur une double inversion de l'opérateur où une régularisation de type Tikhonov est appliquée dans la seconde inversion. L'optimisation de cette régularisation est réalisée par le principe de la courbe en L. A cause des effets de lissage induits par la régularisation, les moments ne peuvent être reconstruits mais ils apparaissent comme des "doublets" de forces. Ceci nous a conduit à résoudre le problème en supposant que seules des forces agissent sur la poutre. Enfin, une étude des effets de la troncature du domaine a été menée dans le but de s'affranchir des efforts de couplage apparaissant aux limites de la zone étudiée. Le cas des plaques a été considéré ensuite afin d'augmenter progressivement la complexité des modèles utilisés. L'approche Eléments Finis a permis d'intégrer à la méthode des techniques de condensation dynamique et de réduction par la méthode de Craig-Bampton. Le nombre de degrés de liberté est trop élevé pour permettre une estimation des rotations par mesures de déplacements supplémentaires, la condensation dynamique est employée afin de les supprimer dans le modèle théorique. Par ailleurs, la régularisation induisant une perte de résolution spatiale à cause de son effet de lissage, une procédure de déconvolution spatiale basée sur l'algorithme de Richardson- Lucy a été ajoutée en post traitement. Enfin, une application de la méthode à la détection de défauts a été envisagée de même que l'application de la méthode à l'identification des efforts appliqués par une pompe à huile sur un banc d'essais industriel. Le travail s'est donc appuyé sur des développements numériques et la méthode a été validée expérimentalement en laboratoire et en contexte industriel. Les résultats de la thèse fournissent un outil prédictif des efforts injectés par des sources de vibrations raccordées à une structure en s'appuyant sur un modèle Eléments Finis local et des mesures vibratoires, le tout en régime harmonique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Laurent, Philippe. „Méthodes d'accéleration pour la résolution numérique en électrolocation et en chimie quantique“. Thesis, Nantes, Ecole des Mines, 2015. http://www.theses.fr/2015EMNA0122/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse aborde deux thématiques différentes. On s’intéresse d’abord au développement et à l’analyse de méthodes pour le sens électrique appliqué à la robotique. On considère en particulier la méthode des réflexions permettant, à l’image de la méthode de Schwarz, de résoudre des problèmes linéaires à partir de sous-problèmes plus simples. Ces deniers sont obtenus par décomposition des frontières du problème de départ. Nous en présentons des preuves de convergence et des applications. Dans le but d’implémenter un simulateur du problème direct d’électrolocation dans un robot autonome, on s’intéresse également à une méthode de bases réduites pour obtenir des algorithmes peu coûteux en temps et en place mémoire. La seconde thématique traite d’un problème inverse dans le domaine de la chimie quantique. Nous cherchons ici à déterminer les caractéristiques d’un système quantique. Celui-ci est éclairé par un champ laser connu et fixé. Dans ce cadre, les données du problème inverse sont les états avant et après éclairage. Un résultat d’existence locale est présenté, ainsi que des méthodes de résolution numériques
This thesis tackle two different topics.We first design and analyze algorithms related to the electrical sense for applications in robotics. We consider in particular the method of reflections, which allows, like the Schwartz method, to solve linear problems using simpler sub-problems. These ones are obtained by decomposing the boundaries of the original problem. We give proofs of convergence and applications. In order to implement an electrolocation simulator of the direct problem in an autonomous robot, we build a reduced basis method devoted to electrolocation problems. In this way, we obtain algorithms which satisfy the constraints of limited memory and time resources. The second topic is an inverse problem in quantum chemistry. Here, we want to determine some features of a quantum system. To this aim, the system is ligthed by a known and fixed Laser field. In this framework, the data of the inverse problem are the states before and after the Laser lighting. A local existence result is given, together with numerical methods for the solving
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Cloquet, Christophe. „Optimiser l'utilisation des données en reconstruction TEP: modélisation de résolution dans l'espace image et contribution à l'évaluation de la correction de mouvement“. Doctoral thesis, Universite Libre de Bruxelles, 2011. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209887.

Der volle Inhalt der Quelle
Annotation:
Cancers et maladies cardio-vasculaires sont responsables de plus de 40 % des décès dans le monde. De nombreuses personnes souffrent par ailleurs quotidiennement de ces maladies. En réduire la fréquence dans le futur passe avant tout par une adaptation de notre mode de vie et une prévention accrue, éclairées par une connaissance plus approfondie des mécanismes de ces maladies. Il est également crucial d'améliorer les diagnostics et les traitements actuels afin de mieux prendre en charge les malades d'aujourd'hui et de demain.

Lorsque le tableau clinique présenté par un patient n'est pas clair, de nombreuses techniques d'imagerie médicale permettent d'affiner le diagnostic, de préciser le pronostic et de suivre l'évolution des maladies au cours du temps. Ces mêmes techniques sont également utilisées en recherche fondamentale pour faire progresser la connaissance du fonctionnement normal et pathologique du corps humain. Il s'agit par exemple de l'échographie, de l'imagerie par résonance magnétique, de la tomodensitométrie à rayons X ou encore de la tomographie par émission de positrons (TEP).

Certaines de ces techniques mettent en évidence le métabolisme de molécules, comme le glucose et certains acides aminés. C'est le cas de la tomographie par émission de positrons, dans laquelle une petite quantité de molécules marquées avec un élément radioactif est injectée au patient. Ces molécules se concentrent de préférence dans les endroits du corps humain où elles sont utilisées. Instables, les noyaux radioactifs se désintègrent en émettant un anti-électron, encore appelé positron. Chaque positron s'annihile ensuite à proximité du lieu d'émission avec un électron du corps du patient, provoquant l'émission simultanée de deux photons de haute énergie dans deux directions opposées. Après avoir traversé les tissus, ces photons sont captés par un anneau de détecteurs entourant le patient. Sur base de l'ensemble des événements collectés, un algorithme de reconstruction produit enfin une image de la distribution du traceur radioactif.

La tomographie par émission de positrons permet notamment d'évaluer l'efficacité du traitement des tumeurs avant que la taille de celles-ci n'ait changé, ce qui permet d'aider à décider de poursuivre ou non le traitement en cours. En cardiologie, cette technique permet de quantifier la viabilité du muscle cardiaque après un infarctus et aide ainsi à évaluer la pertinence d'une intervention chirurgicale.

Plusieurs facteurs limitent la précision des images TEP. Parmi ceux-ci, on trouve l'effet de volume partiel et le mouvement du coeur.

L'effet de volume partiel mène à des images floues, de la même manière qu'un objectif d'appareil photo incorrectement mis au point produit des photographies floues. Deux possibilités s'offrent aux photographes pour éviter cela :soit améliorer la mise au point de leur objectif, soit retoucher les images après les avoir réalisées ;améliorer la mise au point de l'objectif peut s'effectuer dans l'espace des données (ajouter une lentille correctrice avant l'objectif) ou dans l'espace des images (ajouter une lentille correctrice après l'objectif).

Le mouvement cardiaque provoque également une perte de netteté des images, analogue à l'effet de flou sur une photographie d'une voiture de course réalisée avec un grand temps de pose. Classiquement, on peut augmenter la netteté d'une image en diminuant le temps de pose. Cependant, dans ce cas, moins de photons traversent l'objectif et l'image obtenue est plus bruitée.

On pourrait alors imaginer obtenir de meilleurs images en suivant la voiture au moyen de l'appareil photo.

De cette manière, la voiture serait à la fois nette et peu corrompue par du bruit, car beaucoup de photons pourraient être détectés.

En imagerie TEP, l'effet de volume partiel est dû à de nombreux facteurs dont le fait que le positron ne s'annihile pas exactement à l'endroit de son émission et que le détecteur frappé par un photon n'est pas toujours correctement identifié. La solution passe par une meilleure modélisation de la physique de l'acquisition au cours de la reconstruction, qui, en pratique est complexe et nécessite d'effectuer des approximations.

La perte de netteté due au mouvement du coeur est classiquement traitée en figeant le mouvement dans plusieurs images successives au cours d'un battement cardiaque. Cependant, une telle solution résulte en une diminution du nombre de photons, et donc en une augmentation du bruit dans les images. Tenir compte du mouvement de l'objet pendant la reconstruction TEP permettrait d'augmenter la netteté en gardant un bruit acceptable. On peut également penser à superposer différentes images recalées au moyen du mouvement.

Au cours de ce travail, nous avons étudié des méthodes qui tirent le meilleur parti possible des informations fournies par les événements détectés. Pour ce faire, nous avons choisi de baser nos reconstructions sur une liste d'événements contenant la position exacte des détecteurs et le temps exact d'arrivée des photons, au lieu de l'histogramme classiquement utilisé.

L'amélioration de résolution passe par la connaissance de l'image d'une source ponctuelle radioactive produite par la caméra.

À la suite d'autres travaux, nous avons mesuré cette image et nous l'avons modélisée, pour la première fois, au moyen d'une fonction spatialement variable, non-gaussienne et asymétrique. Nous avons ensuite intégré cette fonction dans un algorithme de reconstruction, dans l'espace image. C'est la seule possibilité pratique dans le cas d'acquisitions en mode liste. Nous avons ensuite comparé les résultats obtenus avec un traitement de l'image après la reconstruction.

Dans le cadre de la correction de mouvement cardiaque, nous avons opté pour l'étude de la reconstruction simultanée de l'image et du déplacement, sans autres informations externes que les données TEP et le signal d'un électrocardiogramme. Nous avons ensuite choisi d'étudier la qualité de ces estimateurs conjoints intensité-déplacement au moyen de leur variance. Nous avons étudié la variance minimale que peut atteindre un estimateur conjoint intensité-mouvement, sur base des données TEP uniquement, au moyen d'un outil appelé borne de Cramer-Rao. Dans ce cadre, nous avons étudié différentes manières existantes d'estimer la borne de Cramer-Rao et nous avons proposé une nouvelle méthode d'estimation de la borne de Cramer-Rao adaptée à des images de grande dimension. Nous avons enfin mis en évidence que la variance de l'algorithme classique OSEM était supérieure à celle prédite par la borne de Cramer-Rao. En ce qui concerne les estimateurs combinés intensité-déplacement, nous avons observé la diminution de la variance minimale possible sur les intensités lorsque le déplacement était paramétrisé sur des fonctions spatiales lisses.

Ce travail est organisé comme suit. Le chapitre théorique commence par brosser brièvement le contexte historique de la tomographie par émission de positrons. Nous avons souhaité insister sur le fait que l'évolution des idées n'est romantique et linéaire qu'à grande échelle. Nous abordons ensuite la description physique de l'acquisition TEP. Dans un deuxième chapitre, nous rappelons quelques éléments de la théorie de l'estimation et de l'approximation et nous traitons des problèmes inverses en général et de la reconstruction TEP en particulier.

La seconde partie aborde le problème du manque de netteté des images et la solution que nous avons choisi d'y apporter :une modélisation dans l'espace image de la réponse impulsionnelle de la caméra, en tenant compte de ses caractéristiques non gaussienne, asymétrique et spatialement variable. Nous présentons également le résultat de la comparaison avec une déconvolution post-reconstruction. Les résultats présentés dans ce chapitre ont fait l'objet d'une publication dans la revue Physics in Medicine and Biology.

Dans un troisième volet, nous abordons la correction de mouvement. Une premier chapitre brosse le contexte de la correction de mouvement en TEP et remet en perspective les différentes méthodes existantes, dans un cadre bayésien unificateur.

Un second chapitre aborde ensuite l'estimation de la qualité des images TEP et étudie en particulier la borne de Cramer-Rao.

Les résultats obtenus sont enfin résumés et replacés dans leur contexte dans une conclusion générale.


Doctorat en Sciences de l'ingénieur
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Dejean-Viellard, Catherine. „Etude des techniques de régularisation en radiothérapie conformationnelle avec modulation d'intensité et évaluation quantitative des distributions de dose optimales“. Toulouse 3, 2003. http://www.theses.fr/2003TOU30195.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Prieux, Vincent. „Imagerie sismique des milieux visco-acoustiques et visco-élastiques à deux dimensions par stéréotomographie et inversion des formes d'ondes : applications au champ pétrolier de Valhall“. Phd thesis, Université de Nice Sophia-Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00722408.

Der volle Inhalt der Quelle
Annotation:
La géophysique interne est une discipline riche en enseignements sur la structure de la Terre à différentes échelles, et sur les phénomènes passés liés à sa lente évolution. Elle constitue de plus un enjeu présent et d'avenir de première importance dans notre société, à l'heure où les ressources de toutes sortes se font de plus en plus rares, et dans le cadre d'une meilleure gestion de l'aménagement du territoire. La méthode d'inversion des formes d'ondes complètes, fondée sur un processus d'optimisation local, se distingue des autres méthodes d'imagerie sismique par sa vocation à extraire de manière aussi complète que possible l'intégralité de l'information sismique, afin de construire une image quantitative haute résolution d'un ou plusieurs paramètres physiques. Je discute dans ma thèse de plusieurs problématiques liées à cette méthode, en les illustrant par des applications à des données multicomposantes enregistrées par des câbles de fond de mer (OBC) sur le champ pétrolier de Valhall en mer du nord. Je discute tout d'abord de l'empreinte de l'anisotropie engendrée par des milieux transverses isotropes à axe de symétrie vertical sur les données du champ de Valhall. J'illustre cette empreinte sur les résultats de l'imagerie en comparant les modèles du sous-sol obtenus lorsque l'anisotropie est prise en compte ou pas dans la modélisation sismique. Je mets en évidence un biais dans les vitesses reconstruites par une méthode d'inversion isotrope, ce biais induisant un mauvais positionnement des réflecteurs en profondeur. %Les vitesses n'ont pas la même signification près de la surface et en profondeur, où elles sont représentatives des vitesses horizontales et NMO respectivement. J'aborde ensuite le problème de la construction du modèle initial nécessaire à l'inversion des formes d'ondes à partir de données à grands déports. L'approche sélectionnée est une extension de la stéréotomographie, une méthode de tomographie de pente, où les attributs temps de trajet+pente des ondes réfractées et réfléchies sont inversées au sein d'un algorithme hiérarchique multi-échelle. Le potentiel de la méthode est discuté à partir d'un cas synthétique représentatif du champ pétrolier de Valhall, avant l'application aux données réelles du champ de Valhall.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Brossier, Romain. „Imagerie sismique à deux dimensions des milieux visco-élastiques par inversion des formes d'ondes : développements méthodologiques et applications“. Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00451138.

Der volle Inhalt der Quelle
Annotation:
La connaissance des structures internes de la Terre, à différentes échelles, présente des enjeux majeurs d'ordres économiques, humains, environnementaux et scientifiques. Diverses méthodes d'imagerie ont été développées en utilisant les informations contenues dans les ondes sismiques. La méthode d'inversion des formes d'ondes construit des images quantitative haute résolution des paramètres physiques du sous-sol, en exploitant le champ d'onde complet, sous la forme d'un problème d'optimisation. Dans ce travail de thèse, je présente l'application de l'inversion des formes d'ondes en domaine fréquentiel, pour imager les paramètres visco-élastiques dans des géometries à deux dimensions à grands offsets. Dans un premier temps les développements méthodologiques et algorithmiques sont présentés. La modélisation de la propagation des ondes P-SV en domaine fréquentiel, le problème direct du processus d'imagerie, est assurée par une méthode d'éléments finis Galerkin discontinus, assurant une grande flexibilité dans le choix des ordres d'interpolation et dans l'utilisation de maillages triangulaires non-structurés. Le problème inverse est résolu sous une forme linéarisée, afin de limiter le nombre de simulations directes, et utilise l'algorithme quasi-Newton L-BFGS permettant de tirer bénéfice de l'estimation "économique" du Hessien. Le processus global d'imagerie est implémenté sous la forme d'un algorithme massivement parallèle destiné aux calculateurs modernes à mémoire distribuée. Dans un deuxième temps, les algorithmes développés sont appliqués à des cas d'étude. Des applications sont menées dans des modèles synthétiques réalistes représentatifs d'environnements terrestres et marins. Ces études montrent les difficultés associées à la reconstruction des paramètres élastiques à partir de données mettant en jeu des phénomènes de propagations complexes (ondes converties, multiples, ondes de surfaces...). Des solutions sont proposées sous forme de processus hiérarchiques multi-échelles, afin de limiter les effets des non-linéarités du problème inverse et ainsi d'améliorer la convergence du processus vers le minimum global. Enfin, la sensibilité de différentes normes et critères de minimisation est analysée, à partir de données bruités issues de modèles synthétiques réalistes, ainsi que sous l'approximation acoustique pour un jeu de données réelles pétrolière. Ces tests montrent certaines limites du formalisme classique basé sur la norme L2 dans l'espace des données, tandis que la norme L1 apparaît comme alternative robuste pour l'inversion de données décimées en domaine fréquentiel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Chen, Zhouye. „Reconstruction of enhanced ultrasound images from compressed measurements“. Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30222/document.

Der volle Inhalt der Quelle
Annotation:
L'intérêt de l'échantillonnage compressé dans l'imagerie ultrasonore a été récemment évalué largement par plusieurs équipes de recherche. Suite aux différentes configurations d'application, il a été démontré que les données RF peuvent être reconstituées à partir d'un faible nombre de mesures et / ou en utilisant un nombre réduit d'émission d'impulsions ultrasonores. Selon le modèle de l'échantillonnage compressé, la résolution des images ultrasonores reconstruites à partir des mesures compressées dépend principalement de trois aspects: la configuration d'acquisition, c.à.d. l'incohérence de la matrice d'échantillonnage, la régularisation de l'image, c.à.d. l'a priori de parcimonie et la technique d'optimisation. Nous nous sommes concentrés principalement sur les deux derniers aspects dans cette thèse. Néanmoins, la résolution spatiale d'image RF, le contraste et le rapport signal sur bruit dépendent de la bande passante limitée du transducteur d'imagerie et du phénomène physique lié à la propagation des ondes ultrasonores. Pour surmonter ces limitations, plusieurs techniques de traitement d'image en fonction de déconvolution ont été proposées pour améliorer les images ultrasonores. Dans cette thèse, nous proposons d'abord un nouveau cadre de travail pour l'imagerie ultrasonore, nommé déconvolution compressée, pour combiner l'échantillonnage compressé et la déconvolution. Exploitant une formulation unifiée du modèle d'acquisition directe, combinant des projections aléatoires et une convolution 2D avec une réponse impulsionnelle spatialement invariante, l'avantage de ce cadre de travail est la réduction du volume de données et l'amélioration de la qualité de l'image. Une méthode d'optimisation basée sur l'algorithme des directions alternées est ensuite proposée pour inverser le modèle linéaire, en incluant deux termes de régularisation exprimant la parcimonie des images RF dans une base donnée et l'hypothèse statistique gaussienne généralisée sur les fonctions de réflectivité des tissus. Nous améliorons les résultats ensuite par la méthode basée sur l'algorithme des directions simultanées. Les deux algorithmes sont évalués sur des données simulées et des données in vivo. Avec les techniques de régularisation, une nouvelle approche basée sur la minimisation alternée est finalement développée pour estimer conjointement les fonctions de réflectivité des tissus et la réponse impulsionnelle. Une investigation préliminaire est effectuée sur des données simulées
The interest of compressive sampling in ultrasound imaging has been recently extensively evaluated by several research teams. Following the different application setups, it has been shown that the RF data may be reconstructed from a small number of measurements and/or using a reduced number of ultrasound pulse emissions. According to the model of compressive sampling, the resolution of reconstructed ultrasound images from compressed measurements mainly depends on three aspects: the acquisition setup, i.e. the incoherence of the sampling matrix, the image regularization, i.e. the sparsity prior, and the optimization technique. We mainly focused on the last two aspects in this thesis. Nevertheless, RF image spatial resolution, contrast and signal to noise ratio are affected by the limited bandwidth of the imaging transducer and the physical phenomenon related to Ultrasound wave propagation. To overcome these limitations, several deconvolution-based image processing techniques have been proposed to enhance the ultrasound images. In this thesis, we first propose a novel framework for Ultrasound imaging, named compressive deconvolution, to combine the compressive sampling and deconvolution. Exploiting an unified formulation of the direct acquisition model, combining random projections and 2D convolution with a spatially invariant point spread function, the benefit of this framework is the joint data volume reduction and image quality improvement. An optimization method based on the Alternating Direction Method of Multipliers is then proposed to invert the linear model, including two regularization terms expressing the sparsity of the RF images in a given basis and the generalized Gaussian statistical assumption on tissue reflectivity functions. It is improved afterwards by the method based on the Simultaneous Direction Method of Multipliers. Both algorithms are evaluated on simulated and in vivo data. With regularization techniques, a novel approach based on Alternating Minimization is finally developed to jointly estimate the tissue reflectivity function and the point spread function. A preliminary investigation is made on simulated data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Cornaggia, Rémi. „Développement et utilisation de méthodes asymptotiques d'ordre élevé pour la résolution de problèmes de diffraction inverse“. Thesis, 2016. http://www.theses.fr/2016SACLY012/document.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail fut le développement de nouvelles méthodes pour aborder certainsproblèmes inverses en élasticité, en tirant parti de la présence d'un petit paramètre dans ces problèmespour construire des approximation asymptotiques d'ordre élevé.La première partie est consacrée à l'identification de la taille et la position d'une inhomogénéité$BTrue$ enfouie dans un domaine élastique tridimensionnel. Nous nous concentrons sur l'étude defonctions-co^uts $Jbb(Br)$ quantifiant l'écart entre $BTrue$ et une hétérogénéité ``test'' $Br$. Unetelle fonction-co^ut peut en effet être minimisée par rapport à tout ou partie des caractéristiques del'inclusion ``test'' $Br$ (position, taille, propriétés mécaniques ...) pour établir la meilleurecorrespondance possible entre $Br$ et $BTrue$. A cet effet, nous produisons un développement asymptotique de $Jbb$en la taille $incsize$ de $Br$, qui en constitue une approximation polynomiale plus aisée à minimiser. Cedéveloppement, établi jusqu'à l'ordre $O(incsize^6)$, est justifié par une estimation du résidu. Uneméthode d'identification adaptée est ensuite présentée et illustrée par des exemples numériques portant surdes obstacles de formes simples dans l'espace libre $Rbb^3$.L'objet de la seconde partie est de caractériser une inclusion microstructurée de longueur $ltot$, modéliséeen une dimension, composée de couches de deux matériaux alternés périodiquement, en supposant que les plusbasses de ses fréquences propres de transmission (TEs) sont connues. Ces fréquences sont les valeurs propres d'unproblème dit de transmission intérieur (ITP). Afin de disposer d'un modèle propiceà l'inversion, tout en prenant en compte les effets de la microstructure, nous nous reposons sur des approximationsde l'ITP exact obtenues par homogénéisation. A partir du modèle homogénéisé d'ordre 0, nous établissonstout d'abord une méthode simple pour déterminer les paramètres macroscopiques ($ltot$ et contrastes matériaux)d'une telle inclusion. Pour avoir accès à la période de la microstructure, nous nous intéressons ensuite àdes modèles homogénéisés d'ordre élevé, pour lesquels nous soulignons le besoin de conditions aux limitesadaptées
The purpose of this work was to develop new methods to address inverse problems in elasticity,taking advantage of the presence of a small parameter in the considered problems by means of higher-order asymptoticexpansions.The first part is dedicated to the localization and size identification of a buried inhomogeneity $BTrue$ in a 3Delastic domain. In this goal, we focused on the study of functionals $Jbb(Br)$ quantifying the misfit between $BTrue$and a trial homogeneity $Br$. Such functionals are to be minimized w.r.t. some or all the characteristics of the trialinclusion $Br$ (location, size, mechanical properties ...) to find the best agreement with $BTrue$. To this end, weproduced an expansion of $Jbb$ with respect to the size $incsize$ of $Br$, providing a polynomial approximationeasier to minimize. This expansion, established up to $O(incsize^6)$ in a volume integral equations framework, isjustified by an estimate of the residual. A suited identification procedure is then given and supported by numericalillustrations for simple obstacles in full-space $Rbb^3$.The main purpose of this second part is to characterize a microstructured two-phases layered1D inclusion of length $ltot$, supposing we already know its low-frequency transmission eigenvalues (TEs). Thoseare computed as the eigenvalues of the so-called interior transmission problem (ITP). To provide a convenient invertiblemodel, while accounting for the microstructure effects, we then relied on homogenized approximations of the exact ITPfor the periodic inclusion. Focusing on the leading-order homogenized ITP, we first provide a straightforward method torecover the macroscopic parameters ($ltot$ and material contrast) of such inclusion. To access to the period of themicrostructure, higher-order homogenization is finally addressed, with emphasis on the need for suitable boundaryconditions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie