Дисертації з теми "Problèmes inverses en imagerie"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Problèmes inverses en imagerie.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Problèmes inverses en imagerie".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Buhan, Maya de. "Problèmes inverses et simulations numériques en viscoélasticité 3D." Paris 6, 2010. http://www.theses.fr/2010PA066379.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous abordons plusieurs problèmes mathématiques et numériques relatifs aux équations de la viscoélasticité en trois dimensions. Dans la première partie, nous considérons le système linéaire et nous nous intéressons au problème inverse de récupération d'un coefficient viscoélastique. Pour ce système, nous démontrons une inégalité de Carleman (Chapitre 1) et un résultat de stabilité dans le prolongement unique (Chapitre 2). Nous utilisons ensuite ces résultats pour prouver deux inégalités de stabilité pour le problème inverse, l'une relative à une unique mesure interne et l'autre à une unique mesure sur une partie arbitrairement petite de la frontière (Chapitre 3). Finalement, nous proposons une méthode pour résoudre ce problème numériquement et présentons une application en imagerie médicale (Chapitre 4). Dans la deuxième partie, nous étudions le système de la viscoélasticité non linéaire. Nous présentons des méthodes numériques pour le résoudre et l'implémentation de ces dernières en trois dimensions sur des géométries complexes (Chapitre 5). Une application biomédicale à la simulation des déformations des structures cérébrales est ensuite décrite (Chapitre 6). Enfin, nous abordons une question de modélisation en proposant un modèle couplé viscoélastique/viscoplastique en grandes déformations (Chapitre7).
2

Baussard, Alexandre. "Résolution de problèmes inverses non linéaires : applications en imagerie à ondes électromagnétiques." Cachan, Ecole normale supérieure, 2002. http://www.theses.fr/2002DENSA010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Debarnot, Valentin. "Microscopie computationnelle." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30156.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés de cette thèse visent à proposer des outils numériques et théoriques pour la résolution de problèmes inverses en imagerie. Nous nous intéressons particulièrement au cas où l'opérateur d'observation (e.g. flou) n'est pas connu. Les résultats principaux de cette thèse s'articulent autour de l'estimation et l'identification de cet opérateur d'observation. Une approche plébiscitée pour estimer un opérateur de dégradation consiste à observer un échantillon contenant des sources ponctuelles (microbilles en microscopie, étoiles en astronomie). Une telle acquisition fournit une mesure de la réponse impulsionnelle de l'opérateur en plusieurs points du champ de vue. Le traitement de cette observation requiert des outils robustes pouvant utiliser rapidement les données rencontrées en pratique. Nous proposons une boîte à outils qui estime un opérateur de dégradation à partir d'une image contenant des sources ponctuelles. L'opérateur estimé à la propriété qu'en tout point du champ de vue, sa réponse impulsionnelle s'exprime comme une combinaison linéaire de fonctions élémentaires. Cela permet d'estimer des opérateurs invariants (convolutions) et variants (développement en convolution-produit) spatialement. Une spécificité importante de cette boîte à outils est son caractère automatique : seul un nombre réduit de paramètres facilement accessibles permettent de couvrir une grande majorité des cas pratiques. La taille de la source ponctuelle (e.g. bille), le fond et le bruit sont également pris en compte dans l'estimation. Cet outil se présente sous la forme d'un module appelé PSF-Estimator pour le logiciel Fiji, et repose sur une implémentation parallélisée en C++. En réalité, les opérateurs modélisant un système optique varient d'une expérience à une autre, ce qui, dans l'idéal, nécessite une calibration du système avant chaque acquisition. Pour pallier à cela, nous proposons de représenter un système optique non pas par un unique opérateur de dégradation, mais par un sous-espace d'opérateurs. Cet ensemble doit permettre de représenter chaque opérateur généré par un microscope. Nous introduisons une méthode d'estimation d'un tel sous-espace à partir d'une collection d'opérateurs de faible rang (comme ceux estimés par la boîte à outils PSF-Estimator). Nous montrons que sous des hypothèses raisonnables, ce sous-espace est de faible dimension et est constitué d'éléments de faible rang. Dans un second temps, nous appliquons ce procédé en microscopie sur de grands champs de vue et avec des opérateurs variant spatialement. Cette mise en œuvre est possible grâce à l'utilisation de méthodes complémentaires pour traiter des images réelles (e.g. le fond, le bruit, la discrétisation de l'observation). La construction d'un sous-espace d'opérateurs n'est qu'une étape dans l'étalonnage de systèmes optiques et la résolution de problèmes inverses. [...]
The contributions of this thesis are numerical and theoretical tools for the resolution of blind inverse problems in imaging. We first focus in the case where the observation operator is unknown (e.g. microscopy, astronomy, photography). A very popular approach consists in estimating this operator from an image containing point sources (microbeads or fluorescent proteins in microscopy, stars in astronomy). Such an observation provides a measure of the impulse response of the degradation operator at several points in the field of view. Processing this observation requires robust tools that can rapidly use the data. We propose a toolbox that estimates a degradation operator from an image containing point sources. The estimated operator has the property that at any location in the field of view, its impulse response is expressed as a linear combination of elementary estimated functions. This makes it possible to estimate spatially invariant (convolution) and variant (product-convolution expansion) operators. An important specificity of this toolbox is its high level of automation: only a small number of easily accessible parameters allows to cover a large majority of practical cases. The size of the point source (e.g. bead), the background and the noise are also taken in consideration in the estimation. This tool, coined PSF-estimator, comes in the form of a module for the Fiji software, and is based on a parallelized implementation in C++. The operators generated by an optical system are usually changing for each experiment, which ideally requires a calibration of the system before each acquisition. To overcome this, we propose to represent an optical system not by a single operator (e.g. convolution blur with a fixed kernel for different experiments), but by subspace of operators. This set allows to represent all the possible states of a microscope. We introduce a method for estimating such a subspace from a collection of low rank operators (such as those estimated by the toolbox PSF-Estimator). We show that under reasonable assumptions, this subspace is low-dimensional and consists of low rank elements. In a second step, we apply this process in microscopy on large fields of view and with spatially varying operators. This implementation is possible thanks to the use of additional methods to process real images (e.g. background, noise, discretization of the observation).The construction of an operator subspace is only one step in the resolution of blind inverse problems. It is then necessary to identify the degradation operator in this set from a single observed image. In this thesis, we provide a mathematical framework to this operator identification problem in the case where the original image is constituted of point sources. Theoretical conditions arise from this work, allowing a better understanding of the conditions under which this problem can be solved. We illustrate how this formal study allows the resolution of a blind deblurring problem on a microscopy example.[...]
4

Julliand, Thibault. "Automatic noise-based detection of splicing in digital images." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC2057.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons trois nouvelles méthodes d’imagerie médico-légale pour détecter l’épissage dans les images numériques en exploitant les statistiques de bruit d’image. Pour ce faire, nous introduisons un nouvel outil, l’histogramme de la densité du bruit, et son dérivé, l’histogramme de la contribution de la densité du bruit. Nos méthodes permettent la détection d’épissage sur les images brutes et JPEG. Bien que l’utilisation de différences de bruit pour détecter l’épissage ait déjà été faite plusieurs fois, la plupart des méthodes existantes ont tendance à mal fonctionner sur la génération actuelle d’images de haute qualité, avec une haute résolution et faible bruit. L’efficacité de nos approches est démontrée sur un grand ensemble d’images de ce genre, avec des splicings générés aléatoirement. Nous présentons également une analyse détaillée de l’évolution du bruit dans un appareil photo numérique, et comment il affecte divers existant
In this dissertation, we offer three new forensics imagery methods to detect splicing in digital images by exploiting image noise statistics. To do so, we introduce a new tool, the noise density histogram, and its derivative, the noise density contribution histogram. Our methods allow splicing detection on both raw and JPEG images. Although the use of noise discrepancies to detect splicing has already been done multiple times, most existing methods tend to perform poorly on the current generation of high quality images, with high resolution and low noise. The effectiveness of our approaches are demonstrated over a large set of such images, with randomly-generated splicings. We also present a detailed analysis of the evolution of the noise in a digital camera, and how it affects various existing forensics approaches. In a final part, we use the tool we developed in a counter-forensics approach, in order to hide the trace left by splicing on the image noise
5

Mugnier, Laurent. "Problèmes inverses en Haute Résolution Angulaire." Habilitation à diriger des recherches, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00654835.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux exposés portent sur les techniques d'imagerie optique à haute résolution et plus particulièrement sur les méthodes, dites d'inversion, de traitement des données associées à ces techniques. Ils se situent donc à la croisée des chemins entre l'imagerie optique et le traitement du signal et des images. Ces travaux sont appliqués à l'astronomie depuis le sol ou l'espace, l'observation de la Terre, et l'imagerie de la rétine. Une partie introductive est dédiée au rappel de caractéristiques importantes de l'inversion de données et d'éléments essentiels sur la formation d'image (diffraction, turbulence, techniques d'imagerie) et sur la mesure des aberrations (analyse de front d'onde). La première partie des travaux exposés porte sur l'étalonnage d'instrument, c'est-à-dire l'estimation d'aberrations instrumentales ou turbulentes. Ils concernent essentiellement la technique de diversité de phase : travaux méthodologiques, travaux algorithmiques, et extensions à l'imagerie à haute dynamique en vue de la détection et la caractérisation d'exoplanètes. Ces travaux comprennent également des développements qui n'utilisent qu'une seule image au voisinage du plan focal, dans des cas particuliers présentant un intérêt pratique avéré. La seconde partie des travaux porte sur le développement de méthodes de traitement (recalage, restauration et reconstruction, détection) pour l'imagerie à haute résolution. Ces développements ont été menés pour des modalités d'imagerie très diverses : imagerie corrigée ou non par optique adaptative (OA), mono-télescope ou interférométrique, pour l'observation de l'espace ; imagerie coronographique d'exoplanètes par OA depuis le sol ou par interférométrie depuis l'espace ; et imagerie 2D ou 3D de la rétine humaine. Enfin, une dernière partie présente des perspectives de recherches.
6

De, Buhan Maya. "Problèmes inverses et simulations numériques en viscoélasticité 3D." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00552111.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous abordons plusieurs problèmes mathématiques et numériques relatifs aux équations de la viscoélasticité en trois dimensions. Dans la première partie, nous considérons le système linéaire et nous nous intéressons au problème inverse de récupération d'un coefficient viscoélastique. Pour ce système, nous démontrons une inégalité de Carleman (Chapitre 1) et un résultat de stabilité dans le prolongement unique (Chapitre 2). Nous utilisons ensuite ces résultats pour prouver deux inégalités de stabilité pour le problème inverse, l'une relative à une unique mesure interne et l'autre à une unique mesure sur une partie arbitrairement petite de la frontière (Chapitre 3). Finalement, nous proposons une méthode pour résoudre ce problème numériquement et présentons une application en imagerie médicale (Chapitre 4). Dans la deuxième partie, nous étudions le système de la viscoélasticité non linéaire. Nous présentons des méthodes numériques pour le résoudre et l'implémentation de ces dernières en trois dimensions sur des géométries complexes (Chapitre 5). Une application biomédicale à la simulation des déformations des structures cérébrales est ensuite décrite (Chapitre 6). Enfin, nous abordons une question de modélisation en proposant un modèle couplé viscoélastique/viscoplastique en grandes déformations (Chapitre7).
7

Guadarrama, Lili. "Imagerie en régime temporel." Phd thesis, Ecole Polytechnique X, 2010. http://pastel.archives-ouvertes.fr/pastel-00543301.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'imagerie d'élasticité, ou élastographie consiste à imager les propriétés visco-élastiques des tissus mous du corps humain en observant la réponse en déformation à une excitation mécanique. Cette problématique a donné lieu dans les dix dernières années à de nombreux travaux, motivés par la corrélation entre présence d'une pathologie et observation d'un contraste d'élasticité. Différentes techniques peuvent être mises en œuvre selon le type d'excitation choisie, et la manière d'estimer les déformations résultantes. Parmi les techniques se trouve une très intéressante qui consiste à induire dans le tissu mou une onde de déplacement et à observer la propagation de l'onde pendant sa traversée du milieu d'intéret. La résolution d'un problème inverse permet de déduire des données de déplacement une estimation de la carte d'élasticité du milieu. L'objectif du travail présenté dans ce document est de donner un cadre mathématique rigoureux à ce technique, en même temps dessiner des méthodes effectives pour la détection des anomalies à l'aide des mesures en régime temporel. On a considère le cadre acoustique et le cadre élastique. On a développé des techniques de reconstruction efficaces pour des mesures complètes sur la frontière mais aussi pour des mesures temporelles incomplètes, on a adapté ces techniques au cadre viscoélastique, ca veut dire que les ondes sont atténué ou dispersé ou le deux. On commence pour considérer une milieu sans dissipation. On a développé des méthodes de reconstruction des anomalies qui sont basé sur des développements asymptotiques de champ proche et de champ lointain, qui sont rigoureusement établis, du perturbation des mesures cause par l'anomalie. Il faut remarquer que pour approximer l'effet de l'anomalie par un dipôle il faut couper les composant de haut fréquence des mesures de champ lointain. Le développement asymptotique de champ lointain nous permet de développer une technique de type régression temporel pour localiser l'anomalie. On propose en utilisant le développement asymptotique de champ proche une problème de optimisation pour récupérer les propriétés géométriques et les paramètres physiques de l'anomalie. On justifie d'une manière théorique et numérique que la séparation des échelles permet de séparer les différentes informations codées aux différentes échelles. On montre les différences entre le cadre acoustique et l'élastique, principalement la tache focal anisotrope et l'effet de champ proche qu'on obtient en faisant le retournement temporal de la perturbation cause par l'anomalie. Ces observations ont été observé expérimentalement. En ce qui concerne le cadre des mesures partiels, on d´eveloppe des algorithmes de type Kirchhoff, back-propagation, MUSIC et arrival-time pour localiser l'anomalie. On utilise le méthode du control géométrique pour aborder la problématique des mesures partiels, comme résultat on obtient une méthode qui est robuste en ce qui concerne aux perturbations dans la partie de la frontière qui n'est pas accessible. Si on construit de manier précise le control géométrique, on obtient la même résolution d'imagerie que dans le cadre des mesures complet. On utilise les développements asymptotiques pour expliquer comment reconstruire une petite anomalie dans un milieu visco-élastique à partir des mesures du champ de déplacement. Dans le milieu visco-élastique la fréquence obéit une loi de puissance, pour simplicité on considère le modèle Voigt qui correspond à une fréquence en puissance deux. On utilise le théorème de la phase stationnaire pour exprimer le champ dans un milieu sans effet de viscosité, que on nommera champ idéal , en termes du champ dans un milieu visco-élastique. Après on généralise les techniques d'imagerie développes pour le modelé purement élastique quasi incompressible pour reconstruire les propriétés visco-élastiques et géométriques d'une anomalie a partir des mesures du champ de déplacement.
8

Cindea, Nicolae. "Problèmes inverses et contrôlabilité avec applications en élasticité et IRM." Phd thesis, Université Henri Poincaré - Nancy I, 2010. http://tel.archives-ouvertes.fr/tel-00750955.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le but de cette thèse est d'étudier, du point de vue théorique, la contrôlabilité exacte de certaines équations aux dérivées partielles qui modélisent les vibrations élastiques, et d'appliquer les résultats ainsi obtenus à la résolution des problèmes inverses provenant de l'imagerie par résonance magnétique (IRM). Cette thèse comporte deux parties. La première partie, intitulée ''Contrôlabilité et observabilité de quelques équations des plaques'', discute la problématique de la contrôlabilité, respectivement de l'observabilité, de l'équation des plaques perturbées avec des termes linéaires ou non linéaires. Des résultats récents ont prouvé que l'observabilité exacte d'un système qui modélise les vibrations d'une structures élastique (équation des ondes ou des plaques) implique l'existence d'une solution du problème inverse de la récupération d'un terme source dans l'équation à partir de l'observation. Ainsi, dans le Chapitre 2 de cette thèse nous avons démontré l'observabilité interne exacte de l'équation des plaques perturbées par des termes linéaires d'ordre un et dans le Chapitre 3 la contrôlabilité exacte locale d'une équation des plaques non linéaire attribuée à Berger. Le Chapitre 4 introduit une méthode numérique pour l'approximation des contrôles exactes dans des systèmes d'ordre deux en temps. La deuxième partie de la thèse est dédiée à l'imagerie par résonance magnétique. Plus précisément, on s'intéresse aux méthodes de reconstruction des images pour des objets en mouvement, l'exemple typique étant l'imagerie cardiaque en respiration libre. Dans le Chapitre 6, nous avons formulé la reconstruction d'images cardiaques acquises en respiration libre comme un problème des moments dans un espace de Hilbert à noyau reproductif. L'existence d'une solution pour un tel problème des moments est prouvée par des outils bien connus dans la théorie du contrôle. Nous avons validé cette méthode en utilisant des images simulées numériquement et les images de cinq volontaires sains. La connexion entre les deux parties de la thèse est réalisée par le Chapitre 7 où l'on présente le problème inverse d'identification d'un terme source dans l'équation des ondes à partir d'une observation correspondante à un enregistrement IRM. En conclusion, nous avons montré qu'on peut utiliser les outils de la théorie de contrôle pour des problèmes inverses provenant de l'IRM des objets en mouvement, à la condition de connaître l'équation du mouvement.
9

El, Houari Karim. "Modélisation et imagerie électrocardiographiques." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S063/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'estimation des solutions du problème inverse en Électrocardiographie (ECG) représente un intérêt majeur dans le diagnostic et la thérapie d'arythmies cardiaques par cathéter. Ce dernier consiste à fournir des images 3D de la distribution spatiale de l'activité électrique du cœur de manière non-invasive à partir des données anatomiques et électrocardiographiques. D'une part ce problème est rendu difficile à cause de son caractère mal-posé. D'autre part, la validation des méthodes proposées sur données cliniques reste très limitée. Une alternative consiste à évaluer ces méthodes sur des données simulées par un modèle électrique cardiaque. Pour cette application, les modèles existants sont soit trop complexes, soit ne produisent pas un schéma de propagation cardiaque réaliste. Dans un premier temps, nous avons conçu un modèle cœur-torse basse-résolution qui génère des cartographies cardiaques et des ECGs réalistes dans des cas sains et pathologiques. Ce modèle est bâti sur une géométrie coeur-torse simplifiée et implémente le formalisme monodomaine en utilisant la Méthode des Éléments Finis (MEF). Les paramètres ont été identifiés par une approche évolutionnaire et leur influence a été analysée par une méthode de criblage. Dans un second temps, une nouvelle approche pour résoudre le problème inverse a été proposée et comparée aux méthodes classiques dans les cas sains et pathologiques. Cette méthode utilise un a priori spatio-temporel sur l'activité électrique cardiaque ainsi que le principe de contradiction afin de trouver un paramètre de régularisation adéquat
The estimation of solutions of the inverse problem of Electrocardiography (ECG) represents a major interest in the diagnosis and catheter-based therapy of cardiac arrhythmia. The latter consists in non-invasively providing 3D images of the spatial distribution of cardiac electrical activity based on anatomical and electrocardiographic data. On the one hand, this problem is challenging due to its ill-posed nature. On the other hand, validation of proposed methods on clinical data remains very limited. Another way to proceed is by evaluating these methods performance on data simulated by a cardiac electrical model. For this application, existing models are either too complex or do not produce realistic cardiac patterns. As a first step, we designed a low-resolution heart-torso model that generates realistic cardiac mappings and ECGs in healthy and pathological cases. This model is built upon a simplified heart torso geometry and implements the monodomain formalism by using the Finite Element Method (FEM). Parameters were identified using an evolutionary approach and their influence were analyzed by a screening method. In a second step, a new approach for solving the inverse problem was proposed and compared to classical methods in healthy and pathological cases. This method uses a spatio-temporal a priori on the cardiac electrical activity and the discrepancy principle for finding an adequate regularization parameter
10

Lazzaretti, Marta. "Algorithmes d'optimisation dans des espaces de Banach non standard pour problèmes inverses en imagerie." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la modélisation, l'analyse théorique et l'implémentation numérique d'algorithmes d'optimisation pour la résolution de problèmes inverses d'imagerie (par exemple, la reconstruction d'images en tomographie et la déconvolution d'images en microscopie) dans des espaces de Banach non standard. Elle est divisée en deux parties: dans la première, nous considérons le cadre des espaces de Lebesgue à exposant variable L^{p(cdot)} afin d'améliorer l'adaptabilité de la solution par rapport aux reconstructions obtenues dans le cas standard d'espaces d'Hilbert; dans la deuxième partie, nous considérons une modélisation dans l'espace des mesures de Radon pour éviter les biais dus à la discrétisation observés dans les méthodes de régularisation parcimonieuse. Plus en détail, la première partie explore à la fois des algorithmes d'optimisation lisse et non lisse dans les espaces L^{p(cdot)} réflexifs, qui sont des espaces de Banach dotés de la norme dite de Luxemburg. Comme premier résultat, nous fournissons une expression des cartes de dualité dans ces espaces, qui sont un ingrédient essentiel pour la conception d'algorithmes itératifs efficaces. Pour surmonter la non-séparabilité de la norme sous-jacente et les temps de calcul conséquents, nous étudions ensuite la classe des fonctions modulaires qui étendent directement la puissance (non homogène) p > 1 des normes L^p au cadre L^{p(cdot)}. En termes de fonctions modulaires, nous formulons des analogues des cartes duales qui sont plus adaptées aux algorithmes d'optimisation lisse et non lisse en raison de leur séparabilité. Nous étudions alors des algorithmes de descente de gradient (à la fois déterministes et stochastiques) basés sur les fonctions modulaires, ainsi que des algorithmes modulaires de gradient proximal dans L^{p(cdot)}, dont nous prouvons la convergence en termes des valeurs de la fonctionnelle. La flexibilité de ces espaces s'avère particulièrement avantageuse pour la modélisation de la parcimonie et les statistiques hétérogènes du signal/bruit, tout en restant efficace et stable d'un point de vue de l'optimisation. Nous validons cela numériquement de manière approfondie sur des problèmes inverses exemplaires en une/deux dimension(s) (déconvolution, débruitage mixte, tomographie). La deuxième partie de la thèse se concentre sur la formulation des problèmes inverses avec un bruit de Poisson formulés dans l'espace des mesures de Radon. Notre contribution consiste en la modélisation d'un modèle variationnel qui couple un terme de données de divergence de Kullback-Leibler avec la régularisation de la Variation Totale de la mesure souhaitée (une somme pondérée de Diracs) et une contrainte de non-négativité. Nous proposons une étude détaillée des conditions d'optimalité et du problème dual correspondant. Nous considérons une version améliorée de l'algorithme de Sliding Franke-Wolfe pour calculer la solution numérique du problème de manière efficace. Pour limiter la dépendance des résultats du choix du paramètre de régularisation, nous considérons une stratégie d'homotopie pour son ajustement automatique où à chaque itération algorithmique, on vérifie si un critère d'arrêt défini en termes du niveau de bruit est vérifié et on met à jour le paramètre de régularisation en conséquence. Plusieurs expériences numériques sont rapportées à la fois sur des données de microscopie de fluorescence simulées en 1D/2D et réelles en 3D
This thesis focuses on the modelling, the theoretical analysis and the numerical implementation of advanced optimisation algorithms for imaging inverse problems (e.g,., image reconstruction in computed tomography, image deconvolution in microscopy imaging) in non-standard Banach spaces. It is divided into two parts: in the former, the setting of Lebesgue spaces with a variable exponent map L^{p(cdot)} is considered to improve adaptivity of the solution with respect to standard Hilbert reconstructions; in the latter a modelling in the space of Radon measures is used to avoid the biases observed in sparse regularisation methods due to discretisation.In more detail, the first part explores both smooth and non-smooth optimisation algorithms in reflexive L^{p(cdot)} spaces, which are Banach spaces endowed with the so-called Luxemburg norm. As a first result, we provide an expression of the duality maps in those spaces, which are an essential ingredient for the design of effective iterative algorithms.To overcome the non-separability of the underlying norm and the consequent heavy computation times, we then study the class of modular functionals which directly extend the (non-homogeneous) p-power of L^p-norms to the general L^{p(cdot)}. In terms of the modular functions, we formulate handy analogues of duality maps, which are amenable for both smooth and non-smooth optimisation algorithms due to their separability. We thus study modular-based gradient descent (both in deterministic and in a stochastic setting) and modular-based proximal gradient algorithms in L^{p(cdot)}, and prove their convergence in function values. The spatial flexibility of such spaces proves to be particularly advantageous in addressing sparsity, edge-preserving and heterogeneous signal/noise statistics, while remaining efficient and stable from an optimisation perspective. We numerically validate this extensively on 1D/2D exemplar inverse problems (deconvolution, mixed denoising, CT reconstruction). The second part of the thesis focuses on off-the-grid Poisson inverse problems formulated within the space of Radon measures. Our contribution consists in the modelling of a variational model which couples a Kullback-Leibler data term with the Total Variation regularisation of the desired measure (that is, a weighted sum of Diracs) together with a non-negativity constraint. A detailed study of the optimality conditions and of the corresponding dual problem is carried out and an improved version of the Sliding Franke-Wolfe algorithm is used for computing the numerical solution efficiently. To mitigate the dependence of the results on the choice of the regularisation parameter, an homotopy strategy is proposed for its automatic tuning, where, at each algorithmic iteration checks whether an informed stopping criterion defined in terms of the noise level is verified and update the regularisation parameter accordingly. Several numerical experiments are reported on both simulated 2D and real 3D fluorescence microscopy data
11

Soulez, Ferréol. "Une approche problèmes inverses pour la reconstruction de données multi-dimensionnelles par méthodes d'optimisation." Phd thesis, Université Jean Monnet - Saint-Etienne, 2008. http://tel.archives-ouvertes.fr/tel-00379735.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail utilise l'approche « problèmes inverses » pour la reconstruction dans deux domaines différents : l'holographie numérique de micro-particules et la deconvolution aveugle.
L'approche « problèmes inverses » consiste à rechercher les causes à partir des effets ; c'est-à-dire estimer les paramètres décrivant un système d'après son observation. Pour cela, on utilise un modèle physique décrivant les liens de causes à effets entre les paramètres et les observations. Le terme inverse désigne ainsi l'inversion de ce modèle direct. Seulement si, en règle générale, les mêmes causes donnent les mêmes effets, un même effet peut avoir différentes causes et il est souvent nécessaire d'introduire des a priori pour restreindre les ambiguïtés de l'inversion. Dans ce travail, ce problème est résolu en estimant par des méthodes d'optimisations, les paramètres minimisant une fonction de coût regroupant un terme issu du modèle de formation des données et un terme d'a priori.

Nous utilisons cette approche pour traiter le problème de la déconvolution aveugle de données multidimensionnelles hétérogène ; c'est-à-dire de données dont les différentes dimensions ont des significations et des unités différentes. Pour cela nous avons établi un cadre général avec un terme d'a priori séparable, que nous avons adapté avec succès à différentes applications : la déconvolution de données multi-spectrales en astronomie, d'images couleurs en imagerie de Bayer et la déconvolution aveugle de séquences vidéo bio-médicales (coronarographie, microscopie classique et confocale).

Cette même approche a été utilisée en holographie numérique pour la vélocimétrie par image de particules (DH-PIV). Un hologramme de micro-particules sphériques est composé de figures de diffraction contenant l'information sur la la position 3D et le rayon de ces particules. En utilisant un modèle physique de formation de l'hologramme, l'approche « problèmes inverses » nous a permis de nous affranchir des problèmes liées à la restitution de l'hologramme (effet de bords, images jumelles...) et d'estimer les positions 3D et le rayon des particules avec une précision améliorée d'au moins un facteur 5 par rapport aux méthodes classiques utilisant la restitution. De plus, nous avons pu avec cette méthode détecter des particules hors du champs du capteur élargissant ainsi le volume d'intérêt d'un facteur 16.
12

Ravon, Gwladys. "Problèmes inverses pour la cartographie optique cardiaque." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0118/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis les années 80 la cartographie optique est devenu un outil important pour l'étude et la compréhension des arythmies cardiaques. Cette expérience permet la visualisation de flux de fluorescence à la surface du tissu ; fluorescence qui est directement liée au potentiel transmembranaire. Dans les observations en surface se cachent des informations sur la distribution en trois dimensions de ce potentiel. Nous souhaitons exploiter ces informations surfaciques afin de reconstruire le front de dépolarisation dans l'épaisseur. Pour cela nous avons développé une méthode basée sur la résolution d'un problème inverse. Le modèle direct est composée de deux équations de diffusion et d'une paramétrisation du front de dépolarisation. La résolution du problème inverse permet l'identification des caractéristiques du front. La méthode a été testée sur des données in silico avec différentes manières de caractériser le front (sphère qui croît au cours du temps, équation eikonale). Les résultats obtenus sont très satisfaisants et comparés à une méthode développée par Khait et al. [1]. Le passage à l'étude sur données expérimentales a mis en évidence un problème au niveau du modèle. Nous détaillons ici les pistes explorées pour améliorer le modèle : illumination constante, paramètres optiques, précision de l'approximation de diffusion. Plusieurs problèmes inverses sont considérés dans ce manuscrit, ce qui implique plusieurs fonctionnelles à minimiser et plusieurs gradients associés. Pour chaque cas, le calcul du gradient est explicité, le plus souvent par la méthode de l'adjoint. La méthode développée a aussi été appliquée à des données autres que la cartographie optique cardiaque
Since the 80's optical mapping has become an important tool for the study and the understanding of cardiac arythmias. This experiment allows the visualization of fluorescence fluxes through tissue surface. The fluorescence is directly related to the transmembrane potential. Information about its three-dimension distribution is hidden in the data on the surfaces. Our aim is to exploit this surface measurements to reconstruct the depolarization front in the thickness. For that purpose we developed a method based on the resolution of an inverse problem. The forward problem is made of two diffusion equations and the parametrization of the wavefront. The inverse problem resolution enables the identification of the front characteristics. The method has been tested on in silico data with different ways to parameter the front (expanding sphere, eikonal equation). The obtained results are very satisfying, and compared to a method derived by Khait et al. [1]. Moving to experimental data put in light an incoherence in the model. We detail the possible causes we explored to improve the model : constant illumination, optical parameters, accuracy of the diffusion approximation. Several inverse problems are considered in this manuscript, that involves several cost functions and associated gradients. For each case, the calculation of the gradient is explicit, often with the gradient method. The presented method was also applied on data other than cardiac optical mapping
13

Wahab, Abdul. "Modeling and imaging of attenuation in biological media." Palaiseau, Ecole polytechnique, 2011. https://theses.hal.science/docs/00/67/41/09/PDF/Manuscript.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thèse est consacrée à l'étude des problèmes inverses liés à la localisation des sources acoustiques et élastiques dans des milieux atténués à partir de mesures à la frontière, et de leurs applications à l'imagerie médicale. Nous présentons des algorithmes efficaces et stables pour compenser les effets d'atténuation sur la résolution d'image. Nous développons des algorithmes basés sur la transformée de Radon pour récupérer la distribution de pression initiale dans les milieux atténués, avec et sans conditions aux limites imposées. Nous appliquons le théorème de phase stationnaire à un opérateur d'atténuation mal conditionné pour corriger l'effet d'atténuation et nous utilisons des méthodes de régularisation TV-Tikhonov pour traiter les problèmes de mesure partielle. Nous revisitons les méthodes de retournement temporel pour les milieux idéaux (sans perte d'énergie) et nous les étendons aux milieux atténuées. Comme des ondes atténuées ne sont pas réversibles en temps, nous utilisons la stratégie de back-propagation des approximations régulières des ondes adjointes atténuées pour reconstituer les sources de façon stable avec une correction d'atténuation d'ordre 1. Pour les milieux acoustiques, nous présentons une stratégie alternative basée sur un pré-traitement des données pour les corrections d'ordre supérieur. Aux milieux élastiques, les données consistent en des ondes de cisaillement et des pressions couplées. Nous proposons une approche originale basée sur la décomposition de Helmholtz avec des poids. En outre, nous introduisons des algorithmes efficaces d'imagerie avec des poids pour localiser les sources de bruit acoustique par des techniques de cross-corrélation et en utilisant une version régularisée de back-propagateurs pour corriger l'atténuation. Nous avons également localisé les sources de bruit spatialement corrélées, et nous estimons la matrice de corrélation entre eux. Afin d'étendre les algorithmes de détection d'anomalies élastiques aux milieux visco-élastiques, nous dérivons une expression de la fonction de Green visco-élastique isotrope. Ensuite, nous proposons une technique de correction d'atténuation pour un milieu quasi-incompressible et prouver que l'on peut accéder à la fonction de Green idéale (non visqueux) à partir de la fonction de Green visco-élastique en inversant un opérateur différentiel ordinaire. Enfin, nous fournissons quelques fonctions de Green visco-élastiques anisotropes, dans le but d'étendre nos résultats aux milieux anisotropes
The thesis is devoted to study inverse problems related to acoustic and elastic source localization in attenuating media from boundary measurements and their applications in biomedical imaging. We present efficient and stable algorithms to compensate for the effects of attenuation on image resolution. We develop Radon transform based algorithms to recover initial pressure distribution in attenuating media with and without imposed boundary conditions. We apply stationary phase theorem on an ill-conditioned attenuation operator to rectify attenuation effect and use TV-Tikhonov regularization methods to handle partial measurement problems. We revisit time reversal methods for loss-less media and extend them to attenuating media. As the attenuated waves are not time reversible, we use the strategy of back-propagating the regular approximations of adjoint attenuated waves to reconstruct sources stably with first order attenuation correction. For acoustic media, we present an alternative strategy based on data pre-processing for higher order corrections. As the data in elastic media consists of coupled shear and pressure waves, we propose an original approach based on weighted Helmholtz decomposition. Further, we introduce efficient weighted imaging algorithms for locating acoustic noise sources by cross correlation techniques and using regularized back-propagators for attenuation correction. We also localize spatially correlated noise sources and estimate correlation matrix between them. In order to extend elastic anomaly detection algorithms to visco-elastic media, we derive a closed form expression for an isotropic visco-elastic Green function. Then, we propose an attenuation correction technique for a quasi-incompressible medium and prove that one can access, approximately, the ideal (inviscid) Green function from the visco-elastic one by inverting an ordinary diff erential operator. Finally, we provide some anisotropic visco-elastic Green functions, with an aim to extend our results to anisotropic media
14

Gholami, Yaser. "Two-dimensional seismic imaging of anisotropic media by full waveform inversion." Nice, 2012. http://www.theses.fr/2012NICE4048.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’utilisation du formalisme TG43 est courante dans la plupart des Systèmes de planification de Traitement (SPT) dédiés à la curiethérapie. Les grandeurs physiques issues de ce formalisme sont généralement obtenues à partir de simulation Monte Carlo et présentées sous forme d’abaques servant de référence. L’utilisation du code PENELOPE en curiethérapie est très récente ; Sa jeunesse a justifié autant notre choix que son absence de la littérature. Notre choix s’est porté sur PENELOPE pour différentes raisons. La première est que sa physique est plus récente assurant une meilleure précision des résultats. La deuxième, quant à elle, s’appuie sur l’ouverture du code permettant la maîtrise de l’ensemble des processus de la simulation. Ainsi, un des objectifs de nos travaux a consisté à montrer le potentiel que peut avoir ce code afin d’enrichir des données caractérisant les sources de rayonnement de curiethérapie. Le code MCNPX a été utilisé en parallèle afin de valider les résultats des simulations avec PENELOPE. Les géométries de deux modèles de sources d’IR 192 utilisés en curiethérapie, Microselectron HDR v2 et Flexisource, Haut Débit de Dose (HDD) ont été modélisées avec les deux codes de calcul. Pour les deux modèles de source, les résultats de nos simulations ont été comparés à ceux obtenus dans les travaux antérieurs. Une bonne concordance des résultats à proximité des sources jusqu’à des distances inférieures à 4 cm est montrée. Les écarts entre les résultats observés au-delà de 4 cm résident dans les différences concernant les fonctions de dose radiale et d’anisotropie
Exploring the solid Earth for hydrocarbons, as social needs, is one of the main tasks of seismic imaging. As a domain of the modern geophysics, the seismic imaging by full waveform inversion (FWI) aims to improve and refine imaging of shallow and deep structures. Theoretically, the FWI method takes into account all the data gathered from subsurface in order to extract information about the physical parameter of the Earth. The kernel of the FWI is the full wave equation, which is considered in the heart of forward modeling engine. The FWI problem is represented as a least-squares local optimisation problem that retrieved the quantitative values of subsurface physical parameters. The seismic images are affected by the manifested anisotropy in the seismic data as anomalies in travel time, amplitude and waveform. In order to circumvent mis-focusing and mis-positioning events in seismic imaging and to obtain accurate model parameters, as valuable lithology indicators, the anisotropy needs to integrated in propagation-inversion workflows. In this context, the aim of this work is to develop two dimensional FWI for vertically transverse isotropic media (VTI). The physical parameters describing the Earth are elastic moduli or wave speeds and Thomsen parameter(s). The forward modeling and the inversion are performed entirely in frequency domain. The frequency-domain anisotropic P-SV waves propagation modelling is discretized by the finite element discontinuous Galerkin method. The full waveform modelling (FWM) is performed for VTI and titled transverse isotropic (TTI) media by various synthetic examples. The gradient of the misfit function is computed by adjoint-state method. The linearized inverse problem is solved with the quasi-Newton l-BFGS algorithm, which is able to compute an estimated Hessian matrix from a preconditionner and few gradients of previous iterations. Three categories of parametrization type are proposed in order to parametrize the model space of the inverse problem. The sensitivity analysis on acoustic VTI FWI method is preformed by studying the partial derivative of pressure wave field and the grid analysis of least-squares misfit functional. The conclusions inferred from the sensitivity analysis of least-squares misfit functional. The conclusions inferred from the sensitivity analysis are verified by FWI experimental on a simple synthetic model. The anisotropic parameter classes that can be well retrieved by VTI FWI are recognized. Furthermore, the acoustic VTI FWI is applied on the realistic synthetic Valhall benchmark for a wide-aperture surface acquisition survey. The anisotropic acoustic and elastic FWI are performed on the three components of ocean bottom cable (OBC) data sets from Valhall oil/gas field that is located in North Sea
15

Dai, Wei-Wen. "Études de la méthode des éléments frontière : développement d'un algorithme de reconstruction en imagerie d'impédance." Toulouse, INPT, 1994. http://www.theses.fr/1994INPT018H.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'imagerie d'impedance est une nouvelle technique d'imagerie medicale, qui a pour but de reconstruire la distribution de conductivite electrique au sein d'un milieu physiologique. Ce travail a pour but le developpement d'algorithmes de reconstruction en imagerie d'impedance. Il est axe sur l'application de la methode des elements frontiere. La theorie du potentiel est presentee et sert de base mathematique de la methode des elements frontiere. Un logiciel de simulation, qui resout le probleme direct, est elabore. Il permet de fournir des donnees exactes pour la reconstruction et de tester des techniques pour resoudre des difficultes rencontrees lors de la mise en uvre de la methode des elements frontiere. Un algorithme de reconstruction, algorithme de "layer-stripping" base sur la decomposition du domaine, est developpe. La methode hum (hilbert uniqueness method) est utilisee pour resoudre le probleme inverse mal pose de l'imagerie d'impedance. Quelques etudes sont effectuees sur la mise en uvre numerique de cet algorithme, dont l'essentiel est la resolution des problemes de dirichlet generes par hum et la preservation de la stabilite de l'algorithme. Des suggestions pour la suite de l'etude sont donnees a la fin du memoire afin de ouvrir de nouvelles voies de recherche
16

Berdeu, Anthony. "Imagerie sans lentille 3D pour la culture cellulaire 3D." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAS036/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse se situe à l’interface de deux domaines : la culture cellulaire en trois dimensions et l’imagerie sans lentille.Fournissant un protocole de culture cellulaire plus réaliste sur le plan physiologique, le passage des cultures monocouches (2D) à des cultures tridimensionnelles (3D) - via l’utilisation de gels extracellulaires dans lesquels les cellules peuvent se développer dans les trois dimensions - permet de faire de grandes avancées dans de nombreux domaines en biologie tels que l’organogénèse, l’oncologie et la médecine régénérative. Ces nouveaux objets à étudier crée un besoin en matière d’imagerie 3D.De son côté, l’imagerie sans lentille 2D fournit un moyen robuste, peu cher, sans marquage et non toxique, d’étudier les cultures cellulaires en deux dimensions sur de grandes échelles et sur de longues périodes. Ce type de microscopie enregistre l’image des interférences produites par l’échantillon biologique traversé par une lumière cohérente. Connaissant la physique de la propagation de la lumière, ces hologrammes sont rétro-propagés numériquement pour reconstruire l’objet recherché. L’algorithme de reconstruction remplace les lentilles absentes dans le rôle de la formation de l’image.Le but de cette thèse est de montrer la possibilité d’adapter cette technologie sans lentille à l’imagerie des cultures cellulaires en 3D. De nouveaux prototypes de microscopes sans lentille sont conçus en parallèle du développement d’algorithmes de reconstructions tomographiques dédiés.Concernant les prototypes, plusieurs solutions sont testées pour converger vers un schéma alliant deux conditions. La première est le choix de la simplicité d’utilisation avec une culture cellulaire en boîte de Petri standard et ne nécessitant aucune préparation spécifique ou aucun changement de contenant. Cette condition entraînant de fortes contraintes géométriques sur l’architecture, la deuxième est de trouver la meilleure couverture angulaire possible des angles d’éclairage. Enfin, une version adaptée aux conditions en incubateur est développée et testée avec succès.Concernant les algorithmes, quatre types de solutions sont proposés, basées sur le théorème de diffraction de Fourier classiquement utilisé en tomographie diffractive optique. Toutes cherchent à corriger deux problèmes inhérents au microscope sans lentille : l’absence de l’information de phase, le capteur n’étant sensible qu’à l’intensité de l’onde reçue, et la couverture angulaire limitée. Le premier algorithme se limite à remplacer la phase inconnue par celle d’une onde incidente plane. Rapide, cette méthode est néanmoins source de nombreux artefacts. La deuxième solution, en approximant l’objet 3D inconnu par un plan moyen, utilise les outils de la microscopie sans lentille 2D pour retrouver cette phase manquante via une approche inverse. La troisième solution consiste à implémenter une approche inverse régularisée sur l’objet 3D à reconstruire. C’est la méthode la plus efficace pour compenser les deux problèmes mentionnés, mais elle est très lente. La quatrième et dernière solution est basée sur un algorithme de type Gerchberg-Saxton modifié avec une étape de régularisation sur l’objet.Toutes ces méthodes sont comparées et testées avec succès sur des simulations numériques et des données expérimentales. Des comparaisons avec des acquisitions au microscope classique montrent la validité des reconstructions en matière de tailles et de formes des objets reconstruits ainsi que la précision de leur positionnement tridimensionnel. Elles permettent de reconstruire des volumes de plusieurs dizaines de millimètres cubes de cultures cellulaires 3D, inaccessibles en microscopie standard.Par ailleurs, les données spatio-temporelles obtenues avec succès en incubateur montrent aussi la pertinence de ce type d’imagerie en mettant en évidence des interactions dynamiques sur de grandes échelles des cellules entres elles ainsi qu’avec leur environnement tridimensionnel
This PhD work is at the interface of two fields: 3D cell culture and lens-free imaging.Providing a more realistic cell culture protocol on the physiological level, switching from single-layer (2D) cultures to three-dimensional (3D) cultures - via the use of extracellular gel in which cells can grow in three dimensions - is at the origin of several breakthroughs in several fields such as developmental biology, oncology and regenerative medicine. The study of these new 3D structures creates a need in terms of 3D imaging.On another side, 2D lens-free imaging provides a robust, inexpensive, non-labeling and non-toxic tool to study cell cultures in two dimensions over large scales and over long periods of time. This type of microscopy records the interferences produced by a coherent light scattered by the biological sample. Knowing the physics of the light propagation, these holograms are retro-propagated numerically to reconstruct the unknown object. The reconstruction algorithm replaces the absent lenses in the role of image formation.The aim of this PhD is to show the possibility of adapting this lens-free technology for imaging 3D cell culture. New lens-free microscopes are designed and built along with the development of dedicated tomographic reconstruction algorithms.Concerning the prototypes, several solutions are tested to finally converge to a scheme combining two conditions. The first requirement is the choice of simplicity of use with a cell culture in standard Petri dish and requiring no specific preparation or change of container. The second condition is to find the best possible angular coverage of lighting angles in regards of the geometric constraint imposed by the first requirement. Finally, an incubator-proof version is successfully built and tested.Regarding the algorithms, four major types of solutions are implemented, all based on the Fourier diffraction theorem, conventionally used in optical diffractive tomography. All methods aim to correct two inherent problems of a lens-free microscope: the absence of phase information, the sensor being sensitive only to the intensity of the incident wave, and the limited angular coverage. The first algorithm simply replaces the unknown phase with that of an incident plane wave. However, this method is fast but it is the source of many artifacts. The second solution tries to estimate the missing phase by approximating the unknown object by an average plane and uses the tools of the 2D lens-free microscopy to recover the missing phase in an inverse problem approach. The third solution consists in implementing a regularized inverse problem approach on the 3D object to reconstruct. This is the most effective method to deal with the two problems mentioned above but it is very slow. The fourth and last solution is based on a modified Gerchberg-Saxton algorithm with a regularization step on the object.All these methods are compared and tested successfully on numerical simulations and experimental data. Comparisons with conventional microscope acquisitions show the validity of the reconstructions in terms of shape and positioning of the retrieved objects as well as the accuracy of their three-dimensional positioning. Biological samples are reconstructed with volumes of several tens of cubic millimeters, inaccessible in standard microscopy.Moreover, 3D time-lapse data successfully obtained in incubators show the relevance of this type of imaging by highlighting large-scale interactions between cells or between cells and their three-dimensional environment
17

Friedrich, Corentin. "Méthodes de reconstruction en tomographie de diffraction 3-D." Thesis, Ecole centrale de Nantes, 2016. http://www.theses.fr/2016ECDN0013.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail porte sur la tomographie micro-ondes, technique d’imagerie permettant de reconstruire une image tridimensionnelledes propriétés diélectriques d’un volume inconnu à partir d’une succession de mesures du champ électromagnétique diffracté par ce volume. Cette modalité d’imagerie est prometteuse dans un grand nombre d’applications (imagerie médicale, géophysique,contrôle non destructif de matériaux, ...) mais souffre d’un inconvénient majeur, un coût de calcul très élevé des algorithmes de reconstruction, qui freine son développement industriel. Ce problème d’imagerie micro-ondes est vu comme un problème inverse où l’on cherche à minimiser l’erreur entre les données et un modèle direct simulant la diffraction de l’onde. Ce problème est mal-posé, en particulier car le nombre d’inconnues est supérieur au nombre de mesures. La solution est donc définie par la minimisation d’un critère des moindres carrés pénalisé par une fonction de régularisation, dont l’optimisation requiert la mise en oeuvre d’algorithmes itératifs d’optimisation locale. Le modèle direct est en outre non-linéaire, rendant la reconstruction plus difficile. Le calcul de ce modèle direct, nécessaire au calcul du critère et de son gradient à chaque itération, concentre la majorité du coût de calcul de l’inversion. Il repose sur la résolution d’un grand nombre de systèmes linéaires. Nous proposons dans cette thèse de réduire le coût de calcul de ces méthodes de reconstruction en se focalisant sur ces résolutions de systèmes. Pour cela, les travaux sont divisés en deux contributions. Tout d’abord, nous proposons une procédure permettant de réduire le nombre de systèmes à résoudre en s’appuyant sur la configuration du montage d’acquisition. La seconde contribution est d’accélérer les résolutions de systèmes à l’aide d’algorithmes par blocs. Ce type d’approche permet de résoudre conjointement plusieurs systèmes linéaires impliquant la même matrice opérateur. Ces méthodes sont validées sur des simulations de problèmes 3D réalistes, puis appliquées à la reconstruction d’objets réels sur des données expérimentales de champs diffractés. Des résultats satisfaisants de reconstruction sont obtenus, où un gain d’un facteur deux sur le temps de calcul est obtenu, notamment sur les problèmes de reconstruction les plus difficiles
This thesis is focused on microwave tomography. This imaging technique consists in estimating a three-dimensional mapping of the dielectric properties of an unknown volume from measurements of the electromagnetic field from a known incident wave and scattered by this volume. This is a promising technique that is used in various applications (medical imaging, geophysics, non- destructive testing,...) but suffers from high computational costs. This is a reason why microwave imaging is not widely used in industry. Microwave imaging is considered as an inverse problem, where the error between the measurements and a forward model that describes the scattered field is minimized as a function of the properties of the volume. This inverse problem is ill-posed because the number of unknowns is higher than the number of measurements. It is tackled through the minimization of a regularized least-squares cost function, which is addressed by local iterative optimization algorithms. Moreover, the forward model is non-linear. Thus,reconstruction is a difficult and expensive procedure. The computation of the objective function and its gradient requires the resolution of a high number of linear systems, which are performed at each iteration of the optimization algorithm and represent most of the computational cost. In this thesis, we propose to reduce the computational costs of the reconstruction algorithms by focusing on the resolution of these linear systems. Two contributions are presented. The first one is a procedure in order to reduce the number of linear systems depending on the configuration of the measurement setup. The second contribution offers an efficient way to speed up the resolutions of the systems. We adapt block resolution algorithms, in order to jointly solve multiple linear systems involving a common operator matrix. These methods are validated on simulated, realistic, 3D problems, and applied to the reconstruction of real objects from experimental measurements of scattered fields. satisfactory results are obtained, where the computation time can be reduced by a factor of two, in particular for the most difficult reconstruction problems
18

Abi, rizk Ralph. "High-resolution hyperspectral reconstruction by inversion of integral field spectroscopy measurements. Application to the MIRI-MRS infrared spectrometer of the James Webb Space Telescope." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG087.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite des approches de type problème inverse pour reconstruire une image 3D spatio-spectrale (2D+λ) à partir d’un ensemble de mesures infrarouges 2D fournies par l’instrument “Integral Field Spectrometer” (IFS) (Mid-ResolutionSpectrometer: MRS) de l’instrument “Mid-Infrared” à bord du “James Webb Space Telescope” (JWST). Plusieurs difficultées se posent lors de la reconstruction car l’instrument IFS contient des composantes complexes qui dégradent et modifient les mesures: (1) les réponses des composantes ne sont pas parfaites et introduisent un flou spatial et spectral aux mesures qui dépendent de la longueur d’onde, (2) l’instrument considère plusieurs observations avec plusieurs champs de vue (comme les canaux spectraux et les fentes parallèles), (3) les sorties de l’instrument sont projetées sur plusieurs détecteurs 2D et échantillonnées avec des pas d’échantillonnage hétérogènes.La reconstruction d’image 2D+λ est un problème mal posé principalement en raison du flou spatio-spectral et de l’échantillonnage spatial insuffisant. Pour compenser la perte d’informations spatiales, le MRS permet des observations multiples de la même scène d’entrée en décalant le pointage du télescope, conduisant à un problème de Super-Résolution (SR). Nous proposons un algorithme de reconstruction qui traite conjointement les informations spatiales et spectrales des mesures 2D suivant deux étapes. Tout d’abord, nous concevons un modèle direct qui décrit la réponse des composantes de l’instrument IFS comme une série d’opérateurs mathématiques et qui établit une relation entre les mesures et l’image 2D+λ d’entrée qu’on cherche à reconstruire. Ensuite, le modèle direct est utilisé pour reconstruire l’image 2D+λ en s’appuyant sur l’approche des moindres carrés régularisée avec une régularisation convexe pour la préservation des contours. Nous nous appuyons sur les approches semi quadratiques rapides basées sur la formulation de Geman et Reynolds pour résoudre le problème. L’algorithme de reconstruction proposé comprend principalement une étape de fusion des mesures issues de différentes observations spatio-spectrales avec différents flous et différents échantillonnages, une étape de SR à partir des différents pointages de l’instrument, et une étape de déconvolution pour minimiser le flou. Un autre modèle direct pour le même instrument est également développé dans notre travail, en supposant que l’image 2D+λ d’entrée vit dans un sous-espace de faible dimension et peut être modélisée comme une combinaison linéaire de composantes spectrales, supposées connues, pondérées par des coefficients de mélange inconnus. Nous nous appuyons ensuite sur l’algorithme d’optimisation Majorize-Minimize Memory Gradient (3MG) pour estimer les coefficients de mélange inconnus. L’approximation par sous-espace réduit le nombre d’inconnues. Par conséquent, le rapport signal sur bruit augmente. De plus, le modèle de mélange de source avec des composantes spectrales connues permet de conserver l’information spectrale complexe de l’image 2D+λ reconstruite. La reconstruction proposée est testée sur plusieurs images 2D+λ synthétiques ayant des différentes distributions spatiales et spectrales. Notre reconstruction montre une déconvolution nette et une amélioration significative des résolutions spatiales et spectrales des images 2D+λ reconstruites par rapport aux algorithmes de l’état de l’art, notamment autour des bords
This thesis deals with inverse problem approaches to reconstruct a 3D spatio-spectral image from a set of 2D infrared measurements provided by the Integral Field Spectrometer (IFS) instrument (Mid-Resolution Spectrometer: MRS) of the Mid-Infrared Instrument onboard the James Webb Space Telescope. The reconstruction is challenging because the IFS involves complex components that degrade the measurements: (1) the responses of the components are not perfect and introduce a wavelength-dependent spatial and spectral blurring, (2) the instrument considers several observations of the input with several spatial and spectral fields of views, (3) the output measurements are projected onto multiple 2D detectors and sampled with heterogeneous step sizes. The 3D image reconstruction is an ill-posed problem mainly due to spatio-spectral blurring and insufficient spatial sampling. To compensate for the loss of spatial information, the MRS allows multiple observations of the same scene by shifting the telescope pointing, leading to a multi-frame Super-Resolution (SR) problem. We propose an SR reconstruction algorithm that jointly processes the spatial and spectral information of the degraded 2D measurements following two main steps. First, we design a forward model that describes the response of the IFS instrument as a series of mathematical operators and establishes a relationship between the measurements and the unknown 3D input image. Next, the forward model is used to reconstruct the unknown input.The reconstruction is based on the regularized least square approach with a convex regularization for edge-preserving. We rely on the fast half-quadratic approaches based on Geman and Reynolds formulation to solve the problem. The proposed algorithm mainly includes a fusion step of measurements from different spatio-spectral observations with different blur and different sampling, a multi-frame Super-Resolution step from the different pointing of the instrument, and a deconvolution step to minimize the blurring. Another forward model for the same instrument is also developed in our work, by assuming that the 3D input image lives in a low dimensional subspace and can be modeled as a linear combination of spectral components, assumed known, weighted by unknown mixing coefficients, known as the Linear Mixing Model (LMM). We then rely on the Majorize-Minimize Memory Gradient (3MG) optimization algorithm to estimate the unknown mixing coefficients. The subspace approximation reduces the number of the unknowns. Consequently, the signal-to-noise ratio is increased. In addition, the LMM formulation with known spectral components allows preserving the complex spectral information of the reconstructed 3D image. The proposed reconstruction is tested on several synthetic HS images with different spatial and spectral distributions. Our algorithm shows a clear deconvolution and a significant improvement of the spatial and spectral resolutions of the reconstructed images compared to the state-of-art algorithms, particularly around the edges
19

Jolivet, Frederic. "Approches "problèmes inverses" régularisées pour l'imagerie sans lentille et la microscopie holographique en ligne." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSES012/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En imagerie numérique, les approches «problèmes inverses» régularisées reconstruisent une information d'intérêt à partir de mesures et d'un modèle de formation d'image. Le problème d'inversion étant mal posé, mal conditionné et le modèle de formation d'image utilisé peu contraint, il est nécessaire d'introduire des a priori afin de restreindre l'ambiguïté de l'inversion. Ceci permet de guider la reconstruction vers une solution satisfaisante. Les travaux de cette thèse ont porté sur le développement d'algorithmes de reconstruction d'hologrammes numériques, basés sur des méthodes d'optimisation en grande dimension (lisse ou non-lisse). Ce cadre général a permis de proposer différentes approches adaptées aux problématiques posées par cette technique d'imagerie non conventionnelle : la super­-résolution, la reconstruction hors du champ du capteur, l'holographie «couleur» et enfin la reconstruction quantitative d'objets de phase (c.a.d. transparents). Dans ce dernier cas, le problème de reconstruction consiste à estimer la transmittance complexe 2D des objets ayant absorbé et/ou déphasé l'onde d'éclairement lors de l'enregistrement de l'hologramme. Les méthodes proposées sont validées à l'aide de simulations numériques puis appliquées sur des données expérimentales issues de l'imagerie sans lentille ou de la microscopie holographique en ligne (imagerie cohérente en transmission, avec un objectif de microscope). Les applications vont de la reconstruction de mires de résolution opaques à la reconstruction d'objets biologiques (bactéries), en passant par la reconstruction de gouttelettes d'éther en évaporation dans le cadre d'une étude de la turbulence en mécanique des fluides
In Digital Imaging, the regularized inverse problems methods reconstruct particular information from measurements and an image formation model. With an inverse problem that is ill-posed and ill­conditioned, and with the used image formation mode! having few constraints, it is necessary to introduce a priori conditions in order to restrict ambiguity for the inversion. This allows us to guide the reconstruction towards a satisfying solution. The works of the following thesis delve into the development of reconstruction algorithms of digital holograms based on large-scale optimization methods (smooth and non-smooth). This general framework allowed us to propose different approaches adapted to the challenges found with this unconventional imaging technique: the super-resolution, reconstruction outside the sensor's field, the color holography and finally, the quantitative reconstruction of phase abjects (i.e. transparent). For this last case, the reconstruction problem consists of estimating the complex 2D transmittance of abjects having absorbed and/or dephased the light wave during the recording of the hologram. The proposed methods are validated with the help of numerical simulations that are then applied on experimental data taken from the lensless imaging or from the in-line holographie microscopy (coherent imaging in transmission, with a microscope abject glass). The applications range from the reconstruction of opaque resolution sights, to the reconstruction of biological objects (bacteria), passing through the reconstruction of evaporating ether droplets from a perspective of turbulence study in fluid mechanics
20

Szasz, Teodora. "Advanced beamforming techniques in ultrasound imaging and the associated inverse problems." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30221/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'imagerie ultrasonore (US) permet de réaliser des examens médicaux non invasifs avec des méthodes d'acquisition rapides à des coûts modérés. L'imagerie cardiaque, abdominale, fœtale, ou mammaire sont quelques-unes des applications où elle est largement utilisée comme outil de diagnostic. En imagerie US classique, des ondes acoustiques sont transmises à une région d'intérêt du corps humain. Les signaux d'écho rétrodiffusés, sont ensuite formés pour créer des lignes radiofréquences. La formation de voies (FV) joue un rôle clé dans l'obtention des images US, car elle influence la résolution et le contraste de l'image finale. L'objectif de ce travail est de modéliser la formation de voies comme un problème inverse liant les données brutes aux signaux RF. Le modèle de formation de voies proposé ici améliore le contraste et la résolution spatiale des images échographiques par rapport aux techniques de FV existants. Dans un premier temps, nous nous sommes concentrés sur des méthodes de FV en imagerie US. Nous avons brièvement passé en revue les techniques de formation de voies les plus courantes, en commencent par la méthode par retard et somme standard puis en utilisant les techniques de formation de voies adaptatives. Ensuite, nous avons étudié l'utilisation de signaux qui exploitent une représentation parcimonieuse de l'image US dans le cadre de la formation de voies. Les approches proposées détectent les réflecteurs forts du milieu sur la base de critères bayésiens. Nous avons finalement développé une nouvelle façon d'aborder la formation de voies en imagerie US, en la formulant comme un problème inverse linéaire liant les échos réfléchis au signal final. L'intérêt majeur de notre approche est la flexibilité dans le choix des hypothèses statistiques sur le signal avant la formation de voies et sa robustesse dans à un nombre réduit d'émissions. Finalement, nous présentons une nouvelle méthode de formation de voies pour l'imagerie US basée sur l'utilisation de caractéristique statistique des signaux supposée alpha-stable
Ultrasound (US) allows non-invasive and ultra-high frame rate imaging procedures at reduced costs. Cardiac, abdominal, fetal, and breast imaging are some of the applications where it is extensively used as diagnostic tool. In a classical US scanning process, short acoustic pulses are transmitted through the region-of-interest of the human body. The backscattered echo signals are then beamformed for creating radiofrequency(RF) lines. Beamforming (BF) plays a key role in US image formation, influencing the resolution and the contrast of final image. The objective of this thesis is to model BF as an inverse problem, relating the raw channel data to the signals to be recovered. The proposed BF framework improves the contrast and the spatial resolution of the US images, compared with the existing BF methods. To begin with, we investigated the existing BF methods in medical US imaging. We briefly review the most common BF techniques, starting with the standard delay-and-sum BF method and emerging to the most known adaptive BF techniques, such as minimum variance BF. Afterwards, we investigated the use of sparse priors in creating original two-dimensional beamforming methods for ultrasound imaging. The proposed approaches detect the strong reflectors from the scanned medium based on the well-known Bayesian Information Criteria used in statistical modeling. Furthermore, we propose a new way of addressing the BF in US imaging, by formulating it as a linear inverse problem relating the reflected echoes to the signal to be recovered. Our approach offers flexibility in the choice of statistical assumptions on the signal to be beamformed and it is robust to a reduced number of pulse emissions. At the end of this research, we investigated the use of the non-Gaussianity properties of the RF signals in the BF process, by assuming alpha-stable statistics of US images
21

Balocco, Simone. "3D dynamic ultrasonic model of pathologic artery : application to the assessment of arterial wall mechanical parameters." Lyon 1, 2006. http://www.theses.fr/2006LYO10145.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail de recherche porte sur un modèle mathématique multiphysique 3D qui reproduit le comportement biomécanique des vaisseaux humains et leur imagerie échographique. Le modèle, dont la géométrie est basée sur un modèle multi couches, permet la représentation de différentes structures de vaisseau, y compris les sténoses, les bifurcations et les pathologies associées. L'écoulement du sang est simulé en considérant un déplacement dynamique des diffuseurs et un modèle mécanique permet de calculer le déplacement des parois soumises à la pression artérielle à l'aide d'une méthode par éléments finis. Une caractérisation acoustique de chaque région est ensuite réalisée permettant, l'obtention des signaux radiofréquences d'une observation échographique. Le travail de rechereche porte sur la réalisation de deux applications pricipales, représentent respectivement un utile pour la simulation et un utile pour l'aide à la diagnostique
A mathematic multiphysics 3D model reproducing the biomechanical behavior of human vessels and the related echographic imaging has been developed. The geometry of the model is a multi layer structure based on right generalized cylinders (RGC) and enabling the representation of pathological and healthy vessel structures (stenoses and bifurcations). The blood flow has been simulated considering a dynamical displacement of the erythrocytes and a mechanical model enables the computation of the arterial wall pulsation due to the hydraulic flow pressure. An acoustic characterization of each region has been performed, and radiofrequency signals has been obtained in order to reproduce ultrasound images. The research project has been focused on two main application which represent respectively a simulation and a dignostic support tools
22

Barrière, Paul-André. "DÉVELOPPEMENT D'ALGORITHMES D'INVERSION RAPIDES ET PROPOSITIONS RELATIVES À LA CONFIGURATION DU MONTAGE DE MESURES DANS UN CONTEXTE DE TOMOGRAPHIE MICRO-ONDES APPLIQUÉE À LA DÉTECTION DU CANCER DU SEIN." Phd thesis, Ecole centrale de nantes - ECN, 2008. http://tel.archives-ouvertes.fr/tel-00390344.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la tomographie micro-ondes appliquée à la détection du cancer du sein. Les aspects algorithmiques ainsi que ceux reliés à la configuration du montage de mesure y sont traités.

Le temps nécessaire à la reconstruction d'une image étant critique pour d'éventuelles applications cliniques de la tomographie micro-ondes, nous proposons, en première partie, une série d'algorithmes qui offrent un coût de calcul diminué par rapport aux méthodes concurrentes. La méthode « current source inversion » (CSI) est utilisée comme point de départ de la réflexion. On identifie certaines faiblesses de cet algorithme et on en propose deux généralisations, plus rapides et plus robustes. Deux nouvelles familles de méthodes, s'attaquant à différents goulots d'étranglement des méthodes CSI généralisées, sont aussi proposées. Elles sont basées sur deux nouvelles formulations du problème direct. La première est mathématiquement équivalente à celle d'origine alors que la seconde est basée sur des approximations.

En ce qui a trait à la configuration du montage de mesures, on montre que la résolution des images reconstruites peut être significativement améliorée en ayant recours à la compression du sein. On propose aussi un montage qui exploite les propriétés des guides d'ondes diélectriques. Celui-ci permet de mesurer le champ dans l'air plutôt que dans un liquide d'adaptation, ce qui ouvre la porte au développement de montages plus compacts.
23

Paleo, Pierre. "Méthodes itératives pour la reconstruction tomographique régularisée." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT070/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au cours des dernières années, les techniques d'imagerie par tomographie se sont diversifiées pour de nombreuses applications. Cependant, des contraintes expérimentales conduisent souvent à une acquisition de données limitées, par exemple les scans rapides ou l'imagerie médicale pour laquelle la dose de rayonnement est une préoccupation majeure. L'insuffisance de données peut prendre forme d'un faible rapport signal à bruit, peu de vues, ou une gamme angulaire manquante. D'autre part, les artefacts nuisent à la qualité de reconstruction. Dans ces contextes, les techniques standard montrent leurs limitations. Dans ce travail, nous explorons comment les méthodes de reconstruction régularisée peuvent répondre à ces défis. Ces méthodes traitent la reconstruction comme un problème inverse, et la solution est généralement calculée par une procédure d'optimisation. L'implémentation de méthodes de reconstruction régularisée implique à la fois de concevoir une régularisation appropriée, et de choisir le meilleur algorithme d'optimisation pour le problème résultant. Du point de vue de la modélisation, nous considérons trois types de régularisations dans un cadre mathématique unifié, ainsi que leur implémentation efficace : la variation totale, les ondelettes et la reconstruction basée sur un dictionnaire. Du point de vue algorithmique, nous étudions quels algorithmes d'optimisation de l'état de l'art sont les mieux adaptés pour le problème et l'architecture parallèle cible (GPU), et nous proposons un nouvel algorithme d'optimisation avec une vitesse de convergence accrue. Nous montrons ensuite comment les modèles régularisés de reconstruction peuvent être étendus pour prendre en compte les artefacts usuels : les artefacts en anneau et les artefacts de tomographie locale. Nous proposons notamment un nouvel algorithme quasi-exact de reconstruction en tomographie locale
In the last years, there have been a diversification of the tomography imaging technique for many applications. However, experimental constraints often lead to limited data - for example fast scans, or medical imaging where the radiation dose is a primary concern. The data limitation may come as a low signal to noise ratio, scarce views or a missing angle wedge.On the other hand, artefacts are detrimental to reconstruction quality.In these contexts, the standard techniques show their limitations.In this work, we explore how regularized tomographic reconstruction methods can handle these challenges.These methods treat the problem as an inverse problem, and the solution is generally found by the means of an optimization procedure.Implementing regularized reconstruction methods entails to both designing an appropriate regularization, and choosing the best optimization algorithm for the resulting problem.On the modelling part, we focus on three types of regularizers in an unified mathematical framework, along with their efficient implementation: Total Variation, Wavelets and dictionary-based reconstruction. On the algorithmic part, we study which state-of-the-art convex optimization algorithms are best fitted for the problem and parallel architectures (GPU), and propose a new algorithm for an increased convergence speed.We then show how the standard regularization models can be extended to take the usual artefacts into account, namely rings and local tomography artefacts. Notably, a novel quasi-exact local tomography reconstruction method is proposed
24

Zhang, Xiaoyun. "Développement d'un système d'imagerie qualitatif et quantitatif microonde pour le contrôle de l'écoulement de l'eau dans une colonne de sol." Aix-Marseille 1, 2010. http://theses.univ-amu.fr.lama.univ-amu.fr/2010AIX11015.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous présentons une nouvelle méthode d’imagerie micro-ondes sondage qui vise à retrouver la variation de la teneur en eau du sol au niveau des racines des plantes. Dans cette technique, la permittivité diélectrique joue un rôle important. En effet, elle est directement liée à la teneur en eau du sol et de nombreux modèles liant la teneur en eau à la permittivité existent. D’un point de vue électromagnétique si l’on est capable de retrouver cette permittivité grâce à la résolution d’un problème inverse on sera alors à même de remonter aux cartes de teneur en eau dans le sol. La configuration bidimensionnelle d’étude que nous avons utilisée correspond à un dispositif d’imagerie microondes que nous possédons au laboratoire et qui permet de mesurer l’interaction d’une onde électromagnétique avec une colonne de sol bidimensionnelle. Ces études numériques nous ont permis de tester différentes méthodes d’imagerie qualitatives ou quantitatives. Les premières méthodes permettent d’obtenir très rapidement des informations sur le support de l’objet et nous avons pu comparer essentiellement trois méthodes : la Décomposition de l’Opérateur de Retournement Temporel, La méthode MUSIC (Multiple Signal Classification) et la LSM (Linear Sampling Method). Nous avons de plus proposé une extension de la méthode DORT pour des cibles étendues. Deux méthodes quantitatives, permettant de retrouver la valeur de la permittivité de l’objet diffractant et basées sur un algorithme de minimisation de type gradient conjugué sont aussi analysées. L’influence de l’apport d’information a-priori sur la nature du diffuseur est étudiée. Cette information est introduite en utilisant un formalisme de type fonction de niveaux où la permittivité de l’objet est représentée de manière globale. Afin de tester ces algorithmes, l'équation de Richards est résolue, les cartes de teneur en eau dans le sol sont stockées est convertie en cartes de permittivité utilisées ensuite dans l’outil de modélisation de diffraction. Des tests sur des données expérimentales acquises en laboratoire avec une colonne de sol reconstitué sont aussi éffectués
We present a new microwave probing technique which aims to monitor the variation of the soil water content at the depth of the crop roots. The dielectric permittivity plays a key role in this technique. Indeed, it is directly related to the soil water content and numerous models are formed to reveal their relationship. Meanwhile, it determines the interactions between the medium and the electromagnetic field which are governed by the Helmholtz equation. Besides, recovering the permittivity profile of the medium from the electromagnetic field is an inverse scattering problem. Therefore, one can access the map of water content in soil by solving an inverse scattering problem. A circular scanner which is designed for studying the 2D problem is employed to send and receiver back the electromagnetic signal which interacts with a soil column placed inside its cavity. The direct propagation problem corresponding to this configuration is formulated and solved with the FEM method. It serves to calibrate the imaging system and to generate the simulated data which will be useful to test the inversion methods discussed during this PhD work. In order to reduce the ill-posedness of the inverse scattering problem, we studied both qualitative imaging methods and quantitative ones. The support information of the scatterers provided by the qualitative methods may be of interest when used as an initial guess in the quantitative methods which can retrieve the refractive index of the medium. Three qualitative methods are studied, the DORT (Decomposition of the time reversal operator) method, the MUSIC (MUltiple-Signal-classification) method and the LSM (Linear sampling method) method. We also proposed the EDORT method which can cope with extended-size targets. Two quantitative methods based on the CG (Conjugate Gradient) minimization scheme are provided. The first one does not use any a priori information. The second one use some shape a priori information which is introduced into the inversion scheme by means of a modified Heaviside function coupled with a level set formalism. In order to test the ability of these inversion methods to monitor the variation of the soil water content, we simulate the water diffusive process in a soil column by solving the Richards equation and couple these simulations with the FEM software, and then the ‘measured’ fields with respect to time are obtained. The LSM method and the two quantitative methods are tested with this synthetic data. Besides, a controlled water diffusive process which occurs in a soil column was experimentally realized. The associated electromagnetic fields were measured using the circular scanner. The imaging results of the LSM method on the experimental data are also presented
25

Fadili, Jalal M. "Une exploration des problèmes inverses par les représentations parcimonieuses et l'optimisation non lisse." Habilitation à diriger des recherches, Université de Caen, 2010. http://tel.archives-ouvertes.fr/tel-01071774.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire résume mon parcours de recherche lors des dix dernières années. Ces travaux de recherche se trouvent à la croisée des chemins entre les mathématiques appliquées et le traitement du signal et des images. Ils s'articulent autour du triptyque: (i) modélisation stochastique-estimation statistique; (ii) analyse harmonique computationnelle-représentations parcimonieuses; (iii) optimisation. Ces trois piliers constituent le socle théorique de mes activités pour développer des approches originales capables de résoudre des problèmes classiques en traitement d'images comme les problèmes inverses en restauration et reconstruction, la séparation de sources, la segmentation, la détection, ou encore la théorie de l'échantillonnage compressé (compressed sensing). Ces travaux ont été appliqués à plusieurs modalités d'imagerie comme l'imagerie médicale et biomédicale (IRM fonctionnelle, échographie, microscopie confocale), le contrôle non destructif et l'imagerie astronomique.
26

Rondeau, Xavier. "Imagerie à travers la turbulence : mesure inverse du front d'onde et centrage optimal." Phd thesis, Université Claude Bernard - Lyon I, 2007. http://tel.archives-ouvertes.fr/tel-00220467.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'imagerie à la limite de diffraction des télescopes de grand diamètre constitue un enjeu majeur pour l'astrophysique moderne. Mais il faut compenser les effets délétères de la turbulence sur la phase de l'onde électromagnétique. Je développe un algorithme d'optimisation globale pour le problème inverse non-linéaire de reconstruction de front d'onde à partir d'une image tavelée, et je montre le bénéfice de la diversité polychromatique (images à différentes longueurs d'onde) pour gérer plus de degrés de liberté. Pour l'Etoile Laser Polychromatique, je montre qu'estimer conjointement tout le front d'onde à partir de l'image améliore considérablement l'estimation de son déplacement par rapport au barycentre. Je développe aussi une méthode d'interspectre bi-chromatique pour estimer le déplacement lorsque l'étoile est résolue. Je présente enfin une approche inverse pour traiter en temps-réel les données d'un détecteur à comptage de photons (gain 4 en résolution spatiale).
27

Bousse, Alexandre. "Problèmes inverses, application à la reconstruction compensée en mouvement en angiographie rotationnelle X." Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00361396.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail est une application de la théorie des problèmes inverses à la reconstruction 3-D des artères coronaires avec compensation du mouvement à partir de données Rot-X. Dans un premier temps nous étudions le problème inverse en dimension finie et infinie. En dimension finie nous nous concentrons sur la modélisation du problème inverse en tomographie en définissant la notion de base de voxels et de matrice de projection, en vue de pouvoir se ramener à une formulation matricielle du problème inverse. Nous étudions aussi la notion de tomographie dynamique et les problèmes qui lui sont liés. Notre formulation discrète permet grâce aux bases de voxels d'inclure n'importe quelle déformation de support étant un difféorphisme dans le problème inverse matriciel, dès lors que cette déformation est connue a priori. Dans le dernier chapitre, nous présentons une méthode d'estimation du mouvement utilisant les projections Rot-X synchronisées par rapport à l'ECG, basée sur un modèle déformable 3-D des artères coronaires. Le mouvement est modélisé par des fonctions B-splines.
Une fois le mouvement estimé, la reconstruction tomographique à un instant de référence est effectuée par une optimisation aux moindres-carrés qui inclut le mouvement ainsi qu'un terme de pénalité qui favorise les valeurs d'intensités fortes pour les voxels au voisinage de la ligne centrale 3-D, et les faibles valeurs pour les autres. Cette méthode a été testée sur des données simulées basées sur des lignes centrales 3-D préalablement extraites de données MSCT.
28

Ygouf, Marie. "Nouvelle méthode de traitement d'images multispectrales fondée sur un modèle d'instrument pour la haut contraste : application à la détection d'exoplanètes." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00843202.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse porte sur l'imagerie multispectrale à haut contraste pour la détection et la caractérisation directe d'exoplanètes. Dans ce contexte, le développement de méthodes innovantes de traitement d'images est indispensable afin d'éliminer les tavelures quasi-statiques dans l'image finale qui restent à ce jour, la principale limitation pour le haut contraste. Bien que les aberrations résiduelles instrumentales soient à l'origine de ces tavelures, aucune méthode de réduction de données n'utilise de modèle de formation d'image coronographique qui prend ces aberrations comme paramètres. L'approche adoptée dans cette thèse comprend le développement, dans un cadre bayésien, d'une méthode d'inversion fondée sur un modèle analytique d'imagerie coronographique. Cette méthode estime conjointement les aberrations instrumentales et l'objet d'intérêt, à savoir les exoplanètes, afin de séparer correctement ces deux contributions. L'étape d'estimation des aberrations à partir des images plan focal (ou phase retrieval en anglais), est la plus difficile car le modèle de réponse instrumentale sur l'axe dont elle dépend est fortement non-linéaire. Le développement et l'étude d'un modèle approché d'imagerie coronographique plus simple se sont donc révélés très utiles pour la compréhension du problème et m'ont inspiré des stratégies de minimisation. J'ai finalement pu tester ma méthode et d'estimer ses performances en terme de robustesse et de détection d'exoplanètes. Pour cela, je l'ai appliquée sur des images simulées et j'ai notamment étudié l'effet des différents paramètres du modèle d'imagerie utilisé. J'ai ainsi démontré que cette nouvelle méthode, associée à un schéma d'optimisation fondé sur une bonne connaissance du problème, peut fonctionner de manière relativement robuste, en dépit des difficultés de l'étape de phase retrieval. En particulier, elle permet de détecter des exoplanètes dans le cas d'images simulées avec un niveau de détection conforme à l'objectif de l'instrument SPHERE. Ce travail débouche sur de nombreuses perspectives dont celle de démontrer l'utilité de cette méthode sur des images simulées avec des coronographes plus réalistes et sur des images réelles de l'instrument SPHERE. De plus, l'extension de la méthode pour la caractérisation des exoplanètes est relativement aisée, tout comme son extension à l'étude d'objets plus étendus tels que les disques circumstellaire. Enfin, les résultats de ces études apporteront des enseignements importants pour le développement des futurs instruments. En particulier, les Extremely Large Telescopes soulèvent d'ores et déjà des défis techniques pour la nouvelle génération d'imageurs de planètes. Ces challenges pourront très probablement être relevés en partie grâce à des méthodes de traitement d'image fondées sur un modèle direct d'imagerie.
29

Fromenteze, Thomas. "Développement d'une technique de compression passive appliquée à l'imagerie microonde." Thesis, Limoges, 2015. http://www.theses.fr/2015LIMO0061/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces travaux portent sur le développement d'une technique de compression appliquée à la simplification des systèmes d'imagerie dans le domaine microonde. Cette approche repose sur le développement de composants passifs capables de compresser les ondes émises et reçues, autorisant ainsi une réduction du nombre de modules actifs nécessaires au fonctionnement de certaines architectures de radars. Ce principe est basé sur l'exploitation de la diversité modale présente dans les composants développés, le rendant compatible avec l'utilisation de très larges bandes passantes. Plusieurs preuves de concept sont réalisées au moyen de différents composants étudiés dans cet ouvrage, permettant d'adapter cette technique à de nombreuses spécifications d'architectures et de bandes passantes
This work is focused on the development of a compressive technique applied to the simplification of microwave imaging systems. This principle is based on the study of passive devices able to compress transmitted and received waves, allowing for the reduction of the hardware complexity required by radar systems. This approach exploits the modal diversity in the developed components, making it compatible with ultra wide bandwidth. Several proofs of concept are presented using different passive devices, allowing this technique to be adapted to a large variety of architectures and bandwidths
30

Seppecher, Laurent. "Modélisation de l'imagerie biomédicale hybride par perturbations mécaniques." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-01021279.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous introduisons et développons une approche mathématiques originale des techniques d'imagerie biomédicales dites "hybrides". L'idée et d'appliquer une méthode d'imagerie mal posée, tout en perturbant le milieu à imager par des déplacements mécaniques. Ces déplacements provenant d'une équation de type onde élastique perturbent les mesures effectuées. En utilisant ces mesures perturbées, et profitant du caractère local des perturbations mécaniques, il est possible d'augmenter considérablement la résolution de la méthode de base. Le problème direct est donc un couplage d'une EDP décrivant la propagation utilisée pour la méthode de base et d'une seconde décrivant les champs de déplacement mécaniques. Dans toutes cette thèse, on fait l'hypothèse d'un milieu mécaniquement homogène afin d'assurer le contrôle et la géométrie des ondes perturbatrices utilisées. A partir des mesures perturbées, une étape d'interprétation permet de construire une donnée interne au domaine considéré. Cette étape nécessite en général l'inversion d'opérateurs géométriques intégraux de type Radon, afin d'utiliser le caractère localisant des perturbations utilisées. A partir de cette donnée interne, il est possible d'initier une procédure de reconstruction du paramètre physique recherché. Dans le chapitre 1, il est question d'un couplage entre micro-ondes et perturbations sphériques. Dans les chapitres 2, 3 et 4, nous étudions l'imagerie optique diffuse toujours couplée avec des perturbations sphériques. Enfin dans le chapitre cinq, nous donnons une méthode originale de reconstruction de la conductivité électrique par un couplage entre champs magnétique et perturbations acoustiques focalisées.
31

Bendjador, Hanna. "Correction d'aberrations et quantification de vitesse du son en imagerie ultrasonore ultrarapide." Thesis, Université Paris sciences et lettres, 2020. http://www.theses.fr/2020UPSLS011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’imagerie échographique repose sur la transmission de signaux ultrasonores à travers les tissus biologiques et l’analyse des échos rétro-diffusés. Donnant accès à des phénomènes physiologiques au-delà de 10 000 images par seconde, l’échographie ultrarapide a permis le développement de techniques inédites telles que l’imagerie de l’élasticité des organes ou la quantification ultrasensible des flux sanguins. Le front d’onde acoustique, lors de sa propagation à travers des milieux complexes ou hétérogènes peut toutefois subir de fortes déformations ; affectant tant la qualité de l’image, que les informations quantitatives sur le milieu. Corriger de telles aberrations est l’enjeu majeur des travaux de recherche effectués au cours de cette thèse. En étudiant les propriétés statistiques des interférences entre les diffuseurs, un formalisme mathématique a été développé pour optimiser la cohérence angulaire des signaux rétro-diffusés. Ainsi parvient- on, pour la première fois en temps réel, à corriger les images et quantifier localement la vitesse du son. Cette dernière constitue un bio-marqueur inédit dans les exemples de la stéatose hépatique, et possiblement de la séparation des substances blanche et grise du cerveau. La méthode de correction de phase proposée va également être un apport intéressant aux corrections de mouvement dans le cas de la tomographie 3D et de l’imagerie vasculaire, offrant de nouvelles perspectives à l’imagerie ultrasonore
Echography relies on the transmission of ultrasound signals through biological tissues, and the processing of backscattered echoes. The rise of ultrafast ultrasound imaging gave access to physiological events faster than 10 000 frames per second. It allowed therefore the development of high-end techniques such as organs elasticity imaging or sensitive quantification of blood flows. During its propagation through complex or heterogeneous media, the acoustic wavefront may still suffer strong distorsions; hindering both the image quality and the ensuing quantitative assessments. Correcting such aberrations is the ultimate goal of the research work conducted during this PhD. By studying statistical properties of interferences between scatterers, a matrix formalism has been developed to optimise the angular coherence of backscattered echoes. Importantly, we succeeded for the first time, in correcting images and quantifying locally the speed of sound at ultrafast frame rates. Sound speed was proven to be a unique biomarker in the example of hepatic steatosis, and possibly separation of brain white and black matter. The phase correction method will be an interesting contribution to motion correction in the case of 3D tomography and vascular imaging, offering thus new horizons to ultrasound imaging
32

Morin, Renaud. "Amélioration de la résolution en imagerie ultrasonore." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2118/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'imagerie ultrasonore est une modalité d'imagerie médicale couramment utilisée pour l'établissement de diagnostics de thérapie ou de suivi divers (croissance du fœtus, détection de certains cancers, assistance à la réalisation d'actes thérapeutiques). Si cette modalité dispose de nombreux avantages comme son innocuité, sa facilité d'utilisation et son faible coût, elle souffre cependant d'une résolution spatiale limitée quand on la compare à d'autres modalités comme l'imagerie par résonance magnétique. L'amélioration de la résolution des images ultrasonores est un défi de taille et de très nombreux travaux ont depuis longtemps exploré des approches instrumentales portant sur l'optimisation du dispositif d'acquisition. L'imagerie échographique haute résolution permet ainsi d'atteindre cet objectif à l'aide de sondes particulières mais se trouve aujourd'hui confrontée à des limitations d'ordre physique et technologique. L'objet de cette thèse est d'adopter une stratégie de post-traitement afin de contourner ces contraintes inhérentes aux approches instrumentales. Dans ce contexte, nous présentons deux approches pour l'amélioration de la résolution des images ultrasonores, selon que les données disponibles prennent la forme d'une séquence d'images ou d'une image unique. Dans le premier cas, l'adaptation d'une technique d'estimation du mouvement originellement proposée pour l'élastographie nous permet d'établir un cadre de reconstruction haute résolution efficace dédié à la modalité qui nous intéresse. Cette approche est évaluée à l'aide d'une simulation réaliste d'images ultrasonores avant d'être appliquée à des données in vivo. Nous proposons ensuite, dans le cadre du traitement d'une seule image, deux méthodes de déconvolution rapide pour l'amélioration de la résolution. Ces approches prennent en compte, suivant leur disponibilité, certaines informations a priori sur les conditions d'acquisition comme la réponse impulsionnelle spatiale du système. Les résultats sont caractérisés dans un premier temps à l'aide de données synthétiques et sont ensuite validés sur des images in vivo
Ultrasound imaging is a medical imaging modality commonly involved in various therapeutic and monitoring diagnoses such as fetal growth, cancer detection or image-guided intervention. Despite its harmless, easy-to-use and cost-effective features, ultrasound imaging has some intrinsic limitations regarding its spatial resolution, especially compared to other modalities such as magnetic resonance imaging. Improving the spatial resolution of ultrasound images is an up-to-date challenge and many works have long studied instrumentation approaches dealing with the optimisation of the acquisition device. High resolution ultrasound imaging achieves this goal through the use of specific probes but is now facing physical and technological limitations. The goal of this thesis is to make use of post-processing techniques in order to circumvent the inherent constraints of instrumental approaches. In this framework, we present two approaches for the resolution enhancement of ultrasound images, depending on whether the available data is composed of an image sequence or a single image. In the former case, we show that the adaptation of a motion estimation technique originally proposed for elastography makes it possible to design an effective high-resolution reconstruction framework dedicated to ultrasound imaging. This approach is first assessed using a realistic simulation of ultrasound images and then used for the processing of in vivo data. In the latter case, dealing with the restoration of a single image, we develop two fast deconvolution methods for the resolution enhancement task. These approaches take into account, according to their availability, specific a priori information about the image acquisition process such as the system spatial impulse response. Results are performed with synthetic data and extended to in vivo ultrasound images
33

Irakarama, Modeste. "Towards Reducing Structural Interpretation Uncertainties Using Seismic Data." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0060/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les modèles géologiques sont couramment utilisés pour estimer les ressources souterraines, pour faire des simulations numériques, et pour évaluer les risques naturels ; il est donc important que les modèles géologiques représentent la géométrie des objets géologiques de façon précise. La première étape pour construire un modèle géologique consiste souvent à interpréter des surfaces structurales, telles que les failles et horizons, à partir d'une image sismique ; les objets géologiques identifiés sont ensuite utilisés pour construire le modèle géologique par des méthodes d'interpolation. Les modèles géologiques construits de cette façon héritent donc les incertitudes d'interprétation car une image sismique peut souvent supporter plusieurs interprétations structurales. Dans ce manuscrit, j'étudie le problème de réduire les incertitudes d'interprétation à l'aide des données sismiques. Particulièrement, j'étudie le problème de déterminer, à l'aide des données sismiques, quels modèles sont plus probables que d'autres dans un ensemble des modèles géologiques cohérents. Ce problème sera connu par la suite comme "le problème d'évaluation des modèles géologiques par données sismiques". J'introduis et formalise ce problème. Je propose de le résoudre par génération des données sismiques synthétiques pour chaque interprétation structurale dans un premier temps, ensuite d'utiliser ces données synthétiques pour calculer la fonction-objectif pour chaque interprétation ; cela permet de classer les différentes interprétations structurales. La difficulté majeure d'évaluer les modèles structuraux à l'aide des données sismiques consiste à proposer des fonctions-objectifs adéquates. Je propose un ensemble de conditions qui doivent être satisfaites par la fonction-objectif pour une évaluation réussie des modèles structuraux à l'aide des données sismiques. Ces conditions imposées à la fonction-objectif peuvent, en principe, être satisfaites en utilisant les données sismiques de surface (« surface seismic data »). Cependant, en pratique il reste tout de même difficile de proposer et de calculer des fonctions-objectifs qui satisfassent ces conditions. Je termine le manuscrit en illustrant les difficultés rencontrées en pratique lorsque nous cherchons à évaluer les interprétations structurales à l'aide des données sismiques de surface. Je propose une fonction-objectif générale faite de deux composants principaux : (1) un opérateur de résidus qui calcule les résidus des données, et (2) un opérateur de projection qui projette les résidus de données depuis l'espace de données vers l'espace physique (le sous-sol). Cette fonction-objectif est donc localisée dans l'espace car elle génère des valeurs en fonction de l'espace. Cependant, je ne suis toujours pas en mesure de proposer une implémentation pratique de cette fonction-objectif qui satisfasse les conditions imposées pour une évaluation réussie des interprétations structurales ; cela reste un sujet de recherche
Subsurface structural models are routinely used for resource estimation, numerical simulations, and risk management; it is therefore important that subsurface models represent the geometry of geological objects accurately. The first step in building a subsurface model is usually to interpret structural features, such as faults and horizons, from a seismic image; the identified structural features are then used to build a subsurface model using interpolation methods. Subsurface models built this way therefore inherit interpretation uncertainties since a single seismic image often supports multiple structural interpretations. In this manuscript, I study the problem of reducing interpretation uncertainties using seismic data. In particular, I study the problem of using seismic data to determine which structural models are more likely than others in an ensemble of geologically plausible structural models. I refer to this problem as "appraising structural models using seismic data". I introduce and formalize the problem of appraising structural interpretations using seismic data. I propose to solve the problem by generating synthetic data for each structural interpretation and then to compute misfit values for each interpretation; this allows us to rank the different structural interpretations. The main challenge of appraising structural models using seismic data is to propose appropriate data misfit functions. I derive a set of conditions that have to be satisfied by the data misfit function for a successful appraisal of structural models. I argue that since it is not possible to satisfy these conditions using vertical seismic profile (VSP) data, it is not possible to appraise structural interpretations using VSP data in the most general case. The conditions imposed on the data misfit function can in principle be satisfied for surface seismic data. In practice, however, it remains a challenge to propose and compute data misfit functions that satisfy those conditions. I conclude the manuscript by highlighting practical issues of appraising structural interpretations using surface seismic data. I propose a general data misfit function that is made of two main components: (1) a residual operator that computes data residuals, and (2) a projection operator that projects the data residuals from the data-space into the image-domain. This misfit function is therefore localized in space, as it outputs data misfit values in the image-domain. However, I am still unable to propose a practical implementation of this misfit function that satisfies the conditions imposed for a successful appraisal of structural interpretations; this is a subject for further research
34

Denneulin, Laurence. "Approche inverse pour la reconstruction des environnements circumstellaires en polarimétrie avec l'instrument d'imagerie directe ESO / VLT SPHERE IRDIS." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSE1183.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'étude des environnements circumstellaires permet d'en apprendre plus sur la formation des exoplanètes. Si les avancées instrumentales permettent la résolution de ces environnements, leur observation en imagerie directe est difficile du fait du grand contraste entre les environnements et leurs étoiles hôtes. En effet, celles-ci sont 1000 à 10 000 fois plus brillantes, ou encore 10 000 000 fois dans le cas des exoplanètes. Lors de l'acquisition directe d'image de ces environnements, leur signal est mélangé au résidu de lumière stellaire. Or, la lumière de l'environnements circumstellaires est partiellement polarisée linéairement, tandis que le résidu de lumière stellaire ne l'est pas. Le sous-instrument Infrared Dual-band Imaging and Spectroscopy (IRDIS) de l'instrument de l'European Southern Observatory (ESO) appelé Spectro-Polarimeter High-contrast Expolanet REsearch (SPHERE), situé sur l'un des quatre Very Large Telescopes (VLT) dans le désert d'Atacama au Chili, acquiert des jeux de données où la polarisation linéaire est modulée en rotation, selon plusieurs cycles d'angles connus. Ainsi, par combinaison de ces données, il est possible de démélanger la lumière diffusée par l'environnement circumstellaire et la lumière de l'étoile. Les méthodes de l'état-de-l'art permettant ce démélange, ne prennent en compte ni le bruit de photon, qui domine le signal d'intérêt, ni le bruit de lecture du détecteur. De plus, si une image du cycle de rotation est manquante, les autres images du cycle sont supprimées. Par ailleurs, le traitement par interpolation des pixels morts, le recentrage des images et toutes éventuelles rotations et déconvolutions des données, sont fait indépendamment du démélange. De ce fait, la propagation des erreurs n'est pas contrôlée.Les méthodes de types « problèmes inverses » permettent, à partir d'un modèle direct des données, de procéder au démélange tout en ayant le contrôle sur la propagation des erreurs dans les reconstructions. Une telle approche n'a jamais été développée pour l'imagerie directe en polarimétrie. Le but de ma thèse, est de reconstruire de manière optimale, à partir des données polarimétriques de l’instrument ESO/VLT-SPHERE IRDIS, des cartes de la lumière polarisée des environnements circumstellaires, des angles de polarisation associés et des résidus lumineux de l'étoile et de la lumière non-polarisée de l'environnement. Je propose tout d’abord un modèle physique séparable des données, paramétré non-linéairement en ces quantité d’intérêt et linéairement en les paramètres de Stokes, à partir duquel ces quantités peuvent être estimées. Ensuite, je complexifie le modèle en y incluant recentrage, rotations et convolution, le rendant ainsi non-séparable. Les paramètres sont alors estimés par la minimisation de la co-log-vraissemblance des données, sous contraintes, de positivité dans le cas non-linéaire ou épigraphique dans le cas linéaire. Dans le cas non-séparable, un terme de régularisation est également ajouté, comme la variation totale et la norme de Shatten sur le Hessien. Selon les propriétés des fonctions considérées dans le critère, je procède à sa minimisation par différents algorithmes tels que l’algorithme Variable Metric Limited Memory and Bound, Forward-Backward avec backtracking et l’algorithme primal-dual préconditionné Condat-Vu avec backtracking. Je propose également une méthode de réglage automatique des poids des régularisations à partir de l’estimateur non-biaisé du risque de Stein (SURE). L’ensemble de ces méthodes d'estimation sont appliquées sur des données synthétiques et sur données astrophysiques. Je montre alors que l’utilisation d’un modèle directe complet des données, prenant en compte le recentrage, les rotations et la convolution, ainsi que l’estimation de ses paramètres à partir d’un critère régularisé sous contrainte, prenant en compte la précision des mesures et les données manquantes, permet de réduire l’erreur faite sur l’estimation des observables
Circumstellars environments observation is a key for the comprehension of planet formation. If the very large telescopes allow the resolution of these environments, their observation is difficult due to the high contrast between the environment and their host stars. In fact the host stars are 1000 to 10 000 times brighter than the environment, even 10 000 000 times brighter for exoplanets. When images of these circumstellar environnements are acquired in direct imaging, the signal of the environnements mixed to star light residuals. Yet, the light of the environment is partially linearly polarized while the light od the star is unpolarized. The instrument Infrared Dual-band Imaging and Spectroscopy (IRDIS) of the European Southern Observatory’s (ESO) Spectro-Polarimeter High-contrast Expolanet REsearch (SPHERE) instrument, installed at one of the four Very Large Telescopes (VLT) in Atacama in Chile, acquires datasets where the polarization is modulated according to a known angles cycle. It is then possible, by combinations of the data, to extract the polarized signal of the environment from the unpolarized residual light of the stars and unpolarized light of the disks. The stat-of-the-art methods to extract such signal do not take optimally into account the photon noise statistics of the data, which dominate the signal of interest, nor the read out noise of the detector. Moreover, if any image from a rotation cycle is missing, the rest of the cycle is not used. Finally, any centering and rotation of the data or deconvolution by the PSF is generally performed in separated steps from the data reduction. The bad pixels and dead pixels are interpolated before the processing. The consequence of such approach is that the propagation of the errors in the data is not controlled.The « inverse problem » methods allow such processing while controlling the error propagation in the reconstructions. These approaches have never been developed, so far, for high contrast direct imaging in polarimetry. My goal in this thesis is to optimally reconstruct, from the polarimetric data of the instrument ESO/VLT-SPHERE IRDIS, maps of the circumstellar environments polarized light, the ascociated polarization angles and the unpolarized star light residuals and circumstellar environments light. First, I develop a nonlinear physical model of the data, pixelwise independent, parametric in these quantities of interest, or linear with respect to the Stokes parameters, from which they can be estimated. Throughout this thesis, I complete the model by adding centering, rotations and convolutions, making it pixelwise dependent. The parameters are then estimated by the minimization of an objective function, derived from the co-log-likelyhood of the data, under some constraint, such as positivity constraint or epigraphical constraint, and regularizations as smooth and non-smooth Total Variation and the Shatten norm on the Hessian. This methods are all applied on simulated datasets, created to reproduce typical astrophysical datasets obtained in circumstellar environment polarimetrical direct imaging. Depending of the properties of the functions considered in the objective function, the research of its minimum is done with different algorithms as the Variable Metric Limited Memory and Bound algorithm, Forward-Backward with backtracking and the preconditioned primal-dual Condat-Vu algorithm with backtracking. I also use the Stein Unbiased Risk Estimator to auto-tune the weights of the regularization. In the results, I show that the use of a complete direct model of the data, taking in account the recentering, the rotations and the convolution and the estimation of its parameters from a constraint problem, taking in account the measure precision and the missing data reduces the error on the estimation maps in such astrophysics context
35

Liu, Xiang. "Contrôle non destructif du sol et imagerie d'objets enfouis par des systèmes bi- et multi-statiques : de l’expérience à la modélisation." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC067/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans cette thèse portent sur les résolutions des problèmes direct et inverse associés à l’étude du radar de sol (GPR). Ils s’inscrivent dans un contexte d’optimisation des performances et d’amélioration de la qualité de l’imagerie. Un état de l’art est réalisé et l’accent est mis sur les méthodes de simulation et les techniques d’imagerie appliquées dans le GPR. L’étude de l’utilisation de la méthode du Galerkin discontinue (GD) pour la simulation GPR est d’abord réalisée. Des scénarios complets de GPR sont considérés et les simulations GD sont validées par comparaison avec des données obtenues par CST-MWS et des mesures. La suite de l’étude concerne la résolution du problème inverse en utilisant le Linear Sampling Method (LSM) pour l’application GPR. Une étude avec des données synthétiques est d’abord réalisée afin de valider et tester la fiabilité du LSM. Finalement, le LSM est adapté pour des applications GPR en prenant en compte les caractéristiques du rayonnement de l’antenne ainsi que ses paramètres S. Finalement, une étude est effectuée pour prouver la détectabilité de la jonction d‘un câble électrique souterrain dans un environnement réel
The work presented in this thesis deals with the resolutions of the direct and inverse problems of the ground radar (GPR). The objective is to optimize GPR’s performance and its imaging quality. A state of the art of ground radar is realized. It focused on simulation methods and imaging techniques applied in GPR. The study of the use of the discontinuous Galerkin (GD) method for the GPR simulation is first performed. Some scenarios complete of GPR are considered and the GD simulations are validated by comparing the same scenarios’ modeling with CST-MWS and the measurements. Then a study of inverse problem resolution using the Linear Sampling Method (LSM) for the GPR application is carried out. A study with synthetic data is first performed to test the reliability of the LSM. Then, the LSM is adapted for the GPR application by taking into account the radiation of antenna. Finally, a study is designed to validate the detectability of underground electrical cables junction with GPR in a real environment
36

Lencrerot, Raphaël. "Outils de modélisation et d'imagerie pour un scanner micro-onde : application au contrôle de la teneur en eau d'une colonne de sel." Aix-Marseille 3, 2008. http://www.theses.fr/2008AIX30034.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'évaluation de la teneur en eau est actuellement un objectif important pour la caractérisation des sols et la compréhension des mécanismes liés au transfert hydrique et à l'absorption racinaire. Il existe un lien entre les variations de la teneur en eau et la permittivité des sols. L'objectif de ces travaux est d'exploiter ce couplage pour définir un protocole d'imagerie active micro-onde d'un monolithe. En effet, lorsqu'une onde électromagnétique rencontre un objet ayant des dimensions caractéristiques de l'ordre de sa longueur d'onde, celle-ci après interactions, va induire un courant qui à son tour générera un champ électromagnétique diffracté. La mesure de ce champ va permettre de revenir aux informations relatives à l'objet, en particulier sa permittivité. Nous nous appuyerons ici sur un système de mesure hyperfréquence constitué d'une cavité métallique cylindrique. Il a donc fallu mettre au point des outils numériques de modélisation et d'imagerie permettant de décrire le phénomène de diffraction dans un tel environnement. L'imagerie micro-onde quantitative est un problème inverse non-linéaire mal posé. De plus, les mesures du champ électromagnétique sont perturbées, ce qui va induire de l'instabilité dans le problème inverse. C'est pourquoi il est nécessaire de mettre en place un algorithme itératif avec ajout d'informations a priori (polynômes de Zernike) pour obtenir une solution stabilisée. Des reconstructions obtenues à partir de champ mesurés sur différents fantômes sont discutées. De plus, les informations fournies par l'étude du comportement de l'opérateur de diffraction renseignent sur la quantité de données accessibles et les informations a priori qui peuvent être légitimes deconsidérer
Soil moisture information is a key variable for describing water and energy exchanges at the plant root/surface/air interface. Intensive effort has been undertaken to provide non-invasive geophysical methods, in particular using microwave sensors. Indeed, the real and imaginary part of the soil dielectric constant is linked to its volumetric water content as well as its salinity. The goal of the current project is to demonstrate the potentiality of a non-invasive microwave imaging system for water content monitoring. The interaction between an electromagnetic. Wave and a target of the order of a wavelength results in a scattered wave, which depends on the target properties. The measurement of this field will allow to retreive information about the scatterer, in particular its dielectric permittivity. This study will exploit the experimental circular scanner currently developed at Institut Fresnel which presents a simplified configuration adequate for monoliths monitoring. Modelling and imaging numerical tools have been specifically created for such application. In particular, performing quantitative microwave imaging is a nonlinear ill-posed problem. Moreover, the measured fields are perturbated with noise. Therefore, all available a-priori information are of great importance to stabilize the solution. To this hand, we have implemented a Zernike polynomials representation and worked on the calibration procedure. The reconstructed permittivity maps obtained from experimental measured fields will be presented and discussed. We have also perform some theoretical studies based on the properties of the scattering operator, in order to gain quantitative ideas on the a priori information which are relevant to consider as well as the amount of information which were available
37

Bujoreanu, Denis. "Échographie compressée : Une nouvelle stratégie d’acquisition et de formation pour une imagerie ultrarapide." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEI098/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Il ne fait aucun doute que le coût relativement faible des échographes, la procédure rapide et la capacité d’imager des tissus biologiques mous ont permis à l’échographie de devenir l’un des outils de diagnostic médical les plus courants. Malheureusement, l’imagerie ultrasonore présente encore des inconvénients par rapport à d’autres techniques d’imagerie médicale, principalement en termes de qualité d’image et de détails fournis. Dans le souci d’améliorer la qualité d’image, le prix à payer est généralement la baisse de la cadence d’acquisition. Ce compromis profondément enraciné entre la qualité d'image fournie et le temps d'acquisition est peut-être l'un des plus difficiles verrous de la recherche dans le domaine de l’échographie et son dépassement pourrait mener à des meilleures performances des applications existantes et même à des nouvelles utilisations de l’échographie. Ce travail de thèse porte sur l’amélioration du compromis précédemment indiqué entre la qualité d’image et la cadence d’acquisition. En combinant des concepts tels que l’imagerie par ondes planes, les systèmes à entrées multiples / sorties multiples et les problèmes inverses, ce travail vise à acquérir simultanément des images ultrasonores du tissu insonifié, ce qui permet d’augmenter la cadence d’acquisition sans réduire la qualité de l’image fournie. À travers cette étude, nous avons mis au point un modèle mathématique permettant de modéliser la propagation des ondes ultrasonores dans les tissus mous. Ce modèle a été utilisé pour passer en revue un grand nombre de schémas d’acquisition en échographie déjà existants et pour exposer leurs avantages et leurs inconvénients. Nous avons proposé de surmonter le compromis qualité / cadence d’acquisition d'images en utilisant des ondes ultrasonores codées temporellement émises simultanément, et le modèle direct généré a permis l'utilisation des différentes approches de problèmes inverses afin de reconstruire la réponse impulsionnelle pulse / écho du milieu insonifié et donc de son image. De plus, nous avons encore amélioré le modèle direct, ce qui nous a permis de relier directement les échos rétrodiffusés à la position / magnitude des diffuseurs à l'intérieur du milieu imagé. Les résultats fournies par les approches de problèmes inverses basées sur ce modèle amélioré nous ont mis devant une méthode de pointe qui non seulement améliorent d’un facteur conséquent la qualité de l'image en termes de résolution et de cohérence du speckle, mais permettent également d'améliorer la cadence d'acquisition d’images
It is beyond doubt that the relative low cost of ultrasound scanners, the quick procedure and the ability to image soft biological tissues helped ultrasound imaging to become one of the most common medical diagnostic tools. Unfortunately, ultrasound still has some drawbacks when compared to other medical imaging techniques mainly in terms of the provided image quality and details. In the quest for an improved image quality, usually, the price to pay is the drop in the frame acquisition rate. This deep rooted trade-off between the provided image quality and the acquisition time is perhaps one of the most challenging in today’s ultrasound research and its overcoming could lead to diagnostic improvements in the already existing ultrasound applications and even pave the way towards novel uses of echography. This study addresses the previously stated trade-off. Through a mix of such concepts as plane wave imaging, multiple-input /multiple-output systems and inverse problems, this work aims at acquiring ultrasound images of the insonified tissue simultaneously, thus providing an increased frame rate while not degrading the image quality. Through this study we came up with a mathematical model that allows modelling the ultrasound wave propagation inside soft tissues. This model was used to review a great number of existing ultrasound acquisition schemes and to expose their advantages and drawbacks. We proposed to overcome the image quality / frame rate trade-off by using temporally encoded ultrasound waves emitted simultaneously, and the generated direct model enabled the use of different inverse problem approaches in order to reconstruct the pulse-echo impulse response of the insonified medium and thus its image. Moreover, we further improved the direct model, which allowed us to directly link the backscattered echoes to the position / magnitude of the scatterers inside the imaged medium. The results yielded by the inverse problem approaches based on the former model put us face to face with state of the art method that not only increase the image quality several times in terms resolution and speckle coherence but also provide a boost in frame acquisition rate
38

Soubies, Emmanuel. "Sur quelques problèmes de reconstruction en imagerie MA-TIRF et en optimisation parcimonieuse par relaxation continue exacte de critères pénalisés en norme-l0." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4082/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'intéresse à deux problèmes rencontrés en traitement du signal et des images. Le premierconcerne la reconstruction 3D de structures biologiques à partir d'acquisitions multi-angles enmicroscopie par réflexion totale interne (MA-TIRF). Dans ce contexte, nous proposons de résoudre leproblème inverse avec une approche variationnelle et étudions l'effet de la régularisation. Une batteried'expériences, simples à mettre en oeuvre, sont ensuite proposées pour étalonner le système et valider lemodèle utilisé. La méthode proposée s'est montrée être en mesure de reconstruire avec précision unéchantillon phantom de géométrie connue sur une épaisseur de 400 nm, de co-localiser deux moléculesfluorescentes marquant les mêmes structures biologiques et d'observer des phénomènes biologiquesconnus, le tout avec une résolution axiale de l'ordre de 20 nm. La deuxième partie de cette thèseconsidère plus précisément la régularisation l0 et la minimisation du critère moindres carrés pénalisé (l2-l0) dans le contexte des relaxations continues exactes de cette fonctionnelle. Nous proposons dans unpremier temps la pénalité CEL0 (Continuous Exact l0) résultant en une relaxation de la fonctionnelle l2-l0 préservant ses minimiseurs globaux et pour laquelle de tout minimiseur local on peut définir unminimiseur local de l2-l0 par un simple seuillage. Par ailleurs, nous montrons que cette relaxation éliminedes minimiseurs locaux de la fonctionnelle initiale. La minimisation de cette fonctionnelle avec desalgorithmes d'optimisation non-convexe est ensuite utilisée pour différentes applications montrantl'intérêt de la minimisation de la relaxation par rapport à une minimisation directe du critère l2-l0. Enfin,une vue unifiée des pénalités continues de la littérature est proposée dans ce contexte de reformulationexacte du problème
This thesis is devoted to two problems encountered in signal and image processing. The first oneconcerns the 3D reconstruction of biological structures from multi-angle total interval reflectionfluorescence microscopy (MA-TIRF). Within this context, we propose to tackle the inverse problem byusing a variational approach and we analyze the effect of the regularization. A set of simple experimentsis then proposed to both calibrate the system and validate the used model. The proposed method hasbeen shown to be able to reconstruct precisely a phantom sample of known geometry on a 400 nmdepth layer, to co-localize two fluorescent molecules used to mark the same biological structures andalso to observe known biological phenomena, everything with an axial resolution of 20 nm. The secondpart of this thesis considers more precisely the l0 regularization and the minimization of the penalizedleast squares criteria (l2-l0) within the context of exact continuous relaxations of this functional. Firstly,we propose the Continuous Exact l0 (CEL0) penalty leading to a relaxation of the l2-l0 functional whichpreserves its global minimizers and for which from each local minimizer we can define a local minimizerof l2-l0 by a simple thresholding. Moreover, we show that this relaxed functional eliminates some localminimizers of the initial functional. The minimization of this functional with nonsmooth nonconvexalgorithms is then used on various applications showing the interest of minimizing the relaxation incontrast to a direct minimization of the l2-l0 criteria. Finally we propose a unified view of continuouspenalties of the literature within this exact problem reformulation framework
39

Le, Rousseau Jérôme. "Représentation Microlocale de Solutions de Systèmes Hyperboliques, Application à l'Imagerie, et Contributions au Contrôle et aux Problèmes Inverses pour des Equations Paraboliques." Habilitation à diriger des recherches, Université de Provence - Aix-Marseille I, 2007. http://tel.archives-ouvertes.fr/tel-00201887.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans une première partie, nous considérons des problèmes de Cauchy pour des équations et systèmes hyperboliques du premier ordre. Nous donnons une représentation de l'opérateur solution comme produit infini d'opérateurs intégraux de Fourier à phase complexe. Nous démontrons la convergence de cette représentation dans les espaces de Sobolev, ainsi que celle du front d'onde. Pour les systèmes, nous traitons les cas symétriques et symétrisables. La représentation proposée conduit naturellement à des schémas numériques pour la résolution des problèmes de Cauchy. Nous présentons des applications de cette méthode dans le domaine de l'imagerie sismique. Dans ce cadre, grâce à des approximations microlocales nous obtenons des schémas efficaces. D'autres applications de l'analyse microlocale à la sismologie sont présentées.
Dans une seconde partie, nous étudions la contrôlabilité aux trajectoires pour des équations paraboliques linéaires et semi-linéaires. Nous nous intéressons plus particulièrement au cas d'opérateurs sous forme divergentielle où le coefficient de la partie principale est non continu. Nous prouvons tout d'abord une inégalité de Carleman, en dimension un d'espace, pour un coefficient $C^1$ par morceaux. Par un passage à la limite dans l'inégalité de Carleman, ce résultat est étendu au cas d'un coefficient $BV$. Avec ces résultats, nous prouvons la contrôlabilité de ces équations paraboliques en dimension un d'espace sans faire d'hypothèse de compatibilité entre la région de contrôle et les signes des sauts du coefficient discontinu. De plus, nous exhibons un cas en dimension supérieure pour lequel la même conclusion est obtenue. Finalement, nous utilisons une inégalité de Carleman afin d'identifier le coefficient discontinu à partir de mesures faites sur la solution.
40

Labat, Christian. "Algorithmes d'optimisation de critères pénalisés pour la restauration d'images : application à la déconvolution de trains d'impulsions en imagerie ultrasonore." Phd thesis, Ecole centrale de nantes - ECN, 2006. http://tel.archives-ouvertes.fr/tel-00132861.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La solution de nombreux problèmes de restauration et de reconstruction d'images se ramène à celle de la minimisation d'un critère pénalisé qui prend en compte conjointement les observations et les informations préalables. Ce travail de thèse s'intéresse à la minimisation des critères pénalisés préservant les discontinuités des images. Nous discutons des aspects algorithmiques dans le cas de problèmes de grande taille. Il est possible de tirer parti de la structure des critères pénalisés pour la mise en oeuvre algorithmique du problème de minimisation. Ainsi, des algorithmes d'optimisation semi-quadratiques (SQ) convergents exploitant la forme analytique des critères pénalisés ont été utilisés. Cependant, ces algorithmes SQ sont généralement lourds à manipuler pour les problèmes de grande taille. L'utilisation de versions approchées des algorithmes SQ a alors été proposée. On peut également envisager d'employer des algorithmes du gradient conjugué non linéaire GCNL+SQ1D utilisant une approche SQ scalaire pour la recherche du pas. En revanche, plusieurs questions liées à la convergence de ces différentes structures algorithmiques sont restées sans réponses jusqu'à présent. Nos contributions consistent à:
- Démontrer la convergence des algorithmes SQ approchés et GCNL+SQ1D.
- Etablir des liens forts entre les algorithmes SQ approchés et GCNL+SQ1D.
- Illustrer expérimentalement en déconvolution d'images le fait que les algorithmes SQ approchés et GCNL+SQ1D sont préférables aux algorithmes SQ exacts.
- Appliquer l'approche pénalisée à un problème de déconvolution d'images en contrôle non destructif par ultrasons.
41

Pereira, Antonio. "Imagerie acoustique en espace clos." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00984347.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de recherche porte sur le problème de l'identification des sources de bruit en espace clos. La motivation principale était de proposer une technique capable de localiser et quantifier les sources de bruit à l'intérieur des véhicules industriels, d'une manière efficace en temps. Dans cette optique, la méthode pourrait être utilisée par les industriels à des fins de réduction de bruit, et donc construire des véhicules plus silencieux. Un modèle simplifié basé sur la formulation par sources équivalentes a été utilisé pour résoudre le problème. Nous montrerons que le problème est mal conditionné, dans le sens où il est très sensible face aux erreurs de mesure, et donc des techniques dites de régularisation sont nécessaires. Une étude détaillée de cette question, en particulier le réglage de ce qu'on appelle de paramètre de régularisation, a été important pour assurer la stabilité de la solution. En particulier, un critère de régularisation basé sur une approche bayésienne s'est montré très robuste pour ajuster le paramètre de régularisation de manière optimale. L'application cible concernant des environnements intérieurs relativement grands, nous a imposé des difficultés supplémentaires, à savoir: (a) le positionnement de l'antenne de capteurs à l'intérieur de l'espace; (b) le nombre d'inconnues (sources potentielles) beaucoup plus important que le nombre de positions de mesure. Une formulation par pondération itérative a ensuite été proposé pour surmonter les problèmes ci-dessus de manière à: (1) corriger pour le positionnement de l'antenne de capteurs dans l'habitacle ; (2) obtenir des résultats corrects en terme de quantification des sources identifiées. Par ailleurs, l'approche itérative nous a conduit à des résultats avec une meilleure résolution spatiale ainsi qu'une meilleure dynamique. Plusieurs études numériques ont été réalisées afin de valider la méthode ainsi que d'évaluer sa sensibilité face aux erreurs de modèle. En particulier, nous avons montré que l'approche est affectée par des conditions non-anéchoïques, dans le sens où les réflexions sont identifiées comme des vraies sources. Une technique de post-traitement qui permet de distinguer entre les chemins directs et réverbérants a été étudiée. La dernière partie de cette thèse porte sur des validations expérimentales et applications pratiques de la méthode. Une antenne sphérique constituée d'une sphère rigide et 31 microphones a été construite pour les tests expérimentaux. Plusieurs validations académiques ont été réalisées dans des environnements semi-anéchoïques, et nous ont illustré les avantages et limites de la méthode. Enfin, l'approche a été testé dans une application pratique, qui a consisté à identifier les sources de bruit ou faiblesses acoustiques à l'intérieur d'un bus.
42

Mirabel, Xavier. "La tomographie d'impédance électrique : résolution d'un problème inverse mal-posé avec la méthode des éléments frontières par linéarisations successives." Toulouse, INPT, 1997. http://www.theses.fr/1997INPT017H.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La difficulte de resolution des problemes inverses provient de leur aspect generalement malpose au sens de hadamard. La tomographie d'impedance electrique en est un exemple fortement non-lineaire: c'est une technique d'imagerie, utilisee en surveillance medicale ou en geophysique, qui a pour but de reconstruire une image de la distribution de conductivite electrique au sein d'un milieu a partir d'informations recueillies a sa peripherie. Ce travail etablit et etudie numeriquement des algorithmes de reconstruction de telles images a partir de la methode des elements frontieres. La transformation en equations integrales frontieres du modele mathematique classique associe fait apparaitre deux formulations possibles appelees formulation en variations directes (respectivement indirectes) de conductivite, impliquant deux algorithmes possibles pour resoudre le probleme direct. Plusieurs methodes d'integration vont etre comparees a ce niveau. Lors de la resolution du probleme inverse, les algorithmes issus de la deuxieme formulation s'averent numeriquement plus stables que la premiere malgre une complexite de calcul plus importante. Une premiere linearisation permet de mettre en uvre un algorithme de reconstruction base sur une partition a priori du domaine etudie et sur la methode de decomposition en valeurs singulieres tronquee. Grace a la troncature d'une formulation non-lineaire recursive, un algorithme par linearisations successives est presente et associe a une methode de localisation des perturbations par eliminations d'inconnues inconsistantes. Les tests numeriques montrent une nette acceleration et un grand gain en precision au detriment toutefois de la stabilite dans les cas limites. C'est pourquoi une combinaison des deux algorithmes est proposee pour y remedier. Une etude ulterieure peut etre envisagee pour tirer pleinement partie de la formulation non-lineaire citee ci-dessus
43

Conil, Frédéric. "Développements instrumentaux et expérimentation en endoscopie sismique." Rennes 1, 2003. http://www.theses.fr/2003REN10164.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'endoscopie sismique est une méthode d'imagerie acoustique tridimensionnelle du voisinage de forages de faible diamètre. La première partie de ce travail de thèse concerne la conception d'un instrument de terrain réalisant des images avec une directivité azimutale et une résolution centimétrique. Des simulations numériques associées à des tests expérimentaux ont permis d'optimiser la construction d'un outil multi-azimuts et multi-offsets. Dans une deuxième partie, nous nous intéressons à l'optimisation de signaux acoustiques non linéaires, en temps réel, par la méthode du recuit simulé. Des applications sont proposées pour adapter la bande de fréquence de l'outil aux méthodes de traitement sismique et dans le cadre de l'étude de la réflectivité de milieux granulaires ou rugueux. Enfin, en complément des traitements classiques de sismique, une dernière partie est consacrée à la mise au point d'algorithmes spécifiques liés à la géométrie d'acquisition de la sonde.
44

Sauvage, Jean-Francois. "Calibrations et méthodes d'inversion en imagerie à haute dynamique pour la détection directe d'exoplanètes." Phd thesis, Université Paris-Diderot - Paris VII, 2007. http://tel.archives-ouvertes.fr/tel-00453100.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La connaissance des exoplanètes est aujourd'hui une problématique majeure en astronomie. Leur observation directe depuis le sol est cependant rendue extrêmement délicate par le rapport de flux existant entre la planète et son étoile hôte mais également par la turbulence atmosphérique. Ce type d'observation implique donc l'utilisation d'instruments dédiés, alliant un grand télescope, un système d'optique adaptative extrême, un coronographe supprimant physiquement les photons issus de l'étoile,une instrumentation plan focale optimisée (imageur différentiel ou spectrographe à intégrale de champ par exemple), mais également uneméthodologie de traitement de données efficace. Le projet SPHERE regroupe ces différents points et fixe le cadre des études effectuées dans cette thèse. Mon travail de thèse a consisté à développer,mettre en oeuvre et à optimiser différentes méthodes permettant d'assurer une détectivité optimale. Ces méthodes ont porté dans un premier temps sur l'optimisation d'un système d'optique adaptative via la mesure et la compensation des aberrations non-vues. Ces aberrations constituent une des principales limitations actuelles des systèmes d'optique adaptative extrême. La méthode proposée, alliant une amélioration de la technique de diversité de phase et une nouvelle procédure de calibration appelée « pseudo closed-loop » a été validée par simulation et testée sur le banc d'optique adaptative de l'ONERA. Une précision ultime de moins de 0,4nm rms par mode a été démontrée, conduisant à un rapport de Strehl interne sur le banc supérieur à 98.0% à 0,6μm. Dans un deuxième temps, mon travail a consisté à proposer une méthode de traitement d'image a posteriori dans le cadre de l'imagerie différentielle sans coronographe, qui consiste à acquérir simultanément des images à différentes longueurs d'onde. Cette méthode, fondée sur une approche de Maximum A Posteriori, utilise l'information multi-longueur d'onde de l'imageur différentiel, pour estimer conjointement les résidus de turbulence ainsi que les paramètres de l'objet. En plus de l'imagerie différentielle spectrale, l'instrument SPHERE permet d'acquérir des images différentielles angulaires, c'est-à-dire avec rotation de champ. Une méthode fondée sur la théorie de la détection est proposée pour traiter de façon optimale ce type de données. Enfin, dans le contexte de l'imagerie coronographique, j'ai proposé dans un troisième temps un modèle novateur complet de formation d'image d'une longue pose avec coronographe. Ce modèle prend en compte un coronographe parfait, des aberrations statiques en amont et en aval du masque focal, et la fonction de structure de la turbulence après correction par OA. Ce modèle est utilisé dans une méthode d'inversion permettant d'estimer l'objet observé. Ces méthodesà fort potentiel devraient être implantées à terme sur l'instrument SPHERE, et devraient permettre la découverte de nouvelles exoplanètes à l'horizon 2011.
45

Wintz, Timothée. "Super-resolution in wave imaging." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEE052/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les différentes modalités d’imagerie par ondes présentent chacune des limitations en termes de résolution ou de contraste. Dans ce travail, nous modélisons l’imagerie ultrasonore ultrarapide et présentons des méthodes de reconstruction qui améliorent la précision de l’imagerie ultrasonore. Nous introduisons deux méthodes qui permettent d’augmenter le contraste et de mesurer la position super-résolue et la vitesse dans les vaisseaux sanguins. Nous présentons aussi une méthode de reconstruction des paramètres microscopiques en tomographie d’impédance électrique en utilisant des mesures multifréquence et en s’aidant de la théorie de l’homogénéisation
Different modalities in wave imaging each present limitations in terms of resolution or contrast. In this work, we present a mathematical model of the ultrafast ultrasound imaging modality and reconstruction methods which can improve contrast and resolution in ultrasonic imaging. We introduce two methods which allow to improve contrast and to locate blood vessels belowthe diffraction limit while simultaneously estimating the blood velocity. We also present a reconstruction method in electrical impedance tomography which allows reconstruction of microscopic parameters from multi-frequency measurements using the theory of homogenization
46

Zhu, Sha. "A Bayesian Approach for Inverse Problems in Synthetic Aperture Radar Imaging." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00844748.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Synthetic Aperture Radar (SAR) imaging is a well-known technique in the domain of remote sensing, aerospace surveillance, geography and mapping. To obtain images of high resolution under noise, taking into account of the characteristics of targets in the observed scene, the different uncertainties of measure and the modeling errors becomes very important.Conventional imaging methods are based on i) over-simplified scene models, ii) a simplified linear forward modeling (mathematical relations between the transmitted signals, the received signals and the targets) and iii) using a very simplified Inverse Fast Fourier Transform (IFFT) to do the inversion, resulting in low resolution and noisy images with unsuppressed speckles and high side lobe artifacts.In this thesis, we propose to use a Bayesian approach to SAR imaging, which overcomes many drawbacks of classical methods and brings high resolution, more stable images and more accurate parameter estimation for target recognition.The proposed unifying approach is used for inverse problems in Mono-, Bi- and Multi-static SAR imaging, as well as for micromotion target imaging. Appropriate priors for modeling different target scenes in terms of target features enhancement during imaging are proposed. Fast and effective estimation methods with simple and hierarchical priors are developed. The problem of hyperparameter estimation is also handled in this Bayesian approach framework. Results on synthetic, experimental and real data demonstrate the effectiveness of the proposed approach.
47

Ratsakou, Almpion. "Multi-physical modeling of thermographic inspection methods and fast imaging Fast models dedicated to simulation of eddy current thermography Fast simulation approach dedicated to infrared thermographic inspection of delaminated planar pieces Model based characterisation of delamination by means of thermographic inspection." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASS002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’inspection thermographique est une technique populaire de contrôle non destructif qui fournit des images de distributions de température sur de grandes étendues aux surfaces des pièces testées. Détecter les délaminations entre couches métalliques est le sujet ici. La simulation de ces inspections contribue en effet à compléter les études expérimentales, à évaluer les performances en termes de détection, et à être support d'algorithmes basés sur modèles. On se focalise sur un modèle semi-analytique basé sur un développement tronqué en fonctions propres par région. Le problème est résolu dans le domaine de Laplace en temps, et la distribution de température approximée par un développement sur une base produit tensoriel. Les sources considérées sont des lampes flash, mais aussi des sources courants de Foucault (conduisant à un couplage électromagnétisme et chaleur). La description des délaminages sous forme de minces couches d'air se révèle équivalente à l'introduction d'une résistance superficielle au flux de chaleur permettant le traitement via l'approche modale sans discrétisation supplémentaire. Des calculs complémentaires par des codes commercial (méthode des éléments finis) et interne (technique d'intégration finie) confirment l'exactitude. Puis une grande attention est donnée à l'imagerie et la détection. Une procédure en deux étapes est conçue : débruitage des signaux bruts et détection de tout éventuel défaut en utilisant une reconstruction de signal thermographique conduisant à une haute résolution spatiale et temporelle dans le plan transverse, complété par une détection de frontière, puis optimisation itérative, les résultats de la première étape étant utilisées pour la régularisation d'un schéma moindres carrés afin de caractériser épaisseurs et profondeurs. Tout ce qui précède est illustré par de nombreuses simulations numériques dans des conditions proches de l'application
Thermographic inspection is a popular nondestructive testing (NdT) technique that provides images of temperature distribution over large areas at surfaces of tested workpieces. Detecting delaminations between metallic layers is the matter here. Simulation of these inspections indeed helps to complement experimental studies, evaluate performance in terms of detection and support model-based algorithms. A semi-analytical model based on a truncated region eigenfunction expansion for simulation of thermographic inspection is focused onto. The problem is solved in the Laplace domain w.r.t time, and the temperature distribution approximated by expanding it on a tensor product basis. Considered sources are lamps providing thermal excitation but may also be eddy current sources (leading to a coupled electromagnetic and heat problem). The description of the delaminations as thin air gaps between the workpiece layers proves to be equivalent with introduction of a surface resistance to the heat flow, enabling treatment via the applied modal approach without additional discretisation. Complementary computations by industry (Finite Element Method) and in-house (Finite Integration Technique) codes confirm the accuracy of the developments. Then, much attention is put on imaging and detection. A two-step procedure is devised, first denoising of raw signals and detection of any possible defect using a thermographic signal reconstruction leading to high spatial and temporal resolution in the transverse plane, completed by proper edge detection, second an iterative optimization being employed, with results of the first step used for regularization of a least-square scheme to characterize thicknesses and depths. All the above is illustrated by comprehensive numerical simulations in conditions close to practice
48

Boulier, Thomas. "Modélisation de l'électro-localisation active chez les poissons faiblement électriques." Palaiseau, Ecole polytechnique, 2013. http://www.theses.fr/2013EPXX0108.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
49

El, Kanfoud Ibtissam. "Résolution de problèmes de rayonnement électromagnétique appliqués à l’imagerie médicale avec FreeFEM++." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4000/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'utilisation des microondes pour le diagnostic est en plein essor dans le domaine médical. Une des toutes dernières applications concerne la détection d'AVC (Accident vasculaire Cérébral) par imagerie microonde. La Société EMTensor GmbH basée à Vienne en Autriche étudie actuellement un tel système en collaboration avec le LEAT, le LJAD de l’Université Côte d’Azur et le LJLL de Sorbonne Université, pour le diagnostic et le contrôle de l'efficacité de traitement. Le but de ce travail était de modéliser le système de mesure de l'imagerie du cerveau, développé par la société EMTensor GmbH. Il s'agit d'un système d'émission/réception composé de 160 antennes disposées en 5 couronnes de 32 antennes réparties sur une cuve métallique cylindrique de section circulaire semi-ouverte. Un des enjeux majeurs de ce travail consiste en la modélisation et la simulation électromagnétique (EM) du système complet incluant un modèle réaliste de cerveau. La difficulté réside à la fois dans la taille du problème EM à simuler en raison du rapport entre la taille considérable du système et la taille très faible de certaines inhomogénéités à l’intérieur du cerveau, et dans la grande hétérogénéité des permittivités diélectriques présentes à l’intérieur du cerveau. Nous avons décidé d’utiliser un code open source, FreeFem++ pour cette modélisation car il permet de déployer du calcul hautement parallèle et la décomposition de domaines, qui sont bien adaptés à la complexité du problème EM. Dans un premier temps, nous avons comparé les résultats de simulation du système de mesure à vide (sans le cerveau) aux mesures et aux résultats obtenus par le logiciel de simulation EM HFSS basé sur la FEM comme FreeFem++. Nous avons ensuite simulé un modèle de tête tridimensionnel virtuel, à partir de coupe d’image du cerveau (scanner et IRM), en partenariat avec EMTensor en recherchant la position et le type d'AVC (ischémique et hémorragique). L'influence du bruit de mesure, la valeur du gel d'adaptation utilisé, le couplage entre les capteurs et le couplage entre la tête et les capteurs sont également étudiés. Afin de valider ces modèles, deux cas simples ont été étudiés. Un grand tube et un petit tube en plastique sont remplis de liquide d'adaptation symbolisant les caractéristiques diélectriques d'un cerveau afin de retrouver la forme du tube utilisé. Nous avons montré qu’il est possible de développer des algorithmes de reconstruction pour montrer permettant de retrouver la forme des objets par imagerie qualitative. Enfin, avec les partenaires et l'entreprise d'EMTensor nous avons appliqué une méthode quantitative à la détection d’un AVC ischémique par la tomographie microonde. Le problème direct repose sur l’utilisation de FreeFem++, en utilisant des éléments d'ordre supérieur et des préconditionneurs parallèles pour la méthode de décomposition de domaine. Nous avons résolu le problème inverse par un algorithme de minimisation, afin de reconstruire des images tomographiques du cerveau dans des temps compatibles avec les impératifs médicaux définis par les cliniciens
The use of microwaves for diagnosis is booming in the medical field. One of the latest applications is the detection of strokes by microwave imaging. The company EMTensor GmbH based in Vienna, Austria is currently studying such a system in collaboration with LEAT, the LJAD of the Côte d’Azur University and the LJLL of Sarbonne University, for the diagnosis and control of the treatement efficiency. The purpose of this work is to model the brain imaging measurement system developed by EMTensor GmbH. It is a transmission/ reception system consisting of 160 antennas arranged in 5 rings of 32 antennas distributed on a cylinder metal tank of semi-open circular section. One of the major issues of this work is the modeling and electromagnetic simulation (EM) of the complete system including a realistic brain model. The difficulty lies both in the size of the EM problem to be simulated beacause of the relationship between the considerable size of the system and the the very small size of certain inhomogeneities within the brain, and the great heterogeneity of the dielectric permittivities present inside the brain. We decided to use an open source software, FreeFem++ for this modelling because it is well adapted to high performance computing through domain decomposition methods, which is mandatory for the complexity of the EM problem. First, we compared the simulation results of the vacuum matching measurement system (without the brain) to the measurements and the results obtained by the FEM-based EM HFSS simulation software to those obtained by FreeFem++. We then simulated a virtual threedimensional head model, from brain imaging system cuts (CT scan and MRI), in partnership with EMTensor, looking for the position and type of stroke (ischemic and hemorragic). The influence of the measurement noise, the value of the adaptation gel used, the coupling between the sensors and the coupling between the head and the sensors are also studied. In order to validate these models, two simple cases have been studied. A large tube and a small plastic tube are fielld with adaptation liquid with the dielectric characteristic of a brain to find the shape of the tubes used by qualitative imaging. Finally, with the MEDIMAX project partners and the EMTensor company we applied a quantitative method to the detection of ischemic stroke by the microwave tomography. The direct problem has been solved with the help of FreeFem++, using hight order elements and parallel preconditioners for the domain decomposition method. We solved the inverse problem by a minimization algorithm, in order to reconstruct tomographic images of the brain in times compatible with medical imperatives defined by clinicians.”
50

Le, Magueresse Thibaut. "Approche unifiée multidimensionnelle du problème d'identification acoustique inverse." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La caractérisation expérimentale de sources acoustiques est l'une des étapes essentielles pour la réduction des nuisances sonores produites par les machines industrielles. L'objectif de la thèse est de mettre au point une procédure complète visant à localiser et à quantifier des sources acoustiques stationnaires ou non sur un maillage surfacique par la rétro-propagation d'un champ de pression mesuré par un réseau de microphones. Ce problème inverse est délicat à résoudre puisqu'il est généralement mal-conditionné et sujet à de nombreuses sources d'erreurs. Dans ce contexte, il est capital de s'appuyer sur une description réaliste du modèle de propagation acoustique direct. Dans le domaine fréquentiel, la méthode des sources équivalentes a été adaptée au problème de l'imagerie acoustique dans le but d'estimer les fonctions de transfert entre les sources et l'antenne, en prenant en compte le phénomène de diffraction des ondes autour de l'objet d'intérêt. Dans le domaine temporel, la propagation est modélisée comme un produit de convolution entre la source et une réponse impulsionnelle décrite dans le domaine temps-nombre d'onde. Le caractère sous-déterminé du problème acoustique inverse implique d'utiliser toutes les connaissances a priori disponibles sur le champ sources. Il a donc semblé pertinent d'employer une approche bayésienne pour résoudre ce problème. Des informations a priori disponibles sur les sources acoustiques ont été mises en équation et il a été montré que la prise en compte de leur parcimonie spatiale ou de leur rayonnement omnidirectionnel pouvait améliorer significativement les résultats. Dans les hypothèses formulées, la solution du problème inverse s'écrit sous la forme régularisée de Tikhonov. Le paramètre de régularisation a été estimé par une approche bayésienne empirique. Sa supériorité par rapport aux méthodes communément utilisées dans la littérature a été démontrée au travers d'études numériques et expérimentales. En présence de fortes variabilités du rapport signal à bruit au cours du temps, il a été montré qu'il est nécessaire de mettre à jour sa valeur afin d'obtenir une solution satisfaisante. Finalement, l'introduction d'une variable manquante au problème reflétant la méconnaissance partielle du modèle de propagation a permis, sous certaines conditions, d'améliorer l'estimation de l'amplitude complexe des sources en présence d'erreurs de modèle. Les développements proposés ont permis de caractériser, in situ, la puissance acoustique rayonnée par composant d'un groupe motopropulseur automobile par la méthode de la focalisation bayésienne dans le cadre du projet Ecobex. Le champ acoustique cyclo-stationnaire généré par un ventilateur automobile a finalement été analysé par la méthode d'holographie acoustique de champ proche temps réel
Experimental characterization of acoustic sources is one of the essential steps for reducing noise produced by industrial machinery. The aim of the thesis is to develop a complete procedure to localize and quantify both stationary and non-stationary sound sources radiating on a surface mesh by the back-propagation of a pressure field measured by a microphone array. The inverse problem is difficult to solve because it is generally ill-conditioned and subject to many sources of error. In this context, it is crucial to rely on a realistic description of the direct sound propagation model. In the frequency domain, the equivalent source method has been adapted to the acoustic imaging problem in order to estimate the transfer functions between the source and the antenna, taking into account the wave scattering. In the time domain, the propagation is modeled as a convolution product between the source and an impulse response described in the time-wavenumber domain. It seemed appropriate to use a Bayesian approach to use all the available knowledge about sources to solve this problem. A priori information available about the acoustic sources have been equated and it has been shown that taking into account their spatial sparsity or their omnidirectional radiation could significantly improve the results. In the assumptions made, the inverse problem solution is written in the regularized Tikhonov form. The regularization parameter has been estimated by an empirical Bayesian approach. Its superiority over methods commonly used in the literature has been demonstrated through numerical and experimental studies. In the presence of high variability of the signal to noise ratio over time, it has been shown that it is necessary to update its value to obtain a satisfactory solution. Finally, the introduction of a missing variable to the problem reflecting the partial ignorance of the propagation model could improve, under certain conditions, the estimation of the complex amplitude of the sources in the presence of model errors. The proposed developments have been applied to the estimation of the sound power emitted by an automotive power train using the Bayesian focusing method in the framework of the Ecobex project. The cyclo-stationary acoustic field generated by a fan motor was finally analyzed by the real-time near-field acoustic holography method

До бібліографії