Дисертації з теми "Méthodes de déconvolution"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Méthodes de déconvolution.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Méthodes de déconvolution".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Guerchaoui, Atman. "Etude comparative des principales méthodes de déconvolution en prospection sismique." Grenoble INPG, 1988. http://www.theses.fr/1988INPG0041.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le sujet traite du probleme de deconvolution en geophysique petroliere. Il consiste a determiner la reponse impulsionnelle du sous-sol, le signal source etant inconnu. Des donnees simulees puis des donnees reelles permettent une etude comparative des principales methodes de deconvolution. Une methodologie dans le traitement des donnees reelles est proposee
2

Nguyễn, Hoài Nam. "Méthodes et algorithmes de segmentation et déconvolution d'images pour l'analyse quantitative de Tissue Microarrays." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S104/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse a pour objectif de développer les méthodes originales pour l'analyse quantitative des images de Tissue Microarrays (TMAs) acquises en fluorescence par des scanners dédiés. Nous avons proposé des contributions en traitement d'images portant sur la segmentation des objets d'intérêts (i.e. des échantillons de tissus sur la lame de TMA scannée), la correction des artefacts d'acquisition liés aux scanners en question ainsi que l'amélioration de la résolution spatiale des images acquises en tenant compte des modalités d'acquisition (imagerie en fluorescence) et la conception des scanners. Les développements permettent d'envisager une nouvelle plateforme d'analyse de TMAs automatisée, qui représente aujourd'hui une forte demande dans la recherche contre les cancers. Les TMAs (ou “puces à tissus”) sont les lames histologiques sur lesquelles de nombreux échantillons tissulaires venant de différents donneurs sont déposés selon une structure de grille afin de faciliter leur identification. Pour pouvoir établir le lien entre chaque échantillon et ses données cliniques correspondantes, on s'intéresse non seulement à segmenter ces échantillons mais encore à retrouver leur position théorique (les indices de ligne et de colonne) sur la grille TMA car cette dernière est souvent très déformée pendant la fabrication des lames. Au lieu de calculer directement les indices de ligne et de colonne (des échantillons), nous avons reformulé ce problème comme un problème d'estimation de la déformation de la grille de TMA théorique à partir du résultat de segmentation en utilisant l'interpolation par splines ''plaques minces''. Nous avons combiné les ondelettes et un modèle d'ellipses paramétriques pour éliminer les fausses alarmes, donc améliorer les résultats de segmentation. Selon la conception des scanners, les images sont acquises pixel par pixel le long de chaque ligne, avec un change de direction lors du balayage entre les deux lignes. Un problème fréquent est le mauvais positionnement des pixels dû à la mauvaise synchronisation des modules mécaniques et électroniques. Nous avons donc proposé une méthode variationnelle pour la correction de ces artefacts en estimant le décalage entre les pixels sur les lignes consécutives. Cette méthode, inspirée du calcul du flot optique, consiste à estimer un champ de vecteurs en minimisant une fonction d'énergie composée d'un terme d'attache aux données non convexe et d'un terme de régularisation convexe. La relaxation quadratique est ainsi utilisée pour découpler le problème original en deux sous-problèmes plus simples à résoudre. Enfin, pour améliorer la résolution spatiale des images acquises qui dépend de la PSF (point spread function) elle-même variant selon le faisceau laser d'excitation, nous avons introduit une méthode de déconvolution d'images en considérant une famille de régulariseurs convexes. Les régulariseurs considérés sont généralisés du concept de la variation parcimonieuses (Sparse Variation) combinant la norme L1 de l'image et la variation totale (Total Variation) pour rehausser les pixels dont l'intensité et le gradient sont non-nuls. Les expériences montrent que l'utilisation de cette régularisation produit des résultats déconvolution d'images très satisfaisants en comparaison avec d'autres approches telles que la variation totale ou la norme de Schatten de la matrice Hessienne
This thesis aims at developing dedicated methods for quantitative analysis of Tissue Microarray (TMA) images acquired by fluorescence scanners. We addressed there issues in biomedical image processing, including segmentation of objects of interest (i.e. tissue samples), correction of acquisition artifacts during scanning process and improvement of acquired image resolution while taking into account imaging modality and scanner design. The developed algorithms allow to envisage a novel automated platform for TMA analysis, which is highly required in cancer research nowadays. On a TMA slide, multiple tissue samples which are collected from different donors are assembled according to a grid structure to facilitate their identification. In order to establish the link between each sample and its corresponding clinical data, we are not only interested in the localization of these samples but also in the computation of their array (row and column) coordinates according to the design grid because the latter is often very deformed during the manufacturing of TMA slides. However, instead of directly computing array coordinates as existing approach, we proposed to reformulate this problem as the approximation of the deformation of the theoretical TMA grid using “thin plate splines” given the result of tissue sample localization. We combined a wavelet-based detection and a ellipse-based segmentation to eliminate false alarms and thus improving the localization result of tissue samples. According to the scanner design, images are acquired pixel by pixel along each line, with a change of scan direction between two subsequent lines. Such scanning system often suffers from pixel mis-positioning (jitter) due to imperfect synchronization of mechanical and electronic components. To correct these scanning artifacts, we proposed a variational method based on the estimation of pixel displacements on subsequent lines. This method, inspired from optical flow methods, consists in estimating a dense displacement field by minimizing an energy function composed of a nonconvex data fidelity term and a convex regularization term. We used half-quadratic splitting technique to decouple the original problem into two small sub-problems: one is convex and can be solved by standard optimization algorithm, the other is non-convex but can be solved by a complete search. To improve the resolution of acquired fluorescence images, we introduced a method of image deconvolution by considering a family of convex regularizers. The considered regularizers are generalized from the concept of Sparse Variation which combines the L1 norm and Total Variation (TV) to favors the co-localization of high-intensity pixels and high-magnitude gradient. The experiments showed that the proposed regularization approach produces competitive deconvolution results on fluorescence images, compared to those obtained with other approaches such as TV or the Schatten norm of Hessian matrix
3

Sintes, Christophe. "Déconvolution bathymétrique d'images sonar latéral par des méthodes interférométriques et de traitement de l'image." Rennes 1, 2002. http://www.theses.fr/2002REN10066.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces travaux de thse concernent l'tude d'un sonar latral interfromtrique. Le sonar latral dlivre des images haute dfinition des fonds marins, mais la reprsentation de la ralit est biaise en raison du systme d'acquisition. L'option interfromtrique permet de calculer l'altitude de chaque point de l'image, ce qui permet de reconstruire une image tri-dimensionnelle et conforme la zone explore. La mesure de cette altitude repose sur une mesure de retard entre deux antennes distinctes, du trajet retour de l'onde sonore. Ce retard est constitu de partie le retard fin ou phase interfromtrique et le retard grossier ou nombre de priodes entires de la porteuse Dans un premier temps une tude des caractristiques de la phase interfromtrique est effectue, afin de permettre de cerner les diffrents phnomnes polluant le signal et de permettre une prdiction de performances sonar. La troisime partie s'intresse au retard grossier qui est estim par la mthode du vernier. Une tude des configurations d'antennes permet d'optimiser la conception de l'interfromtre. Enfin, la dernire partie, en s'appuyant sur les lments scientifiques dvelopps dans les deux premires parties, propose une technique de rduction des erreurs des ambiguits de phase conjugue un filtrage du signal interfromtrique par ondelettes
4

Vivet, Laurent. "Amélioration de la résolution des méthodes d'échographie ultrasonore en contrôle non destructif par déconvolution adaptative." Paris 11, 1989. http://www.theses.fr/1989PA112256.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'échographie ultrasonore comporte des avantages qui la rendent essentielle en Contrôle Non Destructif (CND). Cependant, l'importante énergie acoustique nécessaire pour traverser des matériaux très atténuants ne peut être obtenue qu'à l'aide de traducteurs résonnants, ce qui limite sérieusement la résolution sur les échogrammes mesurés. Cette résolution peut être améliorée avec des méthodes de déconvolution. Mais l'application des méthodes de déconvolution monodimensionnelle pose problème en contrôle non destructif quand le milieu est fortement anisotrope et hétérogène (l'acier austénitique par exemple). Les techniques de déconvolution sont nombreuses et bien documentées dans la littérature en CND. Mais elles proviennent généralement d'autres domaines d'application (génie biomédical, géophysique) et nous montrons que ces techniques ne sont pas bien adaptées aux principaux problèmes du CND : l'atténuation en fréquence du milieu et la phase non-minimale de l'ondelette. Nous avons développé une méthode de déconvolution temporelle qui permet de prendre en compte les caractéristiques de l'ondelette. Notre méthode traite le problème de déconvolution comme un problème d'estimation et comporte 2 étapes : (i) une étape de correction en phase qui prend en compte la phase de l'ondelette pour estimer l'échogramme corrigé en phase. La phase de l'ondelette est uniquement caractéristique du traducteur utilisé et reste constante lors de la propagation. (ii) une étape d'égalisation spectrale qui permet de restaurer le contenu spectral de la réflectivité idéale. Les deux étapes sont mises en œuvre par des filtres de Kalman rapides qui permettent de réduire considérablement le coût en calcul de la méthode. La présentation de résultats synthétiques et réels montre que l'approche adoptée permet effectivement d'améliorer sensiblement la résolution dans les matériaux atténuants
5

Thibon, Louis. "Méthodes d'augmentation de résolution en microscopie optique exploitant le modelage de faisceau laser et la déconvolution." Doctoral thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/34695.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La microscopie à balayage laser est limitée en résolution par la limite de diffraction de la lumière. Plusieurs méthodes de superrésolution ont été développées depuis les années 90 pour franchir cette limite. Cependant, la superrésolution est souvent obtenue au prix d'une grande complexité (laser de haute puissance pulsé, temps d'acquisition long, fluorophores spécifiques) ainsi que des limitations dans le type d'échantillon observé (observation en surface uniquement). Dans certains cas, comme pour l'illumination structurée et la microscopie SLAM, une amélioration en résolution plus modeste est obtenue, mais avec une complexité et des limites d'utilisation fortement réduites par rapport aux autres méthodes de superrésolution. Les mé- thodes que nous proposons ici sont des méthodes d'augmentation de résolution qui visent à minimiser les contraintes expérimentales et à garder un maximum des avantages des techniques d'imagerie conventionnelles. Dans les cas que nous avons étudiés, les méthodes proposées sont basées sur la microscopie confocale. Nous allons montrer dans un premier temps qu'il est possible d'augmenter de 20% la résolution d'un microscope confocal en changeant le faisceau laser utilisé pour l'excitation par un faisceau Bessel-Gauss tout en ayant un sténopé de la bonne taille (soit 1 Airy Unit). Les avantages de la méthode proposée résident dans sa simplicité d'installation et d'utilisation et sa compatibilité avec d'autres méthodes d'augmentation de résolution. Nous avons démontré les capacités d'augmentation de résolution des faisceaux Bessel-Gauss théoriquement puis exp érimentalement sur des échantillons de nano-sphères et de tissus biologiques obtenant ainsi une résolution de 0.39. Nous avons également montré que l'amélioration en résolution des faisceaux Bessel-Gauss donne une analyse statistique de la colocalisation avec un taux plus faible de faux positifs. Nous avons utilisé des faisceaux Bessel-Gauss de différents ordres pour améliorer la méthode de la microscopie SLAM et ainsi obtenir une résolution descendant à 0.17 (90 nm avec une longueur d'onde de 532 nm). La méthode proposée est entièrement basée sur la microscopie confocale et seul un module permettant de changer le faisceau laser doit être ajouté au montage. Dans un second temps, nous proposons une méthode permettant de bénéficier au maximum des propriétés de la déconvolution pour augmenter la résolution de la microscopie confocale. Pour cela, nous avons utilisé différents modes laser pour l'acquisition d'images et ces images sont utilisées comme données d'entrée pour la déconvolution (avec des mesures des PSF respectives). Les faisceaux laser utilisés apportent ainsi des informations complémentaires à l'algorithme de déconvolution permettant ainsi d'obtenir des images avec une résolution encore meilleure que si une simple déconvolution (utilisant le même algorithme) était utilisée sur l'image confocale. Par la suite, nous avons changé les faisceaux laser par des faisceaux Bessel-Gauss pour augmenter davantage l'ecacité de la déconvolution. Encore une fois, la méthode proposée est entièrement basée sur la microscopie confocale et seul un module permettant de changer le faisceau laser doit être ajouté au montage. Enfin, nous proposons d'aborder une méthode de reconstruction en trois dimensions par tomographie basée sur des projections obtenues en microscopie à deux photons utilisant les faisceaux Bessel-Gauss. En focalisant des faisceaux Bessel-Gauss à angle en microscopie deux photons, on obtient une série de projections utilisables pour une reconstruction tomographique. Le but est de tester la faisabilité de la méthode qui permettrait de reconstruire un volume, en nécessitant moins d'images que dans le cas d'une acquisition plan par plan, en microscopie deux photons classique.
Laser scanning microscopy is limited in lateral resolution by the diffraction of light. Superresolution methods have been developed since the 90s to overcome this limitation. However, superresolution is generally achieved at the cost of a greater complexity (high power lasers, very long acquisition times, specic uorophores) and limitations on the observable samples. In some cases, such as Structured Illumination Microscopy (SIM) and Switching Laser Modes (SLAM), a more modest improvement in resolution is obtained with a reduced complexity and fewer limitations. We propose here methods which improve the resolution while minimizing the experimental constraints and keeping most of the advantages of classical microscopy. First, we show that we can improve by twenty percent the resolution of confocal microscopy by using Bessel-Gauss beams, and by having the right pinhole size (1 Airy Unit), compared to conventional Gaussian beam based confocal microscopy. The advantages of this strategy include simplicity of installation and use, linear polarization compatibility, possibility to combine it with other resolution enhancement and superresolution strategies. We demonstrate the resolution enhancement capabilities of Bessel-Gauss beams both theoretically and experimentally on nano-spheres and biological tissue samples with a resolution of 0.39. We achieved these resolutions without any residual artifacts coming from the Bessel-Gauss beam side lobes. We also show that the resolution enhancement of Bessel-Gauss beams leads to a better statistical colocalization analysis with fewer false positive results than when using Gaussian beams. We have also used Bessel-Gauss beams of different orders to further improve the resolution by combining them in SLAM microscopy achieving a resolution of 0.17 (90 nm with a wavelength of 532 nm). In a second step, we propose a method to improve the resolution of confocal microscopy by combining different laser modes and deconvolution. Two images of the same eld are acquired with the confocal microscope using different laser modes and are used as inputs to a deconvolution algorithm. The two laser modes have different Point Spread Functions and thus provide complementary information leading to an image with enhanced resolution compared to using a single confocal image as input to the same deconvolution algorithm. By changing the laser modes to Bessel-Gauss beams, we were able to improve the effciency of the deconvolution algorithm and to obtain images with a residual Point Spread Function having a width smaller than 100 nm. The proposed method requires only a few add-ons to the classic confocal or two photon microscopes. Finally, we propose a three dimensional tomography reconstruction method using Bessel-Gauss beams as projection tools in two-photon microscopy. While focussing Bessel-Gauss beams at an angle in two photon microscopy, we can obtain a series of projections that can be used for tomography reconstruction. The aim is to test the practicality of the methods allowing to reconstruct a volume while using fewer images than plane by plane acquisitions as in classic two-photon microscopy.
6

Cassereau, Didier. "Nouvelles méthodes et applications de la propagation transitoire dans les milieux fluides et solides." Paris 7, 1988. http://www.theses.fr/1988PA077224.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Luczak, Anaelle. "Méthodes sismiques pour la surveillance des grandes structures du génie civil." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4096/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Alors que les études sismiques conventionnelles utilisent des sources énergétiques et impulsionnelles, ces dernières années ont vu émerger des analyses basées sur l'utilisation du bruit sismique ambiant. Ces analyses s'appuient sur des opérations d'intercorrélation ou de déconvolution dans le but de reconstruire des signaux assimilables, sous certaines conditions, aux fonctions de Green du milieu entre deux stations d'enregistrement. Dans cette thèse sont développées des méthodes de surveillance des digues maritimes et des massifs de stockage géologique, soit à partir de l'écoute du bruit ambiant quand les conditions environnementales le permettent, soit à partir de l'enregistrement de signaux émis par une source entretenue. Chacun des deux types de structures étudiées présente des contraintes spécifiques, dans la mise en place des mesures sur le terrain et dans la méthode d'analyse des données acquises. Les travaux présentés s'attachent à montrer l'adéquation des méthodes de calcul utilisées selon le dispositif mis en place, le type d'ondes étudié (ondes de volume ou de surface selon l'application) et l'observable analysée (la vitesse de propagation ou l'atténuation). Les variations de ces paramètres sont étudiées sur différentes échelles de temps, dans le but de détecter soit des phénomènes rapides et ponctuels induits par une sollicitation momentanée, soit des phénomènes lents, comme par exemple le vieillissement de la structure
While conventional seismic studies use energetic impulse sources, recent years have seen the emergence of analyses based on the use of ambient seismic noise. These analyses rely on inter-correlation or deconvolution operations, in order to reconstruct signals that can be considered as, under certain conditions, the Green functions of the medium between two recording stations. In this thesis are developed methods for the monitoring of sea dikes and geological storage massifs, either from listening to ambient noise when environmental conditions are favourable, or from the recording of signals emitted by a controlled vibratory source. Each of these two types of structures presents specific constraints in the implementation of field measurements and in the method of analysis of the data acquired. This work is aimed at showing the adequacy of the calculation methods according to the acquisition system put in place, the type of waves studied (body or surface waves, depending on the application) and the studied observable (either the propagation velocity or the attenuation). The variation of these parameters is presented on different time scales, in order to detect either fast and punctual phenomena induced by an external forcing, or long-term phenomena, such as the aging of the structure
8

Combe, Pascal. "Application des méthodes de déconvolution à la caractérisation ultrasonore de l'isolant de câbles électriques, et analyse temps-fréquence des réponses acoustiques." Grenoble INPG, 1988. http://www.theses.fr/1988INPG0075.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Mena, Bernard. "Détection et analyse de sursauts gamma à l'aide du télescope SIGMA : caractérisation et calibrations de l'expérience, différentes méthodes de déconvolution des données." Toulouse 3, 1990. http://www.theses.fr/1990TOU30049.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le telescope sigma, dont le cnes est maitre d'uvre, a ete mis en orbite le 1. 12. 89. Outre sa fonction d'imagerie, il doit etudier les sursauts gamma, phenomenes astrophysiques decouverts recemment (1973). Le detecteur est un ensemble de 31 cristaux de csi (19200 cm#2) associes a 62 photomultiplicateurs. Les signaux issus de ces detecteurs sont analyses par deux boitiers d'electronique embarquee. L'ensemble de la chaine de detection a ete integre, caracterise puis teste en ambiance spatiale. Par la suite, l'experience a ete calibree a l'aide de differentes sources radioactives, de maniere a obtenir la fonction de transfert de l'instrument. Plusieurs methodes de deconvolution spectrale ont ete testees. Un algorithme, base sur le principe du maximum d'entropie a ete developpe et apparait tout a fait adapte a ce type de probleme. Ce travail apporte une contribution importante a l'experience spatiale sigma, a toutes les etapes de la realisation, aussi bien qu'a la preparation du depouillement des donnees essentielles qu'elle fournira
10

Hassouna, Mohammad. "Développement et validation des méthodes spectroscopiques d'absorbance UV et de fluorescence appliquées à la caractérisation spatiotemporelle de la matière organique du sol extractible à l'eau (MOEE)." Aix-Marseille 1, 2006. http://theses.univ-amu.fr.lama.univ-amu.fr/2006AIX11042.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le premier objectif de ce travail est le développement d'une approche analytique combinatoire basée sur l'utilisation de différentes techniques chromatographiques et spectroscopiques afin d'établir un profil de l'évolution spatiotemporelle de la MOEE. Le deuxième objectif est de développer une méthode alternative de cratérisation de la MOEE adaptée à l'analyse sur site. A l'aide du fractionnement sur résines XAD-8 et XAD-4 connectées en tandem, la MOEE dans les extraits du sol est divisée en 3 familles de composés : hydrophobe, transphilique et hydrophile. La détermination de leurs teneurs en carbone organique, suivie par leur caractérisation spectrale UV et de fluorescence tridimensionnelle, a mis en évidence la prédominance de l'impact de la profondeur sur leurs répartitions et sur leurs propriétés qualitatives. L'impact de l'incorporation des résidus végétaux frais dans le sol et des paramètres climatiques sur ces propriétés s'est montré plus ponctuel. L'étude des propriétés complexantes effectuée grâce à l'approche fluorimétrique a montré que les trois fractions de la MOEE se caractérisent par des importantes capacités complexantes, notamment les fractions hydrophiles. Une méthodologie alternative a été développée basée sur l'exploitation des spectres UV par déconvolution spectrale permettant d'obtenir, par une simple analyse spectrale, un fractionnement de la MOEE analogue à celui obtenu sur résine et une quantification du carbone total et de chaque fraction en plus des nitrates
11

Soulez, Ferréol. "Une approche problèmes inverses pour la reconstruction de données multi-dimensionnelles par méthodes d'optimisation." Phd thesis, Université Jean Monnet - Saint-Etienne, 2008. http://tel.archives-ouvertes.fr/tel-00379735.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail utilise l'approche « problèmes inverses » pour la reconstruction dans deux domaines différents : l'holographie numérique de micro-particules et la deconvolution aveugle.
L'approche « problèmes inverses » consiste à rechercher les causes à partir des effets ; c'est-à-dire estimer les paramètres décrivant un système d'après son observation. Pour cela, on utilise un modèle physique décrivant les liens de causes à effets entre les paramètres et les observations. Le terme inverse désigne ainsi l'inversion de ce modèle direct. Seulement si, en règle générale, les mêmes causes donnent les mêmes effets, un même effet peut avoir différentes causes et il est souvent nécessaire d'introduire des a priori pour restreindre les ambiguïtés de l'inversion. Dans ce travail, ce problème est résolu en estimant par des méthodes d'optimisations, les paramètres minimisant une fonction de coût regroupant un terme issu du modèle de formation des données et un terme d'a priori.

Nous utilisons cette approche pour traiter le problème de la déconvolution aveugle de données multidimensionnelles hétérogène ; c'est-à-dire de données dont les différentes dimensions ont des significations et des unités différentes. Pour cela nous avons établi un cadre général avec un terme d'a priori séparable, que nous avons adapté avec succès à différentes applications : la déconvolution de données multi-spectrales en astronomie, d'images couleurs en imagerie de Bayer et la déconvolution aveugle de séquences vidéo bio-médicales (coronarographie, microscopie classique et confocale).

Cette même approche a été utilisée en holographie numérique pour la vélocimétrie par image de particules (DH-PIV). Un hologramme de micro-particules sphériques est composé de figures de diffraction contenant l'information sur la la position 3D et le rayon de ces particules. En utilisant un modèle physique de formation de l'hologramme, l'approche « problèmes inverses » nous a permis de nous affranchir des problèmes liées à la restitution de l'hologramme (effet de bords, images jumelles...) et d'estimer les positions 3D et le rayon des particules avec une précision améliorée d'au moins un facteur 5 par rapport aux méthodes classiques utilisant la restitution. De plus, nous avons pu avec cette méthode détecter des particules hors du champs du capteur élargissant ainsi le volume d'intérêt d'un facteur 16.
12

Lelong, Adrien. "Méthodes de diagnostic filaire embarqué pour des réseaux complexes." Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10121/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux de recherche présentés dans cette thèse portent sur le diagnostic de réseaux filaires en ligne. Il s'agit de détecter et de localiser des défauts électriques permanents ou intermittents sur le réseau d'un système alors que celui-ci est en fonctionnement. Ce type de diagnostic passe par des méthodes basées sur le principe de la réflectométrie, utilisées jusqu'alors pour le diagnostic hors ligne. L'objectif est l'étude et l'optimisation de méthodes de réflectométrie et la mise au point des traitements associés dans le but d'automatiser le diagnostic et de l'embarquer au sein du système cible pour une exécution en temps réel. La première contribution concerne l'utilisation de signaux multiporteurs afin de minimiser les interférences entre le système cible en fonctionnement et la réflectométrie. Cela requiert la mise en oeuvre d'algorithmes de déconvolution impulsionnelle également utilisés pour effectuer les traitements haute résolution. Une méthode de déconvolution semi-aveugle à faible coût de de calcul est notamment proposée. Le cas de la réflectométrie distribuée, qui consiste à effectuer l'injection et la mesure simultanément en plusieurs points d'un même réseau est également abordé. Une méthode de filtrage innovante, qualifiée de "moyennes sélectives", est proposée pour résoudre le problème des interférences entre les modules soulevé par l'injection simultanée de plusieurs signaux. Enfin, les différents aspects liés à la mise en oeuvre et à l'automatisation sont traités. Un algorithme innovant de détection des défauts intermittents en milieu bruité est notamment proposé
Research works presented in this thesis rely on on line diagnosis of wire networks. It consists indetecting and locating intermittent or permanent electrical faults, on a system's network while this system is running. Such a diagnosis is based on the principle of reflectometry which is used for off line diagnosis until then. The aim is the analysis and improvement of reflectometry methods and the implementation of related processing in order to automate and to embed it in the target system for a real time execution. The first contribution refers to the use of multicarrier signals so as to minimize interferences between the running target system and the reflectometry module. Pulse deconvolution algorithms are required for this purpose. These algorithms are also used for high resolution processing described subsequently. A low computational cost semi-blind deconvolution method is proposed among others. Distributed reflectometry, consisting in the simultaneous injection of signals at several points of the network, is then studied. An innovative filtering method called "selective average" is proposed as a solution to the problem of interferences due to the simultaneous injection of the modules. Finally several considerations on the implementation and automation are studied. An innovative intermittent fault detection algorithm for noisy environment is also proposed
13

Moreau, Frédérique. "Méthodes de traitement de données géophysiques par transformée en ondelettes." Phd thesis, Université Rennes 1, 1995. http://tel.archives-ouvertes.fr/tel-00656040.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse concerne le développement de nouvelles méthodes de traitement et d'interprétation de données de champs de potentiel. Dans un premier temps, nous avons élaboré un algorithme rapide de débruitage de données géophysiques par transformée en ondelettes orthogonales. La méthode proposée permet de tenir compte des non-stationnarités du rapport signal/bruit. Elle est basée sur quelques tests statistiques qui permettent de séparer les coefficients d'ondelettes dus au signal de ceux dus au bruit. Le signal est alors reconstruit par transformée inverse sur les coefficients conservés. L'idée directrice de la deuxième méthode est d'effectuer une imagerie structurale du soussol à partir d'un champ mesuré en surface. Nous avons d'abord intégré la théorie du potentiel dans la théorie des ondelettes, par l'intermédiaire de l'homogénéité des champs dus à des sources multipolaires. L'introduction d'ondelettes définies à partir du noyau de Poisson permet alors de déterminer précisément la localisation et le degré d'homogénéité des sources présentes. L'utilisation des lignes d'extréma de la transformée rend la méthode robuste vis-à-vis du bruit. Nous avons ensuite généralisé la méthode au cas des sources étendues, ce qui nous permet de localiser et de caractériser des bords d'objets. L'inclinaison des structures peut être déterminée par l'utilisation d'ondelettes complexes. En dernier lieu, cette formulation du problème inverse nous a permis de développer une méthode de filtrage par critères structuraux (type et profondeurs des sources). Nous donnons quelques exemples d'applications sur des données gravimétriques. Les possibilités de la méthode sont illustrées sur des zones de fractures ou de subduction.
14

Baudour, Alexis. "Détection de filaments dans des images 2D et 3D : modélisation, étude mathématique et algorithmes." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00507520.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse aborde le problème de la modélisation et de la détection des filaments dans des images 3D. Nous avons développé des méthodes variationnelles pour quatre applications spécifiques : l'extraction de routes où nous avons introduit la notion de courbure totale pour conserver les réseaux réguliers en tolérant les discontinuités de direction ; la détection et la complétion de filaments fortement bruités et présentant des occultations. Nous avons utilisé la magnétostatique et la théorie de Ginzburg-Landau pour représenter les filaments comme ensemble de singularités d'un champ vectoriel ; la détection de filaments dans des images biologiques acquises en microscopie confocale. On modélise les filaments en tenant compte des spécificités de cette dernière. Les filaments sont alors obtenus par une méthode de maximum à posteriori ; la détection de cibles dans des séquences d'images infrarouges. Dans cette application, on cherche des trajectoires optimisant la différence de luminosité moyenne entre la trajectoire et son voisinage en tenant compte des capteurs utilisés. Par ailleurs, nous avons démontré des résultats théoriques portant sur la courbure totale et la convergence de la méthode d'Alouges associée aux systèmes de Ginzburg-Landau. Ce travail réunit à la fois modélisation, résultats théoriques et recherche d'algorithmes numériques performants permettant de traiter de réelles applications.
15

Mazet, Vincent. "Développement de méthodes de traitement de signaux spectroscopiques : estimation de la ligne de base et du spectre de raies." Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011477.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans le cadre d'une collaboration entre le CRAN (UMR 7039) et le LCPME (UMR 7564) dont l'objectif est de développer des méthodes d'analyse de signaux spectroscopiques.

Dans un premier temps est proposée une méthode déterministe qui permet d'estimer la ligne de base des spectres par le polynôme qui minimise une fonction-coût non quadratique (fonction de Huber ou parabole tronquée). En particulier, les versions asymétriques sont particulièrement bien adaptées pour les spectres dont les raies sont positives. Pour la minimisation, on utilise l'algorithme de minimisation semi-quadratique LEGEND.

Dans un deuxième temps, on souhaite estimer le spectre de raies : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Une première approche formalise le problème en tant que déconvolution impulsionnelle myope non supervisée. En particulier, le signal impulsionnel est modélisé par un processus Bernoulli-gaussien à support positif ; un algorithme d'acceptation-rejet mixte permet la simulation de lois normales tronquées. Une alternative intéressante à cette approche est de considérer le problème comme une décomposition en motifs élémentaires. Un modèle original est alors introduit ; il a l'intérêt de conserver l'ordre du système fixe. Le problème de permutation d'indices est également étudié et un algorithme de ré-indexage est proposé.

Les algorithmes sont validés sur des spectres simulés puis sur des spectres infrarouge et Raman réels.
16

Vallée, Martin. "Etude cinématique de la rupture sismique en champ lointain : méthodes et résolution." Phd thesis, Grenoble 1, 2003. http://tel.archives-ouvertes.fr/tel-00745005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse propose un ensemble de méthodes visant à la description de la cinématique de la source sismique, et cela principalement à distance lointaine. Nous utilisons des données et des approches variées: d'une part nous combinons l'usage des ondes de volume et des ondes de surface et d'autre part nous considérons à la fois une modélisation déterministe de la propagation (à partir des modèles de Terre globaux) et une modélisation empirique (fournie par un véritable séisme, appelé "fonction de Green empirique"). Deux situations sont alors considérées : soit l'on s'intéresse à un séisme précis, que l'on étudie spécifiquement (1), soit l'on s'intéresse aux séismes de forte magnitude dans leur globalité, et l'on cherche les caractéristiques cinématiques qui peuvent être résolues de manière quasi-automatique (2). Dans les deux cas, nous portons un intérêt particulier à la vitesse de rupture, que nous laissons librement varier sur la faille. L'approche (1), est appliquée au séisme d'El Salvador (13/ 01/ 2001,Mw = 7,7) et révèle que l'ensemble des données utilisées (champ lointain , régional et proche) est compatible avec le scénario suivant: la rupture s'est produite sur un plan plongeant à 6°* vers la côte et s'est propagée à la fois vers la surface et le Nord-Ouest, à une vitesse de 3-3,5km/s. La surface de rupture est d'environ 50km x 25km , sur laquelle le glissement moyen atteint 3.5m. Ce mécanisme s'explique bien par une accommodation de la flexion du slab. L'approche (2) nous a conduit à proposer une nouvelle description de la faille sismique : dans un souci de simplification, nous décrivons la rupture comme un ensemble de zones de glissement ayant chacune un glissement et une vitesse de rupture propres. Dès lors que l'on se restreint à des périodes assez longues (typiquement plus longues que le quart du temps de rupture) , l'utilisation d 'une ou de deux de ces zones rend bien compte des grands traits de la rupture. La pertinence de cette approche est démontrée au travers des séismes d ' Izmit (Turquie, 1999) et de Jalisco (Mexique, 1995). Nous avons développé à cette occasion une nouvelle méthode d'analyse par fonction de Green empirique, fondée sur l'inclusion de contraintes physiques dans la déconvolution. Cette méthode est plus spécifiquement appliquée au séisme du Pérou du 23/06/ 2001 (Mw = 8, 4).
17

Gillet, Guillaume. "Prédiction de la conformité des matériaux d'emballage par intégration de méthodes de déformulation et de modélisation du coefficient de partage." Thesis, Vandoeuvre-les-Nancy, INPL, 2008. http://www.theses.fr/2008INPL081N/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les matériaux plastiques contiennent des additifs, qui ne sont pas fixés dans la matrice polymère et risquent migrer dans les aliments. La directive européenne 2002/72 a introduit la possibilité de démontrer l’aptitude au contact alimentaire de ces matériaux à partir d’approches prédictives, dont l’application est limitée par la disponibilité de données de formulation et de physico-chimie. Ces travaux visent à adapter et développer des approches analytiques rapides pour identifier et quantifier les substances majoritaires contenues dans les plastiques et à développer une approche générique de prédiction des coefficients de partage entre des polymères et les simulants de l’aliment. Des méthodes conventionnelles d’extraction par solvant et de quantification en CLHP-UV-DEDL et CPG-DIF ont été comparées pour quatre formulations modèles de PEHD et PS. Une méthode rapide de déconvolution de spectres infrarouge d’extraits de PEHD a été développée pour identifier et quantifier les additifs. Un modèle prédictif des coefficients d’activité dans les PE et les simulants est proposé. Les contributions enthalpique et entropique non configurationnelle sont évaluées à partir d’un échantillonnage des énergies de contact paire à paire. Il est démontré que la contribution entropique configurationnelle est indispensable à la description de l’affinité de molécules de grande taille dans les simulants polaires ou non constitués de petites molécules. Des arbres de décision combinant approche expérimentale et modèle sont finalement discutés dans la logique de démonstration de la conformité et de veille sanitaire
Plastic packagings are formulated with additives, which can migrate from materials into foodstuffs. According to European directive 2002/72/EC, the ability of plastic materials to be used in contact with food can be demonstrated using modelling tools. Their use is however limited due to availability of some data, like the formulation of materials and partition coefficients of substances between plastics and food. On the one hand this work aims to develop the ability of laboratories to identify and quantify the main substances in plastic materials, and on the other hand it aims to develop a new method to predict partition coefficients between polymers and food simulants. Four formulations of both HDPE and PS were chosen and used during the work. Standard extraction methods and quantification methods using HPLC-UV-ELSD and GC-FID were compared. A new deconvolution process applied on infrared spectra of extracts was developed to identify and quantify additives contained in HDPE. Activity coefficients in both phases were approximated through a generalized off-lattice Flory-Huggins formulation applied to plastic materials and to liquids simulating food products. Potential contact energies were calculated with an atomistic semi-empirical forcefield. The simulations demonstrated that plastic additives have a significant chemical affinity, related to the significant contribution of the positional entropy, for liquids consisting in small molecules. Finally, decision trees, which combine both experimental and modelling approaches to demonstrate the compliance of plastic materials, were discussed
18

Cherni, Afef. "Méthodes modernes d'analyse de données en biophysique analytique : résolution des problèmes inverses en RMN DOSY et SM." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAJ055/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s’intéresse à la création de nouvelles approches algorithmiques pour la résolution du problème inverse en biophysiques. Dans un premier temps, on vise l’application RMN de type DOSY: une nouvelle approche de régularisation hybride a été proposée avec un nouvel algorithme PALMA (http://palma.labo.igbmc.fr/). Cet algorithme permet d’analyser des données réelles DOSY avec une précision importante quelque soit leur type. Dans un deuxième temps, notre intérêt s’est tourné vers l’application de spectrométrie de masse. Nous avons proposé une nouvelle approche par dictionnaire dédiée à l’analyse protéomique en utilisant le modèle averagine et une stratégie de minimisation sous contraintes d'une pénalité de parcimonie. Afin d’améliorer la précision de l’information obtenue, nous avons proposé une nouvelle méthode SPOQ, basée sur une nouvelle fonction de pénalisation, résolue par un nouvel algorithme Forward-Backward à métrique variable localement ajustée. Tous nos algorithmes bénéficient de garanties théoriques de convergence, et ont été validés expérimentalement sur des spectres synthétisés et des données réelles
This thesis aims at proposing new approaches to solve the inverse problem in biophysics. Firstly, we study the DOSY NMR experiment: a new hybrid regularization approach has been proposed with a novel PALMA algorithm (http://palma.labo.igbmc.fr/). This algorithm ensures the efficient analysis of real DOSY data with a high precision for all different type. In a second time, we study the mass spectrometry application. We have proposed a new dictionary based approach dedicated to proteomic analysis using the averagine model and the constrained minimization approach associated with a sparsity inducing penalty. In order to improve the accuracy of the information, we proposed a new SPOQ method based on a new penalization, solved with a new Forward-Backward algorithm with a variable metric locally adjusted. All our algorithms benefit from sounded convergence guarantees, and have been validated experimentally on synthetics and real data
19

Simonetti, Claude-Alexandre. "Développement d'un spectromètre/débitmètre neutrons transportable." Electronic Thesis or Diss., Normandie, 2023. http://www.theses.fr/2023NORMC262.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le projet DONEUT (DOsimètre NEUtrons) dans lequel s’inscrit cette thèse vise à répondre à un besoin avéré, des mondes militaire et civil, qui souhaitent déterminer de manière plus précise l’impact, fondamental dans le domaine de la radioprotection, des rayonnements neutroniques pour les personnels mettant en œuvre l’énergie nucléaire.Pour répondre à ce besoin, nécessitant une mesure rapide (≤ 10 min) et précise des débits d’équivalents de dose ambiants (H*(10)) et personnels (Hp(10)) neutrons rencontrés dans ces environnements industriels, entre 1 μSv/h et ~10 mSv/h, un prototype de spectromètre de forme cylindrique en polyéthylène multi-instrumenté, transportable (masse ≤ 15 kg), avec 32 détecteurs de neutrons thermiques placés à différentes profondeurs, a été développé dans le cadre de ce projet.Cet appareil permet de remonter, via des méthodes de déconvolution telles que MAXED ou GRAVEL, au spectre complet des neutrons, entre 0 et 20 MeV, dont la nocivité en exposition externe à distance dépend fortement de leur énergie. Les résultats se révèlent encourageants et en bon accord avec ceux obtenus avec le spectromètre NNS (Nested Neutron Spectrometer) qui a servi de référence, avec une bonne discrimination entre les rayonnements gamma et neutronique
The DONEUT (DOsimètre NEUtrons) project in which this thesis is included, has to answer to the following issue for the civilian an military nuclear industries : a more precise determination of the neutron impact on the human body, fundamental in radiation protection.To fulfill theses requirements, which consist of measuring an ambient or personal dose equivalent rateS (H*(10) or Hp(10)) from 1 µSv/h to ~10 mSv/h in less than 10 minutes, a transportable (mass ≤ 15 kg) multi detectors cylindric prototype has been developed, with 32 thermal neutron detectors placed at different depths.This device is able to rebuild a full neutron spectrum from 0 to 20 MeV through unfolding computer codes like MAXED and GRAVEL, and the results are in good agreement with those obtained with the NNS spectrometer (Nested Neutron Spectrometer), which was our reference, with a good gamma/neutron discrimination
20

Ben, Kahla Haithem. "Sur des méthodes préservant les structures d'une classe de matrices structurées." Thesis, Littoral, 2017. http://www.theses.fr/2017DUNK0463/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les méthodes d'algèbres linéaire classiques, pour le calcul de valeurs et vecteurs propres d'une matrice, ou des approximations de rangs inférieurs (low-rank approximations) d'une solution, etc..., ne tiennent pas compte des structures de matrices. Ces dernières sont généralement détruites durant le procédé du calcul. Des méthodes alternatives préservant ces structures font l'objet d'un intérêt important par la communauté. Cette thèse constitue une contribution dans ce domaine. La décomposition SR peut être calculé via l'algorithme de Gram-Schmidt symplectique. Comme dans le cas classique, une perte d'orthogonalité peut se produire. Pour y remédier, nous avons proposé deux algorithmes RSGSi et RMSGSi qui consistent à ré-orthogonaliser deux fois les vecteurs à calculer. La perte de la J-orthogonalité s'est améliorée de manière très significative. L'étude directe de la propagation des erreurs d'arrondis dans les algorithmes de Gram-Schmidt symplectique est très difficile à effectuer. Nous avons réussi à contourner cette difficulté et donner des majorations pour la perte de la J-orthogonalité et de l'erreur de factorisation. Une autre façon de calculer la décomposition SR est basée sur les transformations de Householder symplectique. Un choix optimal a abouti à l'algorithme SROSH. Cependant, ce dernier peut être sujet à une instabilité numérique. Nous avons proposé une version modifiée nouvelle SRMSH, qui a l'avantage d'être aussi stable que possible. Une étude approfondie a été faite, présentant les différentes versions : SRMSH et SRMSH2. Dans le but de construire un algorithme SR, d'une complexité d'ordre O(n³) où 2n est la taille de la matrice, une réduction (appropriée) de la matrice à une forme condensée (J(Hessenberg forme) via des similarités adéquates, est cruciale. Cette réduction peut être effectuée via l'algorithme JHESS. Nous avons montré qu'il est possible de réduire une matrice sous la forme J-Hessenberg, en se basant exclusivement sur les transformations de Householder symplectiques. Le nouvel algorithme, appelé JHSJ, est basé sur une adaptation de l'algorithme SRSH. Nous avons réussi à proposer deux nouvelles variantes, aussi stables que possible : JHMSH et JHMSH2. Nous avons constaté que ces algorithmes se comportent d'une manière similaire à l'algorithme JHESS. Une caractéristique importante de tous ces algorithmes est qu'ils peuvent rencontrer un breakdown fatal ou un "near breakdown" rendant impossible la suite des calculs, ou débouchant sur une instabilité numérique, privant le résultat final de toute signification. Ce phénomène n'a pas d'équivalent dans le cas Euclidien. Nous avons réussi à élaborer une stratégie très efficace pour "guérir" le breakdown fatal et traîter le near breakdown. Les nouveaux algorithmes intégrant cette stratégie sont désignés par MJHESS, MJHSH, JHM²SH et JHM²SH2. Ces stratégies ont été ensuite intégrées dans la version implicite de l'algorithme SR lui permettant de surmonter les difficultés rencontrées lors du fatal breakdown ou du near breakdown. Rappelons que, sans ces stratégies, l'algorithme SR s'arrête. Finalement, et dans un autre cadre de matrices structurées, nous avons présenté un algorithme robuste via FFT et la matrice de Hankel, basé sur le calcul approché de plus grand diviseur commun (PGCD) de deux polynômes, pour résoudre le problème de la déconvolution d'images. Plus précisément, nous avons conçu un algorithme pour le calcul du PGCD de deux polynômes bivariés. La nouvelle approche est basée sur un algorithme rapide, de complexité quadratique O(n²), pour le calcul du PGCD des polynômes unidimensionnels. La complexité de notre algorithme est O(n²log(n)) où la taille des images floues est n x n. Les résultats expérimentaux avec des images synthétiquement floues illustrent l'efficacité de notre approche
The classical linear algebra methods, for calculating eigenvalues and eigenvectors of a matrix, or lower-rank approximations of a solution, etc....do not consider the structures of matrices. Such structures are usually destroyed in the numerical process. Alternative structure-preserving methods are the subject of an important interest mattering to the community. This thesis establishes a contribution in this field. The SR decomposition is usually implemented via the symplectic Gram-Schmidt algorithm. As in the classical case, a loss of orthogonality can occur. To remedy this, we have proposed two algorithms RSGSi and RMSGSi, where the reorthogonalization of a current set of vectors against the previously computed set is performed twice. The loss of J-orthogonality has significantly improved. A direct rounding error analysis of symplectic Gram-Schmidt algorithm is very hard to accomplish. We managed to get around this difficulty and give the error bounds on the loss of the J-orthogonality and on the factorization. Another way to implement the SR decomposition is based on symplectic Householder transformations. An optimal choice of free parameters provided an optimal version of the algorithm SROSH. However, the latter may be subject to numerical instability. We have proposed a new modified version SRMSH, which has the advantage of being numerically more stable. By a detailes study, we are led to two new variants numerically more stables : SRMSH and SRMSH2. In order to build a SR algorithm of complexity O(n³), where 2n is the size of the matrix, a reduction to the condensed matrix form (upper J-Hessenberg form) via adequate similarities is crucial. This reduction may be handled via the algorithm JHESS. We have shown that it is possible to perform a reduction of a general matrix, to an upper J-Hessenberg form, based only on the use of symplectic Householder transformations. The new algorithm, which will be called JHSH algorithm, is based on an adaptation of SRSH algorithm. We are led to two news variants algorithms JHMSH and JHMSH2 which are significantly more stable numerically. We found that these algortihms behave quite similarly to JHESS algorithm. The main drawback of all these algorithms (JHESS, JHMSH, JHMSH2) is that they may encounter fatal breakdowns or may suffer from a severe form of near-breakdowns, causing a brutal stop of the computations, the algorithm breaks down, or leading to a serious numerical instability. This phenomenon has no equivalent in the Euclidean case. We sketch out a very efficient strategy for curing fatal breakdowns and treating near breakdowns. Thus, the new algorithms incorporating this modification will be referred to as MJHESS, MJHSH, JHM²SH and JHM²SH2. These strategies were then incorporated into the implicit version of the SR algorithm to overcome the difficulties encountered by the fatal breakdown or near-breakdown. We recall that without these strategies, the SR algorithms breaks. Finally ans in another framework of structured matrices, we presented a robust algorithm via FFT and a Hankel matrix, based on computing approximate greatest common divisors (GCD) of polynomials, for solving the problem pf blind image deconvolution. Specifically, we designe a specialized algorithm for computing the GCD of bivariate polynomials. The new algorithm is based on the fast GCD algorithm for univariate polynomials , of quadratic complexity O(n²) flops. The complexitiy of our algorithm is O(n²log(n)) where the size of blurred images is n x n. The experimental results with synthetically burred images are included to illustrate the effectiveness of our approach
21

Sallard, Julien. "Étude d'une méthode de déconvolution adaptée aux images ultrasonores." Grenoble INPG, 1999. http://www.theses.fr/1999INPG0034.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail presente dans ce memoire porte sur le developpement d'une methode originale de restauration des signaux echographiques. L'objectif est de s'affranchir des perturbations induites par le capteur ultrasonore et de fournir une aide a la caracterisation des defauts lies a une discontinuite locale forte de l'impedance acoustique du milieu. La demarche adoptee consiste a realiser une synthese entre la modelisation physique et le traitement du signal pour aboutir a une technique operationnelle sur des donnees experimentales. Le signal echographique mesure est modelise sous la forme d'un produit de convolution entre une fonction representative de la forme d'onde emise par le traducteur et une fonction appelee par abus de langage reponse impulsionnelle du defaut. On montre que, dans de nombreux cas, le signal ultrasonore peut s'exprimer sous la forme d'une somme de repliques ponderees, decalees et dephasees d'un meme signal. La deconvolution est un probleme mal-pose dont la resolution necessite l'introduction d'informations a priori. L'a priori traduit les caracteristiques physiques des signaux ultrasonores. La reponse impulsionnelle du defaut est modelisee par une sequence double-bernoulli-gaussienne. La deconvolution devient un probleme de detection de la sequence de bernoulli optimale et d'estimation des amplitudes complexes associees. Les parametres optimaux de la sequence sont ceux maximisant une fonction de vraisemblance. Une nouvelle methode d'estimation des parametres fondee sur un processus d'optimisation est proposee. Le choix d'une procedure d'initialisation appropriee et d'une structure algorithmique iterative permet de traiter rapidement un volume de donnee important. Les resultats obtenus sur divers signaux ultrasonores experimentaux representatifs de configurations de controle courantes attestent de la robustesse de la methode. La demarche presentee permet non seulement de s'affranchir de la forme d'onde emise par le traducteur, mais en plus elle fournit une indication sur la phase des echos, parametre important pour la caracterisation des defauts. Enfin, la methode proposee facilite l'interpretation des donnees en concentrant l'information et ouvre donc la voie a une caracterisation automatique des defauts.
22

Colicchio, Bruno. "Déconvolution adaptative en microscopie tridimensionnelle de fluorescence." Mulhouse, 2004. http://www.theses.fr/2004MULH0779.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le microscope de fluorescence a pris une place importante pour l’étude du fonctionnement des cellules vivantes. Cependant, les données acquises ne sont pas directement exploitables en vu de mesures quantitatives car ces données subissent des distorsions. Une déconvolution est une solution au probl`eme. Des méthodes ont été proposées, mais requi`erent des connaissances de l’utilisateur pour le réglage de param`etres qui sont critiques, car ce probl`eme inverse est ’mal posé’ et une étape de régularisation est nécessaire. La premi`ere partie propose une automatisation du choix des param`etres de régularisation des méthodes directes. L’objectif est de permettre une utilisation de routine pour des non-spécialistes, permettant une constance des résultats ainsi qu’une stabilité accrue. Les méthodes directes automatisées ont été appliquées `a des images de cytologie et de cytogénétique moléculaire. Cependant, les déconvolutions nécessitent une bonne caractérisation du syst`eme, et une étude sur les param`etres susceptibles de varier entre plusieurs acquisitions est présentée. La seconde partie de cette th`ese propose un algorithme permettant la prise en compte de la non invariance du syst`eme, basé sur le processus de formation d’image. Par une approche Monte-Carlo, la solution est calculée par essais successifs aléatoires, en suivant une distribution de probabilité qui est fonction de l’erreur de biais entre l’estimation dans le plan ’image’ et l’image observée. La solution est obtenue en minimisant, par un algorithme de recuit simulé, une fonction d’erreur dans l’espace ’image’, avec contraintes sur le voisinage dans l’espace ’objet’
The 3D fluorescence microscope has become the method of choice in biological sciences for living cells study. However, the data acquired with conventional 3D fluorescence microscope are not quantitatively significant for spatial distribution or volume evaluation of fluorescent areas in reason of distortions. Deconvolution is a solution. Direct methods have been proposed, but knowledge of users for the tuning of critical parameters are required, because of the regularization needs due to the ill posed nature of the problem. The first part of this work present the automated tuning of direct methods regularization parameter. The aim is to permit the use of deconvolution by non specialists, giving constant results. The automated direct methods were applied on cytology and cytogenetic 3D data. The presented methods require a sharp characterization of the instrument, so an analysis of the influence of variation of the optical setup on the deconvolution result is presented. The last part of the work present concern the second tendency of deconvolution algorithms, by taking into account the space-variant response case. The solution is computed by a Monte-Carlo process, random guesses following a probability distribution function linked to the bias error of the estimation of the observed image and the raw observed image. The solution is obtained by the minimization of an error criterion in image space with neighborhood constraints in object space
23

Gu, Yi. "Estimation sous contrainte et déconvolution autodidacte." Paris 11, 1989. http://www.theses.fr/1989PA112063.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Partie A : Estimation sous contrainte. Le filtre optimal apparaissant dans l'estimation linéaire en moyenne quadratique peut-être obtenu par projection sur l'espace des observations. Cette méthode de projection n'est pas particulière à l'estimation linéaire et peut-être étendue dans de nombreuses directions. Tout d'abord l'espérance conditionnelle donnant la meilleure estimation en moyenne quadratique est aussi une projection. De plus de nombeurx problèmes d'estimation non linéaires peuvent être résolus par projection et c'est tout spécialement le cas des problèmes sous contriantes étudiés en détail dans cet article. Partie B : Déconvolution autodidacte. Quand l'entrée est discrète le problème de la déconvolution d'un canal représenté par une fraction rationnelle (fonction de transfert) peut être considéré comme un problème d'estimation particulier, celui avec contrainte non linéaire définie par un ensemble de décision correcte, dont l'existence est dûe à l'entrée discrète. Deux théorèmes fondamentaux sont établis : un théorème sur la condition d'existence de la solution ; un théorème qui montre que si l'ordre de la partie transverse de l'égaliseur est assez élevé, cette condition d'existence est satisfaite. Cette théorie est étendue au cas où un bruit est ramené à l'entrée ou à la sortie du canal. Pour résoudre de façon adaptative ce problème, l'initialisation s'impose. Deux techniques d'initialisation sont développées : la méthode de prédiction et de rétroprédiction qui n'a pas besoin de la connaissance a priori de l'entrée ni de sa distribution. La méthode du moment n'est présentée que comme une applicaiton, à l'initialisation, de la méthode générale de la déconvolution. La simulation montre que tous les travaux de la partie B peuvent se baser sur la théorie classique d'estimation et sur les principes de prédiction et de rétroprédiction. Ces théories appliquées à une structure d'égalisation, elle même pilotée par un algorithme classique bien initialisée, peuvent résussir à traiter le cas où l'entrée est discrète.
24

Reese, Daniel. "La modélisation des oscillations d'étoiles en rotation rapide." Phd thesis, Université Paul Sabatier - Toulouse III, 2006. http://tel.archives-ouvertes.fr/tel-00123615.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, on étudie de manière précise les effets de la rotation rapide sur les oscillations stellaires. Les méthodes précédentes étaient inadéquates par rapport aux exigences de l'astérosismologie, soit parce qu'elles prenaient en compte de manière perturbative la rotation, ce qui les limite à de faibles vitesses de rotation, soit à cause d'une précision numérique insuffisante. Pour répondre à ces difficultés, on développe ici une approche complète basée sur l'utilisation de méthodes spectrales et d'un système de coordonnées qui s'adapte à la forme aplatie de l'étoile. On calcule alors des modes acoustiques et des fréquences propres de modèles polytropiques d'étoiles en rotation uniforme. À partir des résultats obtenus, on établit, pour la première fois, des domaines de validité des méthodes perturbatives. On analyse, par ailleurs, l'organisation asymptotique du spectre de fréquences et la structure géométrique des modes de pulsations à des vitesses de rotation élevées.
25

Rosec, Olivier. "Déconvolution aveugle multicapteur en sismique réflexion marine très haute résolution." Brest, 2000. http://www.theses.fr/2000BRES2014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these traite de la deconvolution aveugle multicapteur en sismique reflexion marine tres haute resolution (thr). Le but est d'eliminer dans les enregistrements l'effet de la source afin de retrouver la reflectivite du sous-sol. Une etude detaillee des principales caracteristiques de la sismique reflexion marine thr revele qu'il est impossible de connaitre avec suffisamment de precision l'ondelette source emise. Ainsi, avant de deconvoluer les signaux, une etape d'identification est indispensable. L'estimation du modele de convolution utilise le formalisme bayesien. Le caractere impulsionnel de la reflectivite est modelise a l'aide d'un processus bernoulli-gaussien. Dans ce contexte, l'estimation se ramene a un probleme de maximisation de vraisemblance, ce qui conduit a des versions stochastiques de l'algorithme em. Nous traitons egalement l'estimation dans un cadre totalement bayesien en introduisant de l'a priori sur les parametres. Cette approche constitue une generalisation des algorithmes a base de maximum de vraisemblance. L'estimation se fait alors par des algorithmes mcmc de type echantillonneur de gibbs. Pour la deconvolution, la modelisation bernoulli-gaussienne est a nouveau utilisee et des algorithmes tels que le mpm ou le recuit simule fournissent des resultats satisfaisants. D'autre part, pour apporter des contraintes entre signaux adjacents (tirs ou traces consecutifs), une modelisation 2d du processus de reflectivite par champs de markov a ete etudiee. L'objectif est d'integrer dans le modele la continuite des couches sedimentaires en introduisant des interactions entre reflecteurs voisins. L'ensemble de ces traitements a ete applique a des signaux synthetiques puis sur des donnees reelles et les resultats obtenus sont satisfaisants.
26

Nsiri, Benayad. "Identification et Déconvolution aveugle : Application aux signaux de sismique-réflexion sous-marine." Brest, 2004. http://www.theses.fr/2004BRES2022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La déconvolution aveugle consiste à déterminer l'ondelette source et la séquence de réflectivité (la réponse du milieu). Dans cette thèse, nous avons principalement orienté le travail sur la déconvolution aveugle basée sur les critères du maximum de vraisemblance et de la moyenne a posteriori. Pour cela, nous avons appliqué des algorithmes stochastiques de type SEM et SAEM et de type MCMC pour l'approche bayèsienne. Une difficulté bien connue de ces algorithmes est leur sensibilité à l'initialisation de l'ondelette. Pour résoudre ce problème, on a proposé une nouvelle méthode qui permet la détection des optima locaux de l'ondelette, utilisée conjointement au critère du maximum de kurtosis pour le choix de l'optimum global de l'ondelette. De plus, l'application directe des algorithmes pour une réponse impulsionnelle longue de l'ondelette donne une muavaise estimation de cette dernière. Pour remédier à ce problème, on propose une estimation de l'ondelette en deux temps
In seismic deconvolution, a blind approach must be considered when the reflectivity sequence, the source wevelet signal and the noise power level are unknown. Blind deconvolution aims to determine the wavelet source and the reflectivity sequence. In this thesis, we mainly focused our work on blind deconvolution in the maximum likelihood and a posterior via SEM algorithm and Bayesian approach using MCMC method. A well-known difficulty is the sensitivity of these algorithms to the wavelet initialization. A new methods is proposed to solve this problem. It consists in detecting the wavelet local optima, before using the maximum kurtosis criterion in order to choose the wavelet global optimum. In some experiments of practical interest where the wavelet is quite long, wavelet estimators generally have high variances. We propose a new method that overcomes this problem within the framework of classical blind deconvolution techniques. In this context, a two-step approach is proposed
27

Margueritte, Laure. "Développement d’une méthode de déconvolution pharmacophorique pour la découverte accélérée d’antipaludiques chez les Rhodophytes." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAF048/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’apparition de P. falciparum résistants aux CTAs est un problème majeur en Asie du Sud-Est. Il est nécessaire de rechercher des molécules présentant des mécanismes d’actions nouveaux. Une cible d’intérêt est l’apicoplaste, un organite de Plasmodium issu d’une endosymbiose avec une algue rouge. Les algues rouges pourraient présenter une source privilégiée de nouvelles molécules antipaludiques ciblant notamment les voies de biosynthèse apicoplastique. Cette thèse porte sur l’identification de ces métabolites secondaires bioactifs via le développement d’une nouvelle stratégie analytique. Un programme informatique nommé Plasmodesma a été créé et permet l’analyse différentielle de manière automatique de spectres RMN 2D 1H-1H et 1H-13C. Les molécules actives peuvent ensuite être isolées et identifiées par HPLC-SPE-RMN. L’activité antipaludique mise en évidence dans les algues rouges étudiées serait due à la présence de molécules de classes chimiques différentes dont des stérols
Malaria is responsible for 445 000 deaths in 2016. The emergence and the spread of resistant P. falciparum to artemisinin-based combinations is a major health problem in South-East Asia. Research must continue to find compounds with a novel mechanism of action. The apicoplast is an interesting target. It is a Plasmodium organelle derived from a secondary endosymbiosis with a red alga. Red algae could be a special source of new antiplasmodial compounds targeting the isoprenoid biosynthesis pathway in the apicoplast. This thesis focuses on bioactive secondary metabolites identification via a new analytical strategy. A computer program called Plasmodesma was created and achieves an automatic differential analysis of 1H-1H and 1H-13C 2D NMR spectra. Bioactive compounds are isolated and identified by hyphenated HPLC-SPE-NMR. The presence of different classes of compounds including sterols could explain the antiplasmodial activity in studied the red algae species
28

Traullé, Benjamin. "Techniques d’échantillonnage pour la déconvolution aveugle bayésienne." Electronic Thesis or Diss., Toulouse, ISAE, 2024. http://www.theses.fr/2024ESAE0004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces travaux de thèse abordent deux défis principaux dans le domaine de la déconvolution aveugle (DA) bayésienne via l’utilisation de méthodes Markov chain Monte Carlo (MCMC). Tout d’abord, en DA, il est courant d’utiliser des lois a priori de type gaussien. Cependant, ces lois ne résolvent pas le problème de l’ambiguïté d’échelle. Cette dernière pose des difficultés à la convergence des algorithmes MCMC classiques, qui présentent un échantillonnage lent de l’échelle, et complique la conception d’estimateurs sans échelle, pourtant souhaitables en pratique. Pour surmonter cette limitation, un a priori de von Mises-Fisher est proposé et permet de supprimer efficacement l’ambiguïté d’échelle. Cette approche a déjà montré son effet régularisant dans d’autres problèmes inverses, notamment la DA basée sur l’optimisation. Les avantages de cet a priori au sein des algorithmes MCMC par rapport aux a priori gaussiens conventionnels sont discutés en faibles dimensions tant d’un point de vue théorique qu’expérimental. Cependant, la nature multimodale des postérieures demeure et peut encore entraver l’exploration de l’espace d’état, en particulier lors de l’utilisation d’algorithmes tel que l’échantillonneur de Gibbs. Ces mauvaises propriétés de mélange entraînent des performances sous-optimales en matière d’exploration inter- et intra-mode et peuvent rendre peu pertinente l’utilisation d’estimateurs bayésiens à ce stade. Pour résoudre ce problème, nous proposons une approche originale basée sur l’utilisation d’un algorithme reversible jump MCMC (RJMCMC) qui améliore considérablement l’exploration de l’espace en générant de nouveaux états dans des régions à forte probabilité, qui ont été identifiées dans une étape préliminaire. L’efficacité de l’algorithme RJMCMC est démontrée empiriquement dans le cadre de postérieures fortement multimodales, en petites dimensions, tant dans le cas d’a priori gaussiens, que d’a priori de von Mises–Fisher. Enfin, le comportement observé du RJMCMC en dimensions croissantes semble conforter l’idée d’une telle approche pour échantillonner des distributions multimodales dans le cadre de la DA bayésienne
These thesis works address two main challenges in the field of Bayesian blind deconvolution using Markov chain Monte Carlo (MCMC) methods. Firstly, in Bayesian blind deconvolution, it is common to use Gaussian-type priors. However, these priors do not solve the scale ambiguity problem. The latter poses difficulties in the convergence of classical MCMC algorithms, which exhibit slow scale sampling, and complicates the design of scale-free estimators. To overcome this limitation, a von Mises–Fisher prior is proposed, which alleviates the scale ambiguity. This approach has already demonstrated its regularization effect in other inverse problems, including optimization-based blind deconvolution. The advantages of this prior within MCMC algorithms are discussed compared to conventional Gaussian priors, both theoretically and experimentally, especially in low dimensions. However, the multimodal nature of the posterior distribution still poses challenges and decreases the quality of the exploration of the state space, particularly when using algorithms such as the Gibbs sampler. These poor mixing properties lead to suboptimal performance in terms of inter-mode and intra-mode exploration and can limit the usefulness of Bayesian estimators at this stage. To address this issue, we propose an original approach based on the use of a reversible jump MCMC (RJMCMC) algorithm, which significantly improves the exploration of the state space by generating new states in high probability regions identified in a preliminary stage. The effectiveness of the RJMCMC algorithm is empirically demonstrated in the context of highly multimodal posteriors, particularly in low dimensions, for both Gaussian and von Mises–Fisher priors. Furthermore, the observed behavior of RJMCMC in increasing dimensions provides support for the applicability of this approach for sampling multimodal distributions in the context of Bayesian blind deconvolution
29

Deslandes, Antoine. "Développement d'une méthode de calcul de profils d'absorption par déconvolution : application à l'étude de l'absorption d'antibiotiques." Paris 11, 1995. http://www.theses.fr/1995PA114843.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Gauthier, Marianne. "Etude de l’influence de l’entrée artérielle tumorale par modélisation numérique et in vitro en imagerie de contraste ultrasonore. : application clinique pour l’évaluation des thérapies ciblées en cancérologie." Thesis, Paris 11, 2011. http://www.theses.fr/2011PA11T088.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’échographie dynamique de contraste (DCE-US) est actuellement proposée comme technique d’imagerie fonctionnelle permettant d’évaluer les nouvelles thérapies anti-angiogéniques. Dans ce contexte, L'UPRES EA 4040, Université Paris-Sud 11, et le service d'Echographie de l'Institut Gustave Roussy ont développé une méthodologie permettant de calculer automatiquement, à partir de la courbe de prise de contraste moyenne obtenue dans la tumeur après injection en bolus d’un agent de contraste, un ensemble de paramètres semi-quantitatifs. Actuellement, l’état hémodynamique du patient ou encore les conditions d’injection du produit de contraste ne sont pas pris en compte dans le calcul de ces paramètres à l’inverse d’autres modalités (imagerie par résonance magnétique dynamique de contraste ou scanner de perfusion). L’objectif de cette thèse était donc d’étendre la méthode de déconvolution utilisée en routine dans les autres modalités d’imagerie à l’échographie de contraste. Celle-ci permet de s’affranchir des conditions citées précédemment en déconvoluant la courbe de prise de contraste issue de la tumeur par la fonction d’entrée artérielle, donnant ainsi accès aux paramètres quantitatifs flux sanguin, volume sanguin et temps de transit moyen. Mon travail de recherche s’est alors articulé autour de trois axes. Le premier visait à développer la méthode de quantification par déconvolution dédiée à l’échographie de contraste, avec l’élaboration d’un outil méthodologique suivie de l’évaluation de son apport sur la variabilité des paramètres de la microvascularisation. Des évaluations comparatives de variabilité intra-opérateur ont alors mis en évidence une diminution drastique des coefficients de variation des paramètres de la microvascularisation de 30% à 13% avec la méthode de déconvolution. Le deuxième axe était centré sur l’étude des sources de variabilité influençant les paramètres de la microvascularisation portant à la fois sur les conditions expérimentales et sur les conditions physiologiques de la tumeur. Enfin, le dernier axe a reposé sur une étude rétrospective menée sur 12 patients pour lesquels nous avons évalué l’intérêt de la déconvolution en comparant l’évolution des paramètres quantitatifs et semi-quantitatifs de la microvascularisation en fonction des réponses des tumeurs obtenues par les critères RECIST à partir d’un scan effectué à 2 mois. Cette méthodologie est prometteuse et peut permettre à terme une évaluation plus robuste et précoce des thérapies anti-angiogéniques que les méthodologies actuellement utilisées en routine dans le cadre des examens DCE-US
Dynamic contrast-enhanced ultrasonography (DCE-US) is currently used as a functional imaging technique for evaluating anti-angiogenic therapies. A mathematical model has been developed by the UPRES EA 4040, Paris-Sud university and the Gustave Roussy Institute to evaluate semi-quantitative microvascularization parameters directly from time-intensity curves. But DCE-US evaluation of such parameters does not yet take into account physiological variations of the patient or even the way the contrast agent is injected as opposed to other functional modalities (dynamic magnetic resonance imaging or perfusion scintigraphy). The aim of my PhD was to develop a deconvolution process dedicated to the DCE-US imaging, which is currently used as a routine method in other imaging modalities. Such a process would allow access to quantitatively-defined microvascularization parameters since it would provide absolute evaluation of the tumor blood flow, the tumor blood volume and the mean transit time. This PhD has been led according to three main goals. First, we developed a deconvolution method involving the creation of a quantification tool and validation through studies of the microvascularization parameter variability. Evaluation and comparison of intra-operator variabilities demonstrated a decrease in the coefficients of variation from 30% to 13% when microvascularization parameters were extracted using the deconvolution process. Secondly, we evaluated sources of variation that influence microvascularization parameters concerning both the experimental conditions and the physiological conditions of the tumor. Finally, we performed a retrospective study involving 12 patients for whom we evaluated the benefit of the deconvolution process: we compared the evolution of the quantitative and semi-quantitative microvascularization parameters based on tumor responses evaluated by the RECIST criteria obtained through a scan performed after 2 months. Deconvolution is a promising process that may allow an earlier, more robust evaluation of anti-angiogenic treatments than the DCE-US method in current clinical use
31

Letierce, François. "Approche calculatoire pour la déconvolution en aveugle : application à l'imagerie SIMS." Thesis, Evry-Val d'Essonne, 2007. http://www.theses.fr/2007EVRY0038.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La Spectroscopie de Masse d'Ions Secondaires (SIMS) permet d'obtenir des images de distributions d'atomes à la surface d'un échantillon. La réponse impulsionnelle (RI) de l'instrument est inconnue. La déconvolution en aveugle a pour but d'enlever le flou associé. Ce problème mal conditionné est résolu en contraignant sa solution (régularisation). Le degré optimum de régularisation dépend d'un paramètre à déterminer. Il est trouvé, ainsi que ceux de la RI, par la méthode de validation croisée généralisée. Une étape de calibrage restreint l'espace de recherche des paramètres de la RI et les calculs sont accélérés en exploitant le modèle gaussien. L'image est déconvoluée en résolvant un grand système linéaire par la méthode du gradient conjugué. Un préconditionnement exploitant la séparabilité de la RI (isotrope ou anisotrope) en accélère la convergence. On montre comment utiliser plusieurs images d'un échantillon pour avoir une résolution plus fine (super-résolution)
Secondary Ion Mass Spectrometry (SIMS) creates images of atomic distributions on a sample's surface. The point spread function (PSF) is unknown. Blind deconvolution is used to remove the associated blur. This ill-conditionned problem is solved by constraining its solution (regularization). The optimum degree of regularization depends on a parameter to be determined. This parameter is found, as well as those of the PSF, by the generalized cross validation method. A calibration phase reduces the search space for the PSF parameters. The gaussian model used for the PSF is exploited to accelerate the computations. The image is deconvolved by solving a large linear system with the conjugate gradient method. A preconditionner making use of the PSF separability (isotropic or anisotropic) speeds up convergence
32

Larue, Anthony. "Blancheur et non-gaussianité pour la déconvolution aveugle de données bruitées : application aux signaux sismiques." Grenoble INPG, 2006. https://tel.archives-ouvertes.fr/tel-00097161.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous nous intéressons à la déconvolution aveugle de signaux bruités et plus précisément de signaux d'imagerie sismique. Pour réaliser l'inversion, nous souhaitons effectuer une sélection des statistiques d'ordre supérieur adaptées à la distribution du signal à déconvoluer. Pour cela, nous nous appuyons sur l'hypothèse de blancheur ou de non-gaussianité. Nous proposons une approche avec le taux d'information mutuelle comme mesure de blancheur et une autre basée sur la non-gaussianité du signal de sortie mesurée par la néguentropie. Après le développement d'algorithmes dans le domaine temporel et fréquentiel, nous caractérisons l'influence sur les critères du bruit additif présent sur les données. Nous démontrons que l'hypothèse de non-gaussianité est plus robuste à la présence d'un bruit additif sur les données blanc et gaussien. Cette approche permet pour des données synthétiques et réelles un très bon compromis entre la qualité de la déconvolution et l'amplification du bruit
This thesis deals with the blind deconvolution of noisy data. We consider the case of seismic data. The inversion of the model need to select higher order statistics according to the distribution of the signals. To solve that, we use the assumptions of whiteness or of nongaussianity. We propose blind déconvolution algorithm in time domain and frequency domain. We measure whiteness by mutual information rate and nongaussianity with the negentropy. Afterwards, we study the sensitivity of the different algorithm with respect to a white Gaussian additive on the data. Theoretically and in practice on real and synthetic data, non-gaussianity appears as the method which provides the better trade off between déconvolution quality and noise amplification
33

Merhi, Bleik Josephine. "Modeling, estimation and simulation into two statistical models : quantile regression and blind deconvolution." Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2506.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée à l’estimation de deux modèles statistiques : le modèle des quantiles de régression simultanés et le modèle de déconvolution aveugle. Elle se compose donc de deux parties. Dans la première partie, nous nous intéressons à l’estimation simultanée de plusieurs quantiles de régression par l’approche Bayésienne. En supposant que le terme d’erreur suit la distribution de Laplace asymétrique et en utilisant la relation entre deux quantiles distincts de cette distribution, nous proposons une méthode simple entièrement Bayésienne qui satisfait la propriété non croisée des quantiles. Pour la mise en œuvre, nous utilisons l’algorithme de Gibbs avec une étape de Metropolis-Hastings pour simuler les paramètres inconnus suivant leur distribution conditionnelle a posteriori. Nous montrons la performance et la compétitivité de la méthode sous-jacente par rapport à d’autres méthodes en fournissant des exemples de simulation. Dans la deuxième partie, nous nous concentrons sur la restoration du filtre inverse et du niveau de bruit d’un modèle de déconvolution aveugle bruyant dans un environnement paramétrique. Après la caractérisation du niveau de bruit et du filtre inverse, nous proposons une nouvelle procédure d’estimation plus simple à mettre en œuvre que les autres méthodes existantes. De plus, nous considérons l’estimation de la distribution discrète inconnue du signal d’entrée. Nous obtenons une forte cohérence et une normalité asymptotique pour toutes nos estimations. En incluant une comparaison avec une autre méthode, nous effectuons une étude de simulation cohérente qui démontre empiriquement la performance informatique de nos procédures d’estimation
This thesis is dedicated to the estimation of two statistical models: the simultaneous regression quantiles model and the blind deconvolution model. It therefore consists of two parts. In the first part, we are interested in estimating several quantiles simultaneously in a regression context via the Bayesian approach. Assuming that the error term has an asymmetric Laplace distribution and using the relation between two distinct quantiles of this distribution, we propose a simple fully Bayesian method that satisfies the noncrossing property of quantiles. For implementation, we use Metropolis-Hastings within Gibbs algorithm to sample unknown parameters from their full conditional distribution. The performance and the competitiveness of the underlying method with other alternatives are shown in simulated examples. In the second part, we focus on recovering both the inverse filter and the noise level of a noisy blind deconvolution model in a parametric setting. After the characterization of both the true noise level and inverse filter, we provide a new estimation procedure that is simpler to implement compared with other existing methods. As well, we consider the estimation of the unknown discrete distribution of the input signal. We derive strong consistency and asymptotic normality for all our estimates. Including a comparison with another method, we perform a consistent simulation study that demonstrates empirically the computational performance of our estimation procedures
34

Machkour, Deshayes Nadia. "Méthode de déconvolution appliquée à l'étude de la densité surfacique d'un arc électrique de coupure basse tension à partir de mesures magnétiques." Clermont-Ferrand 2, 2003. http://www.theses.fr/2003CLF22456.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'étude consiste à mettre en place une méthode qui permet de reconstituer la densité du courant dans un arc électrique de coupure basse tension, à partir des mesures ponctuelles de l'induction magnétique créée par le dispositif de coupure. Ces mesures sont réalisées grâce à l'utilisation des capteurs à effet Hall placés en dehors du trajet de l'arc. Pour cette étude, nous avons supposé l'arc électrique modélisé par une nappe de courant rectangulaire, de densité variable dans la direction de propagation de l'arc. Les autres éléments du circuit sont assimilés à des segments de courant rectilignes et filiformes. Nous avons montré que l'induction magnétique créée par l'arc représente un produit de convolution entre sa densité du courant et une fonction qui dépend de la géométrie du dispositif de coupure et du modèle pris par l'arc. Cette méthode permet aussi de calculer les dimensions de l'arc, déterminer sa position ainsi que sa conductivité électrique. Celle-ci est utilisée pour estimer la température de l'arc. Nous avons appliqué cette méthode pour étudier le comportement de l'arc en fonction du courant présumé et l'espace interélectrode
35

Akhdar, Oussama. "Conception d'une méthode de déconvolution pour l'estimation des angles d'arrivée sur une antenne : Application au sondage spatio-temporel du canal de propagation." Limoges, 2009. https://aurore.unilim.fr/theses/nxfile/default/596a9344-e103-4ea0-b609-44fa032ba0d3/blobholder:0/2009LIMO4028.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire a porté sur l’étude et la mise en oeuvre d’un sondeur spatio-temporel pour la caractérisation du canal radio. Tout d'abord, une étude bibliographique a été dédiée à la caractérisation du milieu de propagation et aux différentes techniques de mesure spatio-temporelle envisageables, en citant les méthodes de traitements associées. Une méthode originale pour la caractérisation spatiale a été conçue mettant en oeuvre un nouvel algorithme basé sur la rotation d’une antenne et en utilisant un procédé de déconvolution associé. La mise en place de cette méthode a permis d’effectuer un sondage spatial du canal de propagation avec une simple antenne patch présentant une ouverture angulaire à -3 dB de 70°. Par la suite, cette méthode de caractérisation spatiale développée a été couplée à une technique de mesure temporelle (corrélation glissante) permettant ainsi le sondage spatio-temporel du canal de propagation. Les mesures effectuées ont ensuite permis d’intégrer la réponse spatio-temporelle sur des simulateurs de transmission numérique afin de réaliser des simulations réalistes du canal de propagation. L’ensemble des résultats obtenus lors des sondages effectués constitue le point de départ d’autres campagnes de mesures plus exhaustives afin d’aboutir à des modèles de canaux spatiotemporels réalistes
This thesis focused on the study and implementation of a spatio-temporal sounder and dealt with the characterization of the radio channel. Firstly, the propagation phenomena are recalled and a state of the art on the different spatial-temporal measurement techniques and their corresponding processing methods is presented. An original method for spatial characterization is designed, implementing a new algorithm based on the antenna rotation and corresponding deconvolution procedure. The application of this method allowed us achieving a spatial sounding of a propagation channel using a patch antenna with 70° of radiation beam width. The developed spatial measurement technique is later associated to a temporal measurement technique (sliding correlation), leading to a spatio-temporal channel sounding. The achieved measurements allowed us integrating the channel response in a numerical transmission simulator in order to perform realistic simulations of the propagation channel. The set of different results, obtained during the sounding, establish a starting point for another set of more intensive measurements, leading to realistic models of spatio-temporal channels
36

Arnaout, Mohamad Abed Al Rahman. "Caractérisation d'une cellule de mesure électro-acoustique-pulsée pour la qualification électrostatique des diélectriques spatiaux : modélisation électro-acoustique et traitement du signal." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1398/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La structure externe des satellites en orbite, composée de matériaux polymères, est exposée continument à des particules chargées induisant des potentiels à l'origine des Décharges Electrostatiques - ESD. Plusieurs techniques sont actuellement utilisées pour sonder la charge d'espace dans les matériaux diélectriques, une de ces techniques est la méthode électro-acoustique pulsée - PEA (Pulsed Electro-Acoustic). Cette méthode consiste en la détection des ondes acoustiques générées par la charge d'espace sous l'effet coulombien d'une impulsion de champ électrique appliqué. Après un traitement numérique adéquat, la distribution de la charge d'espace en fonction de la profondeur de l'échantillon est établie. L'un des inconvénients de cette technique pour la caractérisation des matériaux spatiaux est sa résolution spatiale, environ 10 µm. En effet, les matériaux diélectriques utilisés dans les structures satellites ont une épaisseur comprise entre 50 et 75µm. L'objectif de cette thèse consiste donc à concevoir une cellule de mesure de la charge d'espace avec une résolution spatiale suffisante pour analyser le comportement des charges dans des matériaux spatiaux, environ 1 µm. Ce projet finalisé permettra de disposer d'un outil de mesure parfaitement maitrisé en terme de limite en résolution et comprendre ainsi l'origine des artefacts présents généralement dans la mesure et ainsi éviter toute interprétation de phénomènes considérés comme physique mais qui sont, en réalité, uniquement la manifestation d'un défaut de la chaine de mesure
Dielectric materials are frequently used in satellite structures as a thermal blanket. Subjected to an electron irradiation - space environment - they can cause in-orbit satellite anomalies. One of these aspects is the charge accumulation due to the flux of space charged particles, and particularly to electrons. This accumulation increases the local electric field in the material bulk and can lead to an Electrostatic Surface Discharge - ESD. This phenomenon could cause serious damage to the satellite structure or performance. In order to have a better control on the discharge it is necessary to clarify; the nature, position and quantity of stored charges with time and to understand the dynamics of the charge transport in solid dielectrics. The Pulsed-Electro Acoustic - PEA method allows us to obtain these features, like the spatial distribution of space charges. One of the weaknesses of this current technique is spatial resolution, about 10 µm. Dielectric materials used in satellite structures have a thickness of 50 and 75 µm. This work aims at improving the spatial resolution for the PEA method. Whatever measurement principle considered, the best spatial resolution achievable is 10µm. This is a drawback when considering rather thin insulating layers (order of tens of microns), as the case in some capacitors or films on outer parts of satellites. Also, a better resolution (1µm) is expected to provide a better description of charge generation in insulation at metal dielectric interfaces or under low energy electron beams
37

Masucci, Antonia Maria. "Moments method for random matrices with applications to wireless communication." Thesis, Supélec, 2011. http://www.theses.fr/2011SUPL0011/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, on étudie l'application de la méthode des moments pour les télécommunications. On analyse cette méthode et on montre son importance pour l'étude des matrices aléatoires. On utilise le cadre de probabilités libres pour analyser cette méthode. La notion de produit de convolution/déconvolution libre peut être utilisée pour prédire le spectre asymptotique de matrices aléatoires qui sont asymptotiquement libres. On montre que la méthode de moments est un outil puissant même pour calculer les moments/moments asymptotiques de matrices qui n'ont pas la propriété de liberté asymptotique. En particulier, on considère des matrices aléatoires gaussiennes de taille finie et des matrices de Vandermonde al ?eatoires. On développe en série entiére la distribution des valeurs propres de differents modèles, par exemple les distributions de Wishart non-centrale et aussi les distributions de Wishart avec des entrées corrélées de moyenne nulle. Le cadre d'inference pour les matrices des dimensions finies est suffisamment souple pour permettre des combinaisons de matrices aléatoires. Les résultats que nous présentons sont implémentés en code Matlab en générant des sous-ensembles, des permutations et des relations d'équivalence. On applique ce cadre à l'étude des réseaux cognitifs et des réseaux à forte mobilité. On analyse les moments de matrices de Vandermonde aléatoires avec des entrées sur le cercle unitaire. On utilise ces moments et les détecteurs à expansion polynomiale pour décrire des détecteurs à faible complexité du signal transmis par des utilisateurs mobiles à une station de base (ou avec deux stations de base) représentée par des réseaux linéaires uniformes
In this thesis, we focus on the analysis of the moments method, showing its importance in the application of random matrices to wireless communication. This study is conducted in the free probability framework. The concept of free convolution/deconvolution can be used to predict the spectrum of sums or products of random matrices which are asymptotically free. In this framework, we show that the moments method is very appealing and powerful in order to derive the moments/asymptotic moments for cases when the property of asymptotic freeness does not hold. In particular, we focus on Gaussian random matrices with finite dimensions and structured matrices as Vandermonde matrices. We derive the explicit series expansion of the eigenvalue distribution of various models, as noncentral Wishart distributions, as well as correlated zero mean Wishart distributions. We describe an inference framework so flexible that it is possible to apply it for repeated combinations of random ma- trices. The results that we present are implemented generating subsets, permutations, and equivalence relations. We developped a Matlab routine code in order to perform convolution or deconvolution numerically in terms of a set of input moments. We apply this inference framework to the study of cognitive networks, as well as to the study of wireless networks with high mobility. We analyze the asymptotic moments of random Vandermonde matrices with entries on the unit circle. We use them and polynomial expansion detectors in order to design a low complexity linear MMSE decoder to recover the signal transmitted by mobile users to a base station or two base stations, represented by uniform linear arrays
38

Perrone, Mario. "Contribution à la déconvolution de signaux monodimensionnels : méthode de restauration fondée sur l'analyse de forme : application à la sommation synchrone de signaux biomédicaux." Nice, 1994. http://www.theses.fr/1994NICE4709.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objet de cette thèse est l'étude de la déconvolution du jitter à partir d'un signal répétitif moyen dans la perspective d'applications biomédicales. L'analyse et la modélisation des problèmes de déconvolution de signaux monodimensionnels permettent de poser le problème et de mettre en évidence toutes les difficultés théoriques et pratiques qui surgissent à la mise en oeuvre de tout déconvolution. Une synthèse des différentes méthodes est proposée avec une discussion de leurs champs d'applications. L'élaboration d'une nouvelle méthode originale de déconvolution fondée sur l'analyse de forme est exposée. Cette méthode appartient à la classe de restauration des signaux positifs dont le fondement nouveau est la variation de forme. Une comparaison avec une méthode de régularisation est étudiée, et les quelques résultats obtenus en simulation sont très prometteurs. Le caractère répétitif de certains signaux biomédicaux, comme le signal cardiaque, fait intervenir la sommation synchrone dans le but d'augmenter le rapport signal à bruit pour extraire davantage d'informations. Néanmoins, en présence d'un jitter, nous montrons que le moyennage peut être mis sous la forme d'un produit de convolution. Dans ce cas, une estimation des temps de retard entre les réalisations du signal est mise en oeuvre pour réhausser le signal moyen. L'onde P du signal cardiauqe, particulièrement difficile et délicate à observer et à synchroniser, est restaurée d'une part avec une méthode de resynchronisation, d'autre part avec deux méthodes de déconvolution de la moyenne : une méthode de régularisation, et notre méthode fondée sur l'analyse de forme. Les résultats obtenus en simulation et sur un cas réel montrent tout l'intérêt de la déconvolution pour améliorer le signal moyen
The aim of this study is the jitter deconvolution from an averaged repetitive signal for biomedical applications. The analysis and the modelling of deconvolution problems of monodimensional signals allow to explain the problem and to point out all theoretical and practical difficulties which occur in convolution. A review of different metthods is proposed and discussd with their application fields. Here is explained a new original deconvolution method based on shape analysis. This methods belongs to the positive signals restaurations class which the new basis is the shape variation. A comparison with regularization method is studied, and some results in simulation are promising. The repetitive nature of certain biomedical signals, such the cardiac signal, need synchronous averging to increase the signal to noise a ratio in order to obtain more informations. Furthermore, with a jitter, we show that the signal averaging can ben written as a convolution product. In this case, a time delay estimation between two signals realizations is applied to enhance the averaged signals. The P wave of EKG, particularly to see and to synchronize, is restored on the one hand with resynchronization method, on other hand with two methods to make signals averaging deconvolution: a regularization method, and our method based on shape variation. The results obtained in simultion and in real case show all the interest of deconvolution to improve the averaged signal
39

Mugnier, Laurent. "Problèmes inverses en Haute Résolution Angulaire." Habilitation à diriger des recherches, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00654835.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux exposés portent sur les techniques d'imagerie optique à haute résolution et plus particulièrement sur les méthodes, dites d'inversion, de traitement des données associées à ces techniques. Ils se situent donc à la croisée des chemins entre l'imagerie optique et le traitement du signal et des images. Ces travaux sont appliqués à l'astronomie depuis le sol ou l'espace, l'observation de la Terre, et l'imagerie de la rétine. Une partie introductive est dédiée au rappel de caractéristiques importantes de l'inversion de données et d'éléments essentiels sur la formation d'image (diffraction, turbulence, techniques d'imagerie) et sur la mesure des aberrations (analyse de front d'onde). La première partie des travaux exposés porte sur l'étalonnage d'instrument, c'est-à-dire l'estimation d'aberrations instrumentales ou turbulentes. Ils concernent essentiellement la technique de diversité de phase : travaux méthodologiques, travaux algorithmiques, et extensions à l'imagerie à haute dynamique en vue de la détection et la caractérisation d'exoplanètes. Ces travaux comprennent également des développements qui n'utilisent qu'une seule image au voisinage du plan focal, dans des cas particuliers présentant un intérêt pratique avéré. La seconde partie des travaux porte sur le développement de méthodes de traitement (recalage, restauration et reconstruction, détection) pour l'imagerie à haute résolution. Ces développements ont été menés pour des modalités d'imagerie très diverses : imagerie corrigée ou non par optique adaptative (OA), mono-télescope ou interférométrique, pour l'observation de l'espace ; imagerie coronographique d'exoplanètes par OA depuis le sol ou par interférométrie depuis l'espace ; et imagerie 2D ou 3D de la rétine humaine. Enfin, une dernière partie présente des perspectives de recherches.
40

Nguyen, Xuan Truong. "Étude des matériaux irradiés sous faisceau d'électrons par méthode électro-acoustique pulsée (PEA)." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2361/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les matériaux diélectriques sont couramment utilisés comme isolants électriques dans le domaine spatial. Par nature, ces diélectriques sont susceptibles d'accumuler des charges électriques au cours de leur service. Dans certaines conditions critiques, ces charges internes ou de surface conduisent à des décharges électrostatiques. Pour comprendre ces phénomènes, un dispositif expérimental a été développé au laboratoire. Ce dernier permet de simuler les conditions d'irradiation électronique rencontrées dans l'espace. L'objectif de notre étude est de caractériser le comportement électrique des matériaux isolants irradiés par faisceau d'électrons, d'étudier les phénomènes de stockage et de transport de charge pour prévoir les décharges électrostatiques. Pour ces travaux, diverses techniques de caractérisation ont été implantées, le dispositif basé sur la technique Électro-Acoustique Pulsée (PEA) a été choisi. Il a été implanté dans l'enceinte d'irradiation. Cette technique consiste à détecter des ondes acoustiques générées par la charge d'espace sous l'effet coulombien d'une impulsion de champ électrique appliqué à l'échantillon. Elle permet de déterminer la distribution spatiale des charges injectées entre deux périodes d'irradiation et au cours des relaxations. La méthode PEA présente une limite de détection en particulier lorsque les charges sont implantées proche de la surface. Dans un premier temps, nous avons effectué une analyse des paramètres de traitement du signal que nous appelons le facteur d'étalement et le facteur de résolution. L'étude préliminaire post-irradiation à l'air sur des mesures expérimentales a montré que le choix du facteur de résolution est important pour l'analyse et l'interprétation du signal lorsque la charge est localisée près de la surface. Pour la suite, une comparaison avec le paramètre d'étalement utilisé dans certaine technique de déconvolution a été établie. Dans un deuxième temps, des mesures de distribution de charge d'espace sous vide ont été effectuées pour les Poly Tétra Fluoro Ethylène (PTFE) soumis à des irradiations dans la gamme de [10-100] keV. Les résultats obtenus sont comparés à des résultats théoriques. Ce travail nous permet d'envisager les améliorations nécessaires pour la détermination des charges d'espace in-situ
Dielectric materials are frequently used as electrical insulators in spatial applications. Due to their dielectric nature, these dielectrics are likely to accumulate electric charges during their service. Under certain critical conditions, these internal or surface space charges can lead to an electrostatic surface discharge. To understand these phenomena, an experimental device has been developed in the laboratory. This device allows us to simulate the electronic irradiation conditions encountered in space. The aim of our study is to characterize the electrical behavior of insulating materials irradiated by electron beam, to investigate charge storage and transport phenomena and anticipate electrostatic discharges. In this work, the device based on the Pulsed Electro-Acoustic (PEA) technique has been chosen. It has been implanted in the irradiation chamber. It allows us to obtain the spatial distribution of charges injected between two periods of irradiation and during relaxation. However the PEA method offers a limited resolution and doesn't allow the detection of injected charges when they are too close to the surface. First, we performed a parameters signal processing analysis that we will call the spreading factor and the resolution factor. The preliminary study post-irradiation in air of experimental measurements showed that the the resolution factor choice is important for the analysis and interpretation of the signal when the space charge is localized near the surface. Then, a comparison to the spreading parameter used in some deconvolution technique was established. In the second time, space charge distribution measurements in vacuum have been carried out on Poly Tetra Fluoro Ethylene (PTFE) films irradiated by an electron beam in the range [10-100] keV. The results obtained were compared to those theoretical results. This work allows us to consider the necessary improvements for the determination of in-situ space charge
41

Nguyen, Xuan Truong. "Etude de matériaux diélectriques irradiés sous faisceau d'électrons par méthode Electro-Acoustique Pulsée (PEA)." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2014. http://tel.archives-ouvertes.fr/tel-00926826.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les matériaux diélectriques sont couramment utilisés comme isolants électriques dans le domaine spatial. Par nature, ces diélectriques sont susceptibles d'accumuler des charges électriques au cours de leur service. Dans certaines conditions critiques, ces charges internes ou de surface conduisent à des décharges électrostatiques. Pour comprendre ces phénomènes, un dispositif expérimental a été développé au laboratoire. Ce dernier permet de simuler les conditions d'irradiation électronique rencontrées dans l'espace. L'objectif de notre étude est de caractériser le comportement électrique des matériaux isolants irradiés par faisceau d'électrons, d'étudier les phénomènes de stockage et de transport de charge pour prévoir les décharges électrostatiques. Pour ces travaux, diverses techniques de caractérisation ont été implantées, le dispositif basé sur la technique Electro-Acoustique Pulsée (PEA) a été choisi. Il a été implanté dans l'enceinte d'irradiation. Cette technique consiste à détecter des ondes acoustiques générées par la charge d'espace sous l'effet coulombien d'une impulsion de champ électrique appliqué à l'échantillon. Elle permet de déterminer la distribution spatiale des charges injectées entre deux périodes d'irradiation et au cours des relaxations. La méthode PEA présente une limite de détection en particulier lorsque les charges sont implantées proche de la surface. Dans un premier temps, nous avons effectué une analyse des paramètres de traitement du signal que nous appelons le facteur d'étalement et le facteur de résolution. L'étude préliminaire post-irradiation à l'air sur des mesures expérimentales a montré que le choix du facteur de résolution est important pour l'analyse et l'interprétation du signal lorsque la charge est localisée près de la surface. Pour la suite, une comparaison avec le paramètre d'étalement utilisé dans certaine technique de déconvolution a été établie. Dans un deuxième temps, des mesures de distribution de charge d'espace sous vide ont été effectuées pour les Poly Tétra Fluoro Ethylène (PTFE) soumis à des irradiations dans la gamme de [10-100] keV. Les résultats obtenus sont comparés à des résultats théoriques. Ce travail nous permet d'envisager les améliorations nécessaires pour la détermination des charges d'espace in-situ.
42

Ygouf, Marie. "Nouvelle méthode de traitement d'images multispectrales fondée sur un modèle d'instrument pour la haut contraste : application à la détection d'exoplanètes." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00843202.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse porte sur l'imagerie multispectrale à haut contraste pour la détection et la caractérisation directe d'exoplanètes. Dans ce contexte, le développement de méthodes innovantes de traitement d'images est indispensable afin d'éliminer les tavelures quasi-statiques dans l'image finale qui restent à ce jour, la principale limitation pour le haut contraste. Bien que les aberrations résiduelles instrumentales soient à l'origine de ces tavelures, aucune méthode de réduction de données n'utilise de modèle de formation d'image coronographique qui prend ces aberrations comme paramètres. L'approche adoptée dans cette thèse comprend le développement, dans un cadre bayésien, d'une méthode d'inversion fondée sur un modèle analytique d'imagerie coronographique. Cette méthode estime conjointement les aberrations instrumentales et l'objet d'intérêt, à savoir les exoplanètes, afin de séparer correctement ces deux contributions. L'étape d'estimation des aberrations à partir des images plan focal (ou phase retrieval en anglais), est la plus difficile car le modèle de réponse instrumentale sur l'axe dont elle dépend est fortement non-linéaire. Le développement et l'étude d'un modèle approché d'imagerie coronographique plus simple se sont donc révélés très utiles pour la compréhension du problème et m'ont inspiré des stratégies de minimisation. J'ai finalement pu tester ma méthode et d'estimer ses performances en terme de robustesse et de détection d'exoplanètes. Pour cela, je l'ai appliquée sur des images simulées et j'ai notamment étudié l'effet des différents paramètres du modèle d'imagerie utilisé. J'ai ainsi démontré que cette nouvelle méthode, associée à un schéma d'optimisation fondé sur une bonne connaissance du problème, peut fonctionner de manière relativement robuste, en dépit des difficultés de l'étape de phase retrieval. En particulier, elle permet de détecter des exoplanètes dans le cas d'images simulées avec un niveau de détection conforme à l'objectif de l'instrument SPHERE. Ce travail débouche sur de nombreuses perspectives dont celle de démontrer l'utilité de cette méthode sur des images simulées avec des coronographes plus réalistes et sur des images réelles de l'instrument SPHERE. De plus, l'extension de la méthode pour la caractérisation des exoplanètes est relativement aisée, tout comme son extension à l'étude d'objets plus étendus tels que les disques circumstellaire. Enfin, les résultats de ces études apporteront des enseignements importants pour le développement des futurs instruments. En particulier, les Extremely Large Telescopes soulèvent d'ores et déjà des défis techniques pour la nouvelle génération d'imageurs de planètes. Ces challenges pourront très probablement être relevés en partie grâce à des méthodes de traitement d'image fondées sur un modèle direct d'imagerie.
43

Masucci, Antonia Maria. "La méthode des moments pour les matrices aléatoires avec application à la communication sans fil." Phd thesis, Supélec, 2011. http://tel.archives-ouvertes.fr/tel-00805578.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, on étudie l'application de la méthode des moments pour les télécommunications. On analyse cette méthode et on montre son importance pour l'étude des matrices aléatoires. On utilise le cadre de probabilités libres pour analyser cette méthode. La notion de produit de convolution/déconvolution libre peut être utilisée pour prédire le spectre asymptotique de matrices aléatoires qui sont asymptotiquement libres. On montre que la méthode de moments est un outil puissant même pour calculer les moments/moments asymptotiques de matrices qui n'ont pas la propriété de liberté asymptotique. En particulier, on considère des matrices aléatoires gaussiennes de taille finie et des matrices de Vandermonde al ?eatoires. On développe en série entiére la distribution des valeurs propres de differents modèles, par exemple les distributions de Wishart non-centrale et aussi les distributions de Wishart avec des entrées corrélées de moyenne nulle. Le cadre d'inference pour les matrices des dimensions finies est suffisamment souple pour permettre des combinaisons de matrices aléatoires. Les résultats que nous présentons sont implémentés en code Matlab en générant des sous-ensembles, des permutations et des relations d'équivalence. On applique ce cadre à l'étude des réseaux cognitifs et des réseaux à forte mobilité. On analyse les moments de matrices de Vandermonde aléatoires avec des entrées sur le cercle unitaire. On utilise ces moments et les détecteurs à expansion polynomiale pour décrire des détecteurs à faible complexité du signal transmis par des utilisateurs mobiles à une station de base (ou avec deux stations de base) représentée par des réseaux linéaires uniformes.
44

Irnaka, Theodosius Marwan. "3D elastic full waveform inversion for subsurface characterization.Study of a shallow seismic multicomponent field data." Thesis, Université Grenoble Alpes, 2021. http://www.theses.fr/2021GRALU004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'inversion de forme d'onde complète (FWI) est une procédure d'ajustement itératif des données entre les données observées et les données synthétiques. Les données synthétiques sont calculées en résolvant une équation d'onde. La FWI vise à reconstruire les informations détaillées des propriétés physiques du sous-sol. La méthode FWI a été développée au cours des dernières décennies, grâce à l'augmentation de la capacité de calcul et au développement de la technologie d'acquisition. La FWI a également été appliquée à à des échelles variées, allant de l'échelle globale, lithosphérique, crustale, jusqu'à la proche surface, c'est à dire quelques mètres de profondeur.Dans ce manuscrit, nous étudions l'inversion d'un jeu de données de source et de récepteur multicomposantes en utilisant un algorithme d'inversion de forme d'onde complète viscoélastique pour une cible sismique peu profonde. La cible est une ligne de tranchée enterrée à environ 1 m de profondeur. Nous présentons le pré-traitement des données, y compris une correction par déconvolution pour compenser les différentes conditions de couplage de la source et du récepteur pendant l'acquisition, ainsi qu'un procédé d'inversion en plusieurs étape pour la reconstruction des vitesses des ondes P et S. Notre mise en œuvre est basée sur une modélisation viscoélastique utilisant une discrétisation par éléments spectraux pour rendre compte avec précision de la complexité de la propagation des ondes dans cette région peu profonde. Nous illustrons la stabilité de l'inversion en partant de différents modèles initiaux, soit basés sur l'analyse des courbes de dispersion, soit des modèles homogènes cohérents avec les premières arrivées. Nous obtenons des résultats similaires dans les deux cas. Nous illustrons également l'importance de la prise en compte de l'atténuation en comparant les résultats élastiques et viscoélastiques. Les résultats 3D permettent de localiser précisément la ligne de tranchée en termes d'interprétation. Ils montrent également une autre structure de ligne de tranchée, dans une direction formant un angle de 45 degrés avec la direction de la ligne de tranchée ciblée. Cette nouvelle structure avait été précédemment interprétée comme un artefact dans les anciens résultats d'inversion 2D. L'interprétation archéologique de cette nouvelle structure est actuellement en discussion.Nous réalisons également trois expériences différentes pour comprendre l'effet des données à composantes multiples sur la FWI. La première expérience est une analyse de sensibilité de plusieurs paquets d'ondes (onde P, onde S et onde de surface) sur un modèle 3D simple basé sur une direction cartésienne de la source et du récepteur. La seconde expérience est une inversion élastique 3D basée sur des données synthétiques (utilisant la source de direction cartésienne) et de champ (utilisant la source Galperin) avec diverses combinaisons de composants. Seize combinaisons de composantes sont analysées pour chaque cas. Dans la troisième expérience, nous effectuons la décimation de l'acquisition sur la base de la deuxième expérience. Nous démontrons un avantage significatif des données multicomposantes FWI grâce à ces expériences. Dans une échelle sismique peu profonde, les inversions avec les composantes horizontales donnent une meilleure reconstruction en profondeur. En se basant sur la décimation de l'acquisition, l'inversion utilisant des données sismiques 9C fortement décimées produit des résultats similaires à l'inversion utilisant des données sismiques 1C sur l'acquisition complète
Full Waveform Inversion (FWI) is an iterative data fitting procedure between the observed data and the synthetic data. The synthetic data is calculated by solving the wave equation. FWI aims at reconstructing the detailed information of the subsurface physical properties. FWI has been rapidly developed in the past decades, thanks to the increase of the computational capability and the development of the acquisition technology. FWI also has been applied in a broad scales including the global, lithospheric, crustal, and near surface scale.In this manuscript, we investigate the inversion of a multicomponent source and receiver near-surface field dataset using a viscoelastic full waveform inversion algorithm for a shallow seismic target. The target is a trench line buried at approximately 1 m depth. We present the pre-processing of the data, including a matching filter correction to compensate for different source and receiver coupling conditions during the acquisition, as well as a dedicated multi-step workflow for the reconstruction of both P-wave and S-wave velocities. Our implementation is based on viscoelastic modeling using a spectral element discretization to accurately account for the wave propagation's complexity in this shallow region. We illustrate the inversion stability by starting from different initial models, either based on dispersion curve analysis or homogeneous models consistent with first arrivals. We recover similar results in both cases. We also illustrate the importance of taking into account the attenuation by comparing elastic and viscoelastic results. The 3D results make it possible to recover and locate precisely the trench line in terms of interpretation. They also exhibit another trench line structure, in a direction forming an angle at 45 degrees with the direction of the targeted trench line. This new structure had been previously interpreted as an artifact in former 2D inversion results. The archaeological interpretation of this new structure is still a matter of discussion.We also perform three different experiments to study the effect of multicomponent data on this FWI application. The first experiment is a sensitivity kernel analysis of several wave packets (P-wave, S-wave, and surface wave) on a simple 3D model based on a Cartesian based direction of source and receiver. The second experiment is 3D elastic inversion based on synthetic (using cartesian direction's source) and field data (using Galperin source) with various component combinations. Sixteen component combinations are analyzed for each case. In the third experiment, we perform the acquisition's decimation based on the second experiment. We demonstrate a significant benefit of multicomponent data FWI in terms of model and data misfit through those experiments. In a shallow seismic scale, the inversions with the horizontal components give a better depth reconstruction. Based on the acquisition's decimation, inversion using heavily decimated 9C seismic data still produce similar results compared to the inversion using 1C seismic of a dense acquisition
45

Deloule, Sybelle. "Développement d'une méthode de caractérisation spectrale des faisceaux de photons d'énergies inférieures à 150 keV utilisés en dosimétrie." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112273/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En dosimétrie, la distribution énergétique des photons émis par une source constitue un paramètre incontournable. Dans la gamme des basses et moyennes énergies (i.e. E<150 keV ici), le LNHB possède 5 tubes à rayons X ainsi que des grains de curiethérapie à l’iode 125, présentant des hauts débits de fluence. La détermination du spectre émis par calcul (déterministe ou Monte-Carlo) est limitée, dans la gamme d’énergie considérée, par les incertitudes élevées sur les bases de données ainsi que par les approximations du modèle. La mesure directe avec un détecteur au germanium ultra-pur a donc été retenue, bien que nécessitant de lourds moyens. De plus, le spectre mesuré est le produit de convolution du spectre émis recherché par la réponse du système. Une fois la réponse du détecteur modélisée, il est possible de « déconvoluer» la mesure, i.e. de remonter au spectre réellement émis en corrigeant (par stripping, model-fitting, inférence bayésienne…) les déformations spectrales induites par le processus de détection. Pour la curiethérapie, le modèle de grain-source a ainsi pu être ajusté. Pour les tubes à rayons X, les résultats obtenus avec différents codes Monte-Carlo et 4 logiciels déterministes ont été comparés à un spectre dit de référence obtenu par mesure et déconvolué. Ainsi l’impact sur certaines grandeurs dosimétriques de la méthode utilisée a pu être quantifié
In the field of dosimetry, the knowledge of the whole photon fluence spectrum is an essential parameter. In the low-to-medium energy range (i.e. E<150 keV), the LNHB possess 5 X-ray tubes and iodine-125 brachytherapy seeds, both emitting high fluence rates. The performance of calculation (either Monte Carlo codes or deterministic software) is flawed by increasing uncertainties on fundamental parameters at low energies, and modelling issues. Therefore, direct measurement using a high purity germanium is preferred, even though it requires a time-consuming set-up and mathematical methods to infer impinging spectrum from measured ones (such as stripping, model-fitting or Bayesian inference…). Concerning brachytherapy, the knowledge of the seed’s parameters has been improved. Moreover, various calculated X-ray tube fluence spectra have been compared to measured ones, after unfolding. The results of all these methods have then be assessed, as well as their impact on dosimetric parameters
46

Beaudoin, Normand. "Méthode mathématique et numérique de haute précision pour le calcul des transformées de Fourier, intégrales, dérivées et polynômes splines de tout ordre ; Déconvolution par transformée de Fourier et spectroscopie photoacoustique à résolution temporelle." Thèse, Université du Québec à Trois-Rivières, 1999. http://depot-e.uqtr.ca/6708/1/000659516.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Touhami, Younès. "Identification spatio-temporelle d'une source de chaleur dans un milieu diffusif par résolution d'un problème inverse." Aix-Marseille 1, 1996. http://www.theses.fr/1996AIX11059.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce memoire nous propoosons une determination spatio-temporelle d'une source de chaleur ponctuelle ou volumique, au sein d'un milieu diffusif 2d lineaire. La methode repose sur une technique d'inversion d'une integrale de convolution. Pour construire les reponses indicielles du systeme on utilise la methode des elements de frontiere, celle-ci permettant de generer facilement de multiples sources ponctuelles a l'interieur du domaine etudie. Dans la phase d'inversion, le systeme lineaire est considere sous l'aspect monoentree (la source a identifier), multisorties (mesures des temperatures dans le domaine et/ou a sa frontiere). Afin de resoudre correctement ce probleme mal pose, on utilise une specification de fonction sur des pas de temps futurs. La methode proposee comprend 2 etapes, la premiere est une localisation de la source sur les premiers pas de temps par une methode iterative de type dichotomie spatiale, en deconvoluant les thermogrammes sur deux sources ponctuelles fictives. La seconde est la quantification de la source sur tout l'intervalle de temps considere. L'etude numerique est completee par une validation experimentale ; le montage consiste en un barreau de platre, traverse par un fil chauffant suivant sa plus grande longueur, et les mesures sont obtenues par thermographie infrarouge sur une face du barreau et par thermocouples a l'interieur ; le probleme inverse consiste alors a trouver la position du fil et la puissance dissipee par effet joule. En complement de cette etude experimentale on propose une methode pour l'identification de la conductivite thermique et des coefficients d'echange mis en jeu pour cette experimentation. Dans ce cadre la fonctionnelle a minimiser peut etre ponderee par des coefficients de sensibilite
48

Pham, Mai-Quyen. "Seismic wave field restoration using spare representations and quantitative analysis." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1028/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la restauration de champs d'ondes sismiques perturbés par trois sources de dégradation. Ces sources sont dues à des trajets de propagation complexes, au dispositif d'acquisition, à des sources liées ou non à l'acquisition, et potentiellement présentes simultanément : des réflexions multiples (ou échos), une dégradation de la réponse impulsionnelle attendue (ou flou) et des perturbations plus aléatoires (ou bruits).Nous avons considéré dans un premier temps le problème des réflexions multiples, réflexions qui se sont réfléchies plusieurs fois sur au moins une interface. Nous nous intéressons ici au filtrage adaptatif de ces réflexions sismiques multiples à partir de modèles approximatifs issus de modélisation sismique. Ce filtrage est réalisé dans un domaine de trames d'ondelettes discrètes, mono- et bidimensionnelles, sous contraintes de parcimonie et de variation lente des filtres adaptatifs. Ceci est intéressant en réflexion sismique, car les méthodes standard peuvent produire des filtres très mal conditionnés, du fait notamment du caractère passe-bande des données sismiques. Dans ce travail, une formulation variationnelle des problèmes de réflexions multiples est proposée. Nous utilisons des algorithmes proximaux, dont la convergence est garantie lorsqu'il s'agit d'optimiser dans un cadre convexe. L'avantage de ces approches est l'utilisation d'une régularisation sophistiquée, permettant de considérer la parcimonie à la fois a) dans le domaine d'ondelettes, b) via des a priori sur les filtres pour lesquels nous avons utilisé différentes fonctions de régularisation (norme l1, l2, mixte l1-2 et nucléaire). Notre méthode vise à étendre et améliorer certains aspects de la méthode proposée par S. Ventosa en collaboration avec CGG en 2012, et testée avec succès sur plusieurs campagnes sismiques. Les résultats que nous avons obtenus démontrent la performance de notre méthode non seulement sur des données synthétiques bruitées mais également sur des données réelles. Nous nous intéressons ensuite au problème de déconvolution aveugle. En géophysique, un modèle simplifié de la Terre souvent utilisé fait l'hypothèse d'un nombre de couches localement parallèles, chacune avec des propriétés constantes. Mais la vitesse, la densité ou les deux peuvent varier d'une couche à l'autre. L'impédance acoustique est calculée pour chaque couche ; puis les coefficients de réflexion pour une incidence normale sont calculés aux endroits où il y a des changements d'impédance acoustique. Chaque changement d'impédance acoustique opère une modification d'amplitude et de polarisation liée aux coefficients de réflexion. Ainsi, la séquence de réflectivité (réponse impulsionnelle) est convoluée avec la forme d'onde descendante pour donner une trace sismique. Ce problème constitue un contexte de déconvolution aveugle où l'on recherche un signal inconnu, convolué avec une forme d'onde elle aussi inconnue en présence de bruit additif. La déconvolution requiert souvent d'introduire des hypothèses complémentaires sous forme de pénalisation, notamment non convexe. L'ambiguïté d'échelle en déconvolution aveugle suggère l'usage de fonctions de contraste invariantes en échelle. Dans cette thèse, nous proposons un algorithme de minimisation alternée, de type explicite-implicite à métrique variable. Il traite une approximation lisse du rapport l1/l2 (SOOT pour "Smoothed One-Over-Two penalty") pour des données réelles signées. Nous étudions les propriétés de convergence de la méthode proposée, basées sur l'inégalité de Kurdyka-Lojasiewicz. Les performances de cette nouvelle approche sont illustrées à travers un exemple en déconvolution aveugle de données sismiques, mais aussi sur des images
This thesis deals with two different problems within the framework of convex and non convex optimization. The first one is an application to multiple removal in seismic data with adaptive filters and the second one is an application to blind deconvolution problem that produces characteristics closest to the Earth layers. More precisely : unveiling meaningful geophysical information from seismic data requires to deal with both random and structured “noises”. As their amplitude may be greater than signals of interest (primaries), additional prior information is especially important in performing efficient signal separation. We address here the problem of multiple reflections, caused by wave-field bouncing between layers. Since only approximate models of these phenomena are available, we propose a flexible framework for time-varying adaptive filtering of seismic signals, using sparse representations, based on inaccurate templates. We recast the joint estimation of adaptive filters and primaries in a new convex variational formulation. This approach allows us to incorporate plausible knowledge about noise statistics, datas parsity and slow filter variation in parsimony-promoting wavelet transforms. The designed primal-dual algorithm solves a constrained minimization problem that alleviates standard regularization issues in finding hyper parameters. The approach demonstrates significantly good performance in low signal-to-noise ratio conditions, both for simulatedand real field seismic data. In seismic exploration, a seismic signal (e.g. primary signal) is often represented as the results of a convolution between the “seismic wavelet” and the reflectivity series. The second goal of this thesis is to deconvolve them from the seismic signal which is presented in Chapter 6. The main idea of this work is to use an additional premise that the reflections occur as sparsely restricted, for which a study on the “sparsity measure”is considered. Some well known methods that fall in this category are proposed such as[Sacchi et al., 1994; Sacchi, 1997]. We propose a new penalty based on a smooth approximation of the l1/l2 function that makes a difficult non convex minimization problem. We develop a proximal-based algorithm to solve variational problems involving this function and we derive theoretical convergence results. We demonstrate the effectiveness of our method through a comparison with a recent alternating optimization strategy dealing with the exact l1/l2 term
49

Meresescu, Alina-Georgiana. "Inverse Problems of Deconvolution Applied in the Fields of Geosciences and Planetology." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS316/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le domaine des problèmes inverses est une discipline qui se trouve à la frontière des mathématiques appliquées et de la physique et qui réunit les différentes solutions pour résoudre les problèmes d'optimisation mathématique. Dans le cas de la déconvolution 1D, ce domaine apporte un formalisme pour proposer des solutions avec deux grands types d'approche: les problèmes inverses avec régularisation et les problèmes inverses bayésiens. Sous l'effet du déluge de données, les géosciences et la planétologie nécessitent des algorithmes de plus en plus plus complexe pour obtenir des informations pertinentes. Dans le cadre de cette thèse, nous proposons d'apporter des connaissances dans trois problèmes de déconvolution 1D sous contrainte avec régularisation dans le domaine de l'hydrologie, la sismologie et de la spectroscopie. Pour chaque problème nous posons le modèle direct, le modèle inverse, et nous proposons un algorithme spécifique pour atteindre la solution. Les algorithmes sont définis ainsi que les différentes stratégies pour déterminer les hyper-paramètres. Aussi, des tests sur des données synthétiques et sur des données réelles sont exposés et discuté du point de vue de l'optimisation mathématique et du point de vue du domaine de l'application choisi. Finalement, les algorithmes proposés ont l'objectif de mettre à portée de main l'utilisation des méthodes des problèmes inverses pour la communauté des Géosciences
The inverse problem field is a domain at the border between applied mathematics and physics that encompasses the solutions for solving mathematical optimization problems. In the case of 1D deconvolution, the discipline provides a formalism to designing solutions in the frames of its two main approaches: regularization based inverse problems and bayesian based inverse problems. Under the data deluge, geosciences and planetary sciences require more and more complex algorithms for obtaining pertinent information. In this thesis, we solve three 1D deconvolution problems under constraints with regularization based inverse problem methodology: in hydrology, in seismology and in spectroscopy. For every of the three problems, we pose the direct problem, the inverse problem, and we propose a specific algorithm to reach the solution. Algorithms are defined but also the different strategies to determine the hyper-parameters. Furthermore, tests on synthetic data and on real data are presented and commented from the point of view of the inverse problem formulation and that of the application field. Finally, the proposed algorithms aim at making approachable the use of inverse problem methodology for the Geoscience community
50

Vissouvanadin, Soubaretty Bertrand. "Matériaux de câble à isolation synthétique pour des applications au transport d'énergie HVDC." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1271/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail concerne le développement des câbles haute tension à courant continu (HVDC) à base de polyéthylène réticulé chimiquement (XLPE). Le développement de ce type de câble est confronté au problème d'accumulation de charges d'espace, lié à la nature des électrodes semi-conductrices et de l'isolant. Dans le cadre de cette thèse, la méthode électroacoustique pulsée (PEA) est utilisée pour étudier l'accumulation de charges d'espace dans les matériaux sur plaques modèles et sur câbles. Le rôle joué par les sous-produits de réticulation sur la formation d'hétérocharges est clairement mis en évidence par l'étude du conditionnement du XLPE. Un modèle basé sur une polarisation hétérogène est proposé pour expliquer la formation d'hétérocharges. Les résultats obtenus sur différentes formulations d'isolants montrent une implication certaine des additifs dans la formation de charges d'espace. L'étude réalisée sur les couches semi-conductrices a permis, par ailleurs, d'identifier l'impact des différents constituants (noir de carbone, matrice etc. . ) sur la formation de charges. Pour l'étude des câbles maquettes, une méthode de déconvolution des profils PEA tenant compte de la géométrie cylindrique, de l'atténuation et de la dispersion d'onde acoustique est d'abord mise au point. Les mesures sur des câbles maquettes non traités ont permis de mettre en évidence un déplacement du point de champ maximum depuis l'âme du câble vers le semi-conducteur extérieur du câble due à une accumulation massive d'hétérocharges au niveau de l'électrode externe. L'influence du gradient thermique sur l'accumulation de charges est également abordée dans ce travail
This work deals with the development of High Voltage Direct Current cables based Cross-linked polyethylene (XLPE). The development of such a cable is confronted to the problem of space charge build-up which is linked to the nature of the semiconducting electrodes and the insulating material. In the framework of this thesis, the pulsed electro-acoustic (PEA) method has been used to study space charge build-up in both plaque and model cables. The impact of cross-linking by-products on the heterocharges accumulation has been highlighted by investigations on XLPE conditioning. A model based on heterogeneous polarization has been established to describe heterocharges build-up. Results obtained on different insulating formulations have shown a clear impact of additives regarding space charge build-up. Furthermore, study of semi-conducting layers has enabled identifying the effect of the different compounds such as carbon black, polymer matrix on charges build-up. For model cables, a deconvolution method of raw PEA signal which takes into account the cylindrical geometry, the attenuation and the dispersion of acoustic waves has been developed. Measurements on non-treated model cables have shown a displacement of the point where the field is at maximum from the inner to the outer semi-conducting electrode. This is due to a massive heterocharges build-up adjacent to the external electrode. The impact of thermal gradient on space charge build-up has also been addressed in this work

До бібліографії