Academic literature on the topic 'Méthodes de déconvolution'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Méthodes de déconvolution.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Méthodes de déconvolution":

1

Dechemi, N., and H. Chambaz. "La prévision des crues du bassin versant de l'Oued Dis (Sebaou) par la métode DPFT." Revue des sciences de l'eau 7, no. 4 (April 12, 2005): 331–42. http://dx.doi.org/10.7202/705204ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La modélisation pluie-débit dans le cas de la prévision des crues peut être étudiée par la méthode DPFT (différence première de la fonction de transfert) qui est une extension de la méthode de l'hydrogramme unitaire. Contrairement aux autres méthodes, la méthode DPFT permet d'obtenir à la fois la fonction de transfert à travers sa différence première (DPFT) et une série des pluies efficaces. L'avantage principal de la formulation en différences est la diminution de l'auto corrélation des débits successifs et des coefficients de la fonction de transfert. L'algorithme de calcul procède par itérations en résolvant alternativement un système multi-événements qui identifie la fonction de transfert et un système de déconvolution qui estime une série de pluies efficaces, cette fois-ci crue par crue. L'initialisation se fait à l'aide des pluies brutes comme première approximation des pluies efficaces puisque les résultats ne dépendent que des variations des débits. La convergence de l'algorithme est établie aisément lorsqu'on applique les différentes contraintes (positivité des ordonnées de la fonction de transfert et des pluies efficaces; normalisation de la fonction de transfert). La méthode DPFT ne nécessite donc que les mesures des pluies brutes et les débits pour effectuer les identifications de la fonction de transfert et des pluies efficaces. Elle n'impose pas de préciser la fonction de production. Une fois la fonction de transfert calée et les pluies efficaces estimées par la DPFT, l'ajustement de la fonction de production se fait par la suite en résolvant un problème du type entrée-sortie. Une application de la méthode DPFT est faite sur le bassin versant de Oued Dis (Sebaou) dans le but de tester les performances de cette méthode sur des données réelles, sachant qu'on a obtenu une confirmation assez rigoureuse de ces propriétés sur des données synthétiques générées. Les résultats de l'identification de la fonction de transfert sont satisfaisants tandis que ceux de l'ajustement de la fonction de production sont moins satisfaisants, ce qui a influencé directement la qualité des résultats de validation.
2

Maulin, Maëva, Nicolas Estre, David Tisseur, Grégoire Kessedjian, Alix Sardet, Emmanuel Payan, and Daniel Eck. "Défloutage de projections tomographiques industrielles hautes énergies à l’aide d’un réseau de neurones convolutifs." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28481.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La fabrication additive, métallique en particulier, est en plein essor, mais les pièces ainsi produites peuvent présenter des défauts tels que des anomalies d'impression, de la rétention de poudre ou des fissures. Pour contrôler l'intégrité de ces pièces, la tomographie par transmission haute résolution reste la méthode de référence. Cependant, pour inspecter des pièces massives et fortement absorbantes, la tomographie haute énergie avec un accélérateur linéaire d'électrons est nécessaire. Le Laboratoire de Mesures Nucléaires du CEA IRESNE dispose d'un tomographe haute énergie et a souhaité améliorer la qualité des projections acquises en mettant en place des post-traitements numériques. Afin d’essayer de dépasser les performances des méthodes de restauration classiques, basées sur des algorithmes de déconvolution, une approche de post-traitement novatrice a été étudiée : la déconvolution de flou par réseaux de neurones convolutifs. Pour ce faire, un jeu de données d’images a tout d’abord été généré par simulation. Un réseau de neurones convolutifs, basé sur la structure du réseau SRCNN (Super-Resolution Convolutional Neural Network), a ensuite été adapté, entraîné et évalué. Chaque hyperparamètre du réseau a alors été spécialement optimisé. Enfin, ce réseau a été validé sur des tomographies à 9 MeV d’objets réels afin d’évaluer les performances finales obtenues, mais aussi comprendre les limitations de ce type d’approche. Le réseau de neurones convolutifs ainsi optimisé démontre de bonnes performances de défloutage tout en limitant l’amplification du bruit.

Dissertations / Theses on the topic "Méthodes de déconvolution":

1

Guerchaoui, Atman. "Etude comparative des principales méthodes de déconvolution en prospection sismique." Grenoble INPG, 1988. http://www.theses.fr/1988INPG0041.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sujet traite du probleme de deconvolution en geophysique petroliere. Il consiste a determiner la reponse impulsionnelle du sous-sol, le signal source etant inconnu. Des donnees simulees puis des donnees reelles permettent une etude comparative des principales methodes de deconvolution. Une methodologie dans le traitement des donnees reelles est proposee
2

Nguyễn, Hoài Nam. "Méthodes et algorithmes de segmentation et déconvolution d'images pour l'analyse quantitative de Tissue Microarrays." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S104/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse a pour objectif de développer les méthodes originales pour l'analyse quantitative des images de Tissue Microarrays (TMAs) acquises en fluorescence par des scanners dédiés. Nous avons proposé des contributions en traitement d'images portant sur la segmentation des objets d'intérêts (i.e. des échantillons de tissus sur la lame de TMA scannée), la correction des artefacts d'acquisition liés aux scanners en question ainsi que l'amélioration de la résolution spatiale des images acquises en tenant compte des modalités d'acquisition (imagerie en fluorescence) et la conception des scanners. Les développements permettent d'envisager une nouvelle plateforme d'analyse de TMAs automatisée, qui représente aujourd'hui une forte demande dans la recherche contre les cancers. Les TMAs (ou “puces à tissus”) sont les lames histologiques sur lesquelles de nombreux échantillons tissulaires venant de différents donneurs sont déposés selon une structure de grille afin de faciliter leur identification. Pour pouvoir établir le lien entre chaque échantillon et ses données cliniques correspondantes, on s'intéresse non seulement à segmenter ces échantillons mais encore à retrouver leur position théorique (les indices de ligne et de colonne) sur la grille TMA car cette dernière est souvent très déformée pendant la fabrication des lames. Au lieu de calculer directement les indices de ligne et de colonne (des échantillons), nous avons reformulé ce problème comme un problème d'estimation de la déformation de la grille de TMA théorique à partir du résultat de segmentation en utilisant l'interpolation par splines ''plaques minces''. Nous avons combiné les ondelettes et un modèle d'ellipses paramétriques pour éliminer les fausses alarmes, donc améliorer les résultats de segmentation. Selon la conception des scanners, les images sont acquises pixel par pixel le long de chaque ligne, avec un change de direction lors du balayage entre les deux lignes. Un problème fréquent est le mauvais positionnement des pixels dû à la mauvaise synchronisation des modules mécaniques et électroniques. Nous avons donc proposé une méthode variationnelle pour la correction de ces artefacts en estimant le décalage entre les pixels sur les lignes consécutives. Cette méthode, inspirée du calcul du flot optique, consiste à estimer un champ de vecteurs en minimisant une fonction d'énergie composée d'un terme d'attache aux données non convexe et d'un terme de régularisation convexe. La relaxation quadratique est ainsi utilisée pour découpler le problème original en deux sous-problèmes plus simples à résoudre. Enfin, pour améliorer la résolution spatiale des images acquises qui dépend de la PSF (point spread function) elle-même variant selon le faisceau laser d'excitation, nous avons introduit une méthode de déconvolution d'images en considérant une famille de régulariseurs convexes. Les régulariseurs considérés sont généralisés du concept de la variation parcimonieuses (Sparse Variation) combinant la norme L1 de l'image et la variation totale (Total Variation) pour rehausser les pixels dont l'intensité et le gradient sont non-nuls. Les expériences montrent que l'utilisation de cette régularisation produit des résultats déconvolution d'images très satisfaisants en comparaison avec d'autres approches telles que la variation totale ou la norme de Schatten de la matrice Hessienne
This thesis aims at developing dedicated methods for quantitative analysis of Tissue Microarray (TMA) images acquired by fluorescence scanners. We addressed there issues in biomedical image processing, including segmentation of objects of interest (i.e. tissue samples), correction of acquisition artifacts during scanning process and improvement of acquired image resolution while taking into account imaging modality and scanner design. The developed algorithms allow to envisage a novel automated platform for TMA analysis, which is highly required in cancer research nowadays. On a TMA slide, multiple tissue samples which are collected from different donors are assembled according to a grid structure to facilitate their identification. In order to establish the link between each sample and its corresponding clinical data, we are not only interested in the localization of these samples but also in the computation of their array (row and column) coordinates according to the design grid because the latter is often very deformed during the manufacturing of TMA slides. However, instead of directly computing array coordinates as existing approach, we proposed to reformulate this problem as the approximation of the deformation of the theoretical TMA grid using “thin plate splines” given the result of tissue sample localization. We combined a wavelet-based detection and a ellipse-based segmentation to eliminate false alarms and thus improving the localization result of tissue samples. According to the scanner design, images are acquired pixel by pixel along each line, with a change of scan direction between two subsequent lines. Such scanning system often suffers from pixel mis-positioning (jitter) due to imperfect synchronization of mechanical and electronic components. To correct these scanning artifacts, we proposed a variational method based on the estimation of pixel displacements on subsequent lines. This method, inspired from optical flow methods, consists in estimating a dense displacement field by minimizing an energy function composed of a nonconvex data fidelity term and a convex regularization term. We used half-quadratic splitting technique to decouple the original problem into two small sub-problems: one is convex and can be solved by standard optimization algorithm, the other is non-convex but can be solved by a complete search. To improve the resolution of acquired fluorescence images, we introduced a method of image deconvolution by considering a family of convex regularizers. The considered regularizers are generalized from the concept of Sparse Variation which combines the L1 norm and Total Variation (TV) to favors the co-localization of high-intensity pixels and high-magnitude gradient. The experiments showed that the proposed regularization approach produces competitive deconvolution results on fluorescence images, compared to those obtained with other approaches such as TV or the Schatten norm of Hessian matrix
3

Sintes, Christophe. "Déconvolution bathymétrique d'images sonar latéral par des méthodes interférométriques et de traitement de l'image." Rennes 1, 2002. http://www.theses.fr/2002REN10066.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces travaux de thse concernent l'tude d'un sonar latral interfromtrique. Le sonar latral dlivre des images haute dfinition des fonds marins, mais la reprsentation de la ralit est biaise en raison du systme d'acquisition. L'option interfromtrique permet de calculer l'altitude de chaque point de l'image, ce qui permet de reconstruire une image tri-dimensionnelle et conforme la zone explore. La mesure de cette altitude repose sur une mesure de retard entre deux antennes distinctes, du trajet retour de l'onde sonore. Ce retard est constitu de partie le retard fin ou phase interfromtrique et le retard grossier ou nombre de priodes entires de la porteuse Dans un premier temps une tude des caractristiques de la phase interfromtrique est effectue, afin de permettre de cerner les diffrents phnomnes polluant le signal et de permettre une prdiction de performances sonar. La troisime partie s'intresse au retard grossier qui est estim par la mthode du vernier. Une tude des configurations d'antennes permet d'optimiser la conception de l'interfromtre. Enfin, la dernire partie, en s'appuyant sur les lments scientifiques dvelopps dans les deux premires parties, propose une technique de rduction des erreurs des ambiguits de phase conjugue un filtrage du signal interfromtrique par ondelettes
4

Vivet, Laurent. "Amélioration de la résolution des méthodes d'échographie ultrasonore en contrôle non destructif par déconvolution adaptative." Paris 11, 1989. http://www.theses.fr/1989PA112256.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'échographie ultrasonore comporte des avantages qui la rendent essentielle en Contrôle Non Destructif (CND). Cependant, l'importante énergie acoustique nécessaire pour traverser des matériaux très atténuants ne peut être obtenue qu'à l'aide de traducteurs résonnants, ce qui limite sérieusement la résolution sur les échogrammes mesurés. Cette résolution peut être améliorée avec des méthodes de déconvolution. Mais l'application des méthodes de déconvolution monodimensionnelle pose problème en contrôle non destructif quand le milieu est fortement anisotrope et hétérogène (l'acier austénitique par exemple). Les techniques de déconvolution sont nombreuses et bien documentées dans la littérature en CND. Mais elles proviennent généralement d'autres domaines d'application (génie biomédical, géophysique) et nous montrons que ces techniques ne sont pas bien adaptées aux principaux problèmes du CND : l'atténuation en fréquence du milieu et la phase non-minimale de l'ondelette. Nous avons développé une méthode de déconvolution temporelle qui permet de prendre en compte les caractéristiques de l'ondelette. Notre méthode traite le problème de déconvolution comme un problème d'estimation et comporte 2 étapes : (i) une étape de correction en phase qui prend en compte la phase de l'ondelette pour estimer l'échogramme corrigé en phase. La phase de l'ondelette est uniquement caractéristique du traducteur utilisé et reste constante lors de la propagation. (ii) une étape d'égalisation spectrale qui permet de restaurer le contenu spectral de la réflectivité idéale. Les deux étapes sont mises en œuvre par des filtres de Kalman rapides qui permettent de réduire considérablement le coût en calcul de la méthode. La présentation de résultats synthétiques et réels montre que l'approche adoptée permet effectivement d'améliorer sensiblement la résolution dans les matériaux atténuants
5

Thibon, Louis. "Méthodes d'augmentation de résolution en microscopie optique exploitant le modelage de faisceau laser et la déconvolution." Doctoral thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/34695.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La microscopie à balayage laser est limitée en résolution par la limite de diffraction de la lumière. Plusieurs méthodes de superrésolution ont été développées depuis les années 90 pour franchir cette limite. Cependant, la superrésolution est souvent obtenue au prix d'une grande complexité (laser de haute puissance pulsé, temps d'acquisition long, fluorophores spécifiques) ainsi que des limitations dans le type d'échantillon observé (observation en surface uniquement). Dans certains cas, comme pour l'illumination structurée et la microscopie SLAM, une amélioration en résolution plus modeste est obtenue, mais avec une complexité et des limites d'utilisation fortement réduites par rapport aux autres méthodes de superrésolution. Les mé- thodes que nous proposons ici sont des méthodes d'augmentation de résolution qui visent à minimiser les contraintes expérimentales et à garder un maximum des avantages des techniques d'imagerie conventionnelles. Dans les cas que nous avons étudiés, les méthodes proposées sont basées sur la microscopie confocale. Nous allons montrer dans un premier temps qu'il est possible d'augmenter de 20% la résolution d'un microscope confocal en changeant le faisceau laser utilisé pour l'excitation par un faisceau Bessel-Gauss tout en ayant un sténopé de la bonne taille (soit 1 Airy Unit). Les avantages de la méthode proposée résident dans sa simplicité d'installation et d'utilisation et sa compatibilité avec d'autres méthodes d'augmentation de résolution. Nous avons démontré les capacités d'augmentation de résolution des faisceaux Bessel-Gauss théoriquement puis exp érimentalement sur des échantillons de nano-sphères et de tissus biologiques obtenant ainsi une résolution de 0.39. Nous avons également montré que l'amélioration en résolution des faisceaux Bessel-Gauss donne une analyse statistique de la colocalisation avec un taux plus faible de faux positifs. Nous avons utilisé des faisceaux Bessel-Gauss de différents ordres pour améliorer la méthode de la microscopie SLAM et ainsi obtenir une résolution descendant à 0.17 (90 nm avec une longueur d'onde de 532 nm). La méthode proposée est entièrement basée sur la microscopie confocale et seul un module permettant de changer le faisceau laser doit être ajouté au montage. Dans un second temps, nous proposons une méthode permettant de bénéficier au maximum des propriétés de la déconvolution pour augmenter la résolution de la microscopie confocale. Pour cela, nous avons utilisé différents modes laser pour l'acquisition d'images et ces images sont utilisées comme données d'entrée pour la déconvolution (avec des mesures des PSF respectives). Les faisceaux laser utilisés apportent ainsi des informations complémentaires à l'algorithme de déconvolution permettant ainsi d'obtenir des images avec une résolution encore meilleure que si une simple déconvolution (utilisant le même algorithme) était utilisée sur l'image confocale. Par la suite, nous avons changé les faisceaux laser par des faisceaux Bessel-Gauss pour augmenter davantage l'ecacité de la déconvolution. Encore une fois, la méthode proposée est entièrement basée sur la microscopie confocale et seul un module permettant de changer le faisceau laser doit être ajouté au montage. Enfin, nous proposons d'aborder une méthode de reconstruction en trois dimensions par tomographie basée sur des projections obtenues en microscopie à deux photons utilisant les faisceaux Bessel-Gauss. En focalisant des faisceaux Bessel-Gauss à angle en microscopie deux photons, on obtient une série de projections utilisables pour une reconstruction tomographique. Le but est de tester la faisabilité de la méthode qui permettrait de reconstruire un volume, en nécessitant moins d'images que dans le cas d'une acquisition plan par plan, en microscopie deux photons classique.
Laser scanning microscopy is limited in lateral resolution by the diffraction of light. Superresolution methods have been developed since the 90s to overcome this limitation. However, superresolution is generally achieved at the cost of a greater complexity (high power lasers, very long acquisition times, specic uorophores) and limitations on the observable samples. In some cases, such as Structured Illumination Microscopy (SIM) and Switching Laser Modes (SLAM), a more modest improvement in resolution is obtained with a reduced complexity and fewer limitations. We propose here methods which improve the resolution while minimizing the experimental constraints and keeping most of the advantages of classical microscopy. First, we show that we can improve by twenty percent the resolution of confocal microscopy by using Bessel-Gauss beams, and by having the right pinhole size (1 Airy Unit), compared to conventional Gaussian beam based confocal microscopy. The advantages of this strategy include simplicity of installation and use, linear polarization compatibility, possibility to combine it with other resolution enhancement and superresolution strategies. We demonstrate the resolution enhancement capabilities of Bessel-Gauss beams both theoretically and experimentally on nano-spheres and biological tissue samples with a resolution of 0.39. We achieved these resolutions without any residual artifacts coming from the Bessel-Gauss beam side lobes. We also show that the resolution enhancement of Bessel-Gauss beams leads to a better statistical colocalization analysis with fewer false positive results than when using Gaussian beams. We have also used Bessel-Gauss beams of different orders to further improve the resolution by combining them in SLAM microscopy achieving a resolution of 0.17 (90 nm with a wavelength of 532 nm). In a second step, we propose a method to improve the resolution of confocal microscopy by combining different laser modes and deconvolution. Two images of the same eld are acquired with the confocal microscope using different laser modes and are used as inputs to a deconvolution algorithm. The two laser modes have different Point Spread Functions and thus provide complementary information leading to an image with enhanced resolution compared to using a single confocal image as input to the same deconvolution algorithm. By changing the laser modes to Bessel-Gauss beams, we were able to improve the effciency of the deconvolution algorithm and to obtain images with a residual Point Spread Function having a width smaller than 100 nm. The proposed method requires only a few add-ons to the classic confocal or two photon microscopes. Finally, we propose a three dimensional tomography reconstruction method using Bessel-Gauss beams as projection tools in two-photon microscopy. While focussing Bessel-Gauss beams at an angle in two photon microscopy, we can obtain a series of projections that can be used for tomography reconstruction. The aim is to test the practicality of the methods allowing to reconstruct a volume while using fewer images than plane by plane acquisitions as in classic two-photon microscopy.
6

Cassereau, Didier. "Nouvelles méthodes et applications de la propagation transitoire dans les milieux fluides et solides." Paris 7, 1988. http://www.theses.fr/1988PA077224.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Luczak, Anaelle. "Méthodes sismiques pour la surveillance des grandes structures du génie civil." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4096/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Alors que les études sismiques conventionnelles utilisent des sources énergétiques et impulsionnelles, ces dernières années ont vu émerger des analyses basées sur l'utilisation du bruit sismique ambiant. Ces analyses s'appuient sur des opérations d'intercorrélation ou de déconvolution dans le but de reconstruire des signaux assimilables, sous certaines conditions, aux fonctions de Green du milieu entre deux stations d'enregistrement. Dans cette thèse sont développées des méthodes de surveillance des digues maritimes et des massifs de stockage géologique, soit à partir de l'écoute du bruit ambiant quand les conditions environnementales le permettent, soit à partir de l'enregistrement de signaux émis par une source entretenue. Chacun des deux types de structures étudiées présente des contraintes spécifiques, dans la mise en place des mesures sur le terrain et dans la méthode d'analyse des données acquises. Les travaux présentés s'attachent à montrer l'adéquation des méthodes de calcul utilisées selon le dispositif mis en place, le type d'ondes étudié (ondes de volume ou de surface selon l'application) et l'observable analysée (la vitesse de propagation ou l'atténuation). Les variations de ces paramètres sont étudiées sur différentes échelles de temps, dans le but de détecter soit des phénomènes rapides et ponctuels induits par une sollicitation momentanée, soit des phénomènes lents, comme par exemple le vieillissement de la structure
While conventional seismic studies use energetic impulse sources, recent years have seen the emergence of analyses based on the use of ambient seismic noise. These analyses rely on inter-correlation or deconvolution operations, in order to reconstruct signals that can be considered as, under certain conditions, the Green functions of the medium between two recording stations. In this thesis are developed methods for the monitoring of sea dikes and geological storage massifs, either from listening to ambient noise when environmental conditions are favourable, or from the recording of signals emitted by a controlled vibratory source. Each of these two types of structures presents specific constraints in the implementation of field measurements and in the method of analysis of the data acquired. This work is aimed at showing the adequacy of the calculation methods according to the acquisition system put in place, the type of waves studied (body or surface waves, depending on the application) and the studied observable (either the propagation velocity or the attenuation). The variation of these parameters is presented on different time scales, in order to detect either fast and punctual phenomena induced by an external forcing, or long-term phenomena, such as the aging of the structure
8

Combe, Pascal. "Application des méthodes de déconvolution à la caractérisation ultrasonore de l'isolant de câbles électriques, et analyse temps-fréquence des réponses acoustiques." Grenoble INPG, 1988. http://www.theses.fr/1988INPG0075.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Mena, Bernard. "Détection et analyse de sursauts gamma à l'aide du télescope SIGMA : caractérisation et calibrations de l'expérience, différentes méthodes de déconvolution des données." Toulouse 3, 1990. http://www.theses.fr/1990TOU30049.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le telescope sigma, dont le cnes est maitre d'uvre, a ete mis en orbite le 1. 12. 89. Outre sa fonction d'imagerie, il doit etudier les sursauts gamma, phenomenes astrophysiques decouverts recemment (1973). Le detecteur est un ensemble de 31 cristaux de csi (19200 cm#2) associes a 62 photomultiplicateurs. Les signaux issus de ces detecteurs sont analyses par deux boitiers d'electronique embarquee. L'ensemble de la chaine de detection a ete integre, caracterise puis teste en ambiance spatiale. Par la suite, l'experience a ete calibree a l'aide de differentes sources radioactives, de maniere a obtenir la fonction de transfert de l'instrument. Plusieurs methodes de deconvolution spectrale ont ete testees. Un algorithme, base sur le principe du maximum d'entropie a ete developpe et apparait tout a fait adapte a ce type de probleme. Ce travail apporte une contribution importante a l'experience spatiale sigma, a toutes les etapes de la realisation, aussi bien qu'a la preparation du depouillement des donnees essentielles qu'elle fournira
10

Hassouna, Mohammad. "Développement et validation des méthodes spectroscopiques d'absorbance UV et de fluorescence appliquées à la caractérisation spatiotemporelle de la matière organique du sol extractible à l'eau (MOEE)." Aix-Marseille 1, 2006. http://theses.univ-amu.fr.lama.univ-amu.fr/2006AIX11042.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le premier objectif de ce travail est le développement d'une approche analytique combinatoire basée sur l'utilisation de différentes techniques chromatographiques et spectroscopiques afin d'établir un profil de l'évolution spatiotemporelle de la MOEE. Le deuxième objectif est de développer une méthode alternative de cratérisation de la MOEE adaptée à l'analyse sur site. A l'aide du fractionnement sur résines XAD-8 et XAD-4 connectées en tandem, la MOEE dans les extraits du sol est divisée en 3 familles de composés : hydrophobe, transphilique et hydrophile. La détermination de leurs teneurs en carbone organique, suivie par leur caractérisation spectrale UV et de fluorescence tridimensionnelle, a mis en évidence la prédominance de l'impact de la profondeur sur leurs répartitions et sur leurs propriétés qualitatives. L'impact de l'incorporation des résidus végétaux frais dans le sol et des paramètres climatiques sur ces propriétés s'est montré plus ponctuel. L'étude des propriétés complexantes effectuée grâce à l'approche fluorimétrique a montré que les trois fractions de la MOEE se caractérisent par des importantes capacités complexantes, notamment les fractions hydrophiles. Une méthodologie alternative a été développée basée sur l'exploitation des spectres UV par déconvolution spectrale permettant d'obtenir, par une simple analyse spectrale, un fractionnement de la MOEE analogue à celui obtenu sur résine et une quantification du carbone total et de chaque fraction en plus des nitrates

Books on the topic "Méthodes de déconvolution":

1

Centre canadien de la technologie des minéraux et de l'énergie. Nouvelle Méthode de Déconvolution Pour L'analyse des Spectres de Distribution de la Densité de Probabilité Obtenus Lors de Mesures D'interrogation Aux Rayons Gamma D'écoulements Multiphases. S.l: s.n, 1985.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

To the bibliography