To see the other types of publications on this topic, follow the link: Préservation des structures fines.

Dissertations / Theses on the topic 'Préservation des structures fines'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 31 dissertations / theses for your research on the topic 'Préservation des structures fines.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Longuefosse, Arthur. "Apprentissage profond pour la conversion d’IRM vers TDM en imagerie thoracique." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0489.

Full text
Abstract:
L’imagerie thoracique présente des défis importants, chaque modalité d’imagerie ayant ses propres limitations. Le scanner (CT), référence en imagerie pulmonaire, offre une haute résolution spatiale, mais utilise des rayonnements ionisants, posant des risques pour les patients nécessitant des examens fréquents. À l’inverse, l’IRM pulmonaire offre une alternative sans radiation, mais est limitée par des problèmes techniques tels qu’un faible contraste et des artefacts, limitant son adoption clinique à grande échelle. Récemment, l’IRM à temps d’écho ultracourt (UTE-MRI) a montré un potentiel pour surmonter certaines de ces limitations, mais elle ne parvient toujours pas à atteindre la haute résolution et la qualité d’image du scanner, notamment pour l’évaluation détaillée des structures. L’objectif principal de cette thèse est de développer et valider des modèles basés sur l’apprentissage profond pour synthétiser des images de scanner TDM à partir d’IRM UTE. Plus précisément, nous visons à évaluer la qualité des images, la reconstruction anatomique et l’applicabilité clinique de ces images de synthèse par rapport aux IRM UTE originales et aux scanners CT correspondants. Dans un premier temps, nous avons exploré les bases de la synthèse d’images médicales, en établissant le socle pour la conversion de l’IRM vers le scanner. Nous avons mis en œuvre un modèle de GAN 2D basé sur le cadre pix2pixHD, optimisé avec la normalisation SPADE et affiné les techniques de prétraitement telles que le rééchantillonnage et l’enregistrement. L’évaluation clinique par des radiologues experts a montré des résultats prometteurs en comparant les images synthétiques aux scans réels. La synthèse a été ensuite améliorée par l’introduction de la perte perceptuelle, qui a affiné les détails structurels et la qualité visuelle, et par l’intégration de stratégies 2.5D pour équilibrer la synthèse 2D et 3D. De plus, nous avons mis l’accent sur un processus de validation rigoureux utilisant des métriques spécifiques à la tâche, remettant en question les métriques globales traditionnelles basées sur l’intensité, en nous concentrant sur la reconstruction précise des structures anatomiques. Dans la dernière étape, nous avons développé un cadre de synthèse 3D robuste et évolutif en adaptant nnU-Net pour la génération de scanner, accompagné d’une fonction de perte priorisant les caractéristiques anatomiques, permettant une meilleure reconstruction des structures critiques telles que les voies respiratoires et les vaisseaux. Notre travail met en évidence le potentiel des modèles basés sur l’apprentissage profond pour générer des images synthétiques de haute qualité de type scanner à partir d’IRM UTE, offrant une amélioration significative de l’imagerie pulmonaire non invasive. Ces avancées pourraient considérablement améliorer l’applicabilité clinique de l’IRM UTE, en offrant une alternative plus sûre au scanner pour le suivi des maladies pulmonaires chroniques. De plus, un brevet est actuellement en préparation pour l’adoption de notre méthode, ouvrant la voie à une utilisation potentielle en milieu clinique
Thoracic imaging faces significant challenges, with each imaging modality presenting its own limitations. CT, the gold standard for lung imaging, delivers high spatial resolution but relies on ionizing radiation, posing risks for patients requiring frequent scans. Conversely, lung MRI, offers a radiation-free alternative but is hindered by technical issues such as low contrast and artifacts, limiting its broader clinical use. Recently, UTE-MRI shows promise in addressing some of these limitations, but still lacks the high resolution and image quality of CT, particularly for detailed structural assessment. The primary objective of this thesis is to develop and validate deep learning-based models for synthesizing CT-like images from UTE-MRI. Specifically, we aim to assess the image quality, anatomical accuracy, and clinical applicability of these synthetic CT images in comparison to the original UTE-MRI and real CT scans in thoracic imaging. Initially, we explored the fundamentals of medical image synthesis, establishing the groundwork for MR to CT translation. We implemented a 2D GAN model based on the pix2pixHD framework, optimizing it using SPADE normalization and refining preprocessing techniques such as resampling and registration. Clinical evaluation with expert radiologists showed promising results in comparing synthetic images to real CT scans. Synthesis was further enhanced by introducing perceptual loss, which improved structural details and visual quality, and incorporated 2.5D strategies to balance between 2D and 3D synthesis. Additionally, we emphasized a rigorous validation process using task-specific metrics, challenging traditional intensity-based and global metrics by focusing on the accurate reconstruction of anatomical structures. In the final stage, we developed a robust and scalable 3D synthesis framework by adapting nnU-Net for CT generation, along with an anatomical feature-prioritized loss function, enabling superior reconstruction of critical structures such as airways and vessels. Our work highlights the potential of deep learning-based models for generating high-quality synthetic CT images from UTE-MRI, offering a significant improvement in non-invasive lung imaging. These advances could greatly enhance the clinical applicability of UTE-MRI, providing a safer alternative to CT for the follow-up of chronic lung diseases. Furthermore, a patent is currently in preparation for the adoption of our method, paving the way for potential clinical use
APA, Harvard, Vancouver, ISO, and other styles
2

Vicente, David. "Modèles de Mumford-Shah pour la détection de structures fines en image." Thesis, Orléans, 2015. http://www.theses.fr/2015ORLE2055/document.

Full text
Abstract:
Cette thèse est une contribution au problème de détection de fines structures tubulaires dans une image2-D ou 3-D. Nous avons plus précisément en vue le cas des images angiographiques. Celles-ci étant bruitées, les vaisseaux ne se détachent pas nettement du reste de l’image, la question est donc de segmenter avec précision le réseau sanguin. Le cadre théorique de ce travail est le calcul des variations eten particulier l'énergie de Mumford-Shah. Cependant, ce modèle n'est adapté qu'à la détection de structures volumiques étendues dans toutes les directions de l’image. Le but de ce travail est donc deconstruire une énergie qui favorise les ensembles qui ne sont étendus que dans une seule direction, cequi est le cas de fins tubes. Pour cela, une nouvelle inconnue est introduite, une métrique Riemannienne,qui a pour but la détection de la structure géométrique de l’image. Une nouvelle formulation de l’énergie de Mumford-Shah est donnée avec cette nouvelle métrique. La preuve de l'existence d'une solution au problème de la minimisation de l’énergie est apportée. De plus, une approximation par gamma-convergence est démontrée, ce qui permet ensuite de proposer et de mettre en oeuvre une implémentation numérique
This thesis is a contribution to the fine tubular structures detection problem in a 2-D or 3-D image. We arespecifically interested in the case of angiographic images. The vessels are surrounded by noise and thenthe question is to segment precisely the blood network. The theoretical framework of our work is thecalculus of variations and we focus on the Mumford-Shah energy. Initially, this model is adapted to thedetection of volumetric structures extended in all directions of the image. The aim of this study is to buildan energy that favors sets which are extended in one direction, which is the case of fine tubes. Then, weintroduce a new unknown, a Riemannian metric, which captures the geometric structure at each point ofthe image and we give a new formulation of the Mumford-Shah energy adapted to this metric. Thecomplete analysis of this model is done: we prove that the associated problem of minimization is wellposed and we introduce an approximation by gamma-convergence more suitable for numerics. Eventually,we propose numerical experimentations adapted to this approximation
APA, Harvard, Vancouver, ISO, and other styles
3

André, Raphaël. "Etude des structures fines de la convection ionospherique observees par superdarn : structures a forte divergence de vitesse." Orléans, 1997. http://www.theses.fr/1997ORLE2027.

Full text
Abstract:
La chaine de radars a diffusion coherente superdarn observe dans les regions polaires, les mouvements de convection du plasma ionospherique qui sont induits par les interactions soleil-terre. Le premier objectif de ce travail est de mettre en place des outils permettant l'etude des structures fines se developpant dans la convection ionospherique. Deux themes complementaires sont developpes : - l'application d'une theorie de la diffusion collective permet d'extraire des parametres (temps de coherence, coefficient de diffusion) caracterisant la turbulence micro-echelle (l15 m) donnant naissance au signal enregistre par les radars. On utilise ces parametres pour separer differents regimes de turbulence, pour mettre en valeur des zones de transfert d'energie entre l'ionosphere et la magnetosphere. - la deuxieme direction consiste a mettre en place une methode d'analyse permettant de construire des cartes vectorielles de vitesses qui optimisent la resolution de base du radar (l45 km). Une telle methode doit faire face a des difficultes propres aux radars utilises, a savoir une localisation incertaine de la mesure, introduite par l'utilisation d'une onde haute frequence (hf), et une dependance des vecteurs entre eux due a la forme des volumes analyses. Ces problemes sont resolus par une etude detaillee sur la propagation des ondes hf et sur la localisation des mesures, puis par la mise en place d'une methode d'analyse spectrale haute resolution performante qui augmente la quantite d'information deduite d'une seule donnee radar. Cette methode de cartographie a haute resolution a permis de mettre en evidence dans les donnees superdarn, des structures caracterisees par une tres forte divergence des vitesses, qui sont en contradiction avec l'hypothese largement admise d'un mouvement sans divergence. L'ensemble des caracteristiques macro-echelles (45 km) et micro-echelles (15 m) de ces structures, conduit a une interpretation en termes de demagnetisation locale et temporaire des ions du plasma dans l'ionosphere aurorale. Cette etude se termine par la proposition de mecanismes capables de reproduire ces observations.
APA, Harvard, Vancouver, ISO, and other styles
4

Manoubi, Tahar. "Spectroscopie des pertes d'énergie des électrons sur quelques oxydes : analyse quantitative et structures fines." Paris 11, 1989. http://www.theses.fr/1989PA112267.

Full text
Abstract:
Une grande gamme d'oxydes a été étudiée par spectroscopie des pertes d'énergie des électrons afin de relier les spectres d'excitations électroniques à la structure cristalline et à la composition chimique. Ce travail a été effectué avec un spectromètre magnétique de bonne résolution énergétique (moins de 1 eV sur toute la gamme des pertes de 0 à 2000 eV) sur un microscope électronique STEM permettant d'analyser des zones d'échantillons de quelques nm, ce qui est très important pour des milieux inhomogènes. Ce travail décrit: 1) Une méthode de microanalyse quantitative sur lames minces à partir de deux techniques permettant de mesurer des concentrations locales avec les signaux caractéristiques d'excitation d'orbitales atomiques. La première utilise la soustraction du fond continu sous le signal et nous avons estimé la précision et les sources d'erreurs. La seconde, entièrement originale, consiste à modéliser le spectre expérimental comme la superposition de diverses contributions que l'on sait calculer. Nous avons ainsi amélioré la détermination expérimentale des sections efficaces M45 des lanthanides. 2) Un outil de spectroscopie à haute résolution sur ces lames minces aussi bien pour les excitations des électrons de valence, que pour les seuils d'excitation d'orbitales atomiques. Dans le premier cas nous avons précisé la notion de plasmon dans ces composés fort différents du jellium et défini la population d'électrons associés à une transition identifiée. Dans le second cas, nous avons étudié les structures fines au seuil et près du seuil en fonction des paramètres comme la symétrie cristalline sur le site excité, ou la densité de charge locale. Le comportement spécifique du poids des raies blanches sur les seuils L23 des métaux de transition et M45 des métaux de terres rares a été analysé, et sur le seuil K de l'oxygène les effets de champ cristallin ont été séparés de ceux dus au remplissage partiel de la bande d
A large family of oxides has been investigated by electron energy loss spectroscopy in order to correlate electron excitation spectra to crystal structure and chemical composition. This study has been performed with a magnetic spectrometer of high energy resolution (sub 1 eV over the loss range 0-2000 eV) and in a STEM with high spatial resolution (a few nm), which is quite suited to inhomogeneous specimens. This manuscript deals with two major developments. Lt describes: 1) A quantitative elemental analysis method on thin foils. Two approaches have been followed to extract local concentration measurements from the intensities of characteristic core edges. The first one uses subtraction of background fitted with a power law curve and we have evaluated the precision of the measurement and uncertainties sources. The second one consists in modelizing the experimental spectrum as the superposition of several computed contributions. We have thus improved the experimental determination of M45 cross sections for lanthanides. 2) A high resolution spectroscopy tool on thin foils, for both valence electrons and atomic orbitals excitations. In the first case, the concept of plasmon bas been discussed in these compounds which differ noticeably from the simple jellium, and the parameterization of the dielectric constants is used to define the electron population for a given excitation feature. Ln the second case, the fine structure on the threshold and in the vicinity of the absorption edges have been recorded for different site symmetries and local charge densities. The intensity of white lines on transition metal L23 edges and rare earth metal M45 edges has been analyzed. For oxygen K edges, the crystal field affect has been discriminated from the d band occupancy one
APA, Harvard, Vancouver, ISO, and other styles
5

Rolin, Raphaël. "Contribution à une démarche numérique intégrée pour la préservation des patrimoines bâtis." Thesis, Compiègne, 2018. http://www.theses.fr/2018COMP2450/document.

Full text
Abstract:
Au travers de l’ensemble de ces travaux, l’objectif principal consiste à valider la pertinence de la construction et de l’utilisation de modèles 3D géométriques ou paramétriques orientés BIM/hBIM pour des analyses numériques. Il s’agit notamment d’études structurales dans le cas de bâtiments historiques ainsi que la planification potentielle de travaux de restauration, rénovation énergétique et réhabilitation. Des travaux d’exploitation complémentaires des données et des nuages de points, pour la détection, la segmentation et l’extraction d’entités géométriques ont également été intégrés dans les travaux et la méthodologie proposée. Le processus de traitement des données, modélisation géométrique ou paramétrique et leur exploitation, proposé dans ces travaux, contribue à améliorer et mieux comprendre les contraintes et enjeux des différentes configurations et conditions liées aux cas d’études et aux contraintes spécifiques propres aux types de constructions. Les contributions proposées pour les différentes méthodes de modélisation géométriques et paramétriques à partir des nuages de points, sont abordées par la construction de modèles géométriques orientés BIM ou hBIM. De même, les processus de détection d’éléments surfaciques et d’extraction de données à partir de nuages de points mis en place sont présentés. La mise en application de ces méthodes de modélisation est systématiquement illustrée par différents cas d’étude, dont l’ensemble des travaux relatifs ont été effectués dans le cadre de cette thèse. Le but est dès lors de démontrer l’intérêt et la pertinence de ces méthodes numériques en fonction du contexte, des besoins et des études envisagées, par exemple avec la flèche de la cathédrale de Senlis (Oise) et le site de l’Hermitage (Oise). Des analyses numériques de type éléments finis permettent ensuite de valider la pertinence de telles démarches
Throughout this work, the main objective is to validate the relevance of construction and use of geometric or parametric 3D models BIM or hBlM-oriented for numerical analyzes. These include structural studies in the case of historic buildings, as well as planning for restoration work, energy renovation and rehabilitation. Complementary data mining and use of point clouds for the detection, segmentation and extraction of geometric features have also been integrated into the work and proposed methodology. The process of data processing, geometric or parametric modeling and their exploitation, proposed in this work, contributes to improve and understand better the constraints and stakes of the different configurations and conditions related to the case studies and the specific constraints specific to the types of constructions. The contributions proposed for the different geometric and parametric modeling methods from point clouds are addressed by the construction of geometric models BIM or hBlM-oriented. Similarly, the process of surface detection, extraction of data and elements from point clouds are presented. The application of these modeling methods is systematically illustrated by different case studies, all of whose relative work has been carried out within the framework of this thesis. The goal is therefore to demonstrate the interest and relevance of these numerical methods according to the context, needs and studies envisaged, for example with the spire of the Senlis cathedral (Oise) and the Hermitage site (Oise). Numerical analyzes with finite element method are used to validate the relevance of these approaches
APA, Harvard, Vancouver, ISO, and other styles
6

Morard, Vincent. "Détection de structures fines par traitement d'images et apprentissage statistique : application au contrôle non destructif." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00932727.

Full text
Abstract:
Dans cette thèse, nous présentons de nouvelles méthodes de traitement d'images pourextraire ou rehausser les éléments fins d'une image. Pour ces opérateurs, issus de la morphologie mathématique,l'accent a été mis principalement sur la précision de détection et sur le temps de calcul,qui doivent être optimisés pour pouvoir répondre aux contraintes de temps imposées par différentesapplications industrielles. La première partie de ce mémoire présente ces méthodes, organisées enfonction de la tortuosité des objets à détecter. Nous commençons par proposer un algorithme rapidepour le calcul des ouvertures 1-D afin d'extraire des structures rectilignes des images. Puis, nous étudionsune nouvelle classe d'opérateurs rapides avec les ouvertures parcimonieuses par chemins, permettantd'analyser des structures ayant une tortuosité modérée. Enfin, nous proposons de nouveauxéléments structurants adaptatifs et des filtres connexes construits avec des attributs géodésiques etgéométriques pour extraire des structures filiformes ayant une tortuosité quelconque.Dans un second temps, nous avons développé une méthode d'analyse statistique en introduisantune nouvelle pénalisation adaptative. L'objectif consiste à créer un modèle prédictif précis, quiminimise en même temps une fonction de coût, indépendante des données. Lorsque cette fonctionde coût est liée au temps de calcul de chaque descripteur, il est alors possible de créer un modèleparcimonieux précis et qui minimise les temps de calcul. Cette méthode est une généralisation desrégressions linéaires et logistiques Ridge, Forward stagewise, Lar, ou Lasso.Les algorithmes développés dans cette thèse ont été utilisés pour trois applications industrielles,très différentes les unes des autres, mais toutes faisant intervenir une approche multidisciplinaire : letraitement d'images et l'analyse statistique. L'association de ces deux disciplines permet d'améliorerla généricité des stratégies proposées puisque les opérateurs de traitement d'images alliés à un apprentissagesupervisé ou non supervisé, permettent d'adapter le traitement à chaque application.Mots clés : Traitement d'images, morphologie mathématique, analyse statistique, caractérisation deformes, contrôles non destructifs, ouvertures parcimonieuses par chemins, region growing structuringelements, amincissements par attributs géodésiques et topologiques, adaptive coefficient shrinkage.
APA, Harvard, Vancouver, ISO, and other styles
7

Drogoul, Audric. "Méthode du gradient topologique pour la détection de contours et de structures fines en imagerie." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4063/document.

Full text
Abstract:
Cette thèse porte sur la méthode du gradient topologique appliquée au traitement d'images. Principalement, on s'intéresse à la détection d'objets assimilés, soit à des contours si l'intensité de l'image à travers la structure comporte un saut, soit à une structure fine (filaments et points en 2D) s'il n'y a pas de saut à travers la structure. On commence par généraliser la méthode du gradient topologique déjà utilisée en détection de contours pour des images dégradées par du bruit gaussien, à des modèles non linéaires adaptés à des images contaminées par un processus poissonnien ou du bruit de speckle et par différents types de flous. On présente également un modèle de restauration par diffusion anisotrope utilisant le gradient topologique pour un domaine fissuré. Un autre modèle basé sur une EDP elliptique linéaire utilisant un opérateur anisotrope préservant les contours est proposé. Ensuite, on présente et étudie un modèle de détection de structures fines utilisant la méthode du gradient topologique. Ce modèle repose sur l'étude de la sensibilité topologique d'une fonction coût utilisant les dérivées secondes d'une régularisation de l'image solution d'une EDP d'ordre 4 de type Kirchhoff. En particulier on explicite les gradients topologiques pour des domaines 2D fissurés ou perforés, et des domaines 3D fissurés. Plusieurs applications pour des images 2D et 3D, floutées et contaminées par du bruit gaussien, montrent la robustesse et la rapidité de la méthode. Enfin on généralise notre approche pour la détection de contours et de structures fines par l'étude de la sensibilité topologique d'une fonction coût utilisant les dérivées m−ième d'une régularisation de l'image dégradée, solution d'une EDP d'ordre 2m
This thesis deals with the topological gradient method applied in imaging. Particularly, we are interested in object detection. Objects can be assimilated either to edges if the intensity across the structure has a jump, or to fine structures (filaments and points in 2D) if there is no jump of intensity across the structure. We generalize the topological gradient method already used in edge detection for images contaminated by Gaussian noise, to quasi-linear models adapted to Poissonian or speckled images possibly blurred. As a by-product, a restoration model based on an anisotropic diffusion using the topological gradient is presented. We also present a model based on an elliptical linear PDE using an anisotropic differential operator preserving edges. After that, we study a variational model based on the topological gradient to detect fine structures. It consists in the study of the topological sensitivity of a cost function involving second order derivatives of a regularized version of the image solution of a PDE of Kirchhoff type. We compute the topological gradients associated to perforated and cracked 2D domains and to cracked 3D domains. Many applications performed on 2D and 3D blurred and Gaussian noisy images, show the robustness and the fastness of the method. An anisotropic restoration model preserving filaments in 2D is also given. Finally, we generalize our approach by the study of the topological sensitivity of a cost function involving the m − th derivatives of a regularization of the image solution of a 2m order PDE
APA, Harvard, Vancouver, ISO, and other styles
8

Payen, Julien. "Etude et développement de structures fibreuses nontissées dédiées à la filtration de particules fines dans l'air." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2009. http://tel.archives-ouvertes.fr/tel-00474263.

Full text
Abstract:
Les médias fibreux nontissés sont des structures textiles très répandues dans le cadre de la filtration de l'air et plus particulièrement pour des particules fines de taille inférieure à 1 µm. Dans cette application, on recherche toujours un compromis entre l'efficacité de filtration (capture des particules) et la perte de charge (écoulement du fluide). Les caractéristiques structurelles des nontissés sont des facteurs primordiaux quant aux propriétés finales de filtration recherchées. L'approche est ici originale, car nous proposons de développer nos propres nontissés filtrants à l'aide d'outils de productions proches de l'industrie. Nous pouvons ainsi sélectionner des critères de structures (épaisseur, masse surfacique, type de fibres, diamètre des fibres etc.) adaptés aux propriétés de filtration de l'air que nous souhaitons étudier. Sur l'ensemble des caractéristiques structurelles étudiées nous avons montré que le paramètre le plus significatif sur les propriétés de filtration est le diamètre des fibres. Lorsqu'il diminue, nous augmentons l'efficacité mais au détriment de la perte de charge. L'expression de la longueur surfacique de fibres a été définie et est apparue comme un paramètre pertinent pour rendre compte des propriétés de filtration. Nous avons par ailleurs mis en évidence que la compacité augmentait fortement l'efficacité et la perte de charge. Notre étude sur des échantillons à base d'un mélange de diamètres de fibres montre que l'efficacité de filtration devait être assurée dans de tels mélanges par une longueur surfacique de fibres fines suffisante, alors que la quantité de fibres de diamètre plus élevé permet une structuration du média fibreux garantissant une perte de charge faible. La production de nanofibres par le procédé electrospinning nous a permis d'obtenir des échantillons avec des fibres de 250 nm de diamètre. L'amélioration du compromis efficacité/perte de charge observée est due à des nombres de Knudsen de fibres plus élevés que pour des échantillons microfibres. La modélisation des propriétés de filtration montre dans le cas d'échantillons idéalisés (fibres cylindriques, diamètre de l'ordre de 10 µm etc.) que la théorie est plutôt conforme avec les expérimentations. Cependant nous avons montré qu'en utilisant des mélanges de fibres ou des formes de section de fibres spéciales, ces modèles présentent certaines limites. Nous avons proposé des pistes avec notamment la prise en compte de nombreuses caractéristiques de la structure fibreuse afin d'obtenir des résultats plus proches des expérimentations.
APA, Harvard, Vancouver, ISO, and other styles
9

Cartier, dit Moulin Christophe. "Structures fines d'absorption des rayons X de complexes moléculaires d'éléments de transition de la premiere période." Paris 11, 1988. http://www.theses.fr/1988PA112002.

Full text
Abstract:
Ce travail est consacré à l'étude par spectroscopie d'absorption des rayons X de complexes moléculaires d'éléments de transition de la première période. Une première partie porte sur l'étude fondamentale des structures fines au seuil d'absorption : nous utilisons la flexibilité de la chimie de coordination pour étudier des complexes de stéréochimie et de structure électronique variées. Pour des molécules discrètes de structure connue, nous mettons en évidence l'influence sur le seuil du degré d'oxydation et de l'état de spin de l'élément de transition, de la symétrie du site, des distances métal-ligand et des différentes couches de voisins. Nous interprétons les transitions vers des états liés dans une approche orbitale moléculaire. Dans le domaine d'énergie où le photoélectron est éjecté, nous utilisons l'approche "diffusion multiple". L'intérêt et les limites des deux modèles sont discutés. Enfin, la présence de bandes d'intensité faible est attribuée à des transitions biélectroniques. La compréhension de l'influence des différents paramètres électroniques et structuraux qui déterminent les structures fines du seuil, et l'analyse EXAFS, sont ensuite utilisées pour l'étude structurale et stéréochimique de matériaux nouveaux intéressants pour leurs propriétés physiques, chimiques et catalytiques. Nous avons ainsi caractérisé :- les modifications structurales associées aux transitions de spin dans des complexes du fer(ll), du fer(lll) et du cobalt(ll). - la stéréochimie de complexes du titane(IV), actifs dans l'oxydation de sulfures en sulfoxydes : à toutes les étapes de la réaction, les espèces sont octaédriques et ne présentent pas d'arrangement di -oxo. - l'ordre local dans les porphyrines de fer à anse de panier, modèles de l'hémoglobine. Le spectre de la forme oxygénée permet de proposer une formulation Fe(ll)-02 plutôt que Fe(lll)-02 -. L'EXAFS résolu dans le temps permet de réaliser des cinétiques structurales et a été utilisé pour étudier l'environnement de l'ion fer au cours de la réaction d'oxydation d'une porphyrine de fer(ll) à anse de panier
Ln this work, molecular complexes of the first period transition elements are studied by X-ray absorption spectroscopy. The first point is devoted to a fundamental study of the absorption edge: we take advantage of the versatility of coordination chemistry, to study complexes, with different stereochemistries and electronic structures. Ln the case of isolated molecules with well-known structures, we point out the influence of oxidation and spin states of the metallic ion, symmetry, metal-ligand distances and remote neighbours shells upon the edge. We discuss the transitions towards bound states using a molecular orbital approach. As for the XANES part of the spectrum, we use multiple scattering theory. We discuss the interest and the limitations of the two models. Sorne weak bands can be attributed to bielectronic transitions. This knowledge of the influence of different structural and electronic parameters which impel the fine structures of the edge and EXAFS spectroscopy are then used to characterise the local structure and stereochemistry of new compounds, of interest for their physical, chemical and catalytic properties. Then we studied:- The structural changes occurring during thermal spin cross-over in iron(ll), iron(lll) and cobalt(ll) complexes. - The stereochemistry of titanium(IV) complexes active in oxidation of sulfides in sulfoxides :at each reaction step, species are octahedral and do not show di µ oxo geometry. - The local order in basket-handle iron porphyrins, model compounds of haemoglobin. The spectrum of the oxy species allows to propose a Fe(ll)-02 formulation rather than a Fe(lll)-02 -. We used the time resolved EXAFS spectrometer at LURE to record structural kinetics data and study iron surroundings during the oxidation of an iron(ll) basket-handle porphyrin
APA, Harvard, Vancouver, ISO, and other styles
10

Cartier, dit Moulin Christophe. "Structures fines d'absorption des rayons X de complexes moléculaires d'éléments de transition de la première période." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37612490z.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Lacouture, Loïc. "Modélisation et simulation du mouvement de structures fines dans un fluide visqueux : application au transport mucociliaire." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS139/document.

Full text
Abstract:
Une grande part des muqueuses à l’intérieur du corps humain sont recouvertes de cils qui, par leurs mouvements coordonnés, conduisent à une circulation de la couche de fluide nappant la muqueuse. Dans le cas de la paroi interne des bronches, ce processus permet l’évacuation des impuretés inspirées à l’extérieur de l’appareil respiratoire.Dans cette thèse, nous nous intéressons aux effets du ou des cils sur le fluide, en nous plaçant à l’échelle du cil, et on considère pour cela les équations de Stokes incompressible. Due à la finesse du cil, une simulation directe demanderait un raffinement important du maillage au voisinage du cil, pour un maillage qui évoluerait à chaque pas de temps. Cette approche étant trop onéreuse en terme de coûts de calculs, nous avons considéré l’asymptotique d’un diamètre du cil tendant vers 0 et d’une vitesse qui tend vers l’infini : le cil est modélisé par un Dirac linéique de forces en terme source. Nous avons montré qu’il était possible de remplacer ce Dirac linéique par une somme de Dirac ponctuels distribués le long du cil. Ainsi, nous nous sommes ramenés, par linéarité, à étudier le problème de Stokes avec en terme source une force ponctuelle. Si les calculs sont ainsi simplifiés (et leurs coûts réduits), le problème final est lui plus singulier, ce qui motive une analyse numérique fine et l’élaboration d’une nouvelle méthode de résolution.Nous avons d’abord étudié une version scalaire de ce problème : le problème de Poisson avec une masse de Dirac en second membre. La solution exacte étant singulière, la solution éléments finis est à définir avec précaution. La convergence de la méthode étant dégradée dans ce cas-là, par rapport à celle dans le cas régulier, nous nous sommes intéressés à des estimations locales. Nous avons démontré une convergence quasi-optimale en norme Hs (s ě 1) sur un sous-domaine qui exclut la singularité. Des résultats analogues ont été obtenus dans le cas du problème de Stokes.Pour palier les problèmes liés à une mauvais convergence sur l’ensemble du domaine, nous avons élaboré une méthode pour résoudre des problème elliptiques avec une masse de Dirac ou une force ponctuelle en terme source. Basée sur celle des éléments finis standard, elle s’appuie sur la connaissance explicite de la singularité de la solution exacte. Une fois données la position de chacun des cils et leur paramétrisation, notre méthode rend possible la simulation directe en 3d d’un très grand nombre de cils. Nous l’avons donc appliquée au cas du transport mucociliaire dans les poumons. Cet outil numérique nous donne accès à des informations que l’on ne peut avoir par l’expérience, et permet de simuler des cas pathologiques comme par exemple une distribution éparse des cils
Numerous mucous membranes inside the human body are covered with cilia which, by their coordinated movements, lead to a circulation of the layer of fluid coating the mucous membrane, which allows, for example, in the case of the internal wall of the bronchi, the evacuation of the impurities inspired outside the respiratory system.In this thesis, we integrate the effects of the cilia on the fluid, at the scale of the cilium. For this, we consider the incompressible Stokes equations. Due to the very small thickness of the cilia, the direct computation would request a time-varying mesh grading around the cilia. To avoid too prohibitive computational costs, we consider the asymptotic of a zero diameter cilium with an infinite velocity: the cilium is modelled by a lineic Dirac of force in source term. In order to ease the computations, the lineic Dirac of forces can be approached by a sum of punctual Dirac masses distributed along the cilium. Thus, by linearity, we have switched our initial problem with the Stokes problem with a punctual force in source term. Thus, we simplify the computations, but the final problem is more singular than the initial problem. The loss of regularity involves a deeper numerical analysis and the development of a new method to solve the problem.We have first studied a scalar version of this problem: Poisson problem with a Dirac right-hand side. The exact solution is singular, therefore the finite element solution has to be defined with caution. In this case, the convergence is not as good as in the regular case, and thus we focused on local error estimates. We have proved a quasi-optimal convergence in H1-norm (s ď 1) on a sub-domain which does not contain the singularity. Similar results have been shown for the Stokes problem too.In order to recover an optimal convergence on the whole domain, we have developped a numerical method to solve elliptic problems with a Dirac mass or a punctual force in source term. It is based on the standard finite element method and the explicit knowl- edge of the singularity of the exact solution. Given the positions of the cilia and their parametrisations, this method permits to compute in 3d a very high number of cilia. We have applied this to the study of the mucociliary transport in the lung. This numerical tool gives us information we do not have with the experimentations and pathologies can be computed and studied by this way, like for example a small number of cilia
APA, Harvard, Vancouver, ISO, and other styles
12

Garambois, Pierre. "Modèles éléments-finis mixtes réduits pour l'optimisation en dynamique des structures." Thesis, Ecully, Ecole centrale de Lyon, 2015. http://www.theses.fr/2015ECDL0036/document.

Full text
Abstract:
L’utilisation de structures fines est croissante dans bon nombre d’industries. En ce sens, leur représentation mécanique et optimisation est un enjeu majeur de la recherche actuelle. De façon classique, l’optimisation s’effectue avec un critère de contrainte, obtenue à partir d’une modélisation éléments-finis en déplacements. L’idée de ces travaux est de construire un modèle éléments-finis mixte déplacements-contraintes et de développer des méthodes de réduction adaptées, de façon à améliorer l’efficacité des méthodes d’optimisation existantes. On construit d’une part deux modèles élément-finis mixtes déplacements-contraintes généralisées, pour des analyses dynamiques de structures “plaque” fines et épaisses. Ces derniers présentent l’avantage de donner des résultats identiques aux modèles classiques en déplacements, avec un meilleur temps de reconstruction des champs de contraintes. Cependant, ils s’avèrent être délicats pour plusieurs raisons : la taille des matrices associées, la difficulté de faire une analyse modale rapide, et un temps d’assemblage accru. C’est la raison pour laquelle nous développons par la suite des méthodes de sous-structuration et de double synthèse modale spécifiquement dédiées aux modèles mixtes. L’idée est d’utiliser des bases modales tirées du modèle équivalent en déplacements pour composer une nouvelle base mixte réduite. Dix méthodes sont implémentées, basées sur des modes encastrés, libres et de branche, parmi lesquelles certaines s’avèrent très efficaces pour réduire le nombre de degrés de liberté du système mixte, sans passer par ses modes propres. Enfin, nous intégrons les modèles mixtes sous-structurés sous forme de super- éléments mixtes dans un algorithme génétique, dans le but de mener une optimisation multi-objectif de structures “plaque” académiques sous chargement dynamique, avec critères de contrainte et paramètres d’épaisseur. Les modèles précédemment définis sont ainsi paramétrés en épaisseur, et ne nécessitent plus d’être ré-assemblés pour chaque configuration. Nous disposons désormais d’un modèle mixte “plaque”, qui conserve les avantages d’un accès direct aux contraintes, tout en étant affranchi de sa taille importante par le biais des méthodes de réduction, et de son assemblage grâce au paramétrage. Il en résulte des modèles mécaniques originaux et efficaces, permettant de réduire les coûts de calcul des algorithmes d’optimisation classiques. Ce type de méthode, couplé à de puissants algorithmes génétiques, permet d’avoir une bonne vue d’ensemble des solutions optimales, et laissent augurer des perspectives intéressantes pour une utilisation industrielle
The use of thin structures is increasing in many industries. Their mechanical representation and optimization is therefore a major challenge in modern research. Usually, the optimization is done with a stress criterion which is determined through displacements finite-element model. The idea of this work is to build a mixed displacements-stresses finite-element model and to develop adapted reduction procedures, in order to improve the efficiency of existing optimization methods. On the one hand, we build two mixed displacements-generalized stresses finite element models, for thin and thick dynamic plate structures analysis. They afford the advantage of giving identical results as classical displacements models with a better computational time to re-build the stress fields. Nevertheless, they turn out to be tricky for some reasons : the bigger matrices size, the difficulty of modal analysis and an assembling time higher. That is the reason why we develop afterwards some sub-structuring methods and double modal synthesis specifically dedicated to mixed models. The idea is to use modal basis taken from the equivalent displacement model so as to build a new mixed reduced basis. Ten methods are implemented, based on fixed modes, free modes, and branch modes. Some of them turn out to be very efficient to drastically reduce the amount of degrees of freedom of the mixed model, without using its eigenmodes. Finally, we embed the sub-structured mixed model in the form of Mixed Super- Element in a genetic algorithm, with the aim of conducting a multi-objective optimization of academic plate structures under dynamic loads, with stresses criterion and thicknesses parameters. The models previously defined are configured with thicknesses as parameters, and therefore don’t need to be re-assembled for each configuration. We now dispose of a powerful thickness-parametrized mixed reduced plate finite element model : it keeps the advantages of an easy access to the stresses and is free of its important size thanks to the reduction method and of its assembling thanks to the parametrization. The result is an original and efficient mechanical model that reduces the computational cost of classical optimization algorithms. That type of model, coupled with powerful genetic algorithms, permits a global optimization with a good overview of the solutions and promises interesting perspectives for industrial uses
APA, Harvard, Vancouver, ISO, and other styles
13

Nguyen, Phuong Anh. "Contrôle optimal localisé sur des structures fines pour des équations paraboliques semilinéaires et le système de Boussinesq." Toulouse 3, 2000. http://www.theses.fr/2000TOU30195.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Rjeb, Mohammed. "Etude critique de l'analyse des structures fines observées en SEELFS : application au seuil M23 du nickel face (111)." Lyon 1, 1990. http://www.theses.fr/1990LYO10090.

Full text
Abstract:
Le premier chapitre rappelle les principes du seelfs et ses liens avec l'exafs et le sexafs, ainsi que les difficultes specifiques du traitement des spectres seelfs. Pour la premiere fois, le chapitre ii etablit le veritable lien entre signaux seelfs, acquis en mode derivee premiere ou seconde par rapport a l'energie, et distribution radiale f(r). Le role et l'influence des divers traitements numeriques effectues pour obtenir f(r) sont ensuite analyses en detail. On arrive a la conclusion qu'ils peuvent etre parfaitement maitrises. Dans le chapitre iii la procedure de traitement mise au point est appliquee a deux spectres seelfs associes au seuil m#2#3 de ni(111). On parvient a une fonction r#2f(r) mieux resolue que celles publiees auparavant. Les raisons de la mauvaise qualite des resultats anterieurs sont mises en evidence. Toutefois, la position obtenue pour la premiere couche d'atomes est pres de 1 a en dessous de la position attendue. Cette conclusion, masquee dans les travaux anterieurs par la confusion deliberee entre les fonctions f(r) et r#2. F(r), relance le debat sur la validite de l'approximation qui consiste a utiliser les dephasages des seuils l#2#3 pour interpreter les seuils m#2#3. La maitrise acquise dans le traitement des spectres de type exafs est illustree dans le chapitre iv sur le seuil k de ni(111), observe en sexafs. La fonction f(r) obtenue permet d'identifier les positions des neuf premieres couches, avec un decalage voisin de celui predit par les tables de teo et lee
APA, Harvard, Vancouver, ISO, and other styles
15

Chainet, Eric. "Structures fines des pertes d'énergie et des électrons Auger : détermination de l'ordre local de l'interface Co/Si(111)." Grenoble 1, 1987. http://www.theses.fr/1987GRE10001.

Full text
Abstract:
Description de trois techniques recentes developpees au laboratoire et appliquees a l'etude de l'ordre local et des densites d'etats inoccupes des interfaces co/si(111) et de differents siliciures de cobalt: observation des structures fines des spectres de perte d'energie d'electrons au-dela des seuils d'ionisation, analyse du seuil d'ionisation et etude des spectres auger (resultats experimentaux pour fe, co, ni et cu)
APA, Harvard, Vancouver, ISO, and other styles
16

Chainet, Eric. "Structures fines des pertes d'énergie et des électrons Auger détermination de l'ordre local de l'interface Co/Si(111) /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37603711p.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Radtke, Guillaume. "Approche expérimentale et simulation des structures fines en spectroscopie de pertes d'énergie des électrons : application au cas des A1xGa1-xN." Lyon, INSA, 2003. http://theses.insa-lyon.fr/publication/2003ISAL0057/these.pdf.

Full text
Abstract:
La spectroscopie de pertes d'énergie des électrons (EELS) est un outil puissant permettant l'étude de la structure électronique des matériaux. Nous présentons une étude générale des structures fines observées près des seuils d'ionisation (ELNES) dans les composés AlxGa1-xN (0
APA, Harvard, Vancouver, ISO, and other styles
18

Bensaoula, Amar. "Spectroscopies des électrons Auger et des pertes d'énergie, et structures fines associées : application aux interfaces Co-Si et Fe-Si." Grenoble 1, 1990. http://www.theses.fr/1990GRE10073.

Full text
Abstract:
Habituellement les etats electroniques vides au-dessus du niveau de fermi sont etudies par l'absorption x (xas) ou par la photoemission inverse (ipe). De meme pour sonder l'ordre local dans les materiaux, la spectroscopie usuellement utilisee est l'exafs. On peut cependant mettre en uvre d'autres techniques spectroscopiques de laboratoire basees sur les pertes d'energie electronique pres des seuils d'ionisation (eelnes: electron energy-loss near adge structure) ou loin des seuils (eelfs: electron energy-loss fine structure) pour acceder respectivement aux proprietes electroniques (etats vides) et structurales (ordre local) dans les materiaux. De meme, l'analyse des structures fines oscillantes qui apparaissent apres les pics auger permet d'obtenir des informations liees a l'ordre local. Notre etude sur des materiaux massifs polycristallins (fe, co et cu) et sur l'interface co/si(111) bien connue, montre que ces oscillations dans les spectres auger (exfas: extended fine auger structure) peuvent etre interpretees effectivement en terme d'ordre local, de la meme facon que l'eelfs et l'exafs. Nous avons utilise cette technique (exfas) ainsi que d'autres spectroscopies (aes, els, eelnes) pour etudier les proprietes physico-chimiques, structurales et electroniques du systeme fe/se(111). L'ensemble des resultats montre clairement que l'interface est diffuse a temperature ambiante jusqu'a des depots de 12 a de fer. Pour des recouvrements plus importants (>12 a) on observe la croissance d'un film de metal pur. A l'interface (pour des depots inferieurs a 4 a) il se forme un compose mixte fesi#x avec 1x2
APA, Harvard, Vancouver, ISO, and other styles
19

Radtke, Guillaume Esnouf Claude. "Approche expérimentale et simulation des structures fines en spectroscopie de pertes d'énergie des électrons application au cas des A1xGa1-xN /." Villeurbanne : Doc'INSA, 2005. Http://docinsa.insa-lyon.fr/these/pont.php?id=radtke.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Nguyen, Tien Sy. "Extraction de structures fines sur des images texturées : application à la détection automatique de fissures sur des images de surface de chaussées." Phd thesis, Université d'Orléans, 2010. http://tel.archives-ouvertes.fr/tel-00592482.

Full text
Abstract:
La dernière décennie a vu l'exploitation d'application d'inspection automatique dans plusieurs domaines grâce à l'avancé des capteurs de vision et des méthodes d'analyse de texture et de segmentation d'images. Cependant, la nature difficile des images de chaussées (fortement texturée), la petite taille des défauts (fissures) conduisent au constat que l'inspection dans ce domaine est réalisée manuellement. Chaque année, en France, des opérateurs doivent visualiser des milliers de kilomètres d'images de route pour y relever des dégradations. Cette façon de faire est couteuse, lente et a un résultat plutôt subjectif. L'objectif de ce travail de thèse est de développer une méthode permettant la détection et la classification des fissures automatiquement sur ces images de chaussées. Le coeur de la thèse est une nouvelle méthode de segmentation, la Free Form Anisotropy (FFA). D'une part, elle permet de prendre en compte simultanément les attributs concernant la forme et l'intensité des pixels d'une fissure pour la détection. D'autre part, une nouvelle modélisation est utilisée en recherchant des chemins minima dans des graphes (images) afin de trouver la forme de la fissure dès qu'elle est présente dans l'image. Après la segmentation, l'extraction et la classification de défauts sont réalisées par une transformée de Hough et par le calcul de l'orientation locale des pixels. Les résultats expérimentaux ont été obtenus à partir de plusieurs bases d'images et compares avec des méthodes existantes.
APA, Harvard, Vancouver, ISO, and other styles
21

Sikora, Thierry. "Etude de l'ordre local et de la structure électronique dans les alliages intermétalliques Ti-Al par spectrométries de structures fines XAS et EELS." Poitiers, 1998. http://www.theses.fr/1998POIT2255.

Full text
Abstract:
La fragilite a temperature ambiante des aluminiures de titane limite pour l'instant leur developpement. Outre leurs microstructures, leur structure electronique semble jouer un role preponderant sur leurs proprietes plastiques (structures de cur des dislocations, energies de faute, relief de peierls). L'ajout en faible quantite d'elements (cr, nb, mn) modifie les liaisons et ameliore dans certains cas la ductilite. Dans ce travail, l'ordre atomique local et la structure electronique du materiau sont etudies par spectrometries de pertes d'energie d'electrons et d'absorption x. Grace a une approche en diffusion multiple, la structure cristallographique locale des composes definis du diagramme ti-al a pu etre resolue sur plusieurs distances inter-atomiques. L'analyse des facteurs debye-waller dans tial montre que les liaisons entre premiers voisins titanes sont plus rigides que celles entre titane et aluminium. Les sites de substitution d'elements d'addition dans les alliages (ti#4#6al#5#4#)#9#7x#3 (x=mn,nb,cr) ont ete determines par alchemi et exafs. Le mn et le nb se substituent au titane alors que le chrome semble occuper les deux sites. On montre egalement qu'il existe une dilatation locale de la matrice autour du solute. L'analyse detaillee des structures fines au seuil par des formalismes de structure de bande et de diffusion multiple a revele que l'approximation a un electron est valide pour la description de ces alliages et que l'utilisation de potentiels non auto-coherents n'est pas critique. Un accord satisfaisant entre experience et theorie obtenu pour les etats inoccupes a permis de confirmer l'existence de fortes hybridations ti-dti-d et ti-dal-sp. Le caractere covalent des liaisons ti-al constitue certainement un parametre important dans le comportement fragile de tial. L'influence des elements d'addition sur la repartition de la densite de charge a montre qu'ils avaient pour effet d'augmenter legerement l'intensite des liaisons dd dans les plans (001).
APA, Harvard, Vancouver, ISO, and other styles
22

AIFA, YOUCEF. "Simulation et origines des structures fines apparaissant avant le seuil k d'absorption des rayons x dans des oxydes de titane et de vanadium." Paris 11, 1996. http://www.theses.fr/1996PA112385.

Full text
Abstract:
Afin d'interpreter les structures apparaissant avant le seuil k d'absorption x du titane et du vanadium dans les composes tio2, vopo4,2h2o et v2o5, nous avons calcule la section efficace d'absorption dans un formalisme de diffusion multiple. Nous avons demontre que la convergence vers une valeur physique de la section efficace d'absorption, dans la region du preseuil, n'est possible qu'en effectuant un calcul de diffusion multiple totale entre les couches. Dans le cas des composes ou la structure cristalline contient des octaedres mo6 (m est un metal de transition), les pics de preseuil peuvent etre interpretes comme une superposition des transitions vers les orbitales t2g et eg des differents octaedres. Le potentiel de cur resultant du processus d'absorption stabilise les orbitales de l'octaedre absorbant. La prise en compte du potentiel de cur ainsi que de son ecrantage est indispensable pour un traitement correct de la region du preseuil. Dans le cas ou les octaedres mo6 sont lies directement par des aretes, la prise en compte de tous les octaedres voisins de l'octaedre absorbant donne des resultats en concordance raisonnable avec l'experience. Dans le cas des composes presentant une forte asymetrie, l'utilisation de l'approximation de muffin tin est grossiere. Il serait necessaire d'apporter des corrections qui prennent en compte la forte anisotropie de ce genre de composes. Enfin, nous proposons une interpretation de la dependance en temperature des structures de preseuil
APA, Harvard, Vancouver, ISO, and other styles
23

JEANNE-ROSE, VALERIE. "Contribution a l'etude theorique des structures fines d'absorption x aux seuils k des elements de transition de la premiere serie : oxydes de titane et de vanadium." Paris 11, 1996. http://www.theses.fr/1996PA112174.

Full text
Abstract:
Pour comprendre le lien entre les modulations d'absorption x et la geometrie d'un compose, nous avons calcule les sections efficaces en diffusion multiple (d. M. ) sur quelques composes de structure rutile. Les differents parametres du probleme ont ete etudies. Plusieurs analyses ont ete pratiquees sur le dioxyde de titane: une analyse atomique: creation de une ou plusieurs lacunes dans le cluster, effet des modes de vibration ; une etude en couches a l'aide du programme icxanes afin de comprendre l'influence de la dm entre et dans les couches, une analyse par chemin avec le programme feff6. D'autre part, nous avons etudie l'effet du potentiel d'echange: le type hedin-ludqvist rend mieux compte des modulations (amplitude et position) pour la region xanes (structures exafs peu prononcees ou absentes), alors que le type dirac-hara montre de meilleurs contrastes pour l'exafs (structures xanes trop amplifiees). Au cours de nos differentes analyses, nous avons montre l'importance de la dm dans la premiere couche pour la premiere structure du seuil nommee c et la dm entre les autres couches pour la seconde (d). De plus, nous avons pu confirmer que la separation des modulations c et d est caracteristique de la geometrie rutile (empilement d'octaedres). La variation des longueurs de liaisons apicales, equatoriales ou encore de l'angle equatorial modifie les amplitudes des structures. Nous avons aussi etudie vo#2 et mnf#2 rutiles et degage ainsi des traits communs a la structure rutile. Nous avons examine enfin deux autres formes du dioxyde de titane et de vanadium: l'anatase (temperature ambiante) et le vo#2 monoclinique
APA, Harvard, Vancouver, ISO, and other styles
24

Tahghighi, Mohammad. "Fabricating ultrasensitive metal nano-structures with Langmuir-Blodgett technique to improve plasmonic response of SERS." Doctoral thesis, Universitat de Barcelona, 2022. http://hdl.handle.net/10803/673304.

Full text
Abstract:
Nanoparticle self-assembly is a versatile and coherent strategy for the development of functional nanostructured materials, offering low-cost and scalable methods that can be fine-tuned for many different specific application. Functionalized nanoparticles could be spread at the interface of liquid/gas by means of self-assembly. In this work, we demonstrate a pathway for the fabrication of tailorable quasi two-dimensional lattices of gold nanoparticles with several core sizes and shapes (5, 10, 20, 30, 40 nm and nano-urchin) to be used in surface enhanced Raman scattering (SERS) detection of biomolecules. Upon spreading gold nanoparticles at the water/air interface in this research, we used the Langmuir-Blodgett technique as a way of making supra-molecular and nano-structure assembly in ultrathin films with a controlled layered and spatial structure, which have many envisioned technological applications for several branches of science as well as to develop SERS substrates. Monolayers of gold particles were transferred at a target lateral density using the Langmuir–Blodgett technique. Once gold nanoparticles were firmly adhered to the substrate, we used electroless plating to let the nanoparticle grow, thus tuning the plasmonic response and leading to SERS enhancement. Compared to direct deposition, chemical deposition or lithographic methods, our protocol enables to obtain consistent results and much higher coverages of Au nanoparticles thanks to the active control of the surface pressure of the spread monolayers. Prepared substrates were analyzed with different techniques such as UV/VIS spectroscopy, SEM and TEM microscopy. We have demonstrated that, for a given particle size, the enhancement for SERS detection of a referent analyte, 4-MBA, can be tuned by controlling the packing density of the nanoparticles at the water/air interface by adjusting the surface pressure using the Langmuir film balance setup. The other factor which affects the SERS signals is the thickness of a subsequent gold layer, deposited and tuned by using electroless plating. After finding the optimum conditions of surface pressure and electroplating time for 10 nm gold nanoparticles, we entered the second phase of the experiments to unveil the effect of gold nanoparticle size on our study. SERS data of different- sized nanoparticles did not prove that bigger particles result in better SERS signals. However, urchin-shaped gold nanoparticles have shown more intense signals in comparison with spherical nanoparticles. For the same conditions of preparation, we achieved better result by using urchin-shaped nanoparticles. In order to test our substrate efficiency to detect more substances, in the final step of this research, we investigated and performed tests on Thiram and Carbaryl as water-polluting molecules that are widely using as pesticide compounds. We performed several SERS measurements with different substrates and studied the effect of gold nanoparticles shape, contact time between substrate and pollutant solution, substrate functionalization with thiol groups, and effect of pollutant solution concentration on SERS signals. Finally, we report the limit of pollutant detection with our prepared substrates.
El procés d’autoassemblatge de nanopartícules és una estratègia versàtil i coherent per al desenvolupament de materials nanoestructurats funcionals, que ofereix mètodes de baix cost i escalables que es poden ajustar per a diferents aplicacions específiques. Les nanopartícules funcionalitzades es podrien estendre a la interfície de líquid / gas mitjançant un fenomen d’autoassemblatge. En aquest treball, demostrem una via per a la fabricació de xarxes quasi bidimensionals adaptables de nanopartícules d’or amb diverses mides i formes de nucli (5, 10, 20, 30, 40 nm i nano-eriçó) que s’utilitzaran per a la detecció de biomolècules en dispersió Raman de superfície millorada (SERS). En estendre nanopartícules d’or a la interfície aigua / aire en aquesta investigació, hem utilitzat la tècnica Langmuir-Blodgett com una manera de fer un assemblatge de nanoestructures en pel·lícules ultrafines amb una estructura espacial i de capes controlades, que tenen moltes aplicacions tecnològiques potencials en diverses branques de la ciència, com ara substrats SERS. Les monocapes de partícules d'or es transfereixen, a una densitat lateral determinada, sobre substrats de vidre o sílice mitjançant la tècnica LB. Una vegada que les nanopartícules d'or s’han adherit fermament al substrat, vam utilitzar un mètode d’electrodeposició d’or sense electròlisi per fer créixer le nanopartícules, ajustant així la resposta plasmònica i la millora del SERS. En comparació amb la deposició directa, la deposició química o els mètodes litogràfics, el nostre protocol permet obtenir resultats consistents i una cobertura molt més gran de nanopartícules d’or gràcies al control actiu de la pressió superficial de la monocapa estesa sobre la interfície aigua/aire. Els substrats preparats es van analitzar amb diferents tècniques com l'espectroscòpia UV / VIS, microscòpia SEM i TEM. Hem demostrat que, per a una mida de partícula determinada, la millora per a la detecció SERS d’un analit referent, 4-MBA, es pot ajustar controlant la densitat d’empaquetament de les nanopartícules a la interfície aigua / aire ajustant la pressió superficial mitjançant la balança de pel·lícules de Langmuir. L’altre factor que afecta els senyals SERS és el gruix de la capa d’or dipositada posteriorment mitjançant una tècnica no-electrolítica. Després de trobar els paràmetres òptims de pressió superficial i temps d’electrodeposició per a nanopartícules d’or de 10 nm, vam entrar a la segona fase de l’estudi per descobrir l’efecte de la mida de les nanopartícules d’or en el nostre sistema. Tot i que les dades SERS de nanopartícules de diferent mida no van indicar que les partícules més grans donessin millors senyals SERS, les nanopartícules d'or en forma d’eriçó han mostrat senyals més intensos en comparació amb les nanopartícules esfèriques. En les mateixes condicions de preparació, vam obtenir un millor resultat mitjançant l’ús de nanopartícules de forma d’eriçó. Per tal de provar l’eficiència del nostre substrat per detectar més substàncies, en el darrer pas d’aquesta investigació vam investigar i realitzar proves emprant Thiram i Carbaryl com a molècules contaminants de l’aigua que s’utilitzen àmpliament com a compostos pesticides. Hem realitzat diverses mesures de SERS amb substrats diferents i hem estudiat l’efecte de a) la forma de les nanopartícules d’or, b) el temps de contacte entre el substrat i la solució contaminant, c) la funcionalització del substrat amb grups tiol i d) l’efecte de la concentració de solució contaminant en els senyals SERS. Finalment, informem del límit de detecció d’aquests contaminants amb els nostres substrats nanoestructurats.
APA, Harvard, Vancouver, ISO, and other styles
25

Mehadji, Chérifa. "Développement de la méthode MS-LSD vers le calcul de la structure électronique de molécules ellipsoïdales et des structures fines d'absorption de rayons X près du seuil." Lyon 1, 1991. http://www.theses.fr/1991LYO10137.

Full text
Abstract:
La methode de diffusion multiple avec l'approximation de la densite locale de spin ms-lsd a montre depuis longtemps son interet dans le calcul de la structure electronique et des proprietes monoelectroniques de complexes organometalliques. Nous en rappelons les fondements dans le premier chapitre de ce memoire. Cette methode est particulierement bien adaptee aux molecules globulaires plus ou moins spheriques. La premiere partie de ce travail porte sur son application a l'etude de la structure fine d'absorption des rayons x de complexes moleculaires. En particulier, nous avons montre dans le troisieme chapitre qu'il est possible d'interpreter les premieres structures autour du seuil par des transitions monoelectroniques vers des etats lies du continuum. Nous examinons, pour les complexes tetraedriques (mno#4#n#: n-1,2,3, fecl#4#n#:n=1,2) et octaedriques fecl#6#3#, l'influence sur les structures du seuil des parametres electroniques et structuraux: etat de spin et degre d'oxydation du metal de transition, symetrie du site, distance metal-coordinat. Simultanement, nous avons developpe l'adaptation du formalisme ms-lsd vers le cas de symetrie ellipsoidale, qui conviendrait mieux a la description de molecules ou de complexes oblongs. La seconde partie de ce travail est consacree a la presentation des developpements necessaires a l'utilisation d'une symetrie ellipsoidale dans le volume exterieur enveloppant la molecule. Le dernier chapitre expose les premiers resultats obtenus
APA, Harvard, Vancouver, ISO, and other styles
26

Ribal, Christophe. "Anisotropic neighborhoods of superpixels for thin structure segmentation." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG117.

Full text
Abstract:
En vision robotique, segmenter une image consiste à décomposer cette image en régions homogènes, en associant un label à chaque élément la constituant. Cette thèse propose une approche générique vis à vis de ces éléments, pixels ou superpixels, en les désignant communément sous le terme de sites. La résolution du problème inverse qu'est la segmentation d'images est généralement rendue robuste au bruit grâce à la formulation d'une hypothèse Markovienne sur le champ des labels, et d'un a priori d'homogénéité des labels au sein des voisinages. Cependant, la solution optimale (ou régularisée) tend alors à présenter des artéfacts indésirables, notablement la perte prématurée des structures fines, définies comme des structures dont la taille est réduite selon au moins une dimension. La construction de voisinages anisotropes adaptés à ces structures permet de pallier ce problème. Ces voisinages sont calculés après une première étape d'estimation des orientations des structures fines présentes dans l'image. Trois options, dont deux adaptées de la littérature, sont proposées pour réaliser cette étape cruciale : la minimisation d'une énergie, le vote de tenseurs, et le RORPO. À partir des cartes d'orientation obtenues, quatres méthodes de construction des voisinages anisotropes sont retenues. Tout d'abord, un voisinage défini par des formes géométriques est présenté, puis la restriction à un nombre fini de configurations pour chaque site permet de formuler un voisinage basé sur un dictionnaire. Enfin, deux voisinages basés sur des chemins entre sites (l'un à extrémités fixées et l'autre à taille constante) sont considérés, tous deux faisant intervenir une énergie à minimiser. Dans ce manuscrit, les segmentations obtenues par estimateur du Maximum A Posteriori (obtenu à partir de coupes de graphes) avec les voisinages anisotropes proposés sont comparées à celles supposant un voisinage isotrope dans le cas de deux applications : la détection de structures fines et la reconstruction de cartes de profondeur en Shape From Focus. Les résultats des différentes variantes proposées sont évalués qualitativement et quantitativement dans le but de souligner les apports de la méthode proposée
In the field of computer vision, image segmentation aims at decomposing an image into homogeneous regions. While usually an image is composed of a regular lattice of pixels, this manuscript proposes through the term of site a generic approach able to consider either pixels or superpixels. Robustness to noise in this challenging inverse problem is achieved by formulating the labels as a Markov Random Field, and finding an optimal segmentation under the prior that labels should be homogeneous inside the neighborhood of a site. However, this regularization of the solution introduces unwanted artifacts, such as the early loss of thin structures, defined as structures whose size is small in at least one dimension. Anisotropic neighborhood construction fitted to thin structures allows us to tackle the mentioned artifacts. Firstly, the orientations of the structures in the image are estimated from any of the three presented options: The minimization of an energy, Tensor Voting, and RORPO. Secondly, four methods for constructing the actual neighborhood from the orientation maps are proposed: Shape-based neighborhood, computed from the relative positioning of the sites, dictionary-based neighborhood, derived from the discretization to a finite number of configurations of neighbors for each site, and two path-based neighborhoods, namely target-based neighborhood with fixed extremities, and cardinal-based neighborhood with fixed path lengths. Finally, the results provided by the Maximum A Posteriori criterion (computed with graph cuts optimization) with these anisotropic neighborhoods are compared against isotropic ones on two applications: Thin structure detection and depth reconstruction in Shape From Focus. The different combinations of guidance map estimations and neighborhood constructions are illustrated and evaluated quantitatively and qualitatively in order to exhibit the benefits of the proposed approaches
APA, Harvard, Vancouver, ISO, and other styles
27

Ben, Kahla Haithem. "Sur des méthodes préservant les structures d'une classe de matrices structurées." Thesis, Littoral, 2017. http://www.theses.fr/2017DUNK0463/document.

Full text
Abstract:
Les méthodes d'algèbres linéaire classiques, pour le calcul de valeurs et vecteurs propres d'une matrice, ou des approximations de rangs inférieurs (low-rank approximations) d'une solution, etc..., ne tiennent pas compte des structures de matrices. Ces dernières sont généralement détruites durant le procédé du calcul. Des méthodes alternatives préservant ces structures font l'objet d'un intérêt important par la communauté. Cette thèse constitue une contribution dans ce domaine. La décomposition SR peut être calculé via l'algorithme de Gram-Schmidt symplectique. Comme dans le cas classique, une perte d'orthogonalité peut se produire. Pour y remédier, nous avons proposé deux algorithmes RSGSi et RMSGSi qui consistent à ré-orthogonaliser deux fois les vecteurs à calculer. La perte de la J-orthogonalité s'est améliorée de manière très significative. L'étude directe de la propagation des erreurs d'arrondis dans les algorithmes de Gram-Schmidt symplectique est très difficile à effectuer. Nous avons réussi à contourner cette difficulté et donner des majorations pour la perte de la J-orthogonalité et de l'erreur de factorisation. Une autre façon de calculer la décomposition SR est basée sur les transformations de Householder symplectique. Un choix optimal a abouti à l'algorithme SROSH. Cependant, ce dernier peut être sujet à une instabilité numérique. Nous avons proposé une version modifiée nouvelle SRMSH, qui a l'avantage d'être aussi stable que possible. Une étude approfondie a été faite, présentant les différentes versions : SRMSH et SRMSH2. Dans le but de construire un algorithme SR, d'une complexité d'ordre O(n³) où 2n est la taille de la matrice, une réduction (appropriée) de la matrice à une forme condensée (J(Hessenberg forme) via des similarités adéquates, est cruciale. Cette réduction peut être effectuée via l'algorithme JHESS. Nous avons montré qu'il est possible de réduire une matrice sous la forme J-Hessenberg, en se basant exclusivement sur les transformations de Householder symplectiques. Le nouvel algorithme, appelé JHSJ, est basé sur une adaptation de l'algorithme SRSH. Nous avons réussi à proposer deux nouvelles variantes, aussi stables que possible : JHMSH et JHMSH2. Nous avons constaté que ces algorithmes se comportent d'une manière similaire à l'algorithme JHESS. Une caractéristique importante de tous ces algorithmes est qu'ils peuvent rencontrer un breakdown fatal ou un "near breakdown" rendant impossible la suite des calculs, ou débouchant sur une instabilité numérique, privant le résultat final de toute signification. Ce phénomène n'a pas d'équivalent dans le cas Euclidien. Nous avons réussi à élaborer une stratégie très efficace pour "guérir" le breakdown fatal et traîter le near breakdown. Les nouveaux algorithmes intégrant cette stratégie sont désignés par MJHESS, MJHSH, JHM²SH et JHM²SH2. Ces stratégies ont été ensuite intégrées dans la version implicite de l'algorithme SR lui permettant de surmonter les difficultés rencontrées lors du fatal breakdown ou du near breakdown. Rappelons que, sans ces stratégies, l'algorithme SR s'arrête. Finalement, et dans un autre cadre de matrices structurées, nous avons présenté un algorithme robuste via FFT et la matrice de Hankel, basé sur le calcul approché de plus grand diviseur commun (PGCD) de deux polynômes, pour résoudre le problème de la déconvolution d'images. Plus précisément, nous avons conçu un algorithme pour le calcul du PGCD de deux polynômes bivariés. La nouvelle approche est basée sur un algorithme rapide, de complexité quadratique O(n²), pour le calcul du PGCD des polynômes unidimensionnels. La complexité de notre algorithme est O(n²log(n)) où la taille des images floues est n x n. Les résultats expérimentaux avec des images synthétiquement floues illustrent l'efficacité de notre approche
The classical linear algebra methods, for calculating eigenvalues and eigenvectors of a matrix, or lower-rank approximations of a solution, etc....do not consider the structures of matrices. Such structures are usually destroyed in the numerical process. Alternative structure-preserving methods are the subject of an important interest mattering to the community. This thesis establishes a contribution in this field. The SR decomposition is usually implemented via the symplectic Gram-Schmidt algorithm. As in the classical case, a loss of orthogonality can occur. To remedy this, we have proposed two algorithms RSGSi and RMSGSi, where the reorthogonalization of a current set of vectors against the previously computed set is performed twice. The loss of J-orthogonality has significantly improved. A direct rounding error analysis of symplectic Gram-Schmidt algorithm is very hard to accomplish. We managed to get around this difficulty and give the error bounds on the loss of the J-orthogonality and on the factorization. Another way to implement the SR decomposition is based on symplectic Householder transformations. An optimal choice of free parameters provided an optimal version of the algorithm SROSH. However, the latter may be subject to numerical instability. We have proposed a new modified version SRMSH, which has the advantage of being numerically more stable. By a detailes study, we are led to two new variants numerically more stables : SRMSH and SRMSH2. In order to build a SR algorithm of complexity O(n³), where 2n is the size of the matrix, a reduction to the condensed matrix form (upper J-Hessenberg form) via adequate similarities is crucial. This reduction may be handled via the algorithm JHESS. We have shown that it is possible to perform a reduction of a general matrix, to an upper J-Hessenberg form, based only on the use of symplectic Householder transformations. The new algorithm, which will be called JHSH algorithm, is based on an adaptation of SRSH algorithm. We are led to two news variants algorithms JHMSH and JHMSH2 which are significantly more stable numerically. We found that these algortihms behave quite similarly to JHESS algorithm. The main drawback of all these algorithms (JHESS, JHMSH, JHMSH2) is that they may encounter fatal breakdowns or may suffer from a severe form of near-breakdowns, causing a brutal stop of the computations, the algorithm breaks down, or leading to a serious numerical instability. This phenomenon has no equivalent in the Euclidean case. We sketch out a very efficient strategy for curing fatal breakdowns and treating near breakdowns. Thus, the new algorithms incorporating this modification will be referred to as MJHESS, MJHSH, JHM²SH and JHM²SH2. These strategies were then incorporated into the implicit version of the SR algorithm to overcome the difficulties encountered by the fatal breakdown or near-breakdown. We recall that without these strategies, the SR algorithms breaks. Finally ans in another framework of structured matrices, we presented a robust algorithm via FFT and a Hankel matrix, based on computing approximate greatest common divisors (GCD) of polynomials, for solving the problem pf blind image deconvolution. Specifically, we designe a specialized algorithm for computing the GCD of bivariate polynomials. The new algorithm is based on the fast GCD algorithm for univariate polynomials , of quadratic complexity O(n²) flops. The complexitiy of our algorithm is O(n²log(n)) where the size of blurred images is n x n. The experimental results with synthetically burred images are included to illustrate the effectiveness of our approach
APA, Harvard, Vancouver, ISO, and other styles
28

Pérard-Lecomte, Aude. "Caractérisation de la dispersion des polluants particulaires dans le sillage des poids lourds en milieu urbain." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0207.

Full text
Abstract:
Le transport routier est un contributeur majeur à la dégradation de la qualité de l'air en zone urbaine, et notamment en particules fines et ultrafines. Ces dernières sont néfastes pour la santé des citadins, pouvant aggraver voire causer des pathologies pulmonaires et cardio-vasculaires. Dans le cadre de cette thèse, on s'intéresse alors à l'évolution des particules issues des échappements des poids lourds, à partir de leur émission. L'objectif principal de cette thèse consiste à mettre en lumière l'étendue de la dispersion des particules émises autour et dans le sillage d'un poids lourd. Des méthodes numériques basées sur une approche Euler-Lagrange ont alors été utilisées afin de simuler et de caractériser la topologie de l'écoulement d'air autour du camion, par l'approche RANS (Reynold-Averaged Navier-Stokes), puis la phase dispersée, par une approche lagrangienne. Ces simulations ont été supportées par des mesures en soufflerie, dans le sillage d'un modèle de poids lourd à échelle réduite. La PIV (Particle Image Velocimetry) a été utilisée pour l'analyse des champs de vitesse de l'air, tandis que la dispersion de particules solides ultrafines a été caractérisée au travers de la mesure des champs de concentrations par granulomètre. L'écoulement de sillage du poids lourd est totalement détaché au niveau de la paroi arrière de celui-ci, faisant apparaître une zone de recirculation principalement composée d'un large tourbillon qui se forme à partir de l'écoulement provenant du dessous de la remorque. La dynamique des particules émises par les échappements des poids lourds apparaît comme étant fortement corrélée aux structures tourbillonnaires présentes notamment dans son sillage. En effet, les particules tendent à se concentrer préférentiellement sur la périphérie du tourbillon principal, ainsi que dans les zones de faible intensité turbulente. Le mouvement des particules les plus inertielles (diamètre > 2,5~mu m) est dominé par la gravité, tandis que c'est la turbulence qui est principalement responsable du mouvement et du dépôt des particules les plus fines (diamètre < 2,5~mu m). La position et l'orientation du pot d'échappement ont également une influence considérable sur l'étendue de la dispersion et la répartition des particules dans le sous-bassement et le sillage du poids lourd. En effet, lorsque les particules sont émises par le dessous du poids lourd, elles se concentrent en majorité dans la zone de recirculation, à moins de 1,85H (H étant la hauteur de la remorque), et à hauteur humaine. A l'inverse, les particules émises par le dessus du poids lourd ne sont qu'en très faible part ré-entraînées dans la zone de recirculation et se concentrent au dessus de celle-ci, soit à l'équivalent de 2,6~m (0,9H) du sol. L'exposition des différentes populations aux particules émises par les poids lourds pourrait alors être fortement limitée quand les échappements sont libérés sur le dessus du poids lourd, dans des conditions similaires de roulage
Road transportation is a major contributor to air quality pollution in urban areas, particularly in fine and ultrafine particles. These pollutants are harmful to human health, as they can worsen or cause lung and cardiovascular diseases. In this context, we are interested in the evolution of particles emitted from heavy truck exhausts, starting from their emission. The main objective of this thesis is to study the extent of particle dispersion emitted by heavy truck's exhausts, around and in the wake of heavy trucks. Numerical methods based on an Euler-Lagrange approach were used to simulate and characterize the airflow topology around the truck, using the Reynolds-Averaged Navier-Stokes (RANS) method for the fluid phase and a Lagrangian approach for the dispersed phase. These simulations were supported by wind tunnel measurements in the wake of a reduced-scale model of a heavy truck. Particle Image Velocimetry (PIV) was used for analyzing the air velocity fields, while the dispersion of ultrafine solid particles was characterized by measuring concentration fields using a granulometer. The truck's wake flow is completely detached at the rear of the trailer, revealing a recirculation zone mainly composed of a large vortex, coming from the under-trailer. Particles' dynamics appears to be dominated by turbulence and strongly correlated with vortical structures, especially in the wake of the truck. Indeed, particles tend to concentrate preferentially on the periphery of the main vortex formed behind the truck, as well as in areas of low turbulent intensity. The movement of most inertial particles (diameter > 2.5~mu m) is dominated by gravity, while turbulence is mainly responsible for the movement and deposition of the finest particles (diameter < 2.5~mu m). The position and orientation of the exhaust pipe also have a significant influence on the extent of dispersion and the distribution of particles in the underbody and in the wake of the heavy truck. Indeed, when particles are emitted from the under-trailer, most of them are concentrated in the recirculation zone, less than 1.85H away from the trailer (H being the height of the trailer), and at human height. On the other hand, the particles emitted on the top of the truck are very rarely re-entrained in the recirculation zone, and are mostly concentrated above it, at a height equivalent to 2.6~m (0,9H) above ground level. The exposure of populations to the particles emitted by heavy goods vehicles could therefore be sharply limited when the exhausts are released from top of the truck
APA, Harvard, Vancouver, ISO, and other styles
29

Leclere, Cédric. "Spectroscopies X et diffraction anomale de boîtes quantiques GaN et d'hétéro-structure III-N : inter-diffusion et ordre à courte distance." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-01072456.

Full text
Abstract:
Le travail illustré par ce manuscrit de thèse présente l'étude structurale d'hétéro-structures semi-conductrices à base de nitrures d'éléments III avec l'un des outils les plus puissants de la recherche scientifique: le rayonnement synchrotron. La cartographie haute résolution de l'espace réciproque, la diffraction anomale multi-longueur d'onde, la spectroscopie d'absorption X et la spectroscopie en condition de diffraction nous ont permis de caractériser la structure à l'échelle atomique de différentes régions d'un même système. Dans un premier temps, nous montrons que les nanofils GaN sur Si(111) ont une polarité N et proposons un mécanisme de nucléation. Dans un second temps, nous mettons en évidence un phénomène d'inter-diffusion stimulée par la contrainte dans les boîtes quantiques GaN / AlN recuites à haute température. Enfin, nous observons la présence d'un ordre local à courte distance dans les nanofils coeur-coquille InGaN / GaN. Cette organisation atomique pourrait être induite par la présence de contrainte, nous avons initié une étude de l'anisotropie de l'ordre à courte distance pour explorer cette hypothèse.
APA, Harvard, Vancouver, ISO, and other styles
30

Debroux, Noémie. "Mathematical modelling of image processing problems : theoretical studies and applications to joint registration and segmentation." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMIR02/document.

Full text
Abstract:
Dans cette thèse, nous nous proposons d'étudier et de traiter conjointement plusieurs problèmes phares en traitement d'images incluant le recalage d'images qui vise à apparier deux images via une transformation, la segmentation d'images dont le but est de délimiter les contours des objets présents au sein d'une image, et la décomposition d'images intimement liée au débruitage, partitionnant une image en une version plus régulière de celle-ci et sa partie complémentaire oscillante appelée texture, par des approches variationnelles locales et non locales. Les relations étroites existant entre ces différents problèmes motivent l'introduction de modèles conjoints dans lesquels chaque tâche aide les autres, surmontant ainsi certaines difficultés inhérentes au problème isolé. Le premier modèle proposé aborde la problématique de recalage d'images guidé par des résultats intermédiaires de segmentation préservant la topologie, dans un cadre variationnel. Un second modèle de segmentation et de recalage conjoint est introduit, étudié théoriquement et numériquement puis mis à l'épreuve à travers plusieurs simulations numériques. Le dernier modèle présenté tente de répondre à un besoin précis du CEREMA (Centre d'Études et d'Expertise sur les Risques, l'Environnement, la Mobilité et l'Aménagement) à savoir la détection automatique de fissures sur des images d'enrobés bitumineux. De part la complexité des images à traiter, une méthode conjointe de décomposition et de segmentation de structures fines est mise en place, puis justifiée théoriquement et numériquement, et enfin validée sur les images fournies
In this thesis, we study and jointly address several important image processing problems including registration that aims at aligning images through a deformation, image segmentation whose goal consists in finding the edges delineating the objects inside an image, and image decomposition closely related to image denoising, and attempting to partition an image into a smoother version of it named cartoon and its complementary oscillatory part called texture, with both local and nonlocal variational approaches. The first proposed model addresses the topology-preserving segmentation-guided registration problem in a variational framework. A second joint segmentation and registration model is introduced, theoretically and numerically studied, then tested on various numerical simulations. The last model presented in this work tries to answer a more specific need expressed by the CEREMA (Centre of analysis and expertise on risks, environment, mobility and planning), namely automatic crack recovery detection on bituminous surface images. Due to the image complexity, a joint fine structure decomposition and segmentation model is proposed to deal with this problem. It is then theoretically and numerically justified and validated on the provided images
APA, Harvard, Vancouver, ISO, and other styles
31

Mieszczynski, Cyprian. "Atomic scale structural modifications in irradiated nuclear fuels." Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-01057120.

Full text
Abstract:
This thesis work reports in depth analyses of measured µ-XRD and µ-XAS data from standard UO2, chromia (Cr2O3) doped UO2 and MOX fuels, and interpretation of the results considering the role of chromium as a dopant as well as several fission product elements. The lattice parameters of UO2 in fresh and irradiated samples and elastic strain energy densities in the irradiated UO2 samples have been measured and quantified. The µ-XRD patterns have further allowed the evaluation of the crystalline domain size and sub-grain formation at different locations of the irradiated fuel pellets. Attempts have been made to determine lattice parameter and next neighbor atomic environment in chromia-precipitates found in fresh chromia-doped fuel pellets. The local structure around Cr in as-fabricated chromia-doped UO2 matrix and the influence of irradiation on the state of chromium in irradiated fuel matrix have been addressed. Finally, for a comparative understanding of fission gases behavior and irradiation induced re-solution phenomenon in standard and chromia-doped UO2, the last part of the present work tries to clarify the fission gas Kr atomic environment in these irradiated fuels. The work performed on Kr, by micro-beam XAS, comprises the determination of Kr next neighbor distances, an estimation of gas atom densities in the aggregates, and apparent internal pressures in the gas bubbles.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!