Teses / dissertações sobre o tema "Imagerie multispectrale – Modèles mathématiques"

Siga este link para ver outros tipos de publicações sobre o tema: Imagerie multispectrale – Modèles mathématiques.

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Imagerie multispectrale – Modèles mathématiques".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Weber, François. "Modélisation de fonds multispectraux texturés et hétérogènes pour la détection d'anomalies". Electronic Thesis or Diss., Paris, ENST, 2017. http://www.theses.fr/2017ENST0033.

Texto completo da fonte
Resumo:
Des méthodes de détection d’objets camouflés sont utilisées dans de nombreux domaines, dont celui de l’exploration de théâtres d’opérations militaires. Dans ce contexte, les spécificités des cibles à repérer ne sont pas connues a priori. Les méthodes de détection d’anomalies permettent de se passer de ces informations et forment le point de départ de cette thèse. Les données considérées dans ces travaux sont des images multispectrales de fonds naturels contenant des cibles camouflées. Ces fonds présentent un fort aspect texturé du à la végétation. Nous proposons d’exploiter conjointement les informations spectrale et spatiale dans le but de mesurer le gain conféré par la prise en compte des textures dans le cadre d’une détection d’anomalies. En effet, le taux de faux-positifs est susceptible d’augmenter sur des scènes très texturées si ces comportements ne sont pas prévus par le détecteur d’anomalies utilisé. Plusieurs méthodes de détection adaptées aux fonds multispectraux texturés ont été comparées à des détecteurs d’anomalies de référence n’exploitant que l’information spectrale. Les premiers détecteurs proposés reposent sur des modèles de type champs de Gauss-Markov aléatoires et mélanges de gaussiennes structurées, permettant des tests paramétriques ; les seconds sur des tests nonparamétriques dans des espaces à noyaux. Les résultats obtenus montrent la nécessité d’une segmentation conjointe à la détection d’anomalies sur des images hétérogènes. Par ailleurs, les meilleurs résultats de détection ont été obtenus grâce aux modèles dépourvus d’à priori sur les distributions des pixels de fonds
Detection methods for spotting covered up objects are used in many fields of applications, including the exploration of millitary battlefields. In this context, no specification about what to detect can be known a priori. Anomaly detection methods can deal without these informations and are the starting point of this thesis. In this work, the considered data are multispectral images of natural scenes containing covered up targets. The vegetation present in these backgrounds causes strong textured aspects. We propose to exploit simultaneously both spectral and spatial informations to measure the gain obtained by considering the textures within an anomaly detection method. As a matter of fact, the false-positive rate is prone to increase on highly textured scenes if this kind of behaviour are not expected by the considererd anomaly detector. Several anomaly detection methods adapted to multispectral backgrounds have been compared to reference detectors that only exploit the spectral information. The first anomaly detectors we propose rely on models like Gaussian Markovian random fields and mixtures of structured Gaussian, allowing parametric tests ; the second ones rely on non-parametric tests operated in kernel-spaces. The obtained results show the necessisty of a joint segmentation and detection for heterogeneous scenes. Moreover, the best result have been obtained through anomaly detectors that do not assume any a priori distribution over data
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Louargant, Marine. "Proxidétection des adventices par imagerie aérienne : vers un service de gestion par drone". Thesis, Dijon, 2016. http://www.theses.fr/2016DIJOS029/document.

Texto completo da fonte
Resumo:
Le contexte agricole actuel vise à réduire l’utilisation des produits phytosanitaires sur les parcelles. Dans ce cadre, la gestion des adventices consommant de grandes quantités d’herbicides est devenue une problématique majeure. Afin de mettre en place un outil de gestion localisée des adventices par drone, cette thèse étudie l’adaptation du système d’acquisition (drone + dispositif multispectral) actuellement proposé par AIRINOV à la détection des adventices sur des cultures sarclées. La chaîne d’acquisition a été modélisée afin d’évaluer l’impact de différents paramètres du modèle (filtres optiques et résolution spatiale) sur la qualité de la détection des adventices. Des orthophotographies et images ortho-rectifiées ont été acquises à l’aide d’un capteur multispectral (4 et 8 filtres) à des résolutions spatiales de 6 mm et 6 cm. Plusieurs méthodes de localisation des adventices adaptées à l’étude de ces images ont été développées. Elles reposent sur 1) l’analyse de la distribution spatiale de la végétation (détection de rang par la transformée de Hough et analyse de forme), 2) la classification spectrale des pixels (méthodes supervisées : LDA, QDA, distance de Mahalanobis, SVM). Enfin, une classification spectrale basée sur un apprentissage issu des informations spatiales été proposée, améliorant ainsi la détection des adventices.Des cartes d’infestation des parcelles et de préconisation en pulvérisation localisée ont alors été créées
The agricultural framework aims to reduce pesticide use on fields. Weed management, which is highly herbicide consuming, became a great issue. In order to develop a weed management service using UAV, this PhD dissertation studies how to adapt the acquisition system (UAV + multispectral camera) developed by AIRINOV to detect weeds in row crops. The acquisition chain was modeled to assess some of its parameters (optical filters and spatial resolution) impact on weed detection quality. Orthoimages and orthorectified images were created using a multispectral camera (4 to 8 filters) with 6 mm to 6 cm spatial resolutions. Several weed location methods were specifically developed to study multispectral images acquired by UAV. They are based on 1) the analysis of vegetation spatial distribution (row detection using the Hough transform and shape analysis), 2) spectral classification of pixels (supervised methods: LDA, QDA, Mahalanobis distance, SVM). In order to improve weed detection, a spectral classification based on training data deduced from spatial analysis was then proposed.Weed infestation maps and recommendation for spot spraying applications were then produced
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

MAIRE, Florian. "Détection et classification de cibles multispectrales dans l'infrarouge". Phd thesis, Institut National des Télécommunications, 2014. http://tel.archives-ouvertes.fr/tel-00997684.

Texto completo da fonte
Resumo:
Les dispositifs de protection de sites sensibles doivent permettre de détecter des menaces potentielles suffisamment à l'avance pour pouvoir mettre en place une stratégie de défense. Dans cette optique, les méthodes de détection et de reconnaissance d'aéronefs se basant sur des images infrarouge multispectrales doivent être adaptées à des images faiblement résolues et être robustes à la variabilité spectrale et spatiale des cibles. Nous mettons au point dans cette thèse, des méthodes statistiques de détection et de reconnaissance d'aéronefs satisfaisant ces contraintes. Tout d'abord, nous spécifions une méthode de détection d'anomalies pour des images multispectrales, combinant un calcul de vraisemblance spectrale avec une étude sur les ensembles de niveaux de la transformée de Mahalanobis de l'image. Cette méthode ne nécessite aucune information a priori sur les aéronefs et nous permet d'identifier les images contenant des cibles. Ces images sont ensuite considérées comme des réalisations d'un modèle statistique d'observations fluctuant spectralement et spatialement autour de formes caractéristiques inconnues. L'estimation des paramètres de ce modèle est réalisée par une nouvelle méthodologie d'apprentissage séquentiel non supervisé pour des modèles à données manquantes que nous avons développée. La mise au point de ce modèle nous permet in fine de proposer une méthode de reconnaissance de cibles basée sur l'estimateur du maximum de vraisemblance a posteriori. Les résultats encourageants, tant en détection qu'en classification, justifient l'intérêt du développement de dispositifs permettant l'acquisition d'images multispectrales. Ces méthodes nous ont également permis d'identifier les regroupements de bandes spectrales optimales pour la détection et la reconnaissance d'aéronefs faiblement résolus en infrarouge
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Maire, Florian. "Détection et classification de cibles multispectrales dans l'infrarouge". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0007.

Texto completo da fonte
Resumo:
Les dispositifs de protection de sites sensibles doivent permettre de détecter des menaces potentielles suffisamment à l’avance pour pouvoir mettre en place une stratégie de défense. Dans cette optique, les méthodes de détection et de reconnaissance d’aéronefs se basant sur des images infrarouge multispectrales doivent être adaptées à des images faiblement résolues et être robustes à la variabilité spectrale et spatiale des cibles. Nous mettons au point dans cette thèse, des méthodes statistiques de détection et de reconnaissance d’aéronefs satisfaisant ces contraintes. Tout d’abord, nous spécifions une méthode de détection d’anomalies pour des images multispectrales, combinant un calcul de vraisemblance spectrale avec une étude sur les ensembles de niveaux de la transformée de Mahalanobis de l’image. Cette méthode ne nécessite aucune information a priori sur les aéronefs et nous permet d’identifier les images contenant des cibles. Ces images sont ensuite considérées comme des réalisations d’un modèle statistique d’observations fluctuant spectralement et spatialement autour de formes caractéristiques inconnues. L’estimation des paramètres de ce modèle est réalisée par une nouvelle méthodologie d’apprentissage séquentiel non supervisé pour des modèles à données manquantes que nous avons développée. La mise au point de ce modèle nous permet in fine de proposer une méthode de reconnaissance de cibles basée sur l’estimateur du maximum de vraisemblance a posteriori. Les résultats encourageants, tant en détection qu’en classification, justifient l’intérêt du développement de dispositifs permettant l’acquisition d’images multispectrales. Ces méthodes nous ont également permis d’identifier les regroupements de bandes spectrales optimales pour la détection et la reconnaissance d’aéronefs faiblement résolus en infrarouge
Surveillance systems should be able to detect potential threats far ahead in order to put forward a defence strategy. In this context, detection and recognition methods making use of multispectral infrared images should cope with low resolution signals and handle both spectral and spatial variability of the targets. We introduce in this PhD thesis a novel statistical methodology to perform aircraft detection and classification which take into account these constraints. We first propose an anomaly detection method designed for multispectral images, which combines a spectral likelihood measure and a level set study of the image Mahalanobis transform. This technique allows to identify images which feature an anomaly without any prior knowledge on the target. In a second time, these images are used as realizations of a statistical model in which the observations are described as random spectral and spatial deformation of prototype shapes. The model inference, and in particular the prototype shape estimation, is achieved through a novel unsupervised sequential learning algorithm designed for missing data models. This model allows to propose a classification algorithm based on maximum a posteriori probability Promising results in detection as well as in classification, justify the growing interest surrounding the development of multispectral imaging devices. These methods have also allowed us to identify the optimal infrared spectral band regroupments regarding the low resolution aircraft IRS detection and classification
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Maire, Florian. "Détection et classification de cibles multispectrales dans l'infrarouge". Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0007/document.

Texto completo da fonte
Resumo:
Les dispositifs de protection de sites sensibles doivent permettre de détecter des menaces potentielles suffisamment à l’avance pour pouvoir mettre en place une stratégie de défense. Dans cette optique, les méthodes de détection et de reconnaissance d’aéronefs se basant sur des images infrarouge multispectrales doivent être adaptées à des images faiblement résolues et être robustes à la variabilité spectrale et spatiale des cibles. Nous mettons au point dans cette thèse, des méthodes statistiques de détection et de reconnaissance d’aéronefs satisfaisant ces contraintes. Tout d’abord, nous spécifions une méthode de détection d’anomalies pour des images multispectrales, combinant un calcul de vraisemblance spectrale avec une étude sur les ensembles de niveaux de la transformée de Mahalanobis de l’image. Cette méthode ne nécessite aucune information a priori sur les aéronefs et nous permet d’identifier les images contenant des cibles. Ces images sont ensuite considérées comme des réalisations d’un modèle statistique d’observations fluctuant spectralement et spatialement autour de formes caractéristiques inconnues. L’estimation des paramètres de ce modèle est réalisée par une nouvelle méthodologie d’apprentissage séquentiel non supervisé pour des modèles à données manquantes que nous avons développée. La mise au point de ce modèle nous permet in fine de proposer une méthode de reconnaissance de cibles basée sur l’estimateur du maximum de vraisemblance a posteriori. Les résultats encourageants, tant en détection qu’en classification, justifient l’intérêt du développement de dispositifs permettant l’acquisition d’images multispectrales. Ces méthodes nous ont également permis d’identifier les regroupements de bandes spectrales optimales pour la détection et la reconnaissance d’aéronefs faiblement résolus en infrarouge
Surveillance systems should be able to detect potential threats far ahead in order to put forward a defence strategy. In this context, detection and recognition methods making use of multispectral infrared images should cope with low resolution signals and handle both spectral and spatial variability of the targets. We introduce in this PhD thesis a novel statistical methodology to perform aircraft detection and classification which take into account these constraints. We first propose an anomaly detection method designed for multispectral images, which combines a spectral likelihood measure and a level set study of the image Mahalanobis transform. This technique allows to identify images which feature an anomaly without any prior knowledge on the target. In a second time, these images are used as realizations of a statistical model in which the observations are described as random spectral and spatial deformation of prototype shapes. The model inference, and in particular the prototype shape estimation, is achieved through a novel unsupervised sequential learning algorithm designed for missing data models. This model allows to propose a classification algorithm based on maximum a posteriori probability Promising results in detection as well as in classification, justify the growing interest surrounding the development of multispectral imaging devices. These methods have also allowed us to identify the optimal infrared spectral band regroupments regarding the low resolution aircraft IRS detection and classification
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Kozhemyak, Anastasia. "Modèles mathématiques et méthodes de reconstruction en imagerie médicale". Phd thesis, Ecole Polytechnique X, 2008. http://pastel.archives-ouvertes.fr/pastel-00004165.

Texto completo da fonte
Resumo:
L'apparition de techniques avancées en imagerie a amélioré de manière significative la qualité de la surveillance médicale des patients. Les modalités d'imagerie non-invasives permettent aux médecins de faire des diagnostics plus précis et plus précoces et de prescrire des modes de traitement plus performants et plus justes. De multiples modalités d'imagerie sont employées actuellement ou sont en cours d'étude. Dans cette thèse, nous étudions trois techniques émergentes d'imagerie biomédicale : • imagerie magnéto-acoustique; • imagerie thermographique; • endotomographie par impédance électrique. Pour chacune de ces trois techniques, nous proposons des modèles mathématiques et nous présentons des nouvelles méthodes de reconstruction en imagerie médicale.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Grousson, Stéphane. "Modèles géométriques pour de nouvelles interprétations en imagerie". Saint-Etienne, 2002. http://www.theses.fr/2002STET4013.

Texto completo da fonte
Resumo:
Ce mémoire de thèse présente différents modèles géométriques pour l'imagerie et leurs interconnexions. L' "espace des cercles" en constitue, en grande partie, le cadre unificateur, avec des applications aux diagrammes de voronoi͏̈ et à le recherche originale du plus petit cercle circonscrit. On y étudie des transformées alternatives à la transformée de Hough, principalement la Transformée Polaire et son cadre de dualité, généralisable à des dimensions supérieures. Les deux résultats les plus originaux de ce mémoire quantifient l'incertitude d'alignement (ou, dualement, le "flou d'intersection") via soit une mesure invariante par translation en liaison avec la géométrie intégrale et la "géométrie différentielle affine", soit des lignes iso-valeurs en faisceaux de coniques
This thesis presents various geometrical models useful for image processing and highlights their interconnections. The space of circles constitutes the unifying framework of all the models. Within this space, applications such a Voronoi diagrams computation and an original determination of the smallest circumscribed circle can be performed. Transforms alternative to the Hough transform are studied, with an instrumental role for the Polar Transform and its framework of duality, generalizable to higher dimensions is described. The two most original results of this thesis allow to quantify the uncertainty of an alignment ("intersection blur") with either a translation invariant measure in connection with integral geometry and "differential affine geometry", or contour lines which are conics pencils
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Corvo, Joris. "Caractérisation de paramètres cosmétologiques à partir d'images multispectrales de peau". Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM100/document.

Texto completo da fonte
Resumo:
Grâce aux informations spatiales et spectrales qu'elle apporte, l'imagerie multispectrale de la peau est devenue un outil incontournable de la dermatologie. Cette thèse a pour objectif d'évaluer l’intérêt de cet outil pour la cosmétologie à travers trois études : la détection d'un fond de teint, l'évaluation de l'âge et la mesure de la rugosité.Une base d'images multispectrales de peau est construite à l'aide d'un système à multiples filtres optiques. Une phase de prétraitement est nécessaire à la standardisation et à la mise en valeur de la texture des images.Les matrices de covariance des acquisitions peuvent être représentées dans un espace multidimensionnel, ce qui constitue une nouvelle approche de visualisation de données multivariées. De même, une nouvelle alternative de réduction de la dimensionnalité basée sur l'ACP est proposée dans cette thèse. L'analyse approfondie de la texture des images multispectrales est réalisée : les paramètres de texture issus de la morphologie mathématique et plus généralement de l'analyse d'images sont adaptés aux images multivariées. Dans cette adaptation, plusieurs distances spectrales sont expérimentées, dont une distance intégrant le modèle LIP et la métrique d'Asplünd.Les résultats des prédictions statistiques générées à partir des données de texture permettent de conclure quant à la pertinence du traitement des données et de l'utilisation de l'imagerie multispectrale pour les trois études considérées
Thanks to its precision in spatial and spectral domain, multispectral imaging has become an essential tool in dermatology. This thesis focuses on the interest of this technology for cosmetological parameters assessment through three different studies: the detection of a foundation make-up, age assessment and roughness measurement.A database of multispectral skin images is build using a multiple optical filters system. A preprocessing step allows to standardize those texture images before their exploitation.Covariance matrices of mutispectral acquisitions can be displayed in a multidimensional scaling space which is a novel way to represent multivariate data sets. Likewise, a new dimensionality reduction algorithm based on PCA is proposed in this thesis.A complete study of the images texture is performed: texture features from mathematical morphology and more generally from image analysis are expanded to the case of multivariate images. In this process, several spectral distances are tested, among which a new distance associating the LIP model to the Asplund metric.Statistical predictions are generated from texture data. Thoses predictions lead to a conclusion about the data processing efficiency and the relevance of multispectral imaging for the three cosmetologic studies
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Dejaeghere, Laurent. "Méthode de mesure par pyrométrie multispectrale et développement d'un dispositif à hautes températures". Thesis, Lorient, 2016. http://www.theses.fr/2016LORIS406/document.

Texto completo da fonte
Resumo:
La simulation numérique du soudage peut être améliorée par une meilleure connaissance des propriétés thermophysiques des métaux à l’état liquide. Un approfondissement de cette connaissance requiert un dispositif capable de conditionner ces métaux à de très hautes températures en vue de les caractériser. Après un état de l’art sur les techniques de caractérisation adaptées à ces échelles de températures (chapitre 1), ce manuscrit détaille les travaux, principalement expérimentaux, dédiés aux développements d’un dispositif capable d’élever des métaux jusqu’à 2 500 °C (chapitres 3 et 4) et d’un pyromètre à cinq longueurs d’onde pour mesurer cette température (chapitres 2, 4 et 5). Le dispositif chauffe par induction une tour en graphite, le creuset étant placé en son centre, et a été dimensionné via une simulation magnéto-thermique 2D axisymétrique à l’aide du logiciel Comsol Multiphysics®. Parallèlement, le pyromètre a été développé dans le but de mesurer simultanément la température et l’émissivité. En l’absence de corps noir à hautes températures, plusieurs expériences ont été menées pour étalonner ce dernier ; elles ont été basées sur la mesure de la température de fusion/solidification de corps purs. En fonction de leur tenue et pour couvrir la plus large gamme de température possible, les métaux choisis sont le fer, le chrome, ou encore le niobium. Les expériences ont montré l’efficacité du pyromètre et la capacité maximale du dispositif hautes températures lors de la fusion du niobium à environ 2 500 °C. Enfin, le pyromètre a été utilisé lors d’une opération de soudage à l’arc, au cours de laquelle la température a été estimée sur une gamme de 1 000°C – 2 500°C
Welding simulation can be improved by a better knowledge of molten metals thermophysical properties. This improvement requires characterization using a very high temperature apparatus. After portraying a state of the art on characterization technics adapted to this temperature range (chapter 1), this manuscript details works, principally experimental, dedicated to the developments of a device able to heat metals up to 2 500 °C (chapters 3 and 4) and of a five wavelengths pyrometer in order to measure this temperature (chapters 2, 4 and 5). The device heats by induction a graphite tower, the crucible being placed at its center, and has been dimensioned by a magneto-thermal 2D axisymmetric simulation using the Comsol Multiphysics® software. In parallel, the pyrometer has been developed in order to measure both temperature and emissivity. In the absence of a high temperature blackbody, several experiments were carried out for the calibration of it; they were based on the use of the luminance of pure metals at their melting point. In order to cover the largest temperature range possible, chosen metals were iron, chromium, and even niobium. These experiments showed the efficiency of the pyrometer and the maximal ability of the high temperature device during the niobium melting around 2 500 °C. Finally, the pyrometer has been used on an arc welding process, in which temperature has been evaluated over a 1 000 °C – 2 500 °C temperature range
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Kozhemyak, Anastasia. "Modèles mathématiques et méthodes de reconstruction pour des techniques émergentes d'imagerie biomédicale". Palaiseau, Ecole polytechnique, 2008. http://www.theses.fr/2008EPXX0007.

Texto completo da fonte
Resumo:
L'apparition de techniques avancées en imagerie a amélioré de manière significative la qualité de la surveillance médicale des patients. Les modalités d'imagerie non-invasives permettent aux médecins de faire des diagnostics plus précis et plus précoces et de prescrire des modes de traitement plus performants et plus justes. De multiples modalités d'imagerie sont employées actuellement ou sont en cours d'étude. Dans cette thèse, nous étudions trois techniques émergentes d'imagerie biomédicale :imagerie magnéto-acoustique; imagerie thermographique; endotomographie par impédance électrique. Pour chacune de ces trois techniques, nous proposons des modèles mathématiques et nous présentons des nouvelles méthodes de reconstruction en imagerie médicale.
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Leray, Pascal. "Modélisation et architecture de machines de sysnthèse d'images pour la représentation d'images et le rendu d'objets tri-dimensionnels (3D)sur écrans graphiques à balayage". Paris 2, 1990. http://www.theses.fr/1990PA020117.

Texto completo da fonte
Resumo:
La modelisation des objets et le rendu realiste de l'image sont les deux taches fondamentales necessaires a la synthese d'image tri-dimensionnelle (3d). A la modelisation des objets est utilisee pour constituer une representation interne au systeme informatique des objets 3d. Cette modelisation peut etre rapprochee des representations mentales de l'environnement constituees dans le cerveau humain. B la synthese ou rendu est utilise pour afficher des images realistes de notre monde 3d : il peut etre rapproche de la faculte de dessiner de l'homme. Mais a l'heure actuelle dans les stations graphiques ces deux taches sont dissociees, a la difference du dessinateur humain qui analyse en permanence ce qu'il trace et le compare a la representation mentale interne de son cerveau. Notre premier but est de faire l'inventaire des techniques existantes de modelisation et de rendu. Ensuite nous decrivons deux solutions nouvelles pour : - un systeme de numerisation-modelisation directe d'objets sur station de travail - une nouvelle architecture de machine de rendu. Enfin, nous introduisons le concept de reseaux neuronaux et nous expliquons comment ceux-ci peuvent etre utilises dans les taches a et b de maniere similaire a l'extraction de formes et d'informations semantiques a partir de l'ombrage des images (shape from shading) realise dans le cerveau humain. Nous brossons en conclusion un tableau prospectif de la synthese d'image 3d, dans laquelle l'analyse d'objets et les reseaux neuronaux seront de plus en plus associes. Ces deux techniques complementaires et reversibles pourraient apporter des possibilites insoupconnees a la conception de formes, aux banques
Solid modelling and image rendering are the two fundamental tasks for 3d image synthesis a solid modelling is used to represent internal 3d data base, strongly correlated with mental representation of the world in the humain brain. B image rendering is used to display realistic images of our 3d world : it can be coupled with the drawing possibilities of mankind. But at present in our graphic workstations, these two tasks are not associated, at the difference of the humain beeing, which analyses in real time what he draws, and compares it to its mental representations of the environment. The first goal of this report is to analyse existing tools which are currently used in tasks a and b after we describe two new solutions for : a direct digititizing system of 3d objects a new architecture for rendering at the end, we introduce the new concept of neural networks, and we explain how it could be used to perform tasks a and b , as it is associated in the humain brain with image analysis by shape from shading techniques. Conclusion is a projection on future image synthesis systems, where 3d object analysis based on shape from shading and neural network could be tightly coupled with image rendering. These two processes could be at that time reversible, giving large new possibilities to computer design, picture data bases
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Levet, Florian. "Modélisation et édition d'objets 3D : du prototype au modèle final". Bordeaux 1, 2006. http://www.theses.fr/2006BOR13304.

Texto completo da fonte
Resumo:
Ces dernières années, la modélisation de formes libres par esquisses s'est révélée comme alternative aux modeleurs géométriques 3D conventionnels, de part le fait qu'il est possible pour des utilisateurs non-expertsde créer rapidement et relativement facilement des modèles 3D intéressants. L'objectif de recherches, que j'ai mené jusqu'ici, est d'utiliser les systèmes de modélisation de formes libres à base d'esquisses afin de générer un premier prototype 3D d'un modèle. Ensuite, il est possible de rajouter de l'information à ce prototype par l'utilisation de techniques à base de surfaces implicites afin d'obtenir le modèle final (avec plus d'informations visuelles par exemple). Ainsi, en premier lieu, j'ai développé un système de modélisation de formes libres par esquisses se servant d'une nouvelle esquisse : la courbe de profil. ProfSketch, mom système, permet de créer des objets relativement complexes en seulement deux esquisses : la courbe de silhouette et la courbe de profil. Cette courbe de profil permet de créer des objets de genre 1 et de développer de nouvelles façons d'intéragir avec les objets créés. Le modèle 3D généré en se servant de ProfSketch est donc un prototype 3D de l'objet voulu. Ensuite, les surfaces implicites peuvent être utilisées comme outil d'embelissement de ce prototype. Pour cela, j'ai développé deux nouveaux systèmes à base de particules : le rendu par paticules différentielles et les marchingParticles. Le premier permet de prendre en compte les caractéristiques de coubures principales de la surface pour le rendu tandis que le second permet d'accélérer les systèmes de particules existants. Finalement, quelques applications intéressantes des systèmes à base de particules isotropes uniformes sont présentées, telles que leur triangulation rapide (permettant d'obtenir une triangulation avec des triangles quasi-equilatéraux) ou la texturation de cette triangulation obtenue.
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Vauthrin, Margaux. "Etude de quelques modèles en imagerie photoacoustique". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM030/document.

Texto completo da fonte
Resumo:
Cette thèse porte sur l'étude de la méthode d'imagerie photoacoustique, une nouvelle modalité hybride permettant de combiner la haute résolution de l'imagerie par ultrasons et le contraste de l'imagerie optique. Nous y étudions en particulier le problème inverse associé et sa résolution : il se décompose en l'inversion de l'équation d'ondes et en celle de l'équation de diffusion optique, dont le but est de retrouver les paramètres optiques du milieu. Dans la première partie de cette étude nous développons un modèle permettant de prendre en compte les variations de la vitesse acoustique dans le milieu biologique. En effet, la plupart des méthodes d'inversion supposent une vitesse acoustique constante, ce qui est à l'origine d'erreurs dans les reconstructions. La deuxième partie de la thèse porte sur une étude mathématique du phénomène de limitation de la profondeur de l'imagerie photoacoustique. Nous calculons une estimation de stabilité du problème inverse dans le cas d'un milieu stratifié et nous montrons que la reconstruction se dégrade avec la profondeur. Nous étudions dans la dernière partie le phénomène photoacoustique en présence de nanoparticules métalliques : ces marqueurs permettent d'amplifier par des résonances le signal photoacoustique généré autour d'elles. Elles permettent ainsi une meilleure visibilité des tissus en profondeur. Nous explicitons ici le modèle mathématique de génération du signal photoacoustique, ainsi que la résolution théorique du problème inverse photoacoustique dans ce contexte
This thesis work is related to photoacoustic imaging techniques which are new multiwave modalities in medical imaging that combine both high resolution of ultrasounds and contrast of optical methods. Weprecisely studied the inverse problem that consists of determining the optical coefficients of biologicaltissues from measurement of acoustic waves generated by the photoacoustic effect. The photoacoustic inverse problem proceeds in two steps.We first retrieve the initial pressure from the measurement of the pressure wave on a part of the boundary of the sample. The first inversion takes then the form of a linear inverse source problem and provides internal data for the optical waves that are more sensitive to the contrast of the absorption and diffusion coefficients. In a second step we recover the optical coefficients from the acquired internal data.The aim of this work is to study the two inversions in different contexts. In the first part, we develop a model that takes into account the variations of the acoustic speed in the medium. Indeed, most of the inversion methods suppose that the acoustic speed is constant, and this assumption can lead to errors in the reconstruction of the optical coefficients. The second part of this work is the derivation of stability estimates for the photoacoustic inverse problem in a layered medium. We prove that the reconstruction is getting worse with depth. This is one of the main drawbacks of the photacoustic method, the imaging depth is limited to a few centimeters. The last part is about photoacoustic generation with plasmonic nanoparticles. They enhance the photoacoustic signal around them, so that we can investigate the tissue more deeply. We derive the mathematical model of the photoacoustic generation by heating nanoparticles, and we solve the photoacoustic inverse problem in this context
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Impériale, Alexandre. "Méthode d'assimilation de données de la donnée image pour la personnalisation de modèles mécaniques : application à la mécanique cardiaque et aux images de marquage tissulaire". Paris 6, 2013. http://www.theses.fr/2013PA066622.

Texto completo da fonte
Resumo:
Cette thèse est dédiée à l’intégration de données complexes issues de l’imagerie dans une stratégie d’assimilation de données pour des modèles mécaniques. Notre stratégie s’appuie sur des travaux récents proposant une méthode séquentielle d’assimilation de données qui se décompose en un filtre de Luenberger pour l’espace d’état et un filtre optimal réduit à l’espace des paramètres. Nous l’appliquons à l’identification de paramètres pour un modèle biomécanique du cœur et, dans ce cadre, nous formalisons la construction de comparateurs de formes évolués pour deux types de données : d’une part des données extraites d’un traitement de l’Imagerie par Résonance Magnétique (IRM) de marquage tissulaire et, d’autre part, des données plus classiques de type contours de l’objet. D’abord fondés sur des simples distances nous enrichissons ces comparateurs grâce au formalisme des courants permettant d’inscrire le contour de l’objet dans le dual d’un espace de fonctions-test appropriées. Pour chacun des comparateurs nous analysons son impact sur l’observabilité du système et, pour le cas de l’imagerie de marquage tissulaire, nous prouvons qu’ils sont équivalents à une mesure directe du déplacement. D’un point de vue numérique, la prise en compte de ces mesures complexes présente d’importantes difficultées nous poussant à mettre en place des schémas numériques originaux permettant une manipulation plus flexible des différents opérateurs d’observation. Nous profitons de ces nouveaux moyens d’extraction de l’information contenue dans les données d’imagerie pour permettre, dans des cas réalistes, l’identification de la position et de l’intensité d’un infarctus du myocarde
This thesis aims at incorporating complex data derived from images into a data assimilation strategy available for mechanical systems. Our work relies on some recent developments that propose a sequential data assimilation method made of a Luenberger filter for the state space and an optimal filter reduced to the remaining parameter space. We aim at performing parameter identification for a biomechanical model of the heart and, within the scope of this application, we formalize the construction of shape discrepancy measurements for two types of data sets: first, the data expected of a processing step of tagged Magnetic Resonance Imaging (tagged-MRI) and, second, more standard data composed by the contours of the object. Initially based on simple distance measurements we enrich these discrepancy measures by incorporating the formalism of currents which enables to embed the contours of the object within the dual of an appropriate space of test functions. For each discrepancy operators we analyze its impact on the observability of the system and, in the case of tagged-MRI, we prove that they are equivalent to a direct measurement of the displacement. From a numerical standpoint, taking into account these complex data sets is a great challenge that motivates the creation of new numerical schemes that provide a more flexible management of the various observation operators. We assess these new means of extracting the rich information contained in the image by identifying in realistic cases the position and the intensity of an infarct in the heart tissue
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Luginbühl, Thibault. "Régularisation de surface 3D par une approche fondée sur un modèle". Paris 6, 2012. http://www.theses.fr/2012PA066032.

Texto completo da fonte
Resumo:
Ce travail présente un système de génération automatique d'avatar 3D photo-réaliste à partir de données fournies par un scanner. Dans un premier temps le nuage de points est traité pour obtenir une surface fermée sous forme de maillage. L'approche choisie repose sur un modèle générique d'être humain qui est adapté aux données. La déformation est réalisée à l'aide de méthodes issues des techniques d'infographie pour le modelage des maillages. Le modèle est ensuite texturé en utilisant des photos prises pendant l'acquisition. Ceci est réalisé en optimisant le choix de la caméra pour la texture de chaque facette et en traitant la continuité des zones de transition d'une image à une autre. Enfin, des applications immédiates montrant les possibilités qu'offre l'approche fondée sur un modèle sont présentées : l'intégration à une application d'essayage virtuel de vêtements, la possibilité de placer de nouvelles coupes de cheveux sur les avatars reconstruits et le transfert d'un modèle d'animation
In this thesis we present a system to generate 3D photo-realistic avatars automatically using a laser scanner. First, we turn the point cloud provided by the scanner into a suitable representation, that is a closed mesh. Our approach is based on a generic model of the human body that is fitted to the data using computer graphics techniques for mesh edition. Then, we add texture information to the 3D geometry using pictures taken during the acquisition. This problem is solved by optimizing the choice of a camera for each triangle of the mesh and treating the continuity problem at the seams. Finally, we show direct application of our system relying on the common parameterization provided by the generic model: use of the avatars in a virtual try-on application, modifying the haircut of the reconstructed model and animation transfer
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Roux, Sébastien. "Modèles dynamiques en tomographie - Application à l'imagerie cardiaque". Phd thesis, Grenoble 1, 2004. http://tel.archives-ouvertes.fr/tel-00007803.

Texto completo da fonte
Resumo:
Les techniques mathématiques de reconstruction d'image jouent un rôle important dans le domaine médical. Elles permettent d'exploiter, par résolution d'un problème inverse, les mesures issues d'appareils médicaux comme le scanner pour obtenir une image volumique représentant la répartition spatiale d'une propriété, comme la densité des tissus. Les progrès des scanners rendent désormais possible l'étude dynamique de certains organes, comme le coeur. Cependant, les techniques de reconstruction classiques doivent être améliorées pour prendre en compte les évolutions des organes durant l'acquisition des mesures, qui provoquent une perte de qualité et donc d'information dans les images reconstruites. L'objectif de ce travail de thèse est d'investiguer l'usage de modèles additionnels permettant de régulariser le problème de reconstruction tomographique. Dans une première étude, nous approfondissons les méthodes couramment utilisées en tomographie cardiaque basées sur l'utilisation d'un modèle de périodicité de l'évolution. Nous étudions les problèmes de synchronisation dans les géométries parallèles et divergentes et leur lien avec l'échantillonnage des mesures. Nous proposons par ailleurs un schéma de reconstruction amélioré dans le cas des géométries divergentes. La seconde étude concerne les méthodes dites de compensation du mouvement, qui utilisent dans l'algorithme de reconstruction un modèle de déformation de la scène connu a priori. Nous proposons des méthodes analytiques de reconstruction qui compensent les déformations affines dépendant du temps, en établissant des conditions d'admissibilité et des formules d'inversion exactes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Milles, Julien. "Modélisation et correction des inhomogénéités d'intensité en imagerie cérébrale par résonance magnétique". Lyon, INSA, 2002. http://theses.insa-lyon.fr/publication/2002ISAL0084/these.pdf.

Texto completo da fonte
Resumo:
Ce travail concerne la modélisation et la correction des inhomogénéités d'intensité en imagerie cérébrale par résonance magnétique. Le premier volet de nos travaux modélise l'intensité d'un pixel en fonction des paramètres physiques liés à l'objet et à l'imageur. Nous proposons ensuite quatre méthodes d'estimation afin de calculer les profils de sensibilité en émission et détection des antennes radio-fréquence pour des objets homogènes et hétérogènes. La deuxième partie de notre travail consiste en la correction des images obtenues par résonance magnétique. Nous avons développé une première approche fondée sur les paramètres issus de la modélisation précédente. L'autre est fondée sur la coopération de deux algorithmes privilégiant des informations soit spatiales, soit fréquentielles. Ces méthodes ont été validées sur des données réelles issues de fantômes et du cerveau d'un volontaire sain. Les résultats obtenus sont très satisfaisants et ouvrent de nouvelles voies algorithmiques
This work deals with modelisation and correction of intensity inhomogeneity for magnetic resonance images of the brain. We first modelise intensity variation for a given pixel according to physical parameters which depend on the object being imaged and the machine. We propose four estimation methods to compute transmission and reception radio-frequency coils sensitivity profiles for homogeneous and heterogeneous objects. Subsequently we propose two different approaches to correct magnetic resonance images. We first expose a method which uses the parameters computed with the modelisation described before. The second solution is based on a cooperative framework between two algorithms which work in two separate domains, using spatial or spectral informations. Those methods have been validated on real dataset from phantoms and a volunteer’s normal brain. Results are very satisfactory and open new algorithmic approaches
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Kretowski, Marek. "Modélisation et classification en imagerie médical". Rennes 1, 2002. http://www.theses.fr/2002REN10089.

Texto completo da fonte
Resumo:
Les travaux présentés dans cette these sont organisés en deux parties. La premiere partie propose un approche de l'analyse d'image basée sur la modélisation : un modele physiologique du foie, et un modele physique de la tomographie a rayons X sont couplés. Le modele hépatique, dont la vascularisation est l'élément essentiel integre la croissance de l'organe ainsi que le développement d'une pathologie. La propagation d'un produit de contraste est modélisée dans la vascularisation, au niveau des vaisseaux et du parenchyme. Ceci permet la simulation d'images réalistes et le suivi du rehaussement d'une tumeur en phase artérielle ou portale. La deuxieme partie est consacrée a la classification d'images médicales a partir des caractéristiques de texture : leurs variations avec les parametres d'acquisition (résolution, épaisseur, temps) sont analysées, a partir d'images simulées. Puis, une nouvelle méthode de classification (arbre de décision multidimensionnel utilisant le critere dipolaire) est développée. Ce classifieur est appliqué a des images scanner de foies métastatiques, caractérisées par les méthodes d'analyse texture statistiques et donne une bonne discrimination entre foie sain et foie tumoral.
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Corouge, Isabelle. "Modélisation statistique de formes en imagerie cérébrale". Rennes 1, 2003. https://tel.archives-ouvertes.fr/tel-00003647.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Cornelis, Francois. "Imagerie oncologique et modélisation mathématique : développement, optimisation et perspectives". Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0121/document.

Texto completo da fonte
Resumo:
Ce travail de thèse, réalisé à l'Institut Mathématiques de Bordeaux (IMB) de 2010 à 2015 sous la direction de Thierry Colin et Olivier Saut, décrit la création et le développement progressif d'un ensemble de théories, de techniques et d'outils liant l'imagerie médicale aux mathématiques appliquées dans le but d'envisager leur application clinique à courte échéance en oncologie. Cette thèse a tout d'abord consisté à optimiser les modèles spatiaux de croissance tumorale développés à l'IMB incluant des éléments microscopiques et macroscopiques obtenus par analyse des informations disponibles des examens d’imagerie. Plusieurs étapes ont été réalisées permettant de mieux appréhender la modélisation in vivo. Différents organes et types tumoraux ont été explorés, en particulier au niveau du poumon, du foie, et du rein. Ces localisations ont été successivement étudiées afin d’enrichir progressivement les modèles par les réponses qu'elles apportaient et répondre ainsi à la réalité clinique. De façon concomitante, des outils ont été intégrés au fur et à mesure afin de standardiser la démarche de recueil de données et permettre d'affiner l'évaluation thérapeutique par l'imagerie à l'aide de marqueurs numériques. L'implémentation de l'imagerie fonctionnelle dans une pratique clinique est ainsi devenue une réalité. Le but est à terme d’appliquer de façon prospective ces outils d'assistance en pratique quotidienne. La modélisation a été aussi appliquée en oncologie interventionnelle par l'étude de la distribution du champ électrique lors des électroporations de prostate et bientôt du foie. Ceci permettra de mieux contrôler les zones d'ablation et ainsi améliorer la sécurité et l'efficacité de ces traitements. Tout cela a permis d'envisager des projets cliniques combinant une part exploratoire impliquant la modélisation. Ces développements et leurs perspectives sont rapportés successivement dans ce manuscrit
This work performed at the Institute of Mathematics of Bordeaux (IMB) from 2010 to 2015 under the direction of Thierry Colin and Olivier Saut describes the creation and gradual development of a set of theories, techniques and tools linking medical imaging and applied mathematics in order to consider their clinical application in the short term in oncology. The first goal was to optimize the spatial models of tumor growth developed at the IMB including microscopic and macroscopic elements obtained by analyzing the information available on imaging explorations. Several steps were performed to better understand the in vivo modeling. Various organs and tumor types were investigated, especially in the lung, liver, and kidney. These locations were studied successively to progressively enrich the model by the answers they brought and thus respond to clinical reality. Concomitantly, tools were integrated to standardize the data collection process and help to refine the therapeutic evaluation by imaging with digital markers. The implementation of functional imaging in clinical practice has become a reality. The goal is ultimately to apply prospectively these support tools in a daily practice. Modelling was also applied in interventional oncology for the study of the electric field distribution after percutaneous irreversible electroporation in the prostate and soon in the liver. This will allow a better control of the ablation areas and thereby improve the safety and efficacy of these treatments
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Vu, Duong. "Injection de charge et de spin de GaAs vers des couches métalliques et magnétiques". Palaiseau, Ecole polytechnique, 2010. http://pastel.archives-ouvertes.fr/docs/00/50/65/65/PDF/Final.pdf.

Texto completo da fonte
Resumo:
On trouve le résumé suivant sur la plateforme de thèses en ligne Tel le résumé suivant (la thèse elle même inclut un résumé plus détaillé) : Ce travail expérimental et théorique porte sur l'injection tunnel de photoélectrons à partir de GaAs vers des surfaces métalliques et de spin vers des surfaces magnétiques. On y présente la première mise en évidence de la dépendance en spin du courant tunnel vers une surface magnétique. Ce travail comporte deux parties distinctes : 1ere partie : Cette partie est consacrée à l'étude de l'injection de charge et de spin de photoélectrons à partir de microleviers de GaAs (sans pointe) sous pompage optique, vers des surfaces nonmagnétiques d'or et magnétiques de cobalt. La dépendance du courant injecté vers une surface d'or en fonction de la tension appliquée sur le levier et de la distance levier/surface métallique est en accord avec les prédictions d'un modèle original. A l'aide d'une cellule de Pockels, le même montage est utilisé pour moduler la polarisation de spin des électrons tunnel et pour étudier la dépendance en spin du courant tunnel dans des couches de cobalt. Ce travail conduit à la première mise en évidence de la dépendance en spin de l'effet tunnel de photoélectrons vers une couche magnétique. Le retournement de la polarisation de spin des électrons tunnel par rapport à l'aimantation de la couche magnétique induit une variation de 6% du courant tunnel, alors que la valeur maximale observée pour une couche non magnétique est de l'ordre de 0. 1%. On observe une diminution de ce signal en fonction de la tension appliquée qui est attribuée à la diminution de la vitesse de recombinaison de surface. Les résultats sont en accord quantitatif avec les prédictions théoriques. 2e partie : Cette partie regroupe deux études distinctes du transport de charge et de spin faisant appel à l'imagerie de luminescence polarisée pour caractériser les propriétés de spin. Cette technique nouvelle d'imagerie a été mise au point dans le cadre de ce travail. La première étude analyse les propriétés de spin de pointes de GaAs qui pourraient être utilisées ultérieurement pour l'imagerie du nanomagnétisme, dans le but de prédire le taux de polarisation de spin des électrons injectés. En utilisant des mesures sur des couches planaires équivalentes et en modélisant la diffusion de charge et de spin dans la pointe, on montre que l'on peut s'attendre à obtenir des polarisations de spin atteignant 40%. Par ailleurs, la microscopie de luminescence polarisée permet d'étudier le transport de charge et de spin dans des couches minces de GaAs, respectivement oxydées et passivées. On montre que la recombinaison de surface joue un rôle crucial pour la diffusion de charge et de spin, car la diminution de la vitesse de recombinaison de surface de 107 cm/s à 103 cm/s induite par la passivation fait passer les longueurs de diffusion de charge et de spin de 21 micron et 1. 3 micron respectivement à 1. 2 micron and 0. 8 micron
On trouve le résumé suivant sur la plateforme de thèses en ligne Tel le résumé suivant (la thèse elle même inclut un résumé plus détaillé) :This thesis describes experimental and theoretical work concerning photo-assisted tunnelling between optically pumped GaAs and metallic surfaces. In particular, the first evidence for the spin dependence of the tunnel photocurrent into a magnetic surface is presented. The thesis is made up of two separate parts: Part 1: Reports studies of charge and spin injection of photoelectrons from an optically pumped, tipless GaAs microcantilever into both (nonmagnetic) Gold and (magnetic) Cobalt surfaces. A new model, which is used to analyse the bias, tunnel distance and spin dependence of the tunnel photocurrent, correctly predicts the behaviour observed on the Gold surfaces. With the addition of a Pockels' cell, the same experiment is used to modulate the spin polarisation of tunnelling electrons and to the spin dependence of photoelectron injection into Cobalt. A reversal of the relative spin polarisation of the photoelectrons to the magnetisation direction of the Cobalt results in a 6 % variation in the tunnel photocurrent. This compares with a value of 0. 1 % observed on nonmagnetic Gold surfaces. A reduction in this variation with increasing applied bias is attributed to a reduction in the surface recombination velocity. An extension to the model developed for charge injection which accounts for the spin polarisation of the photoelectrons describes the experimental results well. Part 2: Reports studies on charge and spin transport in GaAs using an original polarised photoluminescence microscopy technique. This technique is firstly applied to photoluminescence imaging in GaAs tips to be used in imaging studies of nanomagnetism, in order to estimate the expected electronic polarisations at the tip apex. In combination with studies on equivalent planar geometry samples and by numerically solving the charge and spin diffusion equations, polarisations approaching 40 % are predicted. Independently, polarised luminescence microscopy is used to investigate charge and spin transport in planar oxidized and passivated thin films. Surface recombination is shown to play an important role in determining the effective charge and spin diffusion lengths. The effect of an increase in the surface recombination velocity between the passivated and oxidized sample from 103 cm/s to 107 cm/s reduces the charge and spin diffusion lengths from 21 micron and 1. 3 micron, to 1. 2 micron and 0. 8 micron respectively
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Girard, Jean-François. "Imagerie géoradar et modélisation des diffractions multiples". Université Louis Pasteur (Strasbourg) (1971-2008), 2002. https://publication-theses.unistra.fr/public/theses_doctorat/2002/GIRARD_Jean-Francois_2002.pdf.

Texto completo da fonte
Resumo:
Le géoradar est une technique couramment utilisée pour prospecter le proche sous-sol. Des ondes électromagnétiques à hautes fréquences (>10 MHz) sont émises dans le sol et les échos enregistrés traduisent les contrastes de permittivité diélectrique entre les différents milieux. Cela permet d'imager les changements de lithologie, des états de fracturation différents, des variations de teneur en eau Dans ces milieux diélectriques, l'onde perturbe les distributions de charges électriques liées et induit une polarisation qui à son tour influe sur l'onde et déforme le signal. En accord avec les mesures sur échantillons, nous utilisons une loi puissance de la susceptibilité électrique en fonction de la fréquence pour caractériser cette dispersion. Avec une telle sensibilité aux différents matériaux et une résolution allant de quelques centimètres à plusieurs décimètres, le traitement des données requiert la prise en compte de la forte hétérogénéité des milieux étudiés. C'est pourquoi nous avons développé un algorithme de modélisation par différences finies en domaine temporel et généralisé l'emploi d'une convolution récursive pour les milieux dispersifs. Nous avons également implémenté d'une façon originale des conditions limites de type " perfect match layer ". L'analyse des coefficients de réflexion nous a permis de valider l'hypothèse qu'une faible variation de la teneur en eau pouvait expliquer la présence des réflecteurs à l'intérieur d'une dune de sable. Nous avons aussi exploité le contenu fréquentiel des signaux en calculant les rapports spectraux entre des signaux réfléchis à différents offsets pour estimer la permittivité diélectrique. Ces valeurs des paramètres et la prise en compte des variations de la teneur en eau servent ensuite à modéliser des situations réalistes. En dernier lieu, nous avons utilisé avec succès le même code de différences finies, en renversant le temps, pour rétro-propager le champ enregistré
Ground Penetrating Radar is widely used to prospect the near surface with high frequency electromagnetic waves (F> 10 MHz). Imaging the dielectric contrasts in the first meters of the earth shows the changes in lithology, fracturation, or water content In these dielectric media the electric field induces a polarisation, which results in the distortion of the signal. Following precedent studies, we use a frequency power law for the electric susceptibility to model this dispersion effect. With such a sensibility to the different media and a resolution ranging from 5 centimeters to several decimeters, the strong heterogeneity of the near surface needs to be considered for an efficient data processing. For this reason, we developed a new modeling algorithm using the finite difference time domain scheme and proposed a modified recursive convolution scheme to include all type of dispersive properties. As boundary conditions, we implemented absorbing perfect match layers in an original way. We also studied the reflexion coefficients inside aeolian sand dunes and concluded that they can be explained by small variations in the water content. The analysis of the spectral ratio between signals at different offsets provides us with a new tool to estimate the dielectric permittivity. These data allow us to model more realistic synthetic cases. At last, we successfully used the same modeling program, but with time reversal, to propagate the recorded fields back to the source
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Richard, Frédéric. "Modèles et analyses statistiques de l'image biomédicale". Habilitation à diriger des recherches, Université René Descartes - Paris V, 2009. http://tel.archives-ouvertes.fr/tel-00522704.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Mandar, Julie. "Développement du modèle de performances de SITELLE, spectromètre imageur à transformée de Fourier". Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/28679/28679.pdf.

Texto completo da fonte
Resumo:
SITELLE est le nouveau spectromètre imageur à transformée de Fourier qui doit être installé au Télescope Canada-France-Hawaii. Le développement de son modèle de performance a permis d’évaluer les paramètres instrumentaux qui sont critiques par rapport aux exigences scientifiques. D’une part, une configuration hors-axe à miroirs plans a été sélectionnée pour répondre plus facilement à l’exigence de haute efficacité dans le proche ultraviolet. D’autre part, les critères d’asservissement ont été définis afin de concevoir un instrument limité par le bruit de photons pour une scène pertinente donnée. Ces performances doivent être maintenues pendant une acquisition totale de 4h sous des vibrations opérationnelles et toute vibration extérieure comme des bourrasques de vent sur le télescope. Enfin, le modèle de performance de SITELLE est au cœur du simulateur de rapport signal sur bruit qui permettra aux astrophysiciens d’évaluer les bénéfices potentiels de l’utilisation de ce spectromètre imageur pour leurs sujets d’études.
SITELLE is a new imaging Fourier transform spectrometer to be installed at the Canada-France- Hawaii Telescope. The development of its dedicated performance model drives the design of the instrument and the flow down of the science cases requirements into system requirements. First, the selected configuration with off-axis flat mirrors makes the achievement of a high efficiency in the near ultra violet easier. Secondly, servomechanism’s desirable performances were defined in order to design a photon noise limited instrument, based on a relevant scene. These performances should be maintained during a 4 hours data-cube acquisition, under operational vibrations and external effects such as wind gust hitting the telescope. Ultimately, this instrument performance model is the core of the signal to noise ratio simulator that will help observers to evaluate the potential benefits of SITELLE for their target.
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Ouillon, Sylvain. "Modélisation mathématique de l'hydrodynamique à surface libre et du transport en suspension de sédiments non cohésifs : aide à l'interprétation d'images spatiales". Toulouse, INPT, 1993. http://www.theses.fr/1993INPT039H.

Texto completo da fonte
Resumo:
L'association des techniques de traitements d'images spatiales et des modeles mathematiques pour etudier les transferts de matieres en suspension (mes) en zone aquatique de surface a echelle locale est recente. Sur la base d'une collaboration avec le cesr de toulouse, le travail concerne le developpement et la mise en uvre numerique de modeles mathematiques d'hydrodynamique a surface libre et de transport de mes. Une revue des modeles mathematiques concernes a une, deux et trois dimensions spatiales est consignee, suivie de leur mise en uvre numerique, a partir des codes mefame, aux elements finis (modeles 1d et 2dh) et phoenics, aux volumes finis (modeles 2dv et 3d). L'application des modeles 2dh et 1d sur le site de l'embouchure du fleuve gambie fournit les champs de vitesses et de concentration, qui sont analyses en regard des champs de concentrations superficielles en mes issues des traitements, effectues au cesr, d'images spot. Une attention particuliere est portee au developpement de deux modules numeriques originaux dans le code 3d, concernant, pour l'un, la prise en compte de la surface libre et le calcul semi-implicite de son evolution temporelle dans un maillage fixe, pour l'autre, le transfert 3d de mes. Les cas tests 3d presentes et analyses concernent l'ecoulement autour d'un epi et le transfert de mes en canal
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Taron, Maxime. "Ecalage et modélisation de formes avec incertitudes : contributions et applications à la segmentation avec a priori statistique". Marne-la-vallée, ENPC, 2007. http://www.theses.fr/2007ENPC0734.

Texto completo da fonte
Resumo:
Nous avons pu observer récemment d’importants progrès dans les techniques d’imageries médicales qui ont été accompagnés par le développement d’outils informatiques de prévisualisation et d’aide automatique au diagnostic. La réalisation de tels outils nécessite généralement la création d’un modèle mathématique capable de représenter les organes et dont la construction est divisée en trois étapes : (i)choisir et extraire les structures à étudier, (ii)choisir un modèle mathématique adapté à la représentation de ces structures particulières, (iii) estimer les variations des paramètres du modèle ainsi choisi. Cette thèse aborde donc chacune de ces taches de fac¸on originale. La modélisation des organes est décrite au travers de déformations et nécessite une étape préalable de recalage de forme. Ceci implique la définition d’une forme de référence ainsi que d’un ensemble de déformations. Cette thèse introduit l’utilisation d’incertitudes sur le recalage de formes : définies a l’aide d’une matrice de covariance dans l’espace des déformations, elles indiquent localement la fiabilité du recalage obtenu. Ensuite vient la modélisation des variations de formes, obtenue à partir d’un ensemble d’apprentissage représentant différentes instances de l’organe étudié. Cette thèse apporte à la phase de modélisation des déformations, les informations sur les erreurs de recalage au travers de la propagation des incertitudes. La contribution finale de la thèse touche à la segmentation de ces structures par un modèle déformable, guidé par le modèle de forme sur lequel les incertitudes dues au modèle sont évaluées. La segmentation cardiaque du ventricule gauche en imagerie scanner, ainsi que le corps calleux en imagerie à résonance magnétique ont été considérés pour démontrer les performances de cette approche.
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Elkouhen, Mehdi. "Modélisation géométrique 4-D appliquée à l'animation". Université Louis Pasteur (Strasbourg) (1971-2008), 2002. http://www.theses.fr/2002STR13206.

Texto completo da fonte
Resumo:
Le contrôle de la forme et du genre de surfaces animées reste un problème difficile. En effet, représenter les objets par des surfaces implicites permet de créer des modifications topologiques sur les objets animés mais ne permet pas un contrôle précis de leur topologie. Par exemple, des trous ou des composantes déconnectées peuvent apparaître sur les objets animés. A l'inverse, représenter les objets des surfaces subdivisées en sommets, arêtes, faces rend très difficile la définition des modifications topologiques. Au LSIIT, nous représentons les animations par des objets 4-D; un film est extrait d'un objet 4-D par l'affichage de ses coupes par un ensemble d'hyperplans. C'est ce que nous appelons la modélisation géométrique 4-D ou l'animation 4-D. Ce modèle permet de créer des animations d'objets avec modifications topologiques mais soulève un nouveau problème. En effet pour une animation donnée, comment imaginer un objet 4-D qui le représente et comment construire cet objet? Dans cette thèse, nous nous sommes intéressés en particulier à la fusion de deux objets homéomorphes. Les développements ont été réalisés dans le modeleur STIGMA (Space-Time Interpolation for the Geometric Modelling of Animations). Dans la première partie, nous définissons un outil de déformation axial et un outil surfacique. Nous montrons ensuite qu'en courbant les objets construits par extrusion, il est facile de construire des fusions de deux objets identiques. Nous montrons aussi comment contrôler le chemin de la fusion ainsi que le nombre de zones de fusions entre les deux objets. Dans la seconde partie, nous définissons la primitive de construction d'objets 4-D appelée Métamorphose 4-D qui prend en paramètre deux objets homéomorphes et construit une animation qui transforme le premier objet en le deuxième. Ensuite, nous appliquons nos outils de déformation aux objets construits grâce à cet opérateur pour définir la fusion de deux objets de genres arbitraires mais homéomorphes
The control on the shape and topology of animated objects is a complex problem. When representing objects by implicit surfaces, it is possible to create animations with topological changes. But handles or disconnected components can appear on the animated objects. When representing objects by cellular surfaces, creating this kind of effects is hard and requires strong designer interaction. We represent animations by 4-D objects; a movie is extracted from a 4-D object by displaying its slices by a set of hyper-planes. This way of representing animations permits to construct animations with topological changes but creates a new problem. For a given animation, how can the designer imagine a 4-D object that defines it and construct it? In this thesis, we studied the merging of two homeomorphic objects. We developed a set of tools that we integrated to the space-time modeller of animations STIGMA (Space-Time Interpolation for the Geometric Modelling of Animations). In the first part, we describe a new 4-D tool defined by a Bezier curve and a tool defined by a Bezier rectangular surface. By bending objects constructed using the 4-D extrusion operator, we construct the merging of two identical objects. We also explain how to control the path of the merging and the number of areas where the two objects merge
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Giovangigli, Laure. "Modélisation mathématique pour l'imagerie membranaire". Paris 7, 2014. http://www.theses.fr/2014PA077245.

Texto completo da fonte
Resumo:
Cette thèse introduit un cadre mathématique pour l'imagerie membranaire. Les propriétés électriques effectives d'un tissu biologique et leur dépendance par rapport à la fréquence reflètent les composition et physiologie du tissu. Nous avons cherché à mettre en évidence les mécanismes fondamentaux entrant en jeu dans ce phénomène. Les objectifs sont doubles : (i) comprendre comment la dépendance de l'admittivité effective mesure la complexité de l'organisation cellulaire d'un tissu ; (ii) développer des techniques pour imager ces propriétés électriques des tissus et ainsi améliorer la différentiation des pathologies. Les modèles mathématiques et numériques développés dans cette thèse peuvent être utilisés pour étudier la gravité d'une maladie et l'efficacité de traitements. Nous démontrons dans une première partie que la spectroscopie d'impédance fournit des informations sur la structure microscopique du milieu et sur les états physiologique et pathologique du tissu. Une approche par homogénéisation nous permet d'expliciter l'admittivité effective d'une suspension de cellules. Nous proposons ensuite une méthode de contrôle optimal pour imager la distribution de l'admittivité au sein d'un tissu biologique et prouvons sa stabilité et sa convergence locale. Nous considérons une reconstruction à partir de données multi-fréquentielles de micro tomographie par impédance. Dans une dernière partie, nous développons une modélisation mathématique de l'imagerie par tomographie optique de fluorescence, de la distribution spatiale des changements de potentiel électrique de la membrane cellulaire. Nous quantifions la résolution de la méthode proposée en présence de bruit de mesures
This thesis introduces a mathematical framework for cell membrane imaging. It aims at exhibiting the fundamental mechanisms underlying the fact that effective biological tissue electrical properties and their frequency dependence reflect the tissue composition and physiology. The objectives are twofold : (i) to understand how the dependence of the effective electrical admittivity measures the complexity of the cellular organization of the tissue ; (ii) to develop electrical tissue property imaging approaches in order to improve differentiation of tissue pathologies. Mathematical and numerical models obtained in this thesis could be utilized in studying the disease status and in monitoring effectiveness of treatment in individuel patients. They may also find diagnostic applications in long term goal. We prove in a first part that admittance spectroscopy provides information about the microscopic structure of the medium and physiological and pathological conditions of the tissue. A homogenization theory is established to quantify the effective admittivity of a cell. We then propose an optimal control approach for imaging the admittivity distributions of biological tissues and prove its local convergence and stability. We consider the imaging of admittivity distributions from multi-frequency micro-electrical impedance tomography data. A third part provides a mathematical model for spatial distribution of membrane electrical potentiel changes by fluorescence diffuse optical tomography. The resolving power of the imaging method in presence of measurement noise is derived
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Dolveck-Guilpart, Bénédicte. "Deux problèmes de représentation et d'identification d'un milieu à partir de sondages". Montpellier 2, 1989. http://www.theses.fr/1989MON20222.

Texto completo da fonte
Resumo:
Deux problemes de representation et d'identification d'un milieu a partir de sondages sont abordes. L'un concerne la reconstruction du potentiel dans le probleme de schrodinger a une dimension, lorsque les coefficients de reflexion sont des fractisons rationnelles exactes. Un algorithme efficace est propose. Nous traitons aussi de la modelisation des milieux discontinus a une dimension et particulierement des homogeneisations couramment pratiquees pour modeliser ces milieux. L'autre probleme porte sur la reconstruction pratique d'images tomographiques a partir d'un jeu de donnees incomplet. Deux techniques sont presentees et testees en milieux reels
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Al, Assad Omar. "Etude d’une méthodologie de modélisation et de commande d’un robot multiaxe pour une application en radiologie médicale". Paris 11, 2009. http://www.theses.fr/2009PA112065.

Texto completo da fonte
Resumo:
Cette thèse s’inscrit dans le cadre de la modélisation et la commande des robots poly-articulés utilisés dans les applications d’imagerie médicale. Ces travaux ont porté sur deux aspects complémentaires, d’une part, la méthodologie de modélisation des robots positionneurs dans les applications d’imagerie médicale. D’autre part, les méthodologies de contrôle de mouvements et de réduction des vibrations. Les concepts développés dans ce travail sont présentés selon une approche « Bottom-up » visant à étudier le cas mono-axe afin de mieux définir la problématique identifiée et de comprendre l’impact des solutions. Ensuite, l’étude portera sur l’extension des concepts retenus dans le cadre de la commande multiaxe du robot. Dans la phase de modélisation, une démarche formalisée en vue d’obtenir les modèles des robots (de connaissances, d’analyse et de commande) est exposée. Aussi, ce travail vise à démontrer, via une étude comparative, le potentiel d’application de plusieurs approches de modélisation et de commande dans ce cadre précis. En complément au travail de modélisation, un outil d’aide à la modélisation a été mise en place. Les modèles établis ont permis d’étudier différentes stratégies de commande, l’étude a porté sur l’élaboration de trois actions de commande, à savoir, la génération de trajectoire du système, le calcul du correcteur qui permet de garantir la poursuite de la trajectoire. Enfin, une part importante de ce travail a été consacrée à la validation expérimentale des modèles établis et aux essais des lois de commandes retenues sur les robots d’imagerie médicales
This PhD thesis deals with the problem of the modeling and the control of poly-articulated robots used for medical imaging systems. The methodologies of modeling and the control issues are considered particularly in the case of the vibration reduction. This work proposes a bottom-up approach, where a monoaxis robot case a studied in order to address the theoretical issues and understand the solutions’ impact. Then, the concept is extended to cover the multiaxis robot case. The proposed modeling approach consists of modeling the robot gantry as well as the drive chains. Besides, modeling the drive chain irreversibilities and the structural and the structural flexibilities was considered so as to create a complete simulation environment of the medical robot. The developed robot models formed the base for the control laws development and validation. The study focused on the trajectories generation, the anticipation action, and the controller design. A considerable part of this work dedicated to the experimental validation of the elaborated models as well as the control laws validation
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Pageot, Damien. "Imagerie de la lithosphère par inversion de formes d'ondes de données télésismiques". Nice, 2012. http://www.theses.fr/2012NICE4109.

Texto completo da fonte
Resumo:
Cette thèse s’inscrit dans un mouvement récent lié à la conception de réseaux sismologiques de plus en plus denses et permettant de faire évoluer l’imagerie lithosphérique vers des méthodes de tomographie haute résolution développées initialement dans le cadre de l’exploration sismique pétrolière. Bostock et al. (2001) font partis des pionniers de ce mouvement en ayant adapté la méthode de migration rai+Born aux configurations télésismique et en l’ayant appliquée aux données réelles télésismiques du projet CASC93. Durant ce travail de thèse, j’ai adapté l’inversion de formes d’ondes complètes, conçu pour l’exploration sismique, aux configurations télésismiques. Cette adaptation m’a amené à intégrer les sources planes, l’approche en champ diffracté et l’obliquité de ces ondes à l’algorithme original. Dans une première partie, je présente de manière générale les méthodes de modélisation de la propagation des ondes sismiques qui constituent le moteur de l’algorithme d’inversion des formes d’ondes complètes, son adaptation de la modélisation aux configurations télésismiques et enfin du problème inverse. La deuxième partie, je présente une analyse paramétrique de l’inversion des formes d’ondes complètes adaptée aux configurations télésismiques afin d’évaluer le potentiel de la méthode et de pointer les différences avec les paramétrisations recommandées dans le cadre de l’exploration sismique. La troisième partie concerne l’application de la méthode aux données réelles télésismiques enregistrées par le réseau sismologique MASE déployé dans le cadre d’un projet d’imagerie de la subduction de la plaque Cocos sous le Mexique
This thesis follows a recent movement link to the design of more and more denser seismological networks et allow to evolve lithospheric imaging toward high resolution tomography methods initially design in the Framework of seismic exploration. Bostock et al. (2001) are pioneers in this movement with their adaption of ray + Born migration method to teleseismic configurations and by applying this method to real teleseismic data form CASC93. During this thesis, I adapted a Full Waveform Inversion algorithm, design for seismic exploration, to teleseismic configurations. This adaptation leads me to integrate plane wave sources, a scattered wave field approach and obliquity of plane waves in the original algorithm. In the first part, I present the method to model propagation of seismic waves which is the core engine of the algorithm of Full Waveform Inversion, its adaptation to teleseismic configurations and finally the inverse problem. In the second part, I present a parametric analysis of Full Waveform inversion method adapted to teleseismic configurations to assess the potential of the method and spot the differences with the parameterizations recommended in seismic exploration. The third part concerns the application of the methods to real teleseismic data recorded by the seismological network MASE deployed for imaging the subduction of the Cocos plate below Mexico
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Fillard, Pierre. "Riemannian processing of tensors for diffusion MRI and computational anatomy of the brain". Nice, 2008. http://www.theses.fr/2008NICE4002.

Texto completo da fonte
Resumo:
Symmetric, positive-definite matrices, or tensors, are nowadays a common geometrical tool for image processing and analysis. The recent emergence of diffusion tensor MRI (DTI) and computational anatomy (CA) brought importance of tensors out to the medical community. However, working with those is difficult: the positive-definite constraint must be satisfied at any cost, which cannot be ensured in general with standard matrix operations. In this work, we propose two alternatives to the standard Euclidean calculus on tensors. Instead of seeing the tensor space as a vector space, we consider it as a manifold, i. E. , a smooth curved space. Thanks to the Riemannian geometry, we are able to ``unfold'' this space, and to generalize any operation on tensors with astonishing simple implementations. In a second step, we review the applications of such frameworks in the context of clinical DTI and brain CA. In DTI, we show that very noisy data, typical of clinical acquisitions, can be optimally exploited and eventually produce a meaningful and clinically relevant fiber reconstruction. In brain CA, we show that, by considering simple brain anatomical landmarks - the sulcal lines - we are able to precisely measure the inter-individual variability of the cortex. Finally, we develop a new framework to study the anatomical correlations between brain regions, and present results of so far unknown relationships between symmetric sulcal positions, and between a-priori unrelated sulci, which raises new fundamental questions about the origin of such statistical dependencies
Les matrices symétriques et définies positives, ou tenseurs, sont aujourd'hui fréquemment utilisées en traitement et analyse des images. Leur importance a été mise à jour avec l'apparition récente de l'IRM du tenseur de diffusion (ITD) et de l'anatomie algorithmique (AA). Cependant, il est difficile de travailler avec : la contrainte de positivité doit être satisfaite à tout prix, ce qui n'est pas garanti avec les opérations matricielles standard. Dans ce travail, nous proposons deux alternatives au calcul euclidien sur les tenseurs. Au lieu de voir l'espace des tenseurs comme un espace vectoriel, nous le considérons comme une variété, i. E. , un espace courbe et lisse. Grâce à la géométrie riemannienne, il est alors possible de " déplier " cet espace et de généraliser aux tenseurs toute opération avec des implémentations étonnamment simples. Dans un deuxième temps, nous passons en revue les applications de tels cadres de calcul en ITD clinique et en AA du cerveau. En ITD, nous montrons qu'il est possible de traiter de manière optimale des données très bruitées typiques d'acquisitions cliniques, et de produire des reconstructions de fibres plausibles. En AA du cerveau, nous montrons qu'en considérant des repères anatomiques simples - les lignes sulcales - il est possible de mesurer précisément la variabilité interindividuelle du cortex. Finalement, nous développons un cadre nouveau pour étudier les corrélations anatomiques entre régions du cerveau, et présentons des résultats jusqu'à maintenant inconnus de dépendances entre sillons symétriques, et entre sillons à priori non reliés, soulevant ainsi de nouvelles questions sur l'origine de telles dépendances statistiques
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Marchesseau, Stéphanie. "Simulation de modèles personnalisés du coeur pour la prédiction de thérapies cardiaques". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00820082.

Texto completo da fonte
Resumo:
La compréhension clinique et le traitement des maladies cardiovasculaires est extrêmement complexe. Pour chaque patient, les cardiologues sont confrontés à des difficultés pour déterminer la pathologie, choisir une thérapie ou encore sélectionner les patients susceptibles de bien répondre à un traitement donné. Afin de fournir une aide additionnelle aux cardiologues, de nombreuses équipes de recherche étudient la possibilité de planifier de telles thérapies grâce à des modèles biophysiques du cœur. Ils formulent l'hypothèse que l'on peut combiner les données fonctionnelles et anatomiques afin de créer des modèles cardiaques personnalisés à chaque patient qui auraient le potentiel de prédire les bénéfices des différentes thérapies. Les simulations électromécaniques du cœur sont basées sur des modèles informatiques qui peuvent représenter la géométrie, le mouvement et la propagation d'ondes électriques pendant un cycle cardiaque avec suffisamment de précision. L'intégration d'information anatomique, mécanique et électrophysiologique pour un patient donné est essentielle pour construire ce type de modèle.Dans cette thèse, nous présentons tout d'abord les méthodes de personnalisations géométriques, cinématiques et électrophysiologiques nécessaires à toutes modélisations mécaniques. Nous utilisons ensuite le modèle électromécanique de Bestel-Clément-Sorine qui a déjà prouvé avoir un bon réalisme sans être trop complexe au vu des données disponibles. Nous commençons par détailler la nouvelle implémentation de ce modèle dans une plateforme efficace de simulation médicale ayant l'avantage d'être libre et interactive, puis nous analysons les résultats de la simulation par une étude de sensibilité complète.Dans un deuxième temps, nous étudions la possibilité de personnaliser les paramètres mécaniques de ce modèle à partir d'images médicales (IRM). Pour cela, nous proposons en premier lieu une méthode automatique de calibration qui estime les paramètres mécaniques globaux à partir de courbes de pressions et volumes. Cette technique testée sur 6 volontaires et 2 cas pathologiques nous a permis de faire une étude de spécificité qui consiste à déterminer les paramètres pertinents capables de différencier les cas pathologiques des cas sains.Une fois initialisés à ces valeurs calibrées, les paramètres sont personnalisés localement avec un algorithme d'optimisation plus complexe. Le " Reduced Order Unscented Kalman Filtering " est utilisé pour estimer les contractilités de toutes les zones AHA du ventricule gauche à partir des volumes régionaux extraits des séquences d'images IRM. Cette stratégie de personnalisation a été validée et testée sur plusieurs cas pathologiques et volontaires. Ces différentes contributions ont montré des résultats prometteurs tout au long de cette thèse et certains sont déjà utilisés pour quelques études de recherche.
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Tessier-Doyen, Nicolas. "Etude expérimentale et numérique du comportement thermomécanique de matériaux réfractaires modèles". Limoges, 2003. https://aurore.unilim.fr/theses/nxfile/default/6053bd07-6cc3-4e47-b2cd-93801a27e7b2/blobholder:0/2003LIMO0030.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Stroian, Gabriela Andreea. "Reconstruction d'images en tomographie par impédance électrique en utilisant une équation de type Lippmann-Schwinger". Montpellier 2, 2001. http://www.theses.fr/2001MON20050.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Fougerolle, Yohan. "Modélisation et reconstruction de surfaces par supershapes et R-fonctions". Dijon, 2005. http://www.theses.fr/2005DIJOS041.

Texto completo da fonte
Resumo:
Cette thèse est consacrée à la modélisation et à la reconstruction de surfaces par supershapes 3D et R-fonctions. Nous proposons deux fonctions implicites pour les supershapes. Nous étendons la littérature en modélisation géométrique en proposant une représentation de type géométrie solide constructive ou nous combinons des supershapes et des déformations globales en utilisant les R-fonctions. Nous appliquons ensuite notre méthode à la reconstruction de surfaces à partir de nuages de points 3D issus de la numérisation d'objets réels. Nous combinons les différentes supershapes reconstruites individuellement pour reconstituer l'objet final et obtenons une représentation implicite utilisée pour définir une mesure de l'erreur de reconstruction
This dissertation deals with surface modeling and surface reconstruction using supershapes and R-functions. We introduce two implicit functions for the supershapes. We propose an extension of the geometric modeling literature with a constructive solid geometry based approach that combines supershapes and global deformations through r-functions. Supershapes and r-functions are applied to reconstruct surfaces of 3D real objects. Using the previously introduced modeling technique, we combine individually reconstructed supershapes to represent the surface of the complete object. We obtain an implicit equation that is used to define the reconstruction error
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Dokladal, Petr. "Grey-scale image segmentation : a topological approach". Marne-la-Vallée, 2000. http://www.theses.fr/2000MARN0065.

Texto completo da fonte
Resumo:
Le domaine aborde par cette these concerne la segmentation des images en niveaux de gris. Deux approches principales et independantes ont ete exploitees : l'application des graphes a l'operateur h-minima pour une segmentation des images multi-classes et la segmentation basee sur la topologie appliquee a l'angiographie du foie par tomographie. Une presentation des modeles mathematiques existants, utilises pour modeliser la topologie est faite dans un premier temps. Les modeles presentes sont discutes du point de vue de leurs applications a la segmentation d'images. La methode des h-minima est une methode de morphologie mathematique. Etant concue pour segmenter des images bi-classes, les images multi-classes peuvent etre segmentees par application des h-minima a l'image de gradient. L'extraction du gradient entraine toutefois une perte inevitable d'information dans l'image. Une modification des h-minima fondee sur des graphes ponderes d'adjacence de regions est etudiee. L'extraction du gradient devenant superflue, cette approche permet l'application des h-minima aux images multi-classes. La segmentation d'angiographie 3-d de foie, proposee dans la derniere partie de ce manuscrit, est fondee sur la topologie du systeme vasculaire du foie. La veine porte ayant une structure sans cycles, il est possible de concevoir des techniques de segmentation orientees topologie garantissant un resultat topologiquement correct. Deux methodes duales de segmentation et une methode de squelettisation ont ete proposees. Une methode de filtrage de squelette, fondee sur la meme approche, a ete etudiee afin d'ameliorer le resultat
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Moreno, Roa Ramiro. "Simulations numériques vasculaires, spécifiques et réalistes". Toulouse 3, 2007. http://thesesups.ups-tlse.fr/55/.

Texto completo da fonte
Resumo:
Ce travail fait suite aux interrogations soulevées par la médecine interventionnelle concernant la prise en charge des pathologies de la paroi artérielle (anévrisme, dissection, coarctation, athérosclérose). En effet, les cliniciens cherchent actuellement un outil suffisamment robuste et intuitif pour prévoir les conséquences du geste médical. Une approche numérique, notamment de type Mécanique des Fluides Numériques (MFN), peut répondre aux questions posées avec une imagerie fonctionnelle de type biomécanique, à condition d'être intégrée à la fois en pratique clinique et en développement technologique. L'originalité de ce travail est centrée sur la façon comment est imposée la position de la paroi dans le domaine discret. Les simulations hémodynamiques réalisées à ce jour ont beaucoup de mal à décrire une loi de comportement pour la paroi artérielle. Nous proposons d'opter plutôt pour un modèle non-couplé, fluide /structure, imposant au code de calcul, à chaque instant, la position de la paroi basée sur l'imagerie médicale dynamique. Un nouveau protocole d'IRM est à la base des conditions imposées aux calculs numériques. La preuve du concept est donnée à travers quelques applications in-vitro et in-vivo. Une étude clinique permet de donner la preuve de faisabilité pour les cas de patients ayant un contrôle de Stent-Graft aortique. Ce projet de recherche compte propulser la médecine moderne vers une meilleure connaissance de la pathologie vasculaire et des moyens techniques pour sa prise en charge
This work is a response to the queries raised by interventional medicine concerning the taking in charge of the wall's pathologies (aneurysm, dissection, coarctation, atherosclerosis). Indeed, clinicians are currently looking forward for a sufficiently robust and intuitive tool to forecast the consequences of therapeutic interventions. A numerical approach, in particular, Computational Fluid Dynamics (CFD), can answer to the interrogations put forward by biomechanical functional imaging, provided it is integrated to both clinical routine and to technological development. The originality of this work is focused on the way how the position of the wall is set in the discrete field. The hemodynamic simulations carried out up to now can hardly describe the behaviour for the arterial wall. We propose to choose a non-coupled, fluid / structure model, which will impose at each time step of the CFD code, the position of the wall based on the dynamic medical imaging. A new MRI protocol is at the heart of the conditions imposed to the numerical calculations. The validation of this concept is averred through some in-vitro and in-vivo applications. A clinical study enabled to realise the feasibility in the case of patients having an Aortic Stent-Graft control. This research project intends to drive modern medicine towards a better knowledge of vascular pathologies and innovative technical means to handle them
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Dubé, Julie. "Analyse de la reconstruction 3D par stéréo multivue dans l'optique des défis de l'appariement". Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26248/26248.pdf.

Texto completo da fonte
Resumo:
Le sujet de la reconstruction 3D par stéréo multivue a été tant étudié, tellement de méthodes ont été développées qu'il n'est pas toujours facile de s'y retrouver. Qu'est-ce qui fait qu'un algorithme est plus efficace qu'un autre? Pour répondre à cette question, il faut être en mesure de reconnaître les caractéristiques fondamentalement intéressantes d'un algorithme. Dans le but d'acquérir ce savoir, nous allons décortiquer les différentes étapes de la reconstruction d'un objet, en partant par la base de la stéréo: l'appariement. Trouver des positions dans différentes images qui correspondent au même point de la surface comprend plusieurs défis: la visibilité (quel point est vu dans quelle image?), l'ambiguïté (quel ensemble de pixels correspond à un point de la surface?), la variation d'apparence angulaire (la couleur d'un point de la surface peut changer selon le point de vue) et la discrétisation de l'apparence (une image est un échantillonnage de l'apparence d'une partie de la surface). Apparier implique de pouvoir évaluer que la variation de couleur angulaire d'un point est cohérente avec le modèle de réflectance de l'objet. Pour évaluer la photo-cohérence, un critère de comparaison, des contraintes sur la surface et une façon d'emmagasiner les données sont nécessaires. Compte tenu des problèmes d'appariement, la photo-cohérence n'est pas suffisante pour trouver la surface. Pour trouver les meilleurs appariements, les algorithmes de reconstruction intègrent donc les façons d'évaluer la photo-cohérence aux autres hypothèses sur la surface (ex: lisse, cohérente aux silhouettes).
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Acosta-Tamayo, Oscar Dario. "De la navigation exploratoire virtuelle à la planification d'interventions endovasculaires". Rennes 1, 2004. https://tel.archives-ouvertes.fr/tel-00007555v2.

Texto completo da fonte
Resumo:
Dans le cadre général des interventions assistées par ordinateur, nos travaux, abordés essentiellement en terme d'imagerie virtuelle, se sont focalisés sur la phase préopératoire (analyse, modélisation, simulation) dans un objectif de planification réaliste de traitements mini-invasifs de lésions vasculaires (angioplastie transluminale, pose d'endoprothèse aortique, brachythérapie endovasculaire). De nouvelles fonctionnalités d'analyse locale et de description géométrique associées à un capteur virtuel sont proposées. A l'issue de cette exploration virtuelle analytique des données patient (imagerie TDM), la description géométrique de structures complexes ainsi que la détermination de paramètres caractérisant les structures vasculaires sont envisagées au regard du planning interventionnel et évaluées sur modèle animal et sur données patient. Une première approche de simulation spécifique patient d'interactions outils / tissus en angioplastie transluminale est finalement proposée.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Chemla, Sandrine. "A biophysical cortical column model for optical signal analysis". Nice, 2010. http://www.theses.fr/2010NICE4004.

Texto completo da fonte
Resumo:
L'imagerie optique extrinsèque basée sur l'utilisation de colorants sensibles aux potentiels (VSD) est actuellement la seule technique de neuroimagerie offrant la possibilité d'observer l'activité d'une large population de neurones avec une forte résolution spatiale et temporelle. Dans cette thèse, notre but est d'étudier les origines biologiques du signal d'imagerie optique (signal VSD), étant donné que cette question reste sans réponse claire dans littérature. Identifier l'origine du signal VSD est difficile au niveau physiologique car les molécules de colorant reflètent la dynamique du potentiel de membrane de toutes les membranes du tissu cortical, incluant toutes les couches corticales, tous les types de cellules (excitatrices, inhibitrices, gliales) et tous les compartiments neuronaux (somas, axons, dendrites). Pour répondre à cette question, nous proposons dans cette thèse d'utiliser un modèle biophysique de colonne corticale, à une échelle mésoscopique, prenant en compte les paramètres neuronaux biologiques connus de la structure corticale. Le modèle est basé sur un microcircuit cortical à six populations de neurones interconnectés: une population excitatrice et une population inhibitrice dans chacune des trois principales couches du cortex. Chaque neurone est représenté par une structure morphologique réduite à compartiments avec une dynamique de type Hodgkin-Huxley. Le modèle est alimenté par une activité spontanée, des connexions latérales et une entrée thalamique d'intensité croissante. Les neurones isolés et le comportement en réseau ont été ajustés pour correspondre à des données publiées dans la littérature. Le modèle ainsi ajusté offre ainsi la possibilité de calculer le signal VSD avec une formule linéaire. Nous avons validé le modèle en comparant le signal VSD simulé et le signal VSD mesuré expérimentalement. Grâce à la construction compartimentale de ce modèle, nous confirmons et quantifions le fait que le signal VSD est le résultat d'une moyenne de plusieurs composantes, avec comme contribution majeure, l'activité dendritique des neurones excitateurs des couches superficielles du cortex. Le modèle suggère également que les neurones inhibiteurs, l'activité supraliminaire et les couches profondes participent également au signal, et ce de manière dépendante du temps et de la force de la réponse. Nous arrivons à la conclusion que le signal VSD possède une origine multicomposante dynamique et proposons un nouveau formalisme pour l'interpréter
Voltage-sensitive dye imaging (VSDI) is a powerful modern neuroimaging technique whose application is expanding worldwide because it offers the possibility to monitor the neuronal activation of a large population with high spatial and temporal resolution. In this thesis, we investigate the biological sources of the voltage-sensitive dye signal (VSD signal), since this question remains unresolved in the literature. What does the voltage-sensitive dye imaging signal measures? This question is difficult to resolve at the physiological level as the signal is multi-component: The dye reflects the dynamics of the membrane potential of all membranes in the neuronal tissue, including all layers of the circuitry, all cell types (excitatory, inhibitory, glial) and all neuronal compartments (somas, axons, dendrites). To answer this question, we propose to use a biophysical cortical column model, at a mesoscopic scale, taking into account biological and electrical neural parameters of the laminar cortical structure. The model is based on a cortical microcircuit, whose synaptic connections are made between six specific populations of neurons, excitatory and inhibitory neurons in three main layers. Each neuron is represented by a reduced compartmental description with conductance-based Hodgkin-Huxley neuron model. The model is fed by a thalamic input with increasing activity, background activity and lateral connections. Isolated neurons and network behavior have been adjusted to fit data published in the literature. The so-calibrated model offers the possibility to compute the VSD signal with a linear formula. We validated the model by comparing the simulated and the measured VSD signal. Thanks to the compartmental construction of this model, we confirm and quantify the fact that the VSD signal is the result of an average from multiple components, with excitatory dendritic activity of superficial layers as the main contribution. It also suggests that inhibitory cells, spiking activity and deep layers are contributing differentially to the signal dependently on time and response strength. We conclude that the VSD signal has a dynamic multi-component origin and propose a new framework for interpreting VSD data
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Choquet, Catherine. "Analyse de modèles d'écoulements en milieu poreux hétérogène". Clermont-Ferrand 2, 2002. http://www.theses.fr/2002CLF21392.

Texto completo da fonte
Resumo:
Ce travail est consacré à l'étude de quelques modèles d'écoulements de fluides miscibles et faiblement compressibles. Les problèmes considérés interviennent dans la modélisation de la contamination des nappes phréatiques par des espèces radioactives, ou de l'exploitation de réservoirs pétroliers. La modélisation des phénomènes conduit à l'étude de systèmes d'équations aux dérivées partielles de type parabolique. Plusieurs équations de type diffusion-convection, modélisant le transport de chaque espèce en solution, sont couplées à l'équation gouvernant le champ des vitesses de Darcy. A cela peut s'ajouter une équation régissant la diffusion de la chaleur. Ce mémoire comprend 3 parties distinctes : -Ecoulements de contaminants radioactifs en milieu poreux : nous donnons le système des équations aux dérivées partielles qui traduisent les lois de conservation de masse et d'énergie. Nous prenons en compte les mécanismes physico-chimiques les plus importants. Nous étudions ensuite l'existence de solutions dans différents cadres physiques ; -Homogénéisation d'écoulements tridimentionnels : l'objet de cette partie est la modélisation dans un milieu naturellement fracturé, ainsi que dans un milieu aux caractéristiques physiques fortement oscillantes ; -Modèles d'écoulements unidimensionnel : cette restriction de la dimension nous permet de traiter des termes non linéaires de couplage supplémentaires. Cette partie est constituée d'une étude d'homogénéisation, et de l'analyse mathématique d'un modèle dans lequel on néglige le terme de dispersion
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Martel, Catherine. "Analyse géométrique et physique d'images d'observation de la terre : éléments d'hydrodynamique côtière". Toulouse 3, 1990. http://www.theses.fr/1990TOU30107.

Texto completo da fonte
Resumo:
En vingt ans, l'observation des oceans depuis l'espace a amene de grands progres dans la connaissance du milieu marin. L'etude des transports de materiaux dans l'estuaire de la gambie a partir d'images satellites spot presentee ici comporte deux etapes: la quantification des matieres en suspension, et la caracterisation de leurs mouvements. Ce deuxieme point peut s'envisager sous la forme d'une alliance reconnaissance de forme modelisation hydrodynamique. L'extraction de parametres de forme doit etre precedee d'un filtrage et d'une segmentation de l'image. L'iteration d'operateurs de lissage, alliee a une mesure du degre d'avancement du filtrage du bruit, a donne de bons resultats sur ces images a faible gradient. Ensuite, une comparaison d'operateurs de detection de contour a ete effectuee, en fixant objectivement le seuil definissant un point frontiere. La quantification des matieres en suspension requiert une approche multidisciplinaire: physique de l'atmosphere, optique, geochimie,. . . La simulation, par un logiciel specialise, de l'absorption et de la diffusion du rayonnement par les composants de l'atmosphere permet d'estimer les effets atmospheriques. En prenant en compte les effets de reflexion du rayonnement solaire sur les facettes des vagues, on peut alors calculer la reflectance marine intrinseque, qui est liee lineairement a la concentration de matieres minerales en suspension. Cette cartographie de la qualite des eaux est utilisee pour fixer les parametres d'une modelisation hydrodynamique de l'estuaire. Neanmoins, le manque d'informations fiables, concernant aussi bien les compositions de l'atmosphere et de l'eau que l'hydrodynamique, a d'importantes repercussions sur la precision des calculs de concentrations et sur la validite des situations simulees
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Garcia, Christophe. "Un modèle connexionniste pour la vision stéréoscopique". Lyon 1, 1994. http://www.theses.fr/1994LYO10229.

Texto completo da fonte
Resumo:
Dans ce memoire, nous nous interessons a l'acquisition de donnees tridimensionnelles a partir de capteurs image et plus particulierement a la mise au point d'une machine de vision stereoscopique. Nous presentons tout d'abord le principe de la stereovision artificielle en mettant l'accent sur les differentes primitives et contraintes geometriques utilisables ainsi que sur les familles de methodes existantes. Nous formulons ensuite le probleme d'appariement stereoscopique selon l'approche csp, une telle approche nous permettant de modeliser le probleme et d'en assurer la resolution par un algorithme independent des primitives choisies et des contraintes disponibles. Puis, nous montrons l'analogie d'une telle formulation avec le modele neuronal de hopfield. Pour simuler le comportement d'un tel reseau, plusieurs solutions algorithmiques sont etudiees, derivees de l'etude des systemes complexes en interaction et des reseaux de neurones artificiels, algorithmes permettant l'evaluation simultanee des hypotheses. Nous presentons notamment l'adaptation des algorithmes dit de recuit simule et de champs moyens au modele de hopfield. D'un point de vue applicatif, nous decrivons la resolution de deux problemes stereoscopiques specifiques quant aux primitives employees (points d'interets et points de contour chaines). Nous presentons en fin de memoire une implantation informatique parallele a base de transputers (matis 3d) que nous avons developpee dans le cadre d'un partenariat industriel
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Thibaud, Jean-Baptiste. "Propagation de la lumière en milieu aléatoire : fondements et limites de la description radiométrique : application à l'imagerie". Châtenay-Malabry, Ecole centrale de Paris, 2000. http://www.theses.fr/2000ECAP0668.

Texto completo da fonte
Resumo:
Ce mémoire porte sur la modélisation de la propagation du rayonnement électromagnétique dans des milieux al'eatoires, qui permettent notamment de modéliser les propriétés optiques de tissus biologiques, de peintures, d'émulsions, etc. La radiométrie donne une description incohérente de la propagation, fondée sur la notion de luminance et sur l'équation du transfert radiatif (ETR), qui est couramment associée a l'hypothèse de diffusion indépendante. Une comparaison des solutions numériques données au problème complet de la réflexion et de la transmission par un tel milieu, par une simulation électromagnétique rigoureuse fondée sur des équations intégrales de surface d'une part, et par une résolution de L'E. T. R. D'autre part, est effectuée. Cette comparaison démontre la validité de L'E. T. R. Pour un système d'épaisseur comparable à la longueur d'onde. Elle montre aussi que l'ETR comporte des limites liées a l'hypothèse de diffusion indépendante, ainsi qu'à d'autres phénomènes cohérents : un trou dans l'incohérent vers l'avant du a la diffusion simple, et un pic de rétrodiffusion cohérente dû à la diffusion multiple. La rétrodiffusion cohérente est intégrée originalement dans le modèle radiométrique par l'intermédiaire de la BRDF généralisée du système, à laquelle la propriété de réciprocité est conférée par l'intermédiaire de la matrice de diffusion. Cette approche généralise aux systèmes minces et sous incidence oblique un résultat précèdent établi dans l'approximation de la diffusion. Une méthode numérique fondée sur des équations intégrales de surface est enfin proposée pour résoudre, dans cette approximation, le problème direct de la détection d'un objet dans un milieu fortement diffusant. Cette méthode est exposée pour le problème analogue de l'imagerie photothermique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

BOŁDAK, Cezary. "Extraction et caractérisation 3D des réseaux vasculaires en imagerie scanner multibarette : application aux réseaux des membres inférieurs et des coronaires". Rennes 1, 2003. http://www.theses.fr/2004REN10092.

Texto completo da fonte
Resumo:
Une approche hybride pour la segmentation des réseaux vasculaires a été développée qui combine une méthode de suivi de la structure, exploitant une technique de moments géométriques 3D, pour l'estimation des paramètres du vaisseau (position de l'axe central, diamètre et orientation locale en tout point de l'axe central) avec une technique de modèle déformable ("level set") pour affiner la détection des calcifiactions pariétales et l'extraction du contour endoluminal en présence de pathologies. Ce travail a été réalisé dans le cadre d'un partenariat avec la société Siemens et les services de radiologie et cardiologie interventionnelles du CHU de Rennes. Il a fait l'objet de deux évaluations respectivement sur les réseaux des membres inférieurs et sur les coronaires à partir de bases de données acquises sur un système scanner multibarette (matériel Siemens, Somaton Plus 4 Volume Zoom).
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Aubert, Maëlle. "Caractérisation de l’état de surface des sols nus agricoles par imagerie radar TerraSAR-X". Electronic Thesis or Diss., Paris, AgroParisTech, 2012. http://www.theses.fr/2012AGPT0047.

Texto completo da fonte
Resumo:
Dans un contexte de développement durable, la gestion des sols et des ressources en eau est un enjeu primordial non seulement d’un point de vue environnemental mais aussi socio-économique. L’humidité, la rugosité, la composition et la structure du sol sont des variables clés pour la compréhension et la modélisation des catastrophes naturelles telles que l’érosion, la sécheresse ou les inondations. Pour des sols nus agricoles (très propices au ruissellement), de nombreuses études ont déjà montré le potentiel des données RADAR acquises en bande C pour la cartographie de l'humidité et la rugosité du sol. Cependant l’application de ces méthodes dans un cadre opérationnel était limitée.Dans ce contexte, les travaux de cette thèse présentent un premier volet sur l’analyse de la sensibilité aux états de surface (EDS) du sol du signal en bande X du capteur TerraSAR-X à très haute résolution spatiale et temporelle. Différentes configurations TerraSAR-X ont été analysées et les résultats ont permis de définir les configurations instrumentales optimales pour caractériser chaque paramètre d’EDS du sol. La comparaison de la sensibilité du capteur TerraSAR-X à celle des capteurs en bande C montre que le capteur TerraSAR-X est sans conteste le plus adapté pour estimer et cartographier l’humidité du sol à des échelles fines (50 m²).Le second volet était de développer une méthode permettant d’estimer et de cartographier l’humidité des sols nus agricoles. Dans ce but, les méthodes d'inversion généralement utilisées en bande C ont été testées sur les données en bande X. La précision sur les estimations d’humidité issues de l'algorithme d’inversion du signal TerraSAR-X a été déterminée et l’applicabilité de la méthode sur de nombreux sites d'étude a été testée avec succès. Une chaine de traitements cartographiques allant de la détection des sols nus à l’estimation de l’humidité et ne nécessitant qu’une seule image TerraSAR-X a été développée. Cette chaine innovante de traitements cartographiques « automatique et autonome » devrait permettre d’utiliser les données TerraSAR-X pour cartographier l’humidité du sol en mode opérationnel
In the context of sustainable development, soil and water resources management is a key issue from not only the environmental point of view, but also from a socioeconomic perspective. Soil moisture, roughness, composition, and slaking crusts are some key variables used to understand and model natural hazards, such as erosion, drought and floods. For agricultural bare soils (most subject to runoff), numerous studies have already shown the potential of C-band RADAR data for the mapping of soil moisture and roughness. However, the application of these methods in operational settings remained limited.In this context, the first objective of this thesis was to analyse the sensitivity of X-band TerraSAR-X sensors to soil surface characteristics (SSC) at high spatial and temporal resolutions. Different TerraSAR-X configurations were evaluated and results were used to define the optimal instrumental configuration for the characterization of each SSC parameter. The comparison of TerraSAR-X sensor sensitivity with equivalent levels recorded with the C-band sensor showed that the TerraSAR-X sensor is undoubtedly the most suitable of the two when estimating and mapping soil moisture at a fine scale (50 m²).The second objective of this work was to develop a method to estimate and map soil moisture levels of agricultural bare soil. To achieve this goal, methods that are commonly used to retrieve soil moisture from C-band, have been tested on X-band data. The accuracy of soil moisture estimations using an empirical algorithm was determined, and validated successfully over numerous study sites. A mapping process based uniquely on TerraSAR-X data, both for bare soil detection and for the estimation of soil moisture content, was developed. This innovative chain of « automatic and autonomous» mapping processing steps should enable the utilization of TerraSAR-X data for the mapping of soil moisture levels in operational conditions
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Boulenguez, Pierre. "Caractérisation multispectrale imageante du champ de lumière de sources et de matériaux pour la photosimulation". Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00587367.

Texto completo da fonte
Resumo:
Dans l'ouvrage [DBB06], Dutré et al. énumèrent dix problèmes d'Illumination Globale non résolus. Parmi ceux-ci, huit sont liés à la mesure et à l'intégration de données réelles dans les simulations. Cette thèse, en quatre parties et trois annexes, s'intéresse à cette problématique. Tout d'abord, les simulations de la propagation de la lumière dans les domaines du rendu physiquement réaliste, de l'éclairage, de la télédétection, de la conception de systèmes optiques... sont envisagées comme résolutions numériques d'un problème d'optique, fédérées par la notion de " photosimulation ". Dans le cadre de l'équation de rendu, les modèles réalistes de sources et le principe de la mesure goniophotométrique en champ lointain sont alors rappelés. La représentation des interactions lumière-matière est ensuite introduite par une exploration de l'apparence macroscopique, qui amène au rappel de la Fonction de Distribution de la Réflectance Bidirectionnelle et Spectrale (SBRDF), de ses principales propriétés et modèles. Le problème de la mesure pratique de la SBRDF d'une surface dans le visible est ensuite exploré. Id est, une taxonomie des méthodes de la littérature est établie ; qui allègue en faveur du développement de nouvelles approches. Un dispositif innovant, multispectral imageant, est alors présenté. Il se fonde sur la capture de la projection de la SBRDF sur un écran lambertien 3/4-sphérique, par une caméra multispectrale grand angle, assemblage d'un objectif fisheye, d'un filtre dynamique LCTF et d'une caméra CCD 12 bits. L'extraction des images capturées de l'information de la SBRDF repose sur un modéle radiométrique, qui explicite la transformation de la lumière en niveaux des pixels, dans le formalisme physique. Ce modèle soulève des problèmes de reconstruction multispectrale et d'interréflexions, pour lesquels de nouveaux algorithmes de résolution sont implantés. Les mesures de SBRDF produites semblent très prometteuses. Dans la troisième partie, le problème de la reconstruction d'une fonction directionnelle, identifié comme fondamental en photosimulation, est traité dans le cadre de la reconstruction de SBRDF discrètes. Pour cela, les propriétés mathématiques souhaitables des fonctions reconstruites sont envisagées. Puis, à l'aune de ce corpus, les approches de la littérature sont discutées ; justifiant la recherche d'algorithmes plus performants. Une nouvelle méthode est alors proposée, fondée sur une double triangulation sphérique des échantillons, et une généralisation à la surface d'un triangle sphérique de l'interpolant spline cubique de Hermite. La fonction reconstruite est interpolante, dérivable, quasi-déterministe, ne présente pas l'artéfact bidirectionnel, intègre la métrique sphérique non euclidienne, et prend en compte le difficile problème du masquage. Qualitativement comme quantitativement, les résultats obtenus semblent plaider en faveur du surcroît de complexité théorique qu'induit cette approche. Dans la dernière partie, cet algorithme de reconstruction est appliqué au problème de la " photométrie en champ proche ", ou, la caractérisation d'une source réelle par un solide photométrique étendu. La supériorité théorique du modèle étendu est d'abord démontrée. Puis, un état de l'art de la photométrie en champ proche est réalisé ; justifiant la mise en œuvre d'une nouvelle approche. Un nouveau dispositif est alors présenté. Il repose sur le déplacement d'un vidéoluminancemètre, couplage original d'une caméra CCD 12 bits avec un luxmètre, le long d'une trajectoire hémisphérique relative à la source. Les procédures de calibrage de l'instrument - géométrique, radiométrique, et photométrique - sont explicitées. Les sources de lumière caractérisées par cette approche ont été jugées suffisamment probantes pour être intégrées aux photosimulations spectrales du CSTB
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Gaudreault, Mathieu. "Modèles d’identification de tissu basés sur des images acquises avec un tomodensitomètre à double énergie pour des photons à faible énergie en curiethérapie". Master's thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25366.

Texto completo da fonte
Resumo:
Les images acquises avec un tomodensitomètre à double énergie (DECT) fournissent la détermination du numéro atomique effectif et de la densité électronique. L'objectif de ce mémoire est de développer un modèle d'identifiation de tissu applicable en curiethérapie, le modèle de tissu réduit à trois éléments, basé sur ces quantités et de le comparer avec une méthode existante dans la littérature, le calcul de la distance de Mahalanobis. Les deux modèles sont appliqués à des images DECT du fantôme de calibration Gammex RMI 467 et pour un sous-ensemble de tissus. Les distributions de dose sont calculées avec des simulations numériques Monte Carlo avec une source point ayant le spectre d'énergie de l'iode 125. Le modèle de tissu réduit à trois éléments reproduit les distributions de dose de référence et peut être utilisé comme étant une méthode d'identifiation de tissu valide pour effectuer un calcul de dose à partir d'images DECT.
Clinical Dual-Energy Computed Tomography (DECT) images provide the determination of the effective atomic number and the electronic density. The purpose of this study is to develop a new assessment model of tissues, named the reduced three elements tissue model, for dose calculations from DECT images in brachytherapy and compare it to a known identification method, assignment through the Mahalanobis distance. Both models are applied to DECT scans of the Gammex RMI 467 phantom and for a subset of 10 human tissues. Dose distributions are calculated from Monte Carlo simulations with a point source having the energy spectrum of 125I. The reduced three elements tissue model provides dose equivalence to reference tissues and is equivalent to the calculation of the Mahalanobis distance. The model constructed can be used as a scheme to assess tissues from DECT images for dose calculation.
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Hostettler, Alexandre. "Modélisation et simulation patient-dépendante, préopératoire, prédictive, et temps-réel du mouvement des organes de l'abdomen induit par la respiration libre". Strasbourg 1, 2008. http://www.theses.fr/2008STR13218.

Texto completo da fonte
Resumo:
L'objectif de cette thèse est de modéliser et de simuler en temps réel le mouvement des viscères de l'abdomen durant la respiration libre à partir d'une acquisition 3D TDM. En effet, de nombreuses applications médicales (radiothérapie) ne compensent pas la variation de position des organes et aboutissent à des traitements potentiellement inadaptés. Nous utilisons un champ de déplacement calculé à partir du suivi optique de la position de la peau, et d'une modélisation patient-de��pendante du diaphragme à partir d'acquisitions en position inspirée et expirée. Les viscères sont assimilés à une entité unique et incompressible glissant le long du péritoine et de la plèvre. L'originalité de la méthode est de prendre en compte le déplacement cranio-caudal des viscères, mais également les déplacements latéraux et antéropostérieurs causés par l'asymétrie du mouvement. La position des viscères est alors calculée à 50 Hz, avec une précision évaluée sur deux patients comprise entre 2 et 3 mm
The aim of this PhD thesis is to model and simulate in real-time the viscera motion during free breathing using a 3D CT acquisition. Indeed, many medical applications (radiotherapy) do not compensate variations in organ position and lead potentially to ill adapted treatments. We use a deformation field computed from the knowledge of the skin position (optical tracking) and a patient specific modelling of the diaphragm (from 3D CT acquisitions in inhale and exhale position). Viscera are assimilated to a single incompressible entity sliding along the peritonea and the pleurae. The originality of the method is to take the cranio-caudal viscera motion into account, as well as the anteroposterior and lateral motion due to the asymmetry of the motion. The new viscera position is computed at 50 Hz, and its accuracy has been evaluated on two patients within 2 and 3 mm
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia