Dissertations / Theses on the topic 'Visualisation et segmentation en 3D'

To see the other types of publications on this topic, follow the link: Visualisation et segmentation en 3D.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Visualisation et segmentation en 3D.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Dufour, Alexandre. "Segmentation, suivi et visualisation d'objets biologiques en microscopie 3D par fluorescence : Approches par modèles déformables." Phd thesis, Université René Descartes - Paris V, 2007. http://tel.archives-ouvertes.fr/tel-00271191.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons à la détection et au suivi d'objets biologiques divers (cellules, noyaux, etc.) dans des images et séquences tri-dimensionnelles acquises en microscopie par fluorescence. L'observation de phénomènes biologiques in situ étant de plus en plus cruciale pour les experts, il est nécessaire, en plus de l'analyse quantitative, d'effectuer un rendu volumique 3D de la scène et des objets qui y évoluent. De plus, l'automatisation des techniques d'acquisition d'images requiert un haut niveau de reproductibilité des algorithmes et induit souvent des contraintes de temps de calcul que nous nous efforçons de prendre en compte.

Les modèles déformables, également connus sous le nom de contours actifs, font actuellement partie des méthodes de pointe en analyse d'images pour la segmentation et le suivi d'objets grâce à leur robustesse, leur flexibilité et leur représentation à haut niveau sémantique des entités recherchées. Afin de les adapter à notre problématique, nous devons faire face à diverses difficultés. Tout d'abord, les méthodes existantes se réfèrent souvent aux variations locales d'intensité (ou gradients) de l'image pour détecter le contour des objets recherchés. Cette approche est inefficace en microscopie tridimensionnelle par fluorescence, où les gradients sont très peu prononcés selon l'axe de profondeur de l'image. Ensuite, nous devons gérer le suivi d'objets multiples susceptibles d'entrer en contact en évitant leur confusion. Enfin, nous devons mettre en place un système permettant de visualiser efficacement les contours durant leur déformation sans altérer les temps de calcul.

Dans la première partie de ce travail, nous pallions à ces problèmes en proposant un modèle de segmentation et de suivi multi-objets basé sur le formalisme des lignes de niveaux (ou level sets) et exploitant la fonctionnelle de Mumford et Shah. La méthode obtenue donne des résultats quantitatifs satisfaisants, mais ne se prête pas efficacement au rendu 3D de la scène, pour lequel nous sommes tributaires d'algorithmes dédiés à la reconstruction 3D (e.g. la méthode des "Marching Cubes"), souvent coûteux en mémoire et en temps de calcul. De plus, ces algorithmes peuvent induire des erreurs d'approximation et ainsi entraîner une mauvaise interprétation des résultats.

Dans la seconde partie, nous proposons une variation de la méthode précédente en remplaçant le formalisme des lignes de niveaux par celui des maillages triangulaires, très populaire dans le domaine de la conception assistée par ordinateur (CAO) pour leur rendu 3D rapide et précis. Cette nouvelle approche produit des résultats quantitatifs équivalents, en revanche le formalisme des maillages permet d'une part de réduire considérablement la complexité du problème et autorise d'autre part à effectuer un rendu 3D précis de la scène parallèlement au processus de segmentation, réduisant d'autant plus les temps de calculs.

Les performances des deux méthodes proposées sont d'abord évaluées puis comparées sur un jeu de données simulées reproduisant le mieux possible les caractéristiques des images réelles. Ensuite, nous nous intéressons plus particulièrement à l'évaluation de la méthode par maillages sur des données réelles, en évaluant la robustesse et la stabilité de quelques descripteurs de forme simples sur des expériences d'imagerie haut-débit. Enfin, nous présentons des applications concrètes de la méthode à des problématiques biologiques réelles, réalisées en collaboration avec d'autres équipes de l'Institut Pasteur de Corée.
2

Verdonck, Bert. "Segmentation, mesure et visualisation des vaisseaux sanguins à partir d'angiographies 3d par résonance magnétique et tomodensitométrie helicoidale." Paris, ENST, 1996. http://www.theses.fr/1996ENST0042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
LE but de cette thèse était d'étudier et de développer une méthodologie générale pour détecter, reconstruire, analyser et visualiser les vaisseaux sanguins dans des images médicales en trois dimensions (3d). On utilise les modalités d'acquisition qui sont 3d, qui permettent de visualiser les vaisseaux et qui sont utilisées en routine hospitalière : l'angiographie par tomodensitométrie spirale (atdms) et par résonance magnétique (arm). Aujourd'hui le manque d'outils de segmentation adapte limite les possibilités de visualisation et de mesure sur ces images volumiques. Afin de bien traiter le problème de segmentation, on s'est penché sur la modélisation du vaisseau sanguin (les parties tubulaires). On a retenu le cylindre généralise discret avec une courbe 3d comme axe et des contours fermes 2d (polygones étoiles) orthogonaux sur l'axe. Ces contours sont définis dans un cadre de référence locale le long du vaisseau. En même temps on peut visualiser et analyser les propriétés du vaisseau dans des coupes orthogonales a l'axe. Ainsi on arrive tout de suite au modèle 3d qui est facile à visualiser et permet de faire des mesures directement. En utilisant cette modélisation, on a développé un suiveur de vaisseau, en étendant de 2d à 3d des suiveurs de routes (en imagerie aérienne ou satellitaire) et des suiveurs de vaisseaux (en angiographie classique). Le processus de poursuite ressemble à l'introduction d'un cathéter imaginaire dans le vaisseau. Cet algorithme permet d'extraire des vaisseaux d'intérêt de différentes tailles rapidement. On a étendu cette approche pour l'application spécifique de quantification précise de sténoses qui nécessite une extraction la plus précise possible. L'optimisation de la sélection entre plusieurs candidats de contour est exprimée par une fonction de cout et est effectuée par programmation dynamique. Afin de quantifier le degré de sténose précisément, on a étudié toutes les étapes du système (acquisition, segmentation et mesure) qui influencent la précision. Cette analyse a été effectuée a la fois sur le plan théorique, sur des objets synthétiques et sur des fantômes de tubes. Les tuyaux de faibles diamètres sont surtout susceptibles d'erreurs de localisation des mesures de gradient et des corrections sont proposées. Cela nous a permis de vérifier la bonne précision de nos résultats.
3

Verdonck, Bert. "Segmentation, mesure et visualisation des vaisseaux sanguins à partir d'angiographies 3D par résonance magnétique et tomodensitométrie hélicoîdale /." Paris : École nationale supérieure des télécommunications, 1997. http://catalogue.bnf.fr/ark:/12148/cb36703841x.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Th. doct.--Signal et images--Paris--ENST, 1996.
Mention parallèle de titre ou de responsabilité : Blood vessel segmentation, quantification and visualization for 3D MR and spiral CT angiography. Textes en français ou en anglais. Bibliogr. p. 151-169. Résumé en français et en anglais.
4

Rekik, Wafa. "Fusion de données temporelles, ou 2D+t, et spatiales, ou 3D, pour la reconstruction de scènes 3D+t et traitement d'images sphériques : applications à la biologie cellulaire." Paris 6, 2007. http://www.theses.fr/2007PA066655.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans certaines applications en vision, nous disposons de données volumiques (3D) et des séquences planaires (2D+t). Les données 3D définissent la géométrie en trois dimensions de la scène observée. Elles comportent donc des informations purement spatiales. Les séquences 2D+t sont porteuses d'informations temporelles et partiellement spatiales puisqu'elles décrivent en deux dimensions la dynamique des objets en mouvement. La fusion de ces données permet de restituer une séquence volumique (3D+t) de la scène filmée. Ces travaux s'articulent en deux volets. Le premier volet concerne une étude méthodologique de la reconstruction 3D+t par compensation du mouvent. Nous proposons deux familles d'approches : avec ou sans modèle a priori sur les structures observées dans les données. Le modèle a priori étudiée concernent des objets de géométrie sphérique. Le second volet décrit le traitement d'image multi-dimensionnels (2D, 3D, 2D+t, 3D+t) toujours dans le contexte de forme sphérique. Nous proposons alors diverses applications comme le suivi temporel sur les séquences 2D+t, la visualisation, la segmentation des données 2D ou 3D,. . . Une application possible est donnée en imagerie biologique dans le cadre de la simulation de parois cellulaires, contexte dans lequel nous observons dans diverses modalités des objets sphéroïdes.
5

Chassonnery, Pauline. "Modélisation mathématique en 3D de l'émergence de l'architecture des tissus conjonctifs." Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30354.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'hypothèse que des interactions mécaniques locales simples entre un nombre limité de composants puissent régir l'émergence de l'architecture 3D des tissus biologiques. Pour explorer cette possibilité, nous développons deux modèles mathématiques. Le premier, ECMmorpho-3D, vise à reproduire un tissu conjonctif non-spécialisé réduit à la matrice extra-cellulaire, c'est-à-dire à un réseau 3D de fibres interconnectées dynamiquement. Le second, ATmorpho-3D, est obtenu par ajout de cellules sphériques apparaissant et croissant spontanément dans ce réseau de fibres afin de modéliser la morphogenèse du tissu adipeux, un tissu conjonctif spécialisé ayant une grande importance sur le plan biomédical. Pour analyser les données produites par ces deux modèles, nous construisons un outil générique permettant de visualiser en 3D des systèmes composés d'un mélange d'éléments sphériques (cellules) et de bâtonnets (fibres) et de détecter automatiquement dans de tels systèmes des amas d'objets sphériques séparés par des bâtonnets. Cet outil peut également être utilisé pour traiter des images biologiques issues de microscopie en 3D, permettant ainsi une comparaison directe entre les structures in vivo et in silico. L'étude des structures produites par le modèle ECMmorpho-3D via des simulations numériques montre que ce modèle peut générer spontanément différents types d'architectures, que nous identifions et caractérisons grâce à notre outil d'analyse. Une analyse paramétrique approfondie nous permet d'identifier une variable émergente, le nombre de liens par fibre, qui explique et, dans une certaine mesure, prédit le devenir du système modélisé. Une analyse temporelle révèle que l'échelle de temps caractéristique de ce processus d'auto-organisation est fonction de la vitesse de remodelage du réseau et que tous les systèmes suivent la même trajectoire évolutive. Enfin, nous utilisons le modèle ATmorpho-3D pour explorer l'influence de cellules sphériques sur l'organisation d'un réseau de fibres dynamique, en prenant comme référence le modèle ECMmorpho-3D. Nous montrons que le nombre de cellules influence l'alignement local des fibres mais pas l'organisation globale du réseau. Par ailleurs, les cellules s'organisent spontanément en amas entourés de feuillets de fibres, dont les caractéristiques morphologiques sont très proches de celles des structures cellulaires in vivo. De plus, la distribution des différentes morphologies d'amas cellulaires est similaire dans les systèmes in silico et in vivo. Ceci suggère que le modèle est capable de produire des morphologies réalistes non seulement à l'échelle d'un amas mais aussi à l'échelle du système entier, en reproduisant les variabilités structurelles observées dans les échantillons biologiques. Une analyse paramétrique révèle que la proportion de chaque morphologie dans un système in silico est gouvernée principalement par les capacités de remodelage du réseau de fibres, pointant le rôle essentiel des propriétés de la matrice extra-cellulaire dans l'architecture et le fonctionnement du tissu adipeux (ce qui concorde avec plusieurs constatations biologiques ainsi que des résultats antérieurs en 2D). Le fait que ces modèles mathématiques très simples puissent générer des structures réalistes corrobore notre hypothèse selon laquelle l'architecture des tissus biologiques pourrait émerger spontanément à partir d'interactions mécaniques locales entre les composants du tissu, indépendamment des phénomènes biologiques complexes se déroulant dans ce tissu. Ce travail ouvre de nombreuses perspectives quant à notre compréhension des principes fondamentaux gouvernant la manière dont l'architecture d'un tissu émerge durant l'organogenèse, est maintenue au cours de la vie et peut être affectée par diverses pathologies. Les applications potentielles vont de l'ingénierie tissulaire à la possibilité de promouvoir la régénération chez les mammifères adultes
In this thesis, we investigate whether simple local mechanical interactions between a reduced set of components could govern the emergence of the 3D architecture of biological tissues. To explore this hypothesis, we develop two mathematical models. The first one, ECMmorpho-3D, aims at reproducing a non-specialised connective tissue and is reduced to the Extra-Cellular Matrix (ECM) component, that is a 3D dynamically connected fibre network. The second, ATmorpho-3D, is built by adding to this network spherical cells which spontaneously appear and grow in order to mimic the morphogenesis of Adipose Tissue (AT), a specialised connective tissue with major biomedical importance. We then construct a unified analysis framework to visualise, segment and quantitatively characterise the fibrous and cellular structures produced by our two models. It constitutes a generic tool for the 3D visualisation of systems composed of a mixture of spherical (cells) and rod-like (fibres) elements and for the automatic detection of in such systems of clusters of spherical objects separated by rod-like elements. This tool is also applicable to biological 3D microscopy images, enabling a comparison between in vivo and in silico structures. We study the structures produced by the model ECMmorpho-3D by performing numerical simula- tions. We show that this model is able to spontaneously generate different types of architectures, which we identify and characterise using our analysis framework. An in-depth parametric analysis lead us to identify an intermediate emerging variable, the number of crosslinks per fibre, which explains and partly predicts the fate of the modelled system. A temporal analysis reveals that the characteristic time-scale of the organisation process is a function of the network remodelling speed, and that all systems follow the same, unique evolutionary pathway. Finally, we use the model ATmorpho-3D to explore the influence of round cells over the organisation of a fibre network, taking as reference the model ECMmorpho-3D. We show that the number of cells can influence the local alignment of the fibres but not the global organisation of the network. On the other hand, the cells inside the network spontaneously organise into clusters with realistic morphological features very close to those of in vivo structures, surrounded by sheet-like fibre bundles. Moreover, the distribution of the different morphological types of clusters is similar in in silico and in vivo systems, suggesting that the model is able to produce realistic morphologies not only on the scale of one cluster but also on the scale of the whole system, reproducing the structural variability observed in biological samples. A parametric analysis reveals that the proportion in which each morphology is present in an in silico system is governed mainly by the remodelling characteristic of the fibres, pointing to the essential role of the ECM properties in AT architecture and function (in agreement with several biological results and previous 2D findings). The fact that these very simple mathematical models can produce realistic structures supports our hypothesis that biological tissues architecture could emerge spontaneously from local mechanical inter- actions between the tissue components, independently of the complex biological phenomena taking place around them. This opens many perspectives regarding our understanding of the fundamental principles governing how biological tissue architecture emerges during organogenesis, is maintained throughout life and can be affected by various pathological conditions. Potential applications range from tissue engineering to therapeutic treatment inducing regeneration in adult mammals
6

Cinquin, Philippe. "Application des fonctions-spline au traitement d'images numériques." Habilitation à diriger des recherches, Grenoble 1, 1987. http://tel.archives-ouvertes.fr/tel-00325721.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Étude portant sur la modélisation d'images a traiter. Application des fonctions spline. Diverses techniques d'approximation sont mises en œuvre et des algorithmes spécifiques sont développés pour s'adapter au volume important des données. L'intérêt de cette représentation confirmée est illustré sur trois exemples d'origine médicale
7

Kanafani, Qosaï. "Compression et visualisation d'images médicales par segmentation." Paris 13, 2003. http://www.theses.fr/2003PA132017.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous étudions les images médicales obtenues par IRM et par CT. Le premier aspect considéré est l'amélioration de la qualité de ces images. Et le deuxième aspect est le choix de méthodes de segmentation adaptées aux images médicales. Nous avons opté pour la segmentation stochastique basée sur un modèle de mélange. La compression du volume de donnée 3D est aussi étudiée. Une méthode de compression simple et efficace est proposée et évaluée au moyen de critères de qualité subjective et objective. Les résultats obtenus sont encourageants et montrent encore une fois que la réticence quand à l'utilisation des méthodes de compression avec perte dans le cas des images médicales n'est pas trés justifiée. Il s'agit dans cette thèse de répondre à des besoins spécifiques en apportant des solutions originales qui tiennent compte de l'existant, de la nature des images et de leur usage. Nous avons aussi insisté sur les critères de temps de calcul, de flexibilité et de fiabilité.
8

Mao, Bo. "Visualisation and Generalisation of 3D City Models." Doctoral thesis, KTH, Geoinformatik och Geodesi, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-48174.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
3D city models have been widely used in various applications such as urban planning, traffic control, disaster management etc. Efficient visualisation of 3D city models in different levels of detail (LODs) is one of the pivotal technologies to support these applications. In this thesis, a framework is proposed to visualise the 3D city models online. Then, generalisation methods are studied and tailored to create 3D city scenes in different scales dynamically. Multiple representation structures are designed to preserve the generalisation results on different level. Finally, the quality of the generalised 3D city models is evaluated by measuring the visual similarity with the original models.   In the proposed online visualisation framework, City Geography Makeup Language (CityGML) is used to represent city models, then 3D scenes in Extensible 3D (X3D) are generated from the CityGML data and dynamically updated to the user side for visualisation in the Web-based Graphics Library (WebGL) supported browsers with X3D Document Object Model (X3DOM) technique. The proposed framework can be implemented at the mainstream browsers without specific plugins, but it can only support online 3D city model visualisation in small area. For visualisation of large data volumes, generalisation methods and multiple representation structures are required.   To reduce the 3D data volume, various generalisation methods are investigated to increase the visualisation efficiency. On the city block level, the aggregation and typification methods are improved to simplify the 3D city models. On the street level, buildings are selected according to their visual importance and the results are stored in the indexes for dynamic visualisation. On the building level, a new LOD, shell model, is introduced. It is the exterior shell of LOD3 model, in which the objects such as windows, doors and smaller facilities are projected onto walls.  On the facade level, especially for textured 3D buildings, image processing and analysis methods are employed to compress the texture.   After the generalisation processes on different levels, multiple representation data structures are required to store the generalised models for dynamic visualisation. On the city block level the CityTree, a novel structure to represent group of buildings, is tested for building aggregation. According to the results, the generalised 3D city model creation time is reduced by more than 50% by using the CityTree. Meanwhile, a Minimum Spanning Tree (MST) is employed to detect the linear building group structures in the city models and they are typified with different strategies. On the building level and the street level, the visible building index is created along the road to support building selection. On facade level the TextureTree, a structure to represent building facade texture, is created based on the texture segmentation.   Different generalisation strategies lead to different outcomes. It is critical to evaluate the quality of the generalised models. Visually salient features of the textured building models such as size, colour, height, etc. are employed to calculate the visual difference between the original and the generalised models. Visual similarity is the criterion in the street view level building selection. In this thesis, the visual similarity is evaluated locally and globally. On the local level, the projection area and the colour difference between the original and the generalised models are considered. On the global level, the visual features of the 3D city models are represented by Attributed Relation Graphs (ARG) and their similarity distances are calculated with the Nested Earth Mover’s Distance (NEMD) algorithm.   The overall contribution of this thesis is that 3D city models are generalised in different scales (block, street, building and facade) and the results are stored in multiple representation structures for efficient dynamic visualisation, especially for online visualisation.
QC 20111116
ViSuCity
9

Mahieddine, Mohammed. "Modélisation, visualisation et animation d'objets 3D : Approche orientée objets." nice, 1991. http://www.theses.fr/1991NICE4496.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse est d'étudier l'application de l'approche orientée objets pour la modélisation, la visualisation et l'animation d'objets graphiques en 3 dimensions. Une première phase de cette étude a consiste en la construction d'une extension orientée objets de standards graphiques existants. Pour la construction du graphe d'héritage des classes, une méthode nouvelle est présentée qui consiste à utiliser a la fois l'héritage comportemental et l'héritage implémentationnel. Une extension orientée objets des systèmes core et cgi est présentée pour illustrer ces idées. Une étude exhaustive des méthodes de modélisation des courbes, des surfaces et des solides a permis de montrer l'intérêt des classes et de l'héritage pour réduire la difficulté de confection d'un logiciel de modélisation d'objets géométriques 3d. En ce qui concerne la visualisation des objets, nous montrons les avantages et les limites de l'approche orientée objets pour l'élimination des faces cachées, la manipulation des couleurs et le rendu réaliste (lancer de rayons). Nous montrons ensuite comment décrire l'animation des objets avec les concepts de classes et d'héritage et nous comparons cette approche avec celle des acteurs. La validation de cette approche a consiste à réaliser une application d'animation de robots articules en c++ sous x window. Ce travail démontre que la méthodologie orientée objets permet d'avoir une approche unifiée a la fois pour la modélisation géométrique, la visualisation des objets graphiques et pour leur animation
10

Galisot, Gaëtan. "Segmentation incrémentale et interactive d'images médicales 3D." Thesis, Tours, 2018. http://www.theses.fr/2018TOUR4035.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente une nouvelle méthode de segmentation interactive et incrémentale d'images médicales 3D. Nous proposons une manière plus locale, de modéliser les connaissances a priori décrivant les structures d'intérêt. Des relations spatiales sont également apprises entre ces régions et ont pour objectif de permettre le positionnement automatique des atlas locaux au sein de l'image entière. Lors de la segmentation, ces informations sont utilisées suivant un processus incrémental permettant de réaliser des segmentations partielles et rapides tout en choisissant l'ordre de segmentation des différentes régions. L'utilisateur peut intervenir sur le positionnement des atlas locaux afin d'améliorer la qualité de la segmentation obtenue. En outre, notre méthode englobe un post-traitement capable de corriger les erreurs systématiques que notre méthode de segmentation peut produire
This research work describes a new interactive and incremental method for the segmentation of 3D medical images. The a priori information associated to the anatomical structure to analyze is leamed in a local way. Several local atlases, each one describing only one anatomical structure are constwcted from a training dataset. Spatial relationships are also leamed between those regions aiming to position the local atlases inside the whole image. During the segmentation process, the graph is used in an incremental way allowing fast and partial segmentation. fle user can also interact during the local atlas posiboning in order toimprove the segmentation quality. A voxel classification by a hidden Markov random field is employed toprovide the local segmentations. We also propose s post-processing step in order to correct the systematiceuors that a segmentation can achieve
11

Wang, Chen. "Large-scale 3D environmental modelling and visualisation for flood hazard warning." Thesis, University of Bradford, 2009. http://hdl.handle.net/10454/3350.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
3D environment reconstruction has received great interest in recent years in areas such as city planning, virtual tourism and flood hazard warning. With the rapid development of computer technologies, it has become possible and necessary to develop new methodologies and techniques for real time simulation for virtual environments applications. This thesis proposes a novel dynamic simulation scheme for flood hazard warning. The work consists of three main parts: digital terrain modelling; 3D environmental reconstruction and system development; flood simulation models. The digital terrain model is constructed using real world measurement data of GIS, in terms of digital elevation data and satellite image data. An NTSP algorithm is proposed for very large data assessing, terrain modelling and visualisation. A pyramidal data arrangement structure is used for dealing with the requirements of terrain details with different resolutions. The 3D environmental reconstruction system is made up of environmental image segmentation for object identification, a new shape match method and an intelligent reconstruction system. The active contours-based multi-resolution vector-valued framework and the multi-seed region growing method are both used for extracting necessary objects from images. The shape match method is used with a template in the spatial domain for a 3D detailed small scale urban environment reconstruction. The intelligent reconstruction system is designed to recreate the whole model based on specific features of objects for large scale environment reconstruction. This study then proposes a new flood simulation scheme which is an important application of the 3D environmental reconstruction system. Two new flooding models have been developed. The first one is flood spreading model which is useful for large scale flood simulation. It consists of flooding image spatial segmentation, a water level calculation process, a standard gradient descent method for energy minimization, a flood region search and a merge process. The finite volume hydrodynamic model is built from shallow water equations which is useful for urban area flood simulation. The proposed 3D urban environment reconstruction system was tested on our simulation platform. The experiment results indicate that this method is capable of dealing with complicated and high resolution region reconstruction which is useful for many applications. When testing the 3D flood simulation system, the simulation results are very close to the real flood situation, and this method has faster speed and greater accuracy of simulating the inundation area in comparison to the conventional flood simulation models
12

Trellet, Mikael. "Exploration et analyse immersives de données moléculaires guidées par la tâche et la modélisation sémantique des contenus." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS262/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En biologie structurale, l’étude théorique de structures moléculaires comporte quatre activités principales organisées selon le processus séquentiel suivant : la collecte de données expérimentales/théoriques, la visualisation des structures 3d, la simulation moléculaire, l’analyse et l’interprétation des résultats. Cet enchaînement permet à l’expert d’élaborer de nouvelles hypothèses, de les vérifier de manière expérimentale et de produire de nouvelles données comme point de départ d’un nouveau processus.L’explosion de la quantité de données à manipuler au sein de cette boucle pose désormais deux problèmes. Premièrement, les ressources et le temps relatifs aux tâches de transfert et de conversion de données entre chacune de ces activités augmentent considérablement. Deuxièmement, la complexité des données moléculaires générées par les nouvelles méthodologies expérimentales accroît fortement la difficulté pour correctement percevoir, visualiser et analyser ces données.Les environnements immersifs sont souvent proposés pour aborder le problème de la quantité et de la complexité croissante des phénomènes modélisés, en particulier durant l’activité de visualisation. En effet, la Réalité Virtuelle offre entre autre une perception stéréoscopique de haute qualité utile à une meilleure compréhension de données moléculaires intrinsèquement tridimensionnelles. Elle permet également d’afficher une quantité d’information importante grâce aux grandes surfaces d’affichage, mais aussi de compléter la sensation d’immersion par d’autres canaux sensorimoteurs.Cependant, deux facteurs majeurs freinent l’usage de la Réalité Virtuelle dans le domaine de la biologie structurale. D’une part, même s’il existe une littérature fournie sur la navigation dans les scènes virtuelles réalistes et écologiques, celle-ci est très peu étudiée sur la navigation sur des données scientifiques abstraites. La compréhension de phénomènes 3d complexes est pourtant particulièrement conditionnée par la capacité du sujet à se repérer dans l’espace. Le premier objectif de ce travail de doctorat a donc été de proposer des paradigmes navigation 3d adaptés aux structures moléculaires complexes. D’autre part, le contexte interactif des environnements immersif favorise l’interaction directe avec les objets d’intérêt. Or les activités de collecte et d’analyse des résultats supposent un contexte de travail en "ligne de commande" ou basé sur des scripts spécifiques aux outils d’analyse. Il en résulte que l’usage de la Réalité Virtuelle se limite souvent à l’activité d’exploration et de visualisation des structures moléculaires. C’est pourquoi le second objectif de thèse est de rapprocher ces différentes activités, jusqu’alors réalisées dans des contextes interactifs et applicatifs indépendants, au sein d’un contexte interactif homogène et unique. Outre le fait de minimiser le temps passé dans la gestion des données entre les différents contextes de travail, il s’agit également de présenter de manière conjointe et simultanée les structures moléculaires et leurs analyses et de permettre leur manipulation par des interactions directes.Notre contribution répond à ces objectifs en s’appuyant sur une approche guidée à la fois par le contenu et la tâche. Des paradigmes de navigation ont été conçus en tenant compte du contenu moléculaire, en particulier des propriétés géométriques, et des tâches de l’expert, afin de faciliter le repérage spatial et de rendre plus performante l’activité d’exploration. Par ailleurs, formaliser la nature des données moléculaires, leurs analyses et leurs représentations visuelles, permettent notamment de proposer à la demande et interactivement des analyses adaptées à la nature des données et de créer des liens entre les composants moléculaires et les analyses associées. Ces fonctionnalités passent par la construction d’une représentation sémantique unifiée et performante rendant possible l’intégration de ces activités dans un contexte interactif unique
In structural biology, the theoretical study of molecular structures has four main activities organized in the following scenario: collection of experimental and theoretical data, visualization of 3D structures, molecular simulation, analysis and interpretation of results. This pipeline allows the expert to develop new hypotheses, to verify them experimentally and to produce new data as a starting point for a new scenario.The explosion in the amount of data to handle in this loop has two problems. Firstly, the resources and time dedicated to the tasks of transfer and conversion of data between each of these four activities increases significantly. Secondly, the complexity of molecular data generated by new experimental methodologies greatly increases the difficulty to properly collect, visualize and analyze the data.Immersive environments are often proposed to address the quantity and the increasing complexity of the modeled phenomena, especially during the viewing activity. Indeed, virtual reality offers a high quality stereoscopic perception, useful for a better understanding of inherently three-dimensional molecular data. It also displays a large amount of information thanks to the large display surfaces, but also to complete the immersive feeling with other sensorimotor channels (3D audio, haptic feedbacks,...).However, two major factors hindering the use of virtual reality in the field of structural biology. On one hand, although there are literature on navigation and environmental realistic virtual scenes, navigating abstract science is still very little studied. The understanding of complex 3D phenomena is however particularly conditioned by the subject’s ability to identify themselves in a complex 3D phenomenon. The first objective of this thesis work is then to propose 3D navigation paradigms adapted to the molecular structures of increasing complexity. On the other hand, the interactive context of immersive environments encourages direct interaction with the objects of interest. But the activities of: results collection, simulation and analysis, assume a working environment based on command-line inputs or through specific scripts associated to the tools. Usually, the use of virtual reality is therefore restricted to molecular structures exploration and visualization. The second thesis objective is then to bring all these activities, previously carried out in independent and interactive application contexts, within a homogeneous and unique interactive context. In addition to minimizing the time spent in data management between different work contexts, the aim is also to present, in a joint and simultaneous way, molecular structures and analyses, and allow their manipulation through direct interaction.Our contribution meets these objectives by building on an approach guided by both the content and the task. More precisely, navigation paradigms have been designed taking into account the molecular content, especially geometric properties, and tasks of the expert, to facilitate spatial referencing in molecular complexes and make the exploration of these structures more efficient. In addition, formalizing the nature of molecular data, their analysis and their visual representations, allows to interactively propose analyzes adapted to the nature of the data and create links between the molecular components and associated analyzes. These features go through the construction of a unified and powerful semantic representation making possible the integration of these activities in a unique interactive context
13

Bridge, Pete. "The development and evaluation of a novel 3D radiotherapy immersive outlining tool." Thesis, Queensland University of Technology, 2017. https://eprints.qut.edu.au/123511/1/Peter%20Bridge%20Thesis.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Radiotherapy target definition traditionally relies on manually drawing round the relevant anatomical structures on successive CT slices. This is a laborious process that impacts on patient throughput and can limit the adoption of more complex techniques. Although automated segmentation algorithms can create rapid volumes they lack the capacity to adapt to tumour volumes and areas of abnormal or variable anatomical structures. Such software invariably requires considerable manual input in terms of editing the outlines. In addition there is a growing desire among clinicians to be more actively involved and ensure that their clinical decision making is factored in to the generated volumes. This thesis presents a novel solution to this problem. The primary aim of this "proof of principle" thesis is the development and evaluation of software capable of generating a mesh structure derived from a small number of points placed on a range of CT planes. This is in contrast to the traditional method of outlining that relies on a large number of points placed on successive axial CT slices. Use of a small number of points is hypothesised to require less clinician time. The software also allows the user to edit the resultant outline volumetrically with 3D modelling tools derived from animation applications. These tools enable multiple "slices" to be manually edited simultaneously while retaining a smooth and clinically relevant volume shape. The thesis presents the development and evaluation of this new software application though a series of published works. The evaluation is drawn from a combination of qualitative research involving user focus groups and quantitative data collection relating to the clinical impact of the new paradigm. The first published paper reports on the development of the software tool with some preliminary user evaluation highlighting recommendations for optimum use and training. Mesh generation from a small number of points placed on a range of planes was found to be a potentially rapid and effective means of target delineation, although further work was suggested to improve multi-slice volume sculpting prior to more formal pre-clinical testing. The second paper presents qualitative data gained from Radiation Oncologist outliners relating to the clinical value of the software for accelerating clinician-directed prostate and seminal vesicle segmentation. The new tool was well-received and reported to be capable of producing very rapid and smooth volumes. This phase suffered due to time pressures experienced by the cohort and further testing of the software with a less time-poor cohort was be indicated. The third paper was developed from the initial two phases of the study and highlighted the specific challenge of radiotherapy outlining with a lack of "gold standard" and suggests that the inherent variability mandates a constructivist approach to evaluation. This constructivist approach to variability may empower clinicians to accept variability as an inherent aspect of their practice. Furthermore, research efforts should be focussed on maximising impact of training and guidelines as well as the development of a target minimum agreed measure of intra-observer variability that educational interventions should seek to facilitate. The final published work reported on quantitative testing of the software with a less time-pressured cohort. Student radiation therapists were tasked with outlining a bladder volume with both the new tool and the industry standard tool and found a significant (p = 0.03) time saving of 30% for bladder segmentation compared to axial-based outlining. The new volumetric outlining paradigm is conceptually challenging and requires users to adopt a significantly different approach to generating and editing structure outlines. It also demands high levels of spatial awareness to engage with the 3D navigation tools. Given the increasing use of 3D visualisation in medicine and the non-axial image interpretation demands of MR imaging it is important that training in these techniques be embedded at pre-registration level. Future work aims to further develop this outlining tool and establish its role in editing of autosegmentation derived contour sets.
14

Kabil, Alexandre. "CyberCOP 3D : visualisation 3D interactive et collaborative de l'état de sécurité d'un système informatique." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0166.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de la thèse était d’étudier l’utilisation d’Environnements Virtuels Collaboratifs (EVC) pour l’analyse de l’état de sécuritéde systèmes informatiques, aussi appelée la Cyber Situational Awareness (CSA). Après avoir étudié les modèles et outils de la CSA, nous avons pu visiter les Security Operations Center (SOCs) de quatre partenaires industriels de la Chaire Cyber CNI, afin de mieux cerner les besoins et attentes des cyber analystes. Ces visites ont été effectuées dans le cadre d’un protocole de l’analyse de l’activité collaborative et nous ont permises de proposer un modèle, le CyberCOP 3D. En nous basant sur notre modèle ainsi que sur une modélisation du rançongiciel WannaCry, nous avons développé un EVC pour la cybersécurité ainsi qu’un moteur de scénarisation simplifié permettant à des utilisateurs de concevoir leurs propres scénarios d’analyse d’alertes. Nous avons effectué une évaluation de l’utilisabilité d’un environnement virtuel pour l’analyse d’alertes auprès d’utilisateurs non-experts en cybersécurité
The aim of this thesis was to study the use of Collaborative Virtual Environments (CVE) for the analysis of the state of security of computer systems, also called Cyber Situational Awareness (CSA). After studying CSA’s models and tools, we have had the opportunity to visit the Security Operations Centers (SOCs) of four industrial partners of the CyberCNI chair, in order to better understand the needs and expectations of cyber analysts. These visits were made as part of a collaborative activity analysis protocol and have allowed us to propose a model, the 3D Cyber-COP. Based on this model and a model of the WannaCry ransomware, we have developed a CVE and a simplified scenario engine that allows users to design their own alert analysis scenarios. We have also performed a usability evaluation of a virtual environment for alert analysis, with a panel of novice users
15

Wang, Nan. "Visualisation et interaction pour l’exploration et la perception immersive de données 3D." Thesis, Paris, ENMP, 2012. http://www.theses.fr/2012ENMP0090/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette thèse est la perception dans les environnements immersifs de jeux de données complexes, une des applications est la visualisation scientifique de données volumiques scalaires issues de simulations de modèles physiques. Un exemple classique de ceci est la distribution de températures à l'intérieur d'un habitacle de véhicule.Dans la première partie de ce travail, notre objectif est d'étudier les limites perceptives dans le cadre d'un rendu volumétrique de données scientifiques dans un système de réalité virtuelle offrant la vision en stéréoscopie, et le suivi du point de vue de l'utilisateur. Nous étudions l'effet sur la perception de l'utilisateur de trois facteurs principaux : la taille des points utilisés pour le rendu, la densité du nuage de points, et enfin la position par rapport à l'utilisateur du premier plan de coupe. Nous présentons une étude dans laquelle une tâche de pointage est proposée à un ensemble d'utilisateurs. Les déplacements de celui-ci ainsi que les performances de pointage sont mesurées. L'étude a permis d'évaluer l'impact des paramètres de rendu du nuage de points et proposer un rendu améliorant la perception.La seconde partie du travail propose d'ajouter une dimension interactive à la première approche en permettant à l'utilisateur d'explorer plus activement la scène. L'hypothèse d'une meilleure compréhension des données par l'action est ici mise en avant. Nous évaluons une méthode d'interaction et quatre méthodes de rendu associées. L'approche proposée est de n'afficher qu'un sous ensemble des données volumiques, en l'occurrence des isosurfaces, et de permettre à l'utilisateur de naviguer par une gestuelle naturelle et interactive dans l'ensemble des isosurfaces du jeu de données explorées, dans cadre de manipulation directe. Une nouvelle étude est proposée, dans laquelle l'utilisateur doit effectuer une tâche de recherche et de pointage d'une propriété locale dans un jeu de températures 3D. Cette étude a permis de choisir une méthode de rendu adaptée à l'affichage immersif d'isosurfaces et de valider l'approche interactive pour l'exploration de données
The objective in this case is not only to be realistic, but also to provide new and intelligible ways of model representation. This raises new issues in data perception. The question of perception of complex data, especially regarding visual feedback, is an open question, and it is the subject of this work. This PhD thesis studied the human perception in Immersive Virtual Environments of complex datasets, one of the applications is the scientific visualization of scalar values stemming from physics models, such as temperature distribution inside a vehicle prototype.The objective of the first part is to study the perceptive limits of volumetric rendering for the display of scientific volumetric data, such as a volumetric temperature distribution rendering using point cloud. We investigate the effect on the user perception of three properties of a point cloud volumetric rendering: point size, cloud density and near clipping plane position. We present an experiment where a series of pointing tasks are proposed to a set of users. User behavior and task completion time are evaluated during the test. The study allowed to choose the most suitable combination of these properties, and provided guidelines for volumetric data representation in VR immersive systems.In the second part of our work, we evaluate one interaction method and four display techniques for exploring volumetric datasets in virtual reality immersive environments. We propose an approach based on the display of a subset of the volumetric data, as isosurfaces, and an interactive manipulation of the isosurfaces to allow the user to look for local properties in the datasets. We also studied the influence of four different rendering techniques for isosurface rendering in a virtual reality system. The study is based on a search and point task in a 3D temperature field. User precision, task completion time and user movement were evaluated during the test. The study allowed to choose the most suitable rendering mode for isosurface representation, and provided guidelines for data exploration tasks in immersive environments
16

Wang, Nan. "Visualisation et interaction pour l'exploration et la perception immersive de données 3D." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00821004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette thèse est la perception dans les environnements immersifs de jeux de données complexes, une des applications est la visualisation scientifique de données volumiques scalaires issues de simulations de modèles physiques. Un exemple classique de ceci est la distribution de températures à l'intérieur d'un habitacle de véhicule.Dans la première partie de ce travail, notre objectif est d'étudier les limites perceptives dans le cadre d'un rendu volumétrique de données scientifiques dans un système de réalité virtuelle offrant la vision en stéréoscopie, et le suivi du point de vue de l'utilisateur. Nous étudions l'effet sur la perception de l'utilisateur de trois facteurs principaux : la taille des points utilisés pour le rendu, la densité du nuage de points, et enfin la position par rapport à l'utilisateur du premier plan de coupe. Nous présentons une étude dans laquelle une tâche de pointage est proposée à un ensemble d'utilisateurs. Les déplacements de celui-ci ainsi que les performances de pointage sont mesurées. L'étude a permis d'évaluer l'impact des paramètres de rendu du nuage de points et proposer un rendu améliorant la perception.La seconde partie du travail propose d'ajouter une dimension interactive à la première approche en permettant à l'utilisateur d'explorer plus activement la scène. L'hypothèse d'une meilleure compréhension des données par l'action est ici mise en avant. Nous évaluons une méthode d'interaction et quatre méthodes de rendu associées. L'approche proposée est de n'afficher qu'un sous ensemble des données volumiques, en l'occurrence des isosurfaces, et de permettre à l'utilisateur de naviguer par une gestuelle naturelle et interactive dans l'ensemble des isosurfaces du jeu de données explorées, dans cadre de manipulation directe. Une nouvelle étude est proposée, dans laquelle l'utilisateur doit effectuer une tâche de recherche et de pointage d'une propriété locale dans un jeu de températures 3D. Cette étude a permis de choisir une méthode de rendu adaptée à l'affichage immersif d'isosurfaces et de valider l'approche interactive pour l'exploration de données.
17

Dupas, Alexandre. "Opérations et Algorithmes pour la Segmentation Topologique d'Images 3D." Phd thesis, Université de Poitiers, 2009. http://tel.archives-ouvertes.fr/tel-00466706.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une carte topologique 3D est un modèle servant à représenter la partition en régions d'une image 3D pour le traitement d'images. Dans ce travail, nous développons des outils permettant de modifier la partition représentée par une carte topologique, puis nous utilisons ces outils afin de proposer des algorithmes de segmentation intégrant des critères topologiques. Dans une première partie, nous proposons trois opérations. La fusion de régions est définie avec une approche locale adaptée à une utilisation interactive et une approche globale pour une utilisation automatisée comme lors d'une segmentation. La division de régions est proposée avec une méthode d'éclatement en voxels et la division à l'aide d'un guide. Enfin, la déformation de la partition est basée sur la définition de points ML-Simples : des voxels pouvant changer de région sans modifier la topologie de la partition. À l'aide de ces opérations, nous mettons en œuvre dans une seconde partie des algorithmes de segmentation d'images utilisant les cartes topologiques. Notre première approche adapte au modèle des cartes topologiques un algorithme existant qui utilise un critère basé sur la notion de contraste. Nous proposons ensuite des méthodes de calcul d'invariants topologiques sur les régions : les nombres de Betti. Grâce à eux, nous développons un critère topologique de segmentation permettant de contrôler le nombre de tunnels et de cavités des régions. Enfin, nous illustrons les possibilités de tous nos outils en mettant en place une chaîne de traitement pour la segmentation de tumeurs cérébrales dans des images médicales.
18

Burg, Samuel. "Segmentation 3D d'images scintigraphiques et simulations très réalistes GATE." Poitiers, 2011. http://nuxeo.edel.univ-poitiers.fr/nuxeo/site/esupversions/b5bc3be2-14be-4526-9e11-61619c11caaf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de cette thèse était de proposer de nouvelles méthodes de segmentation 3D en imagerie scintigraphique. Une première partie des travaux réalisés a consisté à simuler des volumes 3D avec vérité de terrain connue afin de pouvoir valider une méthode de segmentation par rapport aux autres. Des simulations de MonteCarlo ont été réalisées à l’aide du logiciel GATE (Geant4 Application for Emission Tomography). Pour cela, nous avons caractérisé et modélisé la gamma camera "γ Imager" Biospace™ en comparant chaque mesure d'une acquisition réelle à une simulation équivalente. L'outil de segmentation "bas niveau" que nous avons développé s’appuie sur une modélisation des niveaux de l'image par une loi de mélange dont l'estimation des paramètres est réalisée par un algorithme SEM (Stochastic Expectation Maximization). La segmentation des volumes 3D est obtenue par un algorithme ICM (Iterative Conditional Mode). Nous avons comparé des segmentations basées sur des mélanges Gaussiens et Poissonniens à des segmentations par seuillage sur les volumes simulés. Ceci a montré la pertinence des segmentations obtenues à l’aide des lois de mélange, notamment celles obtenues avec les mélanges Poissonniens. Ces derniers ont été utilisés pour segmenter des images cérébrales réelles TEP 18FDG et calculer des statistiques descriptives des différents tissus. En vue d’obtenir une méthode de segmentation "haut niveau" et retrouver des structures anatomiques (zone nécrosée ou zone active d’une tumeur par exemple), nous avons proposé un processus exploitant le formalisme des processus ponctuels. Une étude de faisabilité nous a permis d’obtenir des résultats très encourageants
The objective of this thesis was to propose a new 3D segmentation method for scintigraphic imaging. The first part of the work was to simulate 3D volumes with known ground truth in order to validate a segmentation method over other. MonteCarlo simulations were performed using the GATE software (Geant4 Application for Emission Tomography). For this, we characterized and modeled the gamma camera "Imager" Biospace™ by comparing each measurement from a simulated acquisition to his real equivalent. The "low level" segmentation tool that we have developed is based on a modeling of the levels of the image by probabilistic mixtures. Parameters estimation is done by an SEM algorithm (Stochastic Expectation Maximization). The 3D volume segmentation is achieved by an ICM algorithm (Iterative Conditional Mode). We compared the segmentation based on Gaussian and Poisson mixtures to segmentation by thresholding on the simulated volumes. This showed the relevance of the segmentations obtained using probabilistic mixtures, especially those obtained with Poisson mixtures. Those one has been used to segment real 18FDG PET images of the brain and to compute descriptive statistics of the different tissues. In order to obtain a "high level" segmentation method and find anatomical structures (necrotic part or active part of a tumor, for example), we proposed a process based on the point processes formalism. A feasibility study has yielded very encouraging results
19

Gul, Mohammed Jaza. "Segmentation générique et classification dans des images 3D+T." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066600.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La segmentation est le principal problème de l'analyse d'image qui concerne l'extraction de l'information quantitative de l'image. La segmentation d'image partitionne une image en un nombre de régions separées du fond qui pourraient correspondre aux objets dans l'image. La technique la plus simple de segmentation est le seuillage, en considérant par exemple un seuil au dessous duquel les pixels/voxels sont considérés comme du fond. Le problème du seuillage est de trouver un seuil global; si le seuil est très bas, les objets se touchent et cela nécessite un post traitement, en revanche pour un seuil très haut, les objets ayant des intensités faibles seront supprimés. L'information qualitative peut être extraite directement sur l'image segmentée. Or, afin de donner plus de sens aux objets, les objets détéctés peuvent être assignés à des classes ou clusters d'objets prédefinis. Dans cette thèse, je présente une nouvelle contribution dans le domaine de l'informatique appliquée à la biologie. La contribution « informatique » c'est la nouvelle technique d'apprentisage supervisé (machine leaning) afin d'obtenir une nouvelle segmentation et classification sans paramètres. La contribution « biologique » c'est cette nouvelle technique appliquée à la segmentation et la classification de noyaux de differents embryons. Dans cette thèse, je présente une méthode automatique de segmentation et classification appliquée à l'étude de cycle cellulaire de noyaux dans l'embryon pour des images de microscopie 3D/4D. Ce qui permet aux biologistes d'étudier comment les cellules s'organisent spatialement et temporellement à l'intérieur de l'embryon, et de quantifier l'effet des perturbations génétiques et des médicaments. Dans cette thèse, deux nouvelles techniques de segmentation supervisée se basant sur l'apprentissage d'objects prédéfinis sont présentées. La première technique supervisée de segmentation dévéloppée est la composition de machine learning et de seuillage iteratif (seuillage montant). Pour chaque seuil, les objets détéctés passent par la classification. À la fin du seuillage, afin de trouver le meilleur seuil pour chaque objet, le seuil qui donne la plus haute probablité d' appartenance dans la classe stabilisée est pris. Cette technique a donné des résultats relativement bons sur 3 modèles différents d'image malgré la présence de variations d'intensité temporelle et spatiale. Dans la même prespective, une autre technique se basant sur une croissance de region (watershes descendant) a été développée pour surmonter les cas où noyaux de cellule se touchent et présentent des intensités inhomogènes. La technique est basée sur la croissance des région à partir des maximum locaux. Une fois que les régions se réunissent, des combinaisons de régions sont créées et la combinaision qui à la plus haute probablité d' appartenance aux classes d'objets prédéfinis. L'originalité de cette thèse est ; 1- la combinaision de segmentation et classification dans un processus unique. 2- la généricité du modèle de segmentation et classification étant applicable à des images de modèles biologiques différents. 3- l' fait de ne pas de necessité de réglage de paramètres ( Parameter-free )
Image segmentation, being the main challenge in image analysis that deals with extraction of quantitative information. Segmentation partitions an image into a number of separate regions which might correspond to objects in the image. The simplest technique is thresholding, by considering a threshold below which pixels/voxels are assumed as background. Finding optimal threshold is critical; if the threshold is very low, the observed nuclei in fluorescent image are touching and requires a post-processing, on the other hand, with very high threshold, nuclei with low intensities will be deleted. Afterwards, qualitative information can be extracted directly from segmented image. However, in order to give more meaning to detected objects, these objects can be assigned to predefined classes. This challenge is carried out in this thesis through an automatic method of segmentation and classification which was applied to the study of cell cycle of nuclei in 3D/4D embryo microscopy images. Our method ensures optimal threshold for each object. In this thesis, we present two new segmentation techniques which are based on supervised learning of predefined classes of objects. The first technique of supervised segmentation is realized by combining machine learning and iterative thresholding (bottom-up thresholding). For each threshold, the detected objects will be classified. At the end of thresholding, to find optimal threshold for each object, the threshold that gives the highest probability of belonging in the stabilized class is taken. This technique was tested on three different datasets and gave good results despite the presence of temporal and spatial variations of intensity. In the same perspective, another technique based on a region-growing (top-down thresholding) approach was developed to overcome overlapping and inhomogeneous cell nuclei problems. This technique is based on region-growth from the local maximum. Once the regions meet, combinations of regions are created and combination that gives the highest membership probability to predefined classes of object is retained. The originality of this work is that segmen- tation and classification are performed simultaneously. The program is also generic and applicable to wide biological datasets, without any parameter (parameter-free)
20

Gul, Mohammed Jaza. "Segmentation générique et classification dans des images 3D+T." Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066600.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La segmentation est le principal problème de l'analyse d'image qui concerne l'extraction de l'information quantitative de l'image. La segmentation d'image partitionne une image en un nombre de régions separées du fond qui pourraient correspondre aux objets dans l'image. La technique la plus simple de segmentation est le seuillage, en considérant par exemple un seuil au dessous duquel les pixels/voxels sont considérés comme du fond. Le problème du seuillage est de trouver un seuil global; si le seuil est très bas, les objets se touchent et cela nécessite un post traitement, en revanche pour un seuil très haut, les objets ayant des intensités faibles seront supprimés. L'information qualitative peut être extraite directement sur l'image segmentée. Or, afin de donner plus de sens aux objets, les objets détéctés peuvent être assignés à des classes ou clusters d'objets prédefinis. Dans cette thèse, je présente une nouvelle contribution dans le domaine de l'informatique appliquée à la biologie. La contribution « informatique » c'est la nouvelle technique d'apprentisage supervisé (machine leaning) afin d'obtenir une nouvelle segmentation et classification sans paramètres. La contribution « biologique » c'est cette nouvelle technique appliquée à la segmentation et la classification de noyaux de differents embryons. Dans cette thèse, je présente une méthode automatique de segmentation et classification appliquée à l'étude de cycle cellulaire de noyaux dans l'embryon pour des images de microscopie 3D/4D. Ce qui permet aux biologistes d'étudier comment les cellules s'organisent spatialement et temporellement à l'intérieur de l'embryon, et de quantifier l'effet des perturbations génétiques et des médicaments. Dans cette thèse, deux nouvelles techniques de segmentation supervisée se basant sur l'apprentissage d'objects prédéfinis sont présentées. La première technique supervisée de segmentation dévéloppée est la composition de machine learning et de seuillage iteratif (seuillage montant). Pour chaque seuil, les objets détéctés passent par la classification. À la fin du seuillage, afin de trouver le meilleur seuil pour chaque objet, le seuil qui donne la plus haute probablité d' appartenance dans la classe stabilisée est pris. Cette technique a donné des résultats relativement bons sur 3 modèles différents d'image malgré la présence de variations d'intensité temporelle et spatiale. Dans la même prespective, une autre technique se basant sur une croissance de region (watershes descendant) a été développée pour surmonter les cas où noyaux de cellule se touchent et présentent des intensités inhomogènes. La technique est basée sur la croissance des région à partir des maximum locaux. Une fois que les régions se réunissent, des combinaisons de régions sont créées et la combinaision qui à la plus haute probablité d' appartenance aux classes d'objets prédéfinis. L'originalité de cette thèse est ; 1- la combinaision de segmentation et classification dans un processus unique. 2- la généricité du modèle de segmentation et classification étant applicable à des images de modèles biologiques différents. 3- l' fait de ne pas de necessité de réglage de paramètres ( Parameter-free )
Image segmentation, being the main challenge in image analysis that deals with extraction of quantitative information. Segmentation partitions an image into a number of separate regions which might correspond to objects in the image. The simplest technique is thresholding, by considering a threshold below which pixels/voxels are assumed as background. Finding optimal threshold is critical; if the threshold is very low, the observed nuclei in fluorescent image are touching and requires a post-processing, on the other hand, with very high threshold, nuclei with low intensities will be deleted. Afterwards, qualitative information can be extracted directly from segmented image. However, in order to give more meaning to detected objects, these objects can be assigned to predefined classes. This challenge is carried out in this thesis through an automatic method of segmentation and classification which was applied to the study of cell cycle of nuclei in 3D/4D embryo microscopy images. Our method ensures optimal threshold for each object. In this thesis, we present two new segmentation techniques which are based on supervised learning of predefined classes of objects. The first technique of supervised segmentation is realized by combining machine learning and iterative thresholding (bottom-up thresholding). For each threshold, the detected objects will be classified. At the end of thresholding, to find optimal threshold for each object, the threshold that gives the highest probability of belonging in the stabilized class is taken. This technique was tested on three different datasets and gave good results despite the presence of temporal and spatial variations of intensity. In the same perspective, another technique based on a region-growing (top-down thresholding) approach was developed to overcome overlapping and inhomogeneous cell nuclei problems. This technique is based on region-growth from the local maximum. Once the regions meet, combinations of regions are created and combination that gives the highest membership probability to predefined classes of object is retained. The originality of this work is that segmen- tation and classification are performed simultaneously. The program is also generic and applicable to wide biological datasets, without any parameter (parameter-free)
21

Dillenseger, Jean-Louis. "Visualisation Scientifique en médecine.Application à la visualisation de l'anatomie et à la visualisation en épileptologie clinique." Habilitation à diriger des recherches, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00130932.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En médecine, le rôle de l'image est primordial. Depuis la renaissance, l'image a été un des vecteurs principaux de la transmission du savoir. Plus récemment, l'essor des techniques d'imageries tridimensionnelles n'a fait qu'étendre l'importance de l'image à la plupart des disciplines et des procédures médicales. Tout naturellement donc, la médecine a représenté un des domaines d'application privilégiés de la visualisation scientifique. Mes travaux de recherche s'inscrivent directement dans cette discipline de la visualisation scientifique et se présentent sous la forme de solutions de représentations originales apportées et associées à certaines problématiques médicales.
Pour cela, une réflexion sur l'outil de visualisation a été menée afin de proposer un cadre bien défini qui puisse guider l'élaboration d'un outil de représentation répondant à une discipline et à une problématique particulière. Le point le plus original de cette réflexion concerne un essai de formalisation de l'évaluation de la performance des outils de visualisation.
Deux grands domaines d'application ont justement permis de démontrer la pertinence de ce cadre général de la visualisation :
- La visualisation générale de l'anatomie avec, dans un premier temps, la conception d'un outil générique de visualisation de données médicale, le lancer de rayons multifonctions. Cet outil a été ensuite étendu selon deux axes de recherche, d'une part l'intégration de modèles de connaissances dans la procédure de synthèse d'images et d'autre part, l'imagerie interventionnelle et plus particulièrement des applications en urologie.
- Les apports de la visualisation pour l'interprétation des données recueillies sur le patient épileptique et plus particulièrement l'élaboration d'outils complémentaires permettant une analyse progressive des mécanismes et structures impliqués dans la crise.
22

Daul, Christian. "Segmentation, recalage et reconstruction 3D de données.Traitement d'images médicales et industrielles." Habilitation à diriger des recherches, Institut National Polytechnique de Lorraine - INPL, 2008. http://tel.archives-ouvertes.fr/tel-00326078.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail de recherche relaté dans ce manuscrit présente mes activités en traitement d'images que j'ai menées successivement dans trois organismes, à savoir le Laboratoire des Sciences de l'Image, de l'Informatique et de la Télédétection (LSIIT, UMR CNRS/Université Louis Pasteur de Strasbourg), l'Institut für Techno- und Wirtschaftsmathematik'' (Fraunhofer Institut, Kaiserslautern, Allemagne) et le Centre de Recherche en Automatique de Nancy (CRAN, UMR CNRS/Nancy Université). D'un point de vue scientifique, mes principales activités en traitement d'images concernent la segmentation d'images dont le contenu, relativement complexe, requiert des algorithmes utilisant des connaissances a priori liées aux objets à segmenter (contours actifs, méthode s'inspirant de la transformée de Hough. Le recalage de donnée 2D ou 3D et monomodales ou multimodales est un autre aspect scientifique caractérisant le travail décrit ici. Ces thèmes de recherche, ainsi que des méthodes de reconstruction et/ou de superposition de données 3D ont conduit à des solutions originales dans le cadre de problèmes industriels (reconstruction 3D de pièces manufacturées pour une mesure dimensionnelle et classification de surfaces en fonction de leur teinte et texture) ou médicaux (diagnostic précoce du cancer du sein via la reconstruction du foyer de microcalcifications, positionnement de patients en radiothérapie intra crânienne par recalage 3D multimodal, aide au diagnostic de maladies cardio-vasculaires par la superposition de données multimodales et détection du cancer de la vessie par mosaïquage d'images).
23

He, Shuang. "Production et visualisation de niveaux de détail pour les modèles 3D urbains." Ecole centrale de Nantes, 2012. http://portaildocumentaire.citechaillot.fr/search.aspx?SC=theses&QUERY=+marie+Durand#/Detail/%28query:%28Id:%270_OFFSET_0%27,Index:1,NBResults:1,PageRange:3,SearchQuery:%28CloudTerms:!%28%29,ForceSearch:!t,Page:0,PageRange:3,QueryString:%27Shuang%20he%27,ResultSize:10,ScenarioCode:theses,ScenarioDisplayMode:display-standard,SearchLabel:%27%27,SearchTerms:%27Shuang%20he%27,SortField:!n,SortOrder:0,TemplateParams:%28Scenario:%27%27,Scope:%27%27,Size:!n,Source:%27%27,Support:%27%27%29%29%29%29.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les modèles 3D urbains sont de plus en plus utilisés dans une large variété d'applications urbaines, comme plates-formes d’intégration et de visualisation de diverses informations. Ce travail porte sur la production et la visualisation de niveaux de détail pour les modèles 3D urbains, en vue de leur utilisation dans des applications SIG. Ce travail propose une solution hybride pour la production de niveaux de détail pour les modèles 3D urbains en utilisant une combinaison de techniques : l'extrusion, l'intégration, la généralisation et la modélisation procédurale. La condition préalable à l’utilisation de notre solution est de disposer des données (comme les empreintes au sol des bâtiments provenant du cadastre) pour générer des modèles volumiques de bâtiments et des données (comme le réseau routier, division administrative, etc. ) pour diviser la ville en unités significatives. Il peut également tirer avantage de l’utilisation d’autres modèles 2D et 3D d’objets de la ville autant que possible. Parce que ces exigences peuvent être remplies à faible coût, la solution peut être facilement adoptée. L’objectif principal de ce travail porte sur les techniques et les algorithmes de généralisation. Un cadre de la généralisation est proposé sur la base du diviser pour régner, réalisé par subdivision de la couverture du sol et la généralisation de cellules. Le cadre permet la généralisation à l’échelle de la ville entière vers des modèles plus abstraits et facilite la généralisation à l’échelle locale en regroupant les objets selon une subdivision hiérarchique de la ville. Une mise en œuvre de la généralisation à l’échelle de la ville est réalisée sur la base de ce cadre. Une approche basée sur l’empreinte au sol des bâtiments est développée pour généraliser les groupes de bâtiments 3D, qui peut être utilisée pour la généralisation à l’échelle locale. En outre, en utilisant les niveaux de détail des modèles 3D produits par la solution proposée, trois exemples de visualisation sont donnés pour démontrer quelques-unes des utilisations possibles : une visualisation multi-échelle, une visualisation « focus + contexte », ainsi qu’une visualisation dépendant de la vue
3D city models have been increasingly used in a variety of urban applications as platforms to integrate and visualize diverse information. This work addresses level-of-detail production and visualization of 3D city models, towards their use in GIS applications. This work proposes a hybrid solution to LoD production of 3D city models, using a combination of techniques: extrusion, integration, generalization, and procedural modeling. The prerequisite for using our solution is to have data (like 2D cadastral buildings) for generating city coverage volumetric building models and data (like road network, administrative division, etc) for dividing the city into meaningful units. It can also gain advantage from using other accessible 2D and 3D models of city objects as many as possible. Because such requirements can be fulfilled at low cost, the solution may be easily adopted. The main focus of this work is placed on generalization techniques and algorithms. A generalization framework is proposed based on the divide-and-conquer concept, realized by land cover subdivision and cell-based generalization. The framework enables city scale generalization towards more abstract city models, and facilitates local scale generalization by grouping city objects according to city cells. An implementation of city scale generalization is realized based on the framework. A footprint-based approach is developed for generalizing 3D building groups at medium LoD, which can be used for local scale generalization. Moreover, using the LoD 3D city models produced by the proposed solution, three visualization examples are given to demonstrate some of the potential uses: multi-scale, focus + context, and view-dependent visualization
24

Prat, Sylvain. "Compression et visualisation de grandes scènes 3D par représentation à base topologique." Rennes 1, 2007. http://www.theses.fr/2007REN1S039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Si les applications de visualisation de scènes 3D sont maintenant légion depuis l'avènement de cartes graphiques 3D puissantes permettant un rendu 3D temps-réel, le rendu de grandes scènes 3D reste toujours problématique du fait du trop grand nombre de primitives 3D à traiter pendant le court laps de temps s'écoulant entre deux images successives. D'autre part, la démocratisation d'internet dans les foyers créé de nouveaux besoins, et notamment celui de naviguer dans de grands environnements 3D au travers d'un réseau. Les applications sont en effet nombreuses : jeu vidéo, tourisme virtuel, géolocalisation (GPS), architecture virtuelle, imagerie médicale 3D. . . Dans ce cadre, les utilisateurs échangent des informations concernant l'univers virtuel au travers du réseau. Le sujet de cette thèse s'inscrit entre ces deux problématiques. Nous nous interessons au cas particulier de la visualisation de villes virtuelles dans un contexte « communiquant » où les données 3D transitent sur le réseau. Ce type d'application soulève deux problèmes majeurs : d'une part, la sélection des données pertinentes à transmettre à l'utilisateur, car il est trop coûteux de transmettre l'intégralité de l'univers virtuel 3D avant le début de la navigation ; d'autre part, la prise en compte des contraintes réseau : faible débit, latence, tolérance aux erreurs. Dans cette thèse, nous proposons plusieurs contributions : une méthode de compression générique permettant notamment de traiter les maillages volumiques, une méthode de construction et de partitionnement de scènes 3D urbaines à partir d'emprises au sol, et une méthode optimisée de construction de surfaces complexes à partir d'une soupe de polygones
If visualization applications of 3D scenes are now widespread since the advent of powerful 3D graphics cards allowing real-time 3D rendering, the rendering of large 3D scenes remains problematic because of the too many 3D primitives to handle during the short period of time elapsing between two successive image frames. On the other hand, the democratisation of the Internet at home creates new needs, including the need to navigate into large 3D environments through a network. Applications are indeed numerous: video games, virtual tourism, geolocalization (GPS), virtual architecture, 3d medical imaging. . . Within this context, users exchange and share information regarding the virtual environment over the network. The subject of this thesis is in-between these two issues. We are interested in the special case of viewing virtual cities in a "communicating" fashion where 3D data pass over the network. This type of application raises two major problems: first, the selection of relevant data to be transmitted to the user, because it's too expensive to transmit the full 3D environment before the navigation starts; on the other hand, taking into account the network constraints: low bandwidth, latency, error tolerance. In this thesis, we propose several contributions: a generic compression method, suitable for the compression of volume meshes, a method for constructing and partitioning 3D urban scenes from buildings footprints, and an optimized method for building complex surfaces from a polygon soup
25

Hayat, Khizar. "Visualisation 3D adaptée par insertion synchronisée de données cachées." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00400762.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif principal de ces travaux de thèse est d'unifier différentes informations 2D et 3D afin de réaliser une visualisation adaptée dans un environnement client/serveur hétérogène en termes de réseau, de traitement et de ressources mémoire. Dans ce contexte, nous avons exploité la nature multi-résolution de la transformée en ondelettes discrètes (TOD) du codeur JPEG2000. L'unification des données est réalisée par insertion aveugle, synchrone ou partiellement synchrone, des données cachées dans le domaine des ondelettes. Une visualisation 3D classique nécessite au moins deux types de données : une image 2D d'intensité, appelé texture, et une forme 3D pouvant être représentée par une image, un modèle 3D ombré ou un maillage de points. Ce type d'image, parfois également appelé carte de profondeur est une image dans laquelle la valeur des pixels reflète la distance du capteur à la surface par imagerie. La texture est une image 2D couleur qui est apposée sur le modèle 3D après triangulation. Au niveau de l'insertion des données cachées, la carte de profondeur est d'abord transformée dans le domaine des ondelettes tandis que la texture est insérée dans le codeur JPEG2000. Le processus de codage JPEG2000 de la texture est interrompue, et les coefficients 3D sont insérés dans la totalité ou dans un sous-ensemble des sous-bandes de la texture. Les données sont re-intégrées dans le codeur standard de JPEG2000 à l'endroit où l'interruption a été faite. Le fichier résultant peut alors être envoyé à travers tous types de canal de communication comme un autre fichier standard issu du codeur JPEG2000. Les différents niveaux de résolution et le caractère synchronisé de nos algorithmes permettent une visualisation en 3D, même avec peu de sous-bandes de résolution suite à un transfert partiel ou retardé. La méthode permet ainsi d'effectuer une visualisation à partir uniquement d'une fraction des données. Dans ce cas nous remplaçons par des zéros les coefficients des sous-bandes manquantes. La première phase de ce travail a concerné l'imperceptibilité; c'est la raison pour laquelle l'insertion a été réalisée dans les bits de poids plus faibles. La deuxième phase de ces travaux a concerné la robustesse, c'est pourquoi une stratégie d'insertion par étalement de spectres a été utilisée. Au cours de la seconde phase, l'imperceptibilité n'a pas été complètement ignorée, du fait que l'insertion des données est effaçable après l'extraction. Les deux applications principales sont la visualisation 3D de modèles numériques de terrains et de visages. Dans la troisième et dernière phase de ces travaux de thèse, nous avons élargi le problème en essayant de prendre en compte le problème d'assemblage de dalles de niveaux de résolutions différentes sans soudure apparente. Ceci a eté assuré par des fonctions de lissage dans le domaine des ondelettes.
26

Michetti, Jérôme. "Segmentation endodontique sur des images scanner 3D : méthodes et validation." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30186.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans les cabinets dentaires, la dévitalisation des dents est un traitement réalisé quotidiennement (6 millions de traitement par an en France). Une bonne connaissance de l'anatomie canalaire (intérieur de la dent ou endodonte) est un pré requis indispensable au succès d'un traitement endodontique. Pour faire face aux nombreuses variations anatomiques qui viennent compliquer cette thérapeutique, les chirurgiens-dentistes ne disposent essentiellement que de la radiographie intra-buccale deux dimensions (2D) laquelle ne permet pas la complète compréhension de cette anatomie 3D. Distorsion, compression de l'anatomie et superposition des structures avoisinantes perturbent la qualité de l'image n'autorisant pas une évaluation qualitative et quantitative précise de cette anatomie. Les appareils de tomographie volumique à faisceau conique (TVFC) présents dans les cabinets dentaires pourraient constituer une alternative en fournissant de petites reconstructions 3D de structures dento-maxillofaciales. Mais l'évaluation de la précision diagnostique des TVFC dentaires sur l'anatomie canalaire est nécessaire afin de pouvoir justifier leur indication pour les traitements endodontiques. En effet, le développement d'une méthode de segmentation endodontique sur des images de TVFC n'est pas aisée du fait de la finesse de cette anatomie canalaire par rapport à la résolution du système d'imagerie, de la qualité d'image et de la difficulté à valider les résultats obtenus. Afin d'aider la thérapeutique endodontique, les travaux réalisés dans cette thèse ont pour but de fournir des outils informatiques et des méthodes utiles à l'obtention d'une évaluation quantitative du réseau canalaire radiculaire. Après une présentation de l'anatomie endodontique et des principes du traitement canalaire, nous avons décrits les caractéristiques techniques des appareils de tomographie volumique à faisceau conique et les outils existants pour évaluer de manière quantitative cette anatomie sur des images issues de micro-scanners haute-résolution dédiés à la recherche. Nous avons ensuite proposé une méthode pour évaluer les résultats de segmentation endodontique en TVFC par comparaison avec les données micro-scanners. Afin de valider cette méthode et d'évaluer la faisabilité de segmenter l'endodonte en TVFC, nous avons testé un seuillage local adaptatif développé pour répondre à notre problématique sur des dents extraites. Pour permettre la validation des résultats de segmentation sur des images de qualité clinique (dégradée par les structures anatomiques autour des dents dans et hors champ de vue), nous avons élaboré et validé un fantôme parodontal réalisé autour de dents extraites et permettant de préserver la comparaison avec la vérité terrain fournie par les micro-scanners. En fin de thèse, nous avons évoqué les perspectives basées sur l'apprentissage profond et les premières études réalisées pour compenser la réduction de la qualité d'image afin de pouvoir tester et valider la segmentation endodontique en condition clinique
In dental offices, endodontic or root canal treatments are daily performed (over 6 million treatments per year in France). A good knowledge of the root canal anatomy (inside of the tooth or pulp) is an indispensable prerequisite for ensuring the success of root canal treatment. To understand and overpass common morphological variations which are potential source of failures during the treatment, two-dimensional (2D) intra buccal radiography can help dental surgeons. However, distortion, anatomical compression and neighboring anatomical structures superposition reduce image quality and do not allow an accurate qualitative and quantitative evaluation of the root canal anatomy. Cone-beam computed tomography (CBCT) available in dental offices might be an alternative by providing 3D reconstructions of dento-maxillofacial structures. But the evaluation of the diagnostic accuracy of dental CBCT devices in identifying root canal anatomy is necessary to justify their indication in endodontic treatment. Indeed, root canal segmentation on (CBCT) images is difficult because of the noise level, resolution limitations, and to the difficulty to validate results. To help dental surgeons in root canal treatment, this thesis aims at providing image processing methods in order to develop segmentation and visualization methods of the inside of the teeth. To begin with, we have introduced the root canal morphology, the different rules of the root canal treatment and described technical specifications of CBCT devices. We also investigated existing techniques and methods to explore quantitatively root canal anatomy on high resolution microcomputed tomography (µCT) images. Afterwards, we proposed a method to evaluate CBCT endodontic segmentation results by comparing with equivalent µCT data. To validate this method and to test endodontic segmentation on CBCT images, we developed a local adaptive thresholding and evaluated results on extracted teeth. To ensure validation on image quality similar to in vivo condition (quality reduced by anatomical structures in and out of the field of view), we designed and validated a periodontal phantom which are made around extracted teeth and allowing to preserve comparison with the ground truth providing by the µCT. At the end of the thesis, we evocated our perspectives based on deep learning and our first results to compensate image quality reduction in order to test endodontic segmentation in clinical condition
27

Meftah, Anis. "Compression et codage scalable d'objets 3D pour leur visualisation et manipulation sur des systèmes hétérogènes." Nice, 2011. http://www.theses.fr/2011NICE4083.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec les évolutions technologiques, l’industrie de l’imagerie 3D a des besoins de qualité de rendu de plus en plus grandissants, ce qui implique une augmentation des volumes de données à stocker ou à transmettre. Dans ce contexte, cette thèse porte sur le traitement des objets 3D dit « out-of-core » c’est-à-dire qui ne peuvent pas être chargés totalement en mémoire à cause de leurs grandes tailles. L’enjeu est de proposer de nouvelles techniques pour la manipulation, la visualisation et la compression de ce type de données. Nous proposons des méthodes génériques au fil de l’au permettant un traitement local au fur et à mesure de la lecture ou de l’acquisition de ces objets 3D. Dans une première partie, cette thèse se concentre sur le traitement multi résolution des maillages surfaciques 3D et plus précisément sur les trois aspects suivants : la compression, la mesure de qualité et la visualisation. Les techniques proposées sont très puissantes et permettent la manipulation des objets « out-of –core » composés de plusieurs milliards de polygones sur des ordinateurs standards avec un minimum de ressources. Dans une deuxième partie, nous nous focalisons sur le traitement des objets 3D voxéliques. Nous présentons un schéma de compression au fil de l’eau multi résolution traitant des objets de plusieurs téraoctets de données. Ensuite, nous exploitons les spécificités géométriques des objets 3D, comme par exemple les failles et les horizons dans le domaine sismique, pour améliorer les performances de schéma proposé
With the latest technological progress, the 3D imaging industry needs to increase more and more the rendering quality, which implies an augmentation in the volume of date stored or transmitted. In this context, this thesis focuses on the processing of 3D out-of-core objects which cannot be entirely loaded into memory because of their huge sizes. The challenge is to introduce new techniques for processing, visualization and compression of such data. We then purpose generic scan-based methods, enabling the local processing while reading or scanning the 3D objects. In the first part, this thesis focuses on the processing of multi-resolution 3D surface meshes and specifically on three main areas : compression, quality measurement and visualization. The proposed techniques are very powerful and allow the manipulation of out-of-core meshes composed of billions of polygons on standard computers with a minimum of resources. In the second part, we focus on the processing of 3D volume objects. We present a scan-based compression scheme dealing with terabytes of data. Furthermore, we exploit the geometry specificities of 3D objects, such as faults and horizons in seismic field, to improve the performances of the presented scheme
28

Jamin, Clément. "Algorithmes et structures de données compactes pour la visualisation interactive d’objets 3D volumineux." Thesis, Lyon 1, 2009. http://www.theses.fr/2009LYO10133.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes de compression progressives sont désormais arrivées à maturité (les taux de compression sont proches des taux théoriques) et la visualisation interactive de maillages volumineux est devenue une réalité depuis quelques années. Cependant, même si l’association de la compression et de la visualisation est souvent mentionnée comme perspective, très peu d’articles traitent réellement ce problème, et les fichiers créés par les algorithmes de visualisation sont souvent beaucoup plus volumineux que les originaux. En réalité, la compression favorise une taille réduite de fichier au détriment de l’accès rapide aux données, alors que les méthodes de visualisation se concentrent sur la rapidité de rendu : les deux objectifs s’opposent et se font concurrence. A partir d’une méthode de compression progressive existante incompatible avec le raffinement sélectif et interactif, et uniquement utilisable sur des maillages de taille modeste, cette thèse tente de réconcilier compression sans perte et visualisation en proposant de nouveaux algorithmes et structures de données qui réduisent la taille des objets tout en proposant une visualisation rapide et interactive. En plus de cette double capacité, la méthode proposée est out-of-core et peut traiter des maillages de plusieurs centaines de millions de points. Par ailleurs, elle présente l’avantage de traiter tout complexe simplicial de dimension n, des soupes de triangles aux maillages volumiques
Progressive compression methods are now mature (obtained rates are close to theoretical bounds) and interactive visualization of huge meshes has been a reality for a few years. However, even if the combination of compression and visualization is often mentioned as a perspective, very few papers deal with this problem, and the files created by visualization algorithms are often much larger than the original ones. In fact, compression favors a low file size to the detriment of a fast data access, whereas visualization methods focus on rendering speed : both goals are opposing and competing. Starting from an existing progressive compression method incompatible with selective and interactive refinements and usable on small-sized meshes only, this thesis tries to reconcile lossless compression and visualization by proposing new algorithms and data structures which radically reduce the size of the objects while supporting a fast interactive navigation. In addition to this double capability, our method works out-of-core and can handle meshes containing several hundreds of millions vertices. Furthermore, it presents the advantage of dealing with any n-dimensional simplicial complex, which includes triangle soups or volumetric meshes
29

Marquez, Florez Jorge Alberto. "Analyse et visualisation des structures complexes en 3d : une approche par frontières discrètes." Paris, ENST, 1999. http://www.theses.fr/1999ENST0047.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ce travail est la segmentation, la morphométrie et la visualisation de structures complexes tridimensionnelles, en particulier des microstructures poreuses et des vaisseaux sanguins qui présentent des ramifications compliquées. Nous avons étudié ainsi les différents problèmes poses par l'analyse de ce type de données volumiques, comprenant les définitions des attributs de complexité examinées dans le chapitre 1, les représentations par frontières discrètes (chapitre 2) et des applications spécifiques (chapitre 3, 4 et 5). L'étude de tels problèmes nous a amenés d'abord à identifier et a caractériser les attributs morphologiques des structures complexes, tels que : cohérence, structures tubulaires, ramifications, dimension fractale, interfaces, porosité, rugosité et d'autres. Ensuite, nous avons choisi une approche en géométrie discrète pour l'extraction des surfaces, le traitement et la visualisation des données volumiques. Dans cette approche (chapitre 2), les surfaces extérieures ou frontières des objets détectes sont représentées par des listes de facettes. Une partie importante des traitements consiste à analyser et modifier ces listes et les structures de données associées, en examinant les facettes et les voxels voisins pour effectuer les opérations ou mesures nécessaires. L'extraction de telles frontières se fonde sur une méthode de parcours du graphe dirige associe à la surface de chaque objet. Divers outils sont alors introduits, tels que les voisinages des facettes et des frontières, les voisinages géodésiques, le parcours de l'intérieur géométrique et des filtres de morphologie mathématique fondes sur la représentation par frontière. En ce qui concerne les domaines d'applications, nous avons travaillé sur deux ensembles de données volumiques correspondant à deux problématiques différentes respectivement en biomédecine et en physique. La première application a été développée sur des données biomédicales correspondant aux poumons et provenant du visible human project (vhp) de la national library of medicine. Les coupes anatomiques du vhp posent des problèmes particuliers pour la segmentation et la visualisation des structures internes et nous avons ainsi développe une technique novatrice pour la correction d'hétérogénéités radiométriques régionales. Nous avons obtenu des visualisations réalistes de l'arbre vasculaire pulmonaire obtenu à la suite des différentes étapes de la segmentation et du traitement 3d, toujours en utilisant la représentation par frontières. La deuxième application a pu être abordée dans le cadre d'une collaboration avec le laboratoire de physique des surfaces du centre national d'études en telecommunications, à Bagneux. Le problème a consisté à mesurer les propriétés de porosité, rugosité, connexité et distribution des paramètres morpho métriques extraits des résultats obtenus par simulation numérique d'un photo-dépôt amorphe de nitride-silicium. Nous avons effectué des reconstructions 3d, l'identification des composantes connexes et l'extraction des parametresmorphometriques. Les visualisations et les mesures obtenues ont permis aux chercheurs du cnet de connaitre : la taille et la forme des pores, la taille et la forme des amas du dépôt, la distribution de la porosité par rapport à la température, ainsi que la qualité d'interpénétration de plusieurs espèces d'atomes. En outre, les rendus 3d permettront de repérer des transitions critiques de la morphologie des amas, identifies clairement par des étiquettes en couleur. Au total, plusieurs des techniques développées et les résultats présents profitent des outils de notre approche par frontières, ainsi que des concepts et attributs des structures complexes étudies.
30

Márquez, Flores Jorge Alberto. "Analyse et visualisation des structures complexes en 3D : une approche par frontières discrètes /." Paris : École nationale supérieure des télécommunications, 2001. http://catalogue.bnf.fr/ark:/12148/cb37630605c.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Arnaud, Adrien. "Études et conception d'algorithmes de reconstruction 3D sur tablettes : génération automatique de modèles 3D éditables de bâtiments existants." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS512/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ces travaux de thèse consiste à mettre en place des solutions algorithmiques permettant de reconstruire un modèle 3D éditable d'un environnement intérieur à l'aide d'une tablette équipée d'un capteur de profondeur.Ces travaux s'inscrivent dans le contexte de la rénovation d'intérieur. Les normes Européennes poussent à la rénovation énergétique et à la modélisation 3D des bâtiments existants. Des outils professionnels utilisant des capteurs de type LIDAR permettent de reconstruire des nuages de points de très grande qualité, mais sont coûteux et longs à mettre en œuvre. De plus, il est très difficile d'identifier automatiquement les constituants d'un bâtiment pour en exporter un modèle 3D éditable complet.Dans le cadre de la rénovation d’intérieur, il n'est pas nécessaire de disposer des informations sur l'ensemble du bâtiment, seules les principales dimensions et surfaces sont nécessaires. Nous pouvons alors envisager d'automatiser complètement le processus de modélisation 3D.La mise sur le marché de capteurs de profondeur intégrables sur tablettes, et l'augmentation des capacités de calcul de ces dernières nous permet d'envisager l'adaptation d'algorithmes de reconstruction 3D classiques à ces supports.Au cours de ces travaux, nous avons envisagé deux approches de reconstruction 3D différentes. La première approche s'appuie sur des méthodes de l'état de l'art. Elle consiste à générer un maillage 3D d'un environnement intérieur en temps réel sur tablette, puis d'utiliser ce maillage 3D pour identifier la structure globale du bâtiment (murs, portes et fenêtres). La deuxième approche envisagée consiste à générer un modèle 3D éditable en temps réel, sans passer par un maillage intermédiaire. De cette manière beaucoup plus d'informations sont disponibles pour pouvoir détecter les éléments structuraux. Nous avons en effet à chaque instant donné un nuage de points complet ainsi que l'image couleur correspondante. Nous avons dans un premier temps mis en place deux algorithmes de segmentation planaire en temps réel. Puis, nous avons mis en place un algorithme d'analyse de ces plans permettant d'identifier deux plans identiques sur plusieurs prises de vue différentes. Nous sommes alors capables d'identifier les différents murs contenus dans l'environnement capturé, et nous pouvons mettre à jour leurs informations géométriques en temps réel
This thesis works consisted to implement algorithmic solutions to reconstruct an editable 3D model of an indoor environment using a tablet equipped with a depth sensor.These works are part of the context of interior renovation. European standards push for energy renovation and 3D modeling of existing buildings. Professional tools using LIDAR-type sensors make it possible to reconstruct high-quality point clouds, but are costly and time-consuming to implement. In addition, it is very difficult to automatically identify the constituents of a building to export a complete editable 3D model.As part of the interior renovation, it is not necessary to have information on the whole building, only the main dimensions and surfaces are necessary. We can then consider completely automating the 3D modeling process.The recent development of depth sensors that can be integrated on tablets, and the improvement of the tablets computation capabilities allows us to consider the adaptation of classical 3D reconstruction algorithms to these supports.During this work, we considered two different 3D reconstruction approaches. The first approach is based on state-of-the-art methods. It consists of generating a 3D mesh of an interior environment in real time on a tablet, then using this 3D mesh to identify the overall structure of the building (walls, doors and windows). The second approach envisaged is to generate a 3D editable model in real time, without passing through an intermediate mesh. In this way much more information is available to be able to detect the structural elements. We have in fact at each given time a complete point cloud as well as the corresponding color image. In a first time we have set up two planar segmentation algorithms in real time. Then, we set up an analysis algorithm of these plans to identify two identical planes on different captures. We are then able to identify the different walls contained in the captured environment, and we can update their geometric information in real-time
32

Gremillet, Philippe. "Reconstruction et visualisation de surfaces et de volumes en microscopie électronique à transmission et en microscopie confocale." Saint-Etienne, 1992. http://www.theses.fr/1992STET4004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le premier chapitre est effectué un bref historique relatant les travaux préliminaires réalisés lors du DEA, concernant la faisabilité d'une reconstruction 3D en microscopie électronique. Cette reconstruction implique la prise en compte des déformations géométriques dues à la découpe, ainsi que des variations d'éclairement. Dans le deuxième chapitre sont présentées les techniques mises en oeuvre afin de pouvoir corriger les déformations tant géométriques que d'éclairement. Les déformations géométriques sont gérées par un marquage externe à l'aide de tirs lasers préalablement à la découpe. Les variations d'éclairement sont stabilisées à l'aide de l'outil LIP (logarithmic image processing). Des techniques de visualisation en bloc de l'objet 3D reconstruit sont proposées. Le troisième chapitre présente des techniques de saisie et de visualisation de surfaces en microscopie confocale. Plusieurs types de visualisation sont proposés. Le quatrième chapitre traite du problème de visualisation d'objets marqués à l'aide d'une substance fluorescente, toujours en microscopie confocale. Une technique de visualisation de l'objet en semi-transparence est proposée, ainsi que la fusion de cette information avec des coupes opaques dans l'objet. Le dernier chapitre traite de la visualisation de l'enveloppe d'un objet, après contournage manuel coupe après coupe. Un algorithme de mise en correspondance des contours d'une coupe sur l'autre amenant une facettisation de l'enveloppe est présenté. Une visualisation lissée de l'enveloppe est proposée, conjointement à celle de coupes quelconques traversant le bloc
33

Guislain, Maximilien. "Traitement joint de nuage de points et d'images pour l'analyse et la visualisation des formes 3D." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE1219/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours de la dernière décennie, les technologies permettant la numérisation d'espaces urbains ont connu un développement rapide. Des campagnes d'acquisition de données couvrant des villes entières ont été menées en utilisant des scanners LiDAR (Light Detection And Ranging) installés sur des véhicules mobiles. Les résultats de ces campagnes d'acquisition laser, représentants les bâtiments numérisés, sont des nuages de millions de points pouvant également contenir un ensemble de photographies. On s'intéresse ici à l'amélioration du nuage de points à l'aide des données présentes dans ces photographies. Cette thèse apporte plusieurs contributions notables à cette amélioration. La position et l'orientation des images acquises sont généralement connues à l'aide de dispositifs embarqués avec le scanner LiDAR, même si ces informations de positionnement sont parfois imprécises. Pour obtenir un recalage précis d'une image sur un nuage de points, nous proposons un algorithme en deux étapes, faisant appel à l'information mutuelle normalisée et aux histogrammes de gradients orientés. Cette méthode permet d'obtenir une pose précise même lorsque les estimations initiales sont très éloignées de la position et de l'orientation réelles. Une fois ces images recalées, il est possible de les utiliser pour inférer la couleur de chaque point du nuage en prenant en compte la variabilité des points de vue. Pour cela, nous nous appuyons sur la minimisation d'une énergie prenant en compte les différentes couleurs associables à un point et les couleurs présentes dans le voisinage spatial du point. Bien entendu, les différences d'illumination lors de l'acquisition des données peuvent altérer la couleur à attribuer à un point. Notamment, cette couleur peut dépendre de la présence d'ombres portées amenées à changer avec la position du soleil. Il est donc nécessaire de détecter et de corriger ces dernières. Nous proposons une nouvelle méthode qui s'appuie sur l'analyse conjointe des variations de la réflectance mesurée par le LiDAR et de la colorimétrie des points du nuage. En détectant suffisamment d'interfaces ombre/lumière nous pouvons caractériser la luminosité de la scène et la corriger pour obtenir des scènes sans ombre portée. Le dernier problème abordé par cette thèse est celui de la densification du nuage de points. En effet la densité locale du nuage de points est variable et parfois insuffisante dans certaines zones. Nous proposons une approche applicable directement par la mise en oeuvre d'un filtre bilatéral joint permettant de densifier le nuage de points en utilisant les données des images
Recent years saw a rapid development of city digitization technologies. Acquisition campaigns covering entire cities are now performed using LiDAR (Light Detection And Ranging) scanners embedded aboard mobile vehicles. These acquisition campaigns yield point clouds, composed of millions of points, representing the buildings and the streets, and may also contain a set of images of the scene. The subject developed here is the improvement of the point cloud using the information contained in the camera images. This thesis introduces several contributions to this joint improvement. The position and orientation of acquired images are usually estimated using devices embedded with the LiDAR scanner, even if this information is inaccurate. To obtain the precise registration of an image on a point cloud, we propose a two-step algorithm which uses both Mutual Information and Histograms of Oriented Gradients. The proposed method yields an accurate camera pose, even when the initial estimations are far from the real position and orientation. Once the images have been correctly registered, it is possible to use them to color each point of the cloud while using the variability of the point of view. This is done by minimizing an energy considering the different colors associated with a point and the potential colors of its neighbors. Illumination changes can also change the color assigned to a point. Notably, this color can be affected by cast shadows. These cast shadows are changing with the sun position, it is therefore necessary to detect and correct them. We propose a new method that analyzes the joint variation of the reflectance value obtained by the LiDAR and the color of the points. By detecting enough interfaces between shadow and light, we can characterize the luminance of the scene and to remove the cast shadows. The last point developed in this thesis is the densification of a point cloud. Indeed, the local density of a point cloud varies and is sometimes insufficient in certain areas. We propose a directly applicable approach to increase the density of a point cloud using multiple images
34

Montagnat, Johan. "Modèles déformables pour la segmentation et la modélisation d'images médicales 3D et 4D." Phd thesis, Université de Nice Sophia-Antipolis, 1999. http://tel.archives-ouvertes.fr/tel-00683368.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous nous intéressons à l'utilisation des modèles déformables surfaciques pour la segmentation d'images 3D et 4D. Dans un premier temps, nous nous sommes attachés à contraindre l'espace des déformations admissibles du modèle afin de rendre le processus de déformation plus fiable. Nous avons utilisé le formalisme des maillages simplexes pour exprimer des contraintes régularisantes de la surface. Nous avons développé un processus évolutif de déformation combinant une transformation globale ayant peu de degrés de liberté et un champ de déformations locales. Il permet de contrôler le nombre de degrés de liberté offerts au modèle surfacique de manière simple et efficace. Nous avons également cherché à enrichir la connaissance a priori des données apportée par le modèle. Nous utilisons des contraintes de forme pour faciliter la segmentation des structures à reconstruire, notamment dans les zones où les données de l'image sont bruitées ou lacunaires. Nous nous sommes également intéressés à la convergence formelle du processus de déformation. Nous avons développé un algorithme de changement de topologie des modèles discrets que nous avons comparé à l'approche par ensembles de niveaux. Dans un deuxième temps, nous nous sommes intéressés à la définition du terme d'attache aux données pour différents types d'images 3D. Nous avons envisagé plusieurs géométries rencontrées dans les images médicales. Nous avons étudié l'apport d'une information sur les régions ou sur la distribution des niveaux de gris de l'image pour la déformation ou le recalage multimodal d'un modèle. Finalement, nous nous sommes intéressés à la segmentation de séquences temporelles d'images cardiaques 2D ou 3D. La prise en compte de l'information temporelle permet d'introduire de nouvelles contraintes de déformations. Nous avons mis nos méthodes en pratique avec la segmentation d'images ou des séquences d'images cardiaques provenant de différentes modalités d'acquisition.
35

Mille, Julien. "Modèle déformables pour la segmentation et le suivi en imagerie 2D et 3D." Tours, 2007. http://www.theses.fr/2007TOUR4051.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les modèles déformables tels que les contours actifs sont des outils généraux et puissants pour la segmentation, en permettant notamment l'adjonction de contraintes et de connaissances a priori sur les objets à segmenter. Un modèle déformable est une structure géométrique déformée à l'aide d'une méthode d'évolution afin de s'ajuster aux frontières des objets recherchés. La segmentation est formulée comme un problèpmme d'optimisation, le but étant de déterminer la courbe ou la surface minimisant une fonction objectif (une énergie) composée de termes internes relatifs à la régularité géométrique du modèle et de termes externes qui mettent en relation le modèlle et l'image. Dans cette thèse, nous développons un modèle de contour actif pour la segmentation 2D et un modèle de surface active pour la segmentation 3D, ces deux modèles étant basés sur un formalisme unifié. Nous généralisons également le modèle de surface au problème de segmentation et suivi 3D+T. Nous proposons un ensemble d'amélioration de l'algorithme glouton, une méthode de minimisation numérique de la fonctionnelle d'énergie. Nous développons un nouveau terme externe basé région, que nous appelons énergie de région en bande étroite. Ce terme combine des caractéristiques locales et globales des structures d'intérêts et présente des avantages tant au niveau calculatoire qu'au niveau de la cohérence par rapport aux données
Deformabe models such as active contours are general and powerful tools for image segmentation, enabling to add constraints and prior knowledge about the objects to be segmented. Deformable models are geometrical structures deformed by an evolution method in order to fit the object boundaries. Segmentation is expressed as an optimization problem, which purpose is to determine the curbe of the surface minimizing an objective function (an energy), made up of internal terms related to to model's geometrical smoothness and external terms attaching the model to the image data. In this thesis, we develop an active contour model for 2D segmentation and an active surface model for 3D segmentation, both being based on a unified framework. We also extend the surface model to 3D+T segmentation and tracking. We propose several improvements on the greedy algorithm, a numerical method minimizing the objective function. We also develop an original region-based external term, referring it to as narroy band region energy. It combines local and global features about structures of interest and offers advantages relative to the computational cost and consistency with respect to data
36

Montagnat, Johan. "Modeles deformables pour la segmentation et la modelisation d'images medicales 3d et 4d." Nice, 1999. https://tel.archives-ouvertes.fr/tel-00683368.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette these, nous nous interessons a l'utilisation des modeles deformables surfaciques pour la segmentation d'images 3d et 4d. Dans un premier temps, nous nous sommes attaches a contraindre l'espace des deformations admissibles du modele afin de rendre le processus de deformation plus fiable. Nous avons utilise le formalisme des maillages simplexes pour exprimer des contraintes regularisantes de la surface. Nous avons developpe un processus evolutif de deformation combinant une transformation globale ayant peu de degres de liberte et un champ de deformations locales. Il permet de controler le nombre de degres de liberte offerts au modele surfacique de maniere simple et efficace. Nous avons egalement cherche a enrichir la connaissance a priori des donnees apportee par le modele. Nous utilisons des contraintes de forme pour faciliter la segmentation des structures a reconstruire, notamment dans les zones ou les donnees de l'image sont bruitees ou lacunaires. Nous nous sommes egalement interesses a la convergence formelle du processus de deformation. Nous avons developpe un algorithme de changement de topologie des modeles discrets que nous avons compare a l'approche par courbes de niveaux. Dans un deuxieme temps, nous nous sommes interesses a la definition du terme d'attache aux donnees pour differents types d'images 3d. Nous avons envisage plusieurs geometries rencontrees dans les images medicales. Nous avons etudie l'apport d'une information sur les regions ou sur la distribution des niveaux de gris de l'image pour la deformation ou le recalage multimodal d'un modele. Finalement, nous nous sommes interesses a la segmentation de sequences temporelles d'images cardiaques 2d ou 3d. La prise en compte de l'information temporelle permet d'introduire de nouvelles contraintes de deformations. Nous avons mis nos methodes en pratique avec la segmentation d'images ou des sequences d'images cardiaques provenant de differentes modalites d'acquisition.
37

Dufour, Alice. "Segmentation et modélisation des structures vasculaires cérébrales en imagerie médicale 3D." Thesis, Strasbourg, 2013. http://www.theses.fr/2013STRAD050/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les images angiographiques sont utilisés pour différentes tâches comme le diagnostique, le suivie de pathologies et la planification d'interventions chirurgicales. Toutefois, en raison du faible ratio signal sur bruit et le contenu complexe des données (informations clairsemées), l'analyse des images angiographiques est une tâche fastidieuse et source d'erreurs. Ces différentes considérations ont motivé le développement de nombreuses techniques d'analyse.Les travaux de cette thèse s'organisent autour de deux axes de recherches : d'une part la segmentation des images angiographiques, et d'autre part la modélisation des réseaux vasculaires cérébraux. En segmentation, l'automatisation induit généralement un coût de calcul élevé, alors que les méthodes interactives sont difficiles à utiliser en raison de la dimension et de la complexité des images. Ces travaux présentent un compromis entre les deux approches, en utilisant le concept de segmentation à base d'exemple. Cette stratégie qui utilise les arbres de coupes de façon non standard,conduit à des résultats satisfaisant, lorsqu'elle est appliqué sur des données d'ARM cérébrales 3D. Les approches existantes, en modélisation, reposent exclusivement sur des informations relatives aux vaisseaux. Ces travaux ont exploré une nouvelle voie, consistant à utiliser à la fois les informations vasculaires et morphologiques ( c-à-d structures cérébrales) pour améliorer la précision et la pertinence des atlas obtenus. Les expériences soulignent des améliorations dans les principales étapes du processus de création de l'atlas impacté par l'utilisation de l'information morphologique. Un exemple d'atlas cérébraux a été réalisé
Angiographie images are useful data for several tasks, e.g., diagnosis, pathology follow-up or surgery planning. However, due to low SNR (noise,artifacts), and complex semantic content (sparseness), angiographie image analysis is a time consurning and error prone task. These consideration have motivated the development of numerous vesse! filtering, segmentation, or modeling techinques.This thesis is organized around two research areas : the segmentation anù the moùeling. Segmentation of cerebral vascular networks from 3D angiographie data remains a challenge. Automation generally induces a high computational cost and possible errors, white interactive methods are hard to use due to the dimension and the complexity of images. This thesis presents a compromise between both approaches by using the concept of example-based segmentation. This strategy, which uses component-trees in a non-standard fashion, leads to promising results, when applied on cerebral MR angiographie data. The generation of cerebrovascular atlases remains a complex and infrequently considered issue. The existing approaches rely on information exclusively related to the vessels. This thesis investigate a new way, consisting of using both vascular and morphological information (i.e. Cerebral structures) to improve the accuracy and relevance of the obtaines vascular atlases. Experiments emphasize improvments in the main steps of the atlas generation process impacted by the use of the morphological information. An example of cerebrovascular atlas obtained from a dataset of MRAs acquired form different acquisition devices has been provided
38

Bilodeau, Guillaume-Alexandre. "Segmentation en parties d'objets 3D provenant d'images 2D réelles et complexes." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape8/PQDD_0011/MQ41855.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Sebbahi, Ali. "Segmentation 2D et 3D par modèles déformables en imagerie cardio-vasculaire." Paris 12, 1995. http://www.theses.fr/1995PA120040.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous placons notre etude dans le cadre de la segmentation 2d et 3d en imagerie cardio-vasculaire d'une structure bien definie: une cavite sanguine entouree par une paroi musculaire. Si d'un point de vue theorique, les deux milieux, sang et paroi, sont consideres comme quasi-homogenes, il en est rarement ainsi. Toutes les modalites d'imagerie (scanner x, irm, imagerie ultrasonore) rencontrent ces deux problemes, qui sont differemment caracterises selon l'agent physique employe. Nous etablissons un modele 3d de deformation de surface pour reconstruire le volume cardiaque, a partir de coupes d'images 2d, ou analyser dynamiquement les sequences d'images 2d. Afin de mieux prendre en compte les problemes lies a l'estimation de l'interface entre la cavite et la paroi, la segmentation est realisee a un niveau local, regional et global. Cette procedure se decompose en deux processus d'equilibre complementaires et sequentiels. D'une part, un processus de deformation discret deplace un point, independamment des autres points du maillage, vers un minimum local du champ externe et, d'autre part, un processus de stabilisation continu, par une interpolation spline bicubique, evalue si le point deplace correspond a un minimum regional du champ externe (seuil de distance de chanfrein). La convergence du processus de segmentation est obtenue par stabilisation de morceaux de contours dans le cas 2d et par stabilisation de surfaces elementaires en 3d. Le compromis entre la forme et la nature de l'objet depend des poids relatifs entre les differents termes d'energie. Ceux-ci sont controles de maniere adaptative, par un critere de concavite lie a la geometrie du systeme cardio-vasculaire. Une validation 2d et des resultats 3d sur differents volumes cardio-vasculaires, ont permis d'obtenir des resultats satisfaisants pour lesquels la variation des parametres est relativement faible et rend par consequent le processus de segmentation robuste
40

Bosnjak, Seminario Antonio. "Segmentation et modélisation dynamiques : application à la reconstruction 3D d'images échocardiographiques." Rennes 1, 2003. http://www.theses.fr/2003REN10018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine médical, les systèmes d'imagerie sont de plus en plus performants et fournissent un nombre important d'images des structures internes du corps humain. Dans ce contexte, il est essentiel de développer des chaînes de traitement et d'analyse de ces informations afin d'aider le diagnostic médical. En échocardiographie, le traitement et l'analyse quantitatifs décuplent leur potentiel quand on utilise un système d'acquisition 3D. Dans cet objectif, nous avons développé une nouvelle chaîne de traitement qui contribue à améliorer le diagnostic médical à partir de la reconstruction 3D d'images ultrasons. Cette chaîne est divisée en plusieurs modules : acquisition, filtrage, segmentation et reconstruction 3D, modélisation, visualisation, et extraction de paramètres cliniques. Dans chacun des modules on a réalisé plusieurs contributions. La plus importante consiste en un modèle de fusion entre une méthode de segmentation locale évoluée (front de propagation 3D) et un modèle global de superquadriques afin d'extraire de manière précise les parois du ventricule gauche (VG) dans le cas de perte de régions. Cette segmentation permet en outre la visualisation 3D temporelle et le calcul de paramètres cliniques importants. En conclusion, la visualisation 3D du cœur en mouvement, le comportement du modèle virtuel et les valeurs des paramètres cliniques sont des informations importantes pour le cardiologue. Nul doute qu'elles contribueront à diagnostiquer avec une plus grande précision les maladies cardiovasculaires.
41

Deveau, Matthieu. "Utilisation conjointe de données image et laser pour la segmentation et la modélisation 3D." Paris 5, 2006. http://www.theses.fr/2006PA05S001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sujet de cette thèse est l’automatisation de la modélisation 3D de scènes complexes par combinaison d’une image numérique haute résolution et de données laser. Ces travaux s’articulent autour de trois principaux thèmes : l’estimation de pose, la segmentation et la modélisation. L’estimation de pose s’appuie sur l’appariement de points d’intérêts par corrélation entre image numérique et image d’intensité laser, et sur l’extraction d’éléments linéaires. La segmentation géométrique des données a été étudiée en s’appuyant sur le principe de segmentation hiérarchique, ce qui permet de combiner les données dans le processus de segmentation. Un outil de saisie semi-automatique basé sur la structure hiérarchique est proposé. La modélisation a été abordée au niveau des surfaces construites à partir de profils quelconques. On obtient ainsi une description de la scène en plans, cylindres à profils quelconques, surfaces de révolution et maillage, pour les parties complexes
This thesis deals with combining a digital image with laser data for complex scenes 3D modeling automation. Image and laser data are acquired from the same point of view, with a greater image resolution than the laser one. This work is structured around three main topics pose estimation, segmentation and modeling. Pose estimation is based both on feature points matching, between the digital image and the laser intensity image, and on linear feature extraction. Data segmentation into geometric features is done through a hierarchical segmentation scheme, where image and laser data are combined. 3D modeling automation is studied through this hierarchical scheme. A tool for semi-automated modeling is also derived from the hierarchical segmentation architecture. In the modeling step, we have focused on automatic modeling of cylinders with free-form profiles. The description is then very general, with planes, freeform profile cylinders, revolution objects, and meshes on complex parts
42

Moussa, Richard. "SEGMENTATION MULTI-AGENTS EN IMAGERIE BIOLOGIQUE ET MÉDICALE : APPLICATION AUX IRM 3D." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2011. http://tel.archives-ouvertes.fr/tel-00652445.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La segmentation d'images est une opération cruciale pour le traitement d'images. Elle est toujours le point de départ des processus d'analyse de formes, de détection de mouvement, de visualisation, des estimations quantitatives de distances linéaires, de surfaces et de volumes. À ces fins, la segmentation consiste à catégoriser les voxels en des classes basées sur leurs intensités locales, leur localisation spatiale et leurs caractéristiques de forme ou de voisinage. La difficulté de la stabilité des résultats des méthodes de segmentation pour les images médicales provient des différents types de bruit présents. Dans ces images, le bruit prend deux formes : un bruit physique dû au système d'acquisition, dans notre cas l'IRM (Imagerie par Résonance Magnétique), et le bruit physiologique dû au patient. Ces bruits doivent être pris en compte pour toutes les méthodes de segmentation d'images. Durant cette thèse, nous nous sommes focalisés sur des modèles Multi-Agents basés sur les comportements biologiques des araignées et des fourmis pour effectuer la tâche de segmentation. Pour les araignées, nous avons proposé une approche semi-automatique utilisant l'histogramme de l'image pour déterminer le nombre d'objets à détecter. Tandis que pour les fourmis, nous avons proposé deux approches : la première dite classique qui utilise le gradient de l'image et la deuxième, plus originale, qui utilise une partition intervoxel de l'image. Nous avons également proposé un moyen pour accélérer le processus de segmentation grâce à l'utilisation des GPU (Graphics Processing Unit). Finalement, ces deux méthodes ont été évaluées sur des images d'IRM de cerveau et elles ont été comparées aux méthodes classiques de segmentation : croissance de régions et Otsu pour le modèle des araignées et le gradient de Sobel pour les fourmis.
43

Khotanlou, Hassan. "Segmentation 3D de tumeurs et de structures internes du cerveau en IRM." Phd thesis, Télécom ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00003662.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sujet principal de cette thèse est la segmentation 3D de tumeurs du cerveau et de leurs différentes composantes (oedème et nécrose), ainsi que de structures internes du cerveau en IRM. Pour la segmentation de tumeurs nous proposons un cadre général qui est une combinaison des paradigmes fondés sur les régions et les contours. Dans ce cadre, nous segmentons d'abord le cerveau en utilisant une méthode adaptée aux cas pathologiques et extrayons des informations globales sur la tumeur par analyse de symétrie. La deuxième étape segmente la tumeur et ses composantes. Pour cela, nous proposons une méthode nouvelle et originale qui combine l'information de régions et de contours en deux phases. Pour la première, l'initialisation, nous présentons deux nouvelles méthodes. La première est une nouvelle méthode de classification floue qui exploite à la fois l'information des voxels et leurs voisinages (inspirés des champs Markov (MRF)), l'appartenance et la typicalité. La seconde se fonde sur l'analyse de la symétrie. La segmentation initiale de la tumeur est raffinée dans la deuxième phase par un modèle déformable contraint par des relations spatiales. Les relations spatiales sont obtenues en utilisant la segmentation initiale et les tissus environnant la tumeur. La méthode proposée peut être employée pour une grande classe de tumeurs dans n'importe quelle modalité en IRM. Pour segmenter une tumeur et ses composantes automatiquement, le cadre proposé a besoin seulement d'une image CE-T1w (con- trast enhanced T1-weighted) et d'une image FLAIR. Dans le cas d'une image CE-T1w seulement, l'interaction de l'utilisateur peut être nécessaire. Nous avons évalué cette méthode sur une base de données de 20 images CE-T1w et 10 images FLAIR avec différents types de tumeurs. Un autre but de cette thèse est la segmentation de structures internes du cerveau en présence d'une tumeur. Pour cela, une connaissance a priori sur l'anatomie et l'organisation spatiale des structures est fournie par une ontologie. Pour segmenter chaque structure, nous exploitons ses relations spatiales par rapport à d'autres structures, selon la connaissance a priori. Nous choisissons alors les relations spatiales qui sont valables en fonction de la tumeur segmentée. Ces relations spatiales sont alors modélisées dans un cadre flou proposé par notre groupe. Comme pour la tumeur, la procédure de segmentation de chaque structure comporte deux étapes. Dans la première étape nous recherchons la segmentation initiale de la structure dans le cerveau globalement segmenté. Le processus de recherche est fait dans la région d'intérêt fournie par la fusion des relations spatiales. Pour segmenter globalement les structures du cerveau nous employons deux méthodes. La première est la classification floue propos ée et la seconde repose sur les ensembles de niveaux multi-phases. Pour raffiner la segmentation initiale, nous employons un modèle déformable qui est contraint par les relations spatiales de la structure. Cette méthode a été également évaluée sur 10 images CE-T1w pour segmenter les ventricules, les noyaux caudés et les thalami.
44

Tran, Viet Dung. "Reconstruction et segmentation d'image 3D de tomographie électronique par approche "problème inverse"." Phd thesis, Université Jean Monnet - Saint-Etienne, 2013. http://tel.archives-ouvertes.fr/tel-01056695.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine du raffinage, les mesures morphologiques de particules sont devenues indispensables pour caractériser les supports de catalyseurs. À travers ces paramètres, on peut remonter aux spécificités physico-chimiques des matériaux étudiés. Une des techniques d'acquisition utilisées est la tomographie électronique (ou nanotomographie). Des volumes 3D sont reconstruits à partir de séries de projections sous différents angles obtenues par microscopie électronique en transmission (MET). Cette technique permet d'acquérir une réelle information tridimensionnelle à l'échelle du nanomètre. Les projections sont obtenues en utilisant les possibilités d'inclinaison du porte objet d'un MET. À cause des limitations mécaniques de ce porte objet (proximité avec les lentilles magnétiques et déplacement nanométrique), on ne peut acquérir qu'un nombre assez restreint de projections, celles-ci étant limitées à un intervalle angulaire fixe. D'autre part, l'inclinaison du porte objet est accompagnée d'un déplacement mécanique nanométrique non parfaitement contrôlé. Ces déplacements doivent être corrigés après l'acquisition par un alignement des projections suivant le même axe 3D de rotation. Cette étape est un pré-requis à la reconstruction tomographique. Nous suggérons d'utiliser une méthode de reconstruction tomographique par une approche de type "problème inverse". Cette méthode permet d'aligner des projections et de corriger les lacunes de l'acquisition de l'objet observé en introduisant de façon pertinente des informations a priori. Ces informations sont donc basées à la fois sur la physique de l'acquisition (nature physique des images MET, géométrie et limitation spécifique de l'acquisition des projections, etc...) et sur la nature des objets à reconstruire (nombre et répartition des phases, critères morphologiques de type de connexité, etc...). L'algorithme proposé permet de réaliser la reconstruction nanotomographique avec une grande précision et un temps de calculs réduit considérablement par rapport à la technique classique. Nous avons testé avec succès notre méthode pour les projections réelles de différents supports de catalyseur
45

André, Gilles. "Segmentation 3D d'images radiologiques : applications à la volumétrie d'organes et de lésions." Paris 11, 2002. http://www.theses.fr/2002PA112192.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La principale contribution de mes travaux de thèse concerne les méthodes de segmentation d'images radiologiques par croissance de régions. En premier lieu, le principe de cette approche est détaillé en faisant état de la bibliographie consacrée à ce type de segmentation. Dans un second temps, l'algorithme type croissance de région mis en oeuvre est décrit en formalisant et en étudiant la complexité du problème. Il s'agit, au cour de la propagation de la propriété d'appartenance de contraindre d'une part l'homogénéité des niveaux de gris d'une forme, et d'autre part, la connexité de ces mêmes voxels appartenant à cette forme. Concernant la première contrainte, lors de la propagation de la propriété d'appartenance, une analyse de l'évolution d'un ensemble de valeurs de moyenne et d'écart type des niveaux de gris des voxels est effectuée. Ce, afin de décider d'inclure ou non certains voxels à la forme segmentée. Des techniques statistiques plus robustes sont en suite introduites afin de rendre cet algorithme moins sensible à la présence du bruit. La deuxième contrainte liée à la trace d'une forme sur chaque coupe de l'examen, fait appel à trois types de traces dénommées: connexe, lacunaire et peine. L'introduction de ces trois types de traces pallie les inconvénients que présente la diversité des formes segmentées. Un système d'alertes a été mis au point, détectant la présence de traces aberrantes lors de l'exécution de l'algorithme. Cette approche permet de rendre la méthode de type croissance de régions plus robuste grâce à l'utilisation de connaissances rattachées à priori aux formes à segmenter. Mes travaux ont été validés d'abord sur des images synthétiques, puis sur des problèmes cliniques. Une étude de précision a été réalisée sur ces images en ayant pour objectif d'augmenter la robustesse de l'algorithme face à des formes peu disparates
The principal contribution of those works of research relates to the radiological techniques of region- growing image segmentation. Initially, the principle of this approach is detailed by giving a report on the bibliography devoted to this kind of segmentation. In the second time, the region-growing algorithm implemented is described by formalizing and studying the problem complexity. It consists in constraining, during the propagation of the belonging property, in one hand, the grey-level homogeneity, and in the other hand the connexity of these same voxels pertaining to the form. Concerning the first constraint, during the propagation of the belonging property, an analysis of the evolution of the set of values of standard average and the deviation of the levels of grey of the voxels are carried out. This, in order to decide if we include or not some voxels with the segmented form. More robust statistical techniques in continuation are introduced in order to make this algorithm less sensitive to the presence of the noise. The second constraint related to the trace of a form on each cut of the examination, called upon three types of traces called: related, lacunar and pains. The introduction of these three types of traces mitigates the disadvantages which the diversity of the segmented forms presents. A system of alert was developed, detecting the presence of aberrant traces at the time of execution of the algorithm. This approach makes it possible to return the method of growth the more robust type of areas thanks to the utilisation of knowledge attached a priori to the forms to segment. My work was first validated on synthetic images, then on clinical problems. A study of precision was carried out on these images by having for objective to increase the robustness of the algorithm vis-à-vis not very disparate forms
46

Madra, Anna. "Analyse et visualisation de la géométrie des matériaux composites à partir de données d’imagerie 3D." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2387/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sujet du projet de thèse réalisée en cotutelle entre Laboratoire Roberval à l'Université de Technologie de Compiègne et le Centre de Composites à Haute Performance d'École Polytechnique de Montréal porté sur une proposition de l'architecture du deep learning avec sémantique pour la création automatisée des modèles de la microstructure de matériaux composites à partir d'imagerie de la micrographie aux rayons X. La thèse consiste de trois parties principales : d'abord les méthodes du prétraitement de données microtomographiques sont relevées, avec l'accent sur la segmentation de phases à partir d'images 2D. Ensuite, les propriétés géométriques des éléments de phases sont extraites et utilisées pour classifier et identifier de nouvelles morphologies. Cela est démontré pour le cas de composites chargés par les fibres courtes naturelles. L'approche de classification à l'aide des algorithmes d'apprentissage est reprise pour étudier les défauts dans un composite, mais en ajoutant les aspects spatiaux. En plus, un descripteur de haut niveau "génome de défauts" est introduit, qui permet de comparer l'état de défauts dans les différents échantillons. La deuxième partie introduit la segmentation structurelle sur l'exemple du renfort tissé du composite. La méthode repose sur un modèle du krigeage dual, calibré par l'erreur de segmentation provenant d'algorithme d'apprentissage. Finalement, le modèle krigé est repris pour construire une formulation stochastique du renfort à travers de processus gaussien et la distribution des propriétés physiques de la microstructure est extraite et prête pour la simulation numérique de la fabrication ou du comportement mécanique
The subject of the thesis project between Laboratoire Roberval at Université de Technologie Compiègne and Center for High-Performance Composites at Ecole Polytechnique de Montréal considered the design of a deep learning architecture with semantics for automatic generation of models of composite materials microstructure based on X-ray microtomographic imagery. The thesis consists of three major parts. Firstly, the methods of microtomographic image processing are presented, with an emphasis on phase segmentation. Then, the geometric features of phase elements are extracted and used to classify and identify new morphologies. The method is presented for composites filled with short natural fibers. The classification approach is also demonstrated for the study of defects in composites, but with spatial features added to the process. A high-level descriptor "defect genome" is proposed, that permits comparison of the state o defects between specimens. The second part of the thesis introduces structural segmentation on the example of woven reinforcement in a composite. The method relies on dual kriging, calibrated by the segmentation error from learning algorithms. In the final part, a stochastic formulation of the kriging model is presented based on Gaussian Processes, and distribution of physical properties of a composite microstructure is retrieved, ready for numerical simulation of the manufacturing process or of mechanical behavior
47

Terrasse, Rachel. "Transmission hétérosexuelle de HIV : visualisation et modélisation de l'infection de la muqueuse génitale féminine." Phd thesis, Université Jean Monnet - Saint-Etienne, 2012. http://tel.archives-ouvertes.fr/tel-00981483.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La transmission hétérosexuelle de HIV de l'homme vers la femme est le principal mode de contamination dans le monde. Il implique la mise en contact du sperme infecté avec la muqueuse génitale féminine saine, puis le passage du virus libre ou associé aux cellules à travers la muqueuse. Les mécanismes impliqués dans la transmission de HIV de l'homme vers la femme ainsi que l'impact du plasma séminal sur la transmission sélective des virus à tropisme R5 sont encore mal connus. Au cours de mon séjour doctoral nous avons visualisé le passage du virus associé aux cellules ainsi que du virus libre à travers la muqueuse génitale endocervicale. Dans un premier temps l'étude s'est focalisée sur la transmigration de cellules immunitaires infectées par HIV à travers un modèle in vitro de muqueuse endocervicale reconstruite, ainsi que sur le rôle du plasma séminal dans la transmission de HIV et la sélection des virus à tropisme R5. Par la suite, un virus chimérique fluorescent, réplicatif et infectieux, permettant sa détection par microscopie confocale sur plusieurs cycles de réplication, a été développé. Après mise en contact de ce virus chimérique, à tropisme X4 ou R5, avec la muqueuse endocervicale, nous avons visualisé par microscopie confocale l'infection des cellules épithéliales endocervicales et la transmission de HIV à des cellules immunitaires disposées au pôle basal. L'utilisation d'un modèle mathématique nous a permis de standardiser et quantifier la détection de cellules infectées dans la muqueuse. Mes travaux de thèse décrivent dans un premier temps l'importance du passage de HIV associé aux cellules dans la transmission hétérosexuelle, ainsi que l'implication du plasma séminal dans la sélection des virus à tropisme R5. De plus, le modèle virologique développé permet de visualiser directement la transmission hétérosexuelle de HIV à travers la muqueuse génitale féminine. J'ai ainsi démontré qu'il est possible de visualiser directement, de localiser et de quantifier la présence du virus au sein de la muqueuse. Cet outil virologique permettra d'approfondir les connaissances et la compréhension des mécanismes impliqués dans la transmission hétérosexuelle de HIV et dans la sélection des virus à tropisme R5
48

Fabry, Thomas. "Planification visuelle et interactive d'interventions dans des environnements d'accélérateur de particules émettant des rayonnements ionisants." Phd thesis, Université de Grenoble, 2014. http://tel.archives-ouvertes.fr/tel-01060156.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les radiations sont omniprésentes. Elles ont de nombreuses applications dans des domaines variés: en médecine, elles permettent de réaliser des diagnostiques et de guérir des patients; en communication, tous les systèmes modernes utilisent des formes de rayonnements électromagnétiques; et en science, les chercheurs les utilisent pour découvrir la composition et la structure des matériaux, pour n'en nommer que quelques-unes. Concrètement, la radiation est un processus au cours duquel des particules ou des ondes voyagent à travers différents types de matériaux. La radiation peut être très énergétique, et aller jusqu'à casser les atomes de la matière ordinaire. Dans ce cas, on parlera de radiation ionisante. Il est communément admis que la radiation ionisante peut être bien plus nocif pour les êtres vivants que la radiation non ionisante. Dans cette dissertation, nous traiterons de la radiation ionisante. La radioactivité est le processus d'émission des radiations ionisantes. Elle existe sous forme naturelle, et est présente dans les sols, dans l'air et notre planète entière est bombardée en permanence de rayonnements cosmiques énergétiques. Depuis le début du XXe siècle, les chercheurs sont capables de créer artificiellement de la matière radioactive. Cette découverte a offert de multiples avancées technologiques, mais a eu également de lourdes conséquences pour l'humanité comme l'ont démontrés les évènements de Tchernobyl et de Fukushima ou d'autres accidents dans le monde médical. Cette dangerosité a conduit à l'élaboration d'un système de radioprotection. Dans la pratique, la radioprotection est principalement mise en œuvre en utilisant la méthode ALARA. Cette méthodologie consiste à justifier, optimiser et limiter les doses reçues. Elle est utilisée conjointement avec les limites légales. Le facteur d'optimisation est contraint par le fait que l'exposition volontaire d'un travailleur aux radiations lors d'une opération doit être plus bénéfique que si aucune intervention humaine n'était conduite dans une situation donnée. Dans le monde industriel et scientifique, il existe des infrastructures qui émettent des rayonnements ionisants. La plupart d'entre elles nécessitent des opérations de maintenance. Dans l'esprit du principe ALARA, ces interventions doivent être optimisées pour réduire l'exposition des travailleurs aux rayonnements ionisants. Cette optimisation ne peut pas être réalisée de manière automatique car la faisabilité des interventions nécessite dans tous les cas une évaluation humaine. La planification des interventions peut cependant être facilitée par des moyens techniques et scientifiques comme par exemple un outil informatique. Dans le contexte décrit ci-dessus, cette thèse regroupe des considérations techniques et scientifiques, et présente la méthodologie utilisée pour développer des outils logiciels pour la mise en œuvre de la radioprotection.
49

Gélard, William. "Modélisation 3D et suivi visuel pour caractériser le phénotype de variétés de tournesol." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30207/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'augmentation constante de la demande alimentaire et énergétique dans le monde associée au réchauffement et changements climatiques ont poussé les recherches en agronomie vers le développement d'une agriculture plus durable et l'amélioration de la performance des cultures. Pour répondre à ces demandes, les chercheurs ont concentré leurs efforts sur le développement de méthodes de génotypage à haut débit (l'étude de la séquence génomique des plantes) et ont permis aux biologistes d'identifier les génotypes d'une grande quantité de plantes. De plus, comprendre les relations qui lient les génotypes (ADN) aux phénotypes (caractéristiques visuelles) qui évoluent en fonction des conditions d'irrigation, d'illumination ou de température est devenu un enjeu majeur dans la recherche agricole. Alors que les méthodes de génotypage ont été rapidement améliorées et automatisées au cours de la dernière décennie, les méthodes de phénotypage restent manuelles et parfois destructrices. Ces méthodes consistent à mesurer certains paramètres visuels d'une plante telle que : la hauteur de la tige principale, le nombre de feuilles, les angles d'initiation des feuilles ou la surface foliaire et plus important encore, à suivre ces paramètres tout au long de la croissance des plantes. Par conséquent, le nombre de plantes à cultiver est très important et les mesures prennent beaucoup de temps. Avec l'émergence des nouvelles technologies en vision par ordinateur et en robotique, les chercheurs en agronomie y ont vu un intérêt certain en vue d'automatiser la collecte et les mesures des données visuelles sur les plantes. La thèse porte sur la conception, le développement et la validation de traitements haut débit à exécuter automatiquement sur des images acquises sur des plantes de tournesol, en vue d'amplifier les capacités de phénotypage par les chercheurs en agronomie (et ultérieurement les évaluateurs de variétés et les semenciers). L'objectif est la mise au point d'un protocole d'acquisition d'images (en plante isolée) depuis un robot mobile (ou un système d'acquisition autonome) permettant d'améliorer, de moderniser et d'automatiser les méthodes de phénotypage actuelles afin d'aider les chercheurs en agronomie à collecter une grande quantité de données. Motivés par le souhait d'effectuer un phénotypage à haut débit, nous proposons une approche 3D pour extraire automatiquement les caractéristiques visuelles des plantes de tournesol cultivées en pot. Tout d'abord, un nuage de points 3D d'une plante est acquis avec des techniques classiques de Structure-from-Motion. Une étape de segmentation est ensuite effectuée pour extraire la tige principale et les feuilles. Dans le but de suivre les caractéristiques visuelles pendant la croissance des plantes, en particulier, suivre l'expansion foliaire de chaque feuille, une étape de labellisation basée sur le modèle botanique d'une plante est appliquée pour leur affecter une étiquette unique qui ne changera pas avec le temps. Enfin, les caractéristiques visuelles sont extraites et les résultats obtenus sur les plantes de tournesol démontrent l'efficacité de notre méthode et en font une étape encourageante vers le phénotypage haut débit
The constant increasing food and energy demand in the world associated to global warming and climate change issues, pushed the researchs in plant breeding to move towards the improvement of crops performance and development of a more sustainable agriculture. To meet these demands, the effort made by the researchers were focused on the development of high-throughput genotyping methods (i.e., the study of genome sequence of plants) and allowed the biologists to indentified the genotypes of a large amount of plants. Moreover, understanding the relationships that link the genotypes (DNA) to the phenotypes (visual characteristics) that evolve according environmental conditions like: light, water, drought, heat, etc. has become a main issue in agricultural research. While the genotyping methods were rapidly improved and automatized during the last decade, the phenotyping methods remain manual, sometimes destructive and non-replicable. The usual phenotyping methods consist to measure certain visual parameters of a plant such as: main stem heigh, number of leaves, leaf initiation angle or leaf area, but more importantly, be able to follow these parameters along the plant growth. Consequently, the number of plants to harvest is very important and the measurements are extremely time-consuming. The emergence and reliability of new technologies in computer vision and robotic have led the researchers to take an interest in them and to seek how they can be used in plant science. The thesis is focused on the design, development and validation of a high-throughput phenotyping method design for sunflower plant with an eye to amplify phenotyping capacities by Agronomists and Geneticists (and later varieties evaluators and seed producers). The aim is to improve, modernize and automatize the current phenotyping methods as a way to help the plant scientists to collect a large amount of data. Motivated by the wish to perform high-throughput plant phenotyping, we propose a 3D approach to automatically extract visual characteristics of sunflower plants grown in pot. First, a 3D point cloud of a plant is acquired with classical Structure-from-Motion techniques. A segmentation step is then proceeded to retrieve the main stem and the leaves. With the intention of following the visual characteristics during the plant growth, especially, the leaf area expansion rate of each leaf, a labelling step relying on the botanical model of a plant is performed to affect them a unique label that will not change over time. Finally, the visual characteristics are extracted and results obtained on sunflower plants demonstrate the efficiency of our method and make it an encouraging step toward high-throughput plant phenotyping
50

Valet, Nathalie. "Aide au diagnostic cardiovasculaire par superposition en 2 et 3D des images de coronarographie et tomoscintigraphie : segmentation de l'arbre coronaire et représentation 3D." Vandoeuvre-les-Nancy, INPL, 2004. http://www.theses.fr/2004INPL042N.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thèse s'intègre dans un projet d'aide au diagnostic des maladies coronariennes. Actuellement, ce diagnostic s'effectue grâce aux images de deux examens distincts (coronarographie et tomoscintigraphie) qui décrivent l'anatomie des artères et l'irrigation du myocarde. Chaque image apportant une information complémentaire (sténose, ischémie), le but est de générer une image contenant les deux renseignements liés afin de rendre plus clair le lien de cause à effet entre eux. La première partie concerne la segmentation automatique des artères sur les coronarographies de manière à signifier différemment les artères propres à l'irrigation de chaque face pour ensuite superposer en 2D et 3D les données de perfusion associées. La seconde partie décrit une mét. Hode, affranchie de toute donnée géométrique sur la structure des machines, utilisant des résultats de recalage pour reconstruire les artères schématiques sur le volume de perfusion. Des tests sont réalisés sur un fantôme et neuf patients
This work contributes to the conception of a diagnosis aid tool for coronary diseases. Currently, this diagnosis is done with two exams (coronarography, tomoscintigraphy) providing two complementary information: the arteries anatomy and the myocardium perfusion. The aim is creating a new multi-modal image showing clearly the link between both information (stenosis and ischemia) by registrating and superimposing data both in 2D and 3D. The first part deals with the automatic segmentation of arteries on coronarography in order to distingllish vessels of each side. Then, the related perfusion data is superimposed in 2D. The second part proposes an algorithm free from any acquisition systems dimensions as we use registration results. Using homologous points, arteries are 3D-reconstructed and the patient schematic tree is superimposed on his perfusion volume. This way, the link between stenosis and perfusion is clearly shown. Tests have been done on a phantom and nine patients

To the bibliography