Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Reconstruction d’image.

Дисертації з теми "Reconstruction d’image"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-41 дисертацій для дослідження на тему "Reconstruction d’image".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Takam, tchendjou Ghislain. "Contrôle des performances et conciliation d’erreurs dans les décodeurs d’image." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT107/document.

Повний текст джерела
Анотація:
Cette thèse porte sur le développement et l’implémentation des algorithmes de détection et de correction des erreurs dans les images, en vue de contrôler la qualité des images produites en sortie des décodeurs numériques. Pour atteindre les objectifs visés dans cette étude, nous avons commencé par faire l’état de lieu de l’existant. L’examen critique des approches en usage a justifié la construction d’un ensemble de méthodes objectives d’évaluation de la qualité visuelle des images, basées sur des méthodes d’apprentissage automatique. Ces algorithmes prennent en entrées un ensemble de caractéristiques ou de métriques extraites des images. En fonction de ces caractéristiques, et de la disponibilité ou non d’une image de référence, deux sortes de mesures objectives ont été élaborées : la première basée sur des métriques avec référence, et la seconde basée sur des métriques sans référence ; toutes les deux à distorsions non spécifiques. En plus de ces méthodes d’évaluation objective, une méthode d’évaluation et d’amélioration de la qualité des images basée sur la détection et la correction des pixels défectueux dans les images a été mise en œuvre. Les applications ont contribué à affiner aussi bien les méthodes d’évaluation de la qualité visuelle des images que la construction des algorithmes objectifs de détection et de correction des pixels défectueux par rapport aux diverses méthodes actuellement en usage. Une implémentation sur cartes FPGA des techniques développées a été réalisée pour intégrer les modèles présentant les meilleures performances dans de la phase de simulation
This thesis deals with the development and implementation of error detection and correction algorithms in images, in order to control the quality of produced images at the output of digital decoders. To achieve the objectives of this work, we first study the state-of the-art of the existing approaches. Examination of classically used approaches justified the study of a set of objective methods for evaluating the visual quality of images, based on machine learning methods. These algorithms take as inputs a set of characteristics or metrics extracted from the images. Depending on the characteristics extracted from the images, and the availability or not of a reference image, two kinds of objective evaluation methods have been developed: the first based on full reference metrics, and the second based on no-reference metrics; both of them with non-specific distortions. In addition to these objective evaluation methods, a method of evaluating and improving the quality of the images based on the detection and correction of the defective pixels in the images has been implemented. The proposed results have contributed to refining visual image quality assessment methods as well as the construction of objective algorithms for detecting and correcting defective pixels compared to the various currently used methods. An implementation on an FPGA has been carried out to integrate the models with the best performances during the simulation phase
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Piffet, Loïc. "Décomposition d’image par modèles variationnels : débruitage et extraction de texture." Thesis, Orléans, 2010. http://www.theses.fr/2010ORLE2053/document.

Повний текст джерела
Анотація:
Cette thèse est consacrée dans un premier temps à l’élaboration d’un modèle variationnel dedébruitage d’ordre deux, faisant intervenir l’espace BV 2 des fonctions à hessien borné. Nous nous inspirons ici directement du célèbre modèle de Rudin, Osher et Fatemi (ROF), remplaçant la minimisation de la variation totale de la fonction par la minimisation de la variation totale seconde, c’est à dire la variation totale de ses dérivées. Le but est ici d’obtenir un modèle aussi performant que le modèle ROF, permettant de plus de résoudre le problème de l’effet staircasing que celui-ci engendre. Le modèle que nous étudions ici semble efficace, entraînant toutefois l’apparition d’un léger effet de flou. C’est afin de réduire cet effet que nous introduisons finalement un modèle mixte, permettant d’obtenir des solutions à la fois non constantes par morceaux et sans effet de flou au niveau des détails. Dans une seconde partie, nous nous intéressons au problème d’extraction de texture. Un modèle reconnu comme étant l’un des plus performants est le modèle T V -L1, qui consiste simplement à remplacer dans le modèle ROF la norme L2 du terme d’attache aux données par la norme L1. Nous proposons ici une méthode originale permettant de résoudre ce problème utilisant des méthodes de Lagrangien augmenté. Pour les mêmes raisons que dans le cas du débruitage, nous introduisons également le modèle T V 2-L1, consistant encore une fois à remplacer la variation totale par la variation totale seconde. Un modèle d’extraction de texture mixte est enfin très brièvement introduit. Ce manuscrit est ponctué d’un vaste chapitre dédié aux tests numériques
This thesis is devoted in a first part to the elaboration of a second order variational modelfor image denoising, using the BV 2 space of bounded hessian functions. We here take a leaf out of the well known Rudin, Osher and Fatemi (ROF) model, where we replace the minimization of the total variation of the function with the minimization of the second order total variation of the function, that is to say the total variation of its partial derivatives. The goal is to get a competitive model with no staircasing effect that generates the ROF model anymore. The model we study seems to be efficient, but generates a blurry effect. In order to deal with it, we introduce a mixed model that permits to get solutions with no staircasing and without blurry effect on details. In a second part, we take an interset to the texture extraction problem. A model known as one of the most efficient is the T V -L1 model. It just consits in replacing the L2 norm of the fitting data term with the L1 norm.We propose here an original way to solve this problem by the use of augmented Lagrangian methods. For the same reason than for the denoising case, we also take an interest to the T V 2-L1 model, replacing again the total variation of the function by the second order total variation. A mixed model for texture extraction is finally briefly introduced. This manuscript ends with a huge chapter of numerical tests
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Wang, Zhihan. "Reconstruction des images médicales de tomodensitométrie spectrale par apprentissage profond." Electronic Thesis or Diss., Brest, 2024. http://www.theses.fr/2024BRES0124.

Повний текст джерела
Анотація:
La tomodensitométrie se concentre sur deux sujets clés : la réduction de la dose de radiation et l’imagerie multi-énergétique, qui sont interconnectés. La tomodensitométrie spectrale, une avancée émergente, capture des données sur plusieurs énergies de rayons X pour mieux distinguer les matériaux, minimisant le besoin de scans répétés et ainsi réduisant l’exposition globale aux radiations.Cependant, la réduction du nombre de photons dans chaque bin d’énergie rend les méthodes de reconstruction traditionnelles sensibles au bruit. Ainsi, l’apprentissage profond, qui a montré un potentiel considérable dans l’imagerie médicale, est envisagé.Cette thèse introduit un nouveau terme de régularisation intégrant des réseaux de neurones convolutifs pour relier les bins d’énergie à une variable latente, exploitant l’ensemble des données des bins pour une reconstruction synergique. À titre de preuve de concept, nous proposons Uconnect et sa variante MHUconnect, utilisant respectivement U-Nets et un UNet à multi-têtes en tant que réseaux de neurones convolutifs, où l’image d’un bin d’énergie spécifique sert de variable latente pour l’apprentissage supervisé. Ces méthodes ont été validées comme étant plus performantes que plusieurs méthodes existantes dans les tâches de reconstruction et de débruitage
Computed tomography (CT), a cornerstone of diagnostic imaging, focuses on two contemporary topics: radiation dose reduction and multi-energy imaging, which are inherently interconnected. As an emerging advancement, spectral CT can capture data across a range of X-ray energies for bettermaterial differentiation, reducing the need for repeat scans and thereby lowering overall radiationexposure. However, the reduced photon count in each energy bin makes traditional reconstruction methods susceptible to noise. Therefore, deep learning (DL) techniques, which have shown great promise in medical imaging, are being considered. This thesis introduces a novel regularizationterm that incorporates convolutional neural networks (CNNs) to connect energy bins to a latent variable, leveraging all binned data for synergistic reconstruction. As a proof-of concept, we propose Uconnect and its variant MHUconnect, employing U-Nets and the multi-head U-Net, respectively, as the CNNs, with images at a specific energy bin serving as the latent variable for supervised learning.The two methods are validated to outperform several existing approaches in reconstruction and denoising tasks
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Edjlali, Ehsan. "Fluorescence diffuse optical tomographic iterative image reconstruction for small animal molecular imaging with continuous-wave near infrared light." Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/10673.

Повний текст джерела
Анотація:
L’approximation par harmoniques sphériques (SPN) simplifiées de l’équation de transfert radiatif a été proposée comme un modèle fiable de propagation de la lumière dans les tissus biologiques. Cependant, peu de solutions analytiques ont été trouvées pour ce modèle. De telles solutions analytiques sont d’une grande valeur pour valider les solutions numériques des équations SPN, auxquelles il faut recourir dans le cas de tissus avec des géométries courbes complexes. Dans la première partie de cette thèse, des solutions analytiques pour deux géométries courbes sont présentées pour la première fois, à savoir pour la sphère et pour le cylindre. Pour les deux solutions, les conditions aux frontières générales tenant compte du saut d’indice de réfraction à l’interface du tissus et de son milieu environnant, telles qu’applicables à l’optique biomédicale, sont utilisées. Ces solutions sont validées à l’aide de simulations Monte Carlo basées sur un maillage de discrétisation du milieu. Ainsi, ces solutions permettent de valider rapidement un code numérique, par exemple utilisant les différences finies ou les éléments finis, sans nécessiter de longues simulations Monte Carlo. Dans la deuxième partie de cette thèse, la reconstruction itérative pour l’imagerie par tomographie optique diffuse par fluorescence est proposée sur la base d’une fonction objective et de son terme de régularisation de type Lq-Lp. Pour résoudre le problème inverse d’imagerie, la discrétisation du modèle de propagation de la lumière est effectuée en utilisant la méthode des différences finies. La reconstruction est effectuée sur un modèle de souris numérique en utilisant un maillage multi-échelle. Le problème inverse est résolu itérativement en utilisant une méthode d’optimisation. Pour cela, le gradient de la fonction de coût par rapport à la carte de concentration de l’agent fluorescent est nécessaire. Ce gradient est calculé à l’aide d’une méthode adjointe. Des mesures quantitatives utilisées en l’imagerie médicale sont utilisées pour évaluer la performance de l’approche de reconstruction dans différentes conditions. L’approche Lq-Lp montre des performances quantifiées élevées par rapport aux algorithmes traditionnels basés sur des fonction coût de type somme de carrés de différences.
Abstract : The simplified spherical harmonics (SPN) approximation to the radiative transfer equation has been proposed as a reliable model of light propagation in biological tissues. However, few analytical solutions have been found for this model. Such analytical solutions are of great value to validate numerical solutions of the SPN equations, which must be resorted to when dealing with media with complex curved geometries. In the first part of this thesis, analytical solutions for two curved geometries are presented for the first time, namely for the sphere and for the cylinder. For both solutions, the general refractiveindex mismatch boundary conditions, as applicable in biomedical optics, are resorted to. These solutions are validated using mesh-based Monte Carlo simulations. So validated, these solutions allow in turn to rapidly validate numerical code, based for example on finite differences or on finite elements, without requiring lengthy Monte Carlo simulations. provide reliable tool for validating numerical simulations. In the second part, iterative reconstruction for fluorescence diffuse optical tomography imaging is proposed based on an Lq-Lp framework for formulating an objective function and its regularization term. To solve the imaging inverse problem, the discretization of the light propagation model is performed using the finite difference method. The framework is used along with a multigrid mesh on a digital mouse model. The inverse problem is solved iteratively using an optimization method. For this, the gradient of the cost function with respect to the fluorescent agent’s concentration map is necessary. This is calculated using an adjoint method. Quantitative metrics resorted to in medical imaging are used to evaluate the performance of the framework under different conditions. The results obtained support this new approach based on an Lq-Lp formulation of cost functions in order to solve the inverse fluorescence problem with high quantified performance.
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Bussy, Victor. "Integration of a priori data to optimise industrial X-ray tomographic reconstruction." Electronic Thesis or Diss., Lyon, INSA, 2024. http://www.theses.fr/2024ISAL0116.

Повний текст джерела
Анотація:
Cette thèse explore des sujets de recherche dans le domaine du contrôle non destructif industriel par rayons X (CND). L’application de la tomographie CT s’est considérablement étendue et son utilisation s'est intensifiée dans de nombreux secteurs industriels. En raison des exigences croissantes et des contraintes sur les processus de contrôle, la CT se doit de constamment évoluer et s'adapter. Que ce soit en termes de qualité de reconstruction ou en temps d’inspection, la tomographie par rayons X est en constante progression, notamment dans ce qu’on appelle la stratégie de vues éparses. Cette stratégie consiste à reconstruire un objet en utilisant le minimum possible de projections radiologiques tout en maintenant une qualité de reconstruction satisfaisante. Cette approche réduit les temps d'acquisition et les coûts associés. La reconstruction en vues éparses constitue un véritable défi car le problème tomographique est mal conditionné, on le dit mal posé. De nombreuses techniques ont été développées pour surmonter cet obstacle, dont plusieurs sont basées sur l'utilisation d'informations a priori lors du processus de reconstruction. En exploitant les données et les connaissances disponibles avant l'expérience, il est possible d'améliorer le résultat de la reconstruction malgré le nombre réduit de projections. Dans notre contexte industriel, par exemple, le modèle de conception assistée par ordinateur (CAO) de l’objet est souvent disponible, ce qui représente une information précieuse sur la géométrie de l’objet étudié. Néanmoins, il est important de noter que le modèle CAO ne fournit qu’une représentation approximative de l'objet. En CND ou en métrologie, ce sont précisément les différences entre un objet et son modèle CAO qui sont d'intérêt. Par conséquent, l'intégration d'informations a priori est complexe car ces informations sont souvent "approximatives" et ne peuvent pas être utilisées telles quelles. Nous proposons plutôt d’utiliser judicieusement les informations géométriques disponibles à partir du modèle CAO à chaque étape du processus. Nous ne proposons donc pas une méthode, mais une méthodologie pour l'intégration des informations géométriques a priori lors la reconstruction tomographique par rayons X
This thesis explores research topics in the field of industrial non-destructive testing (NDT) using X-rays. The application of CT tomography has significantly expanded, and its use has intensified across many industrial sectors. Due to increasing demands and constraints on inspection processes, CT must continually evolve and adapt. Whether in terms of reconstruction quality or inspection time, X-ray tomography is constantly progressing, particularly in the so-called sparse-view strategy. This strategy involves reconstructing an object using the minimum possible number of radiographic projections while maintaining satisfactory reconstruction quality. This approach reduces acquisition times and associated costs. Sparse-view reconstruction poses a significant challenge as the tomographic problem is ill-conditioned, or, as it is often described, ill-posed. Numerous techniques have been developed to overcome this obstacle, many of which rely on leveraging prior information during the reconstruction process. By exploiting data and knowledge available before the experiment, it is possible to improve reconstruction results despite the reduced number of projections. In our industrial context, for example, the computer-aided design (CAD) model of the object is often available, which provides valuable information about the geometry of the object under study. However, it is important to note that the CAD model only offers an approximate representation of the object. In NDT or metrology, it is precisely the differences between an object and its CAD model that are of interest. Therefore, integrating prior information is complex, as this information is often "approximate" and cannot be used as is. Instead, we propose to judiciously use the geometric information available from the CAD model at each step of the process. We do not propose a single method but rather a methodology for integrating prior geometric information during X-ray tomographic reconstruction
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Tong, Xiao. "Co-registration of fluorescence diffuse optical tomography (fDOT) with Positron emission tomography (PET) and development of multi-angle fDOT." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112251/document.

Повний текст джерела
Анотація:
Ce travail de thèse concerne le traitement d’image fDOT (fDOT pour fluorescence diffuse optical tomography) suit vers deux axes. Le recalage d'images fDOT à l’aide de l’imagerie TEP (tomographie par émission de positons) et l’amélioration des reconstructions fDOT à l’aide de miroirs pour collecter des projections complémentaires. Il est présenté en deux parties : Dans la première partie, une méthode automatique pour recaler les images de fDOT avec les images de Tomographie par Emission de Positons (TEP) développée dans le but de corréler l’ensemble des informations issues de chaque modalité. Cette méthode de recalage est basée sur une détection automatique de marqueurs fiduciaires présents dans les deux modalités. La particularité de cette méthode est l’utilisation de l’image de surface obtenue en fDOT, qui sert à identifier la position en Z des marqueurs fiduciaires dans les images optiques. Nous avons testé cette méthode sur un modèle de souris porteuses de xénogreffes de tumeurs de cellules cancéreuses MEN2A qui imitent un carcinome thyroïdien médullaire humain, après une double injection de traceur radioactif : [18F]2-fluoro-2-Deoxy-D-glucose (FDG) pour l’imagerie TEP et un traceur optique d’infrarouge fluorescent, le Sentidye. Grâce à la précision de notre méthode, nous arrivons à démontrer que le signal Sentidye est présent à la fois dans la tumeur et les vaisseaux environnants [1]. La qualité des images fDOT est dégradée selon l’axe Z du fait d’un nombre limité de projections pour la reconstruction. Dans la deuxième partie, le travail s’est orienté vers une nouvelle méthode de reconstruction d’images fDOT à partir d’un nouveau système d’acquisition multi-angulaire avec deux miroirs placés de chaque côté de l’animal. Ce travail a été mené en collaboration avec le département CS d’University College London (UCL), partenaire du projet Européen FMT-XCT. Le logiciel TOAST développé par cette équipe a été utilisé comme source pour l’algorithme de reconstruction, et modifié pour s’adapter à notre problématique. Après plusieurs essais concernant l’ajustement des paramètres du programme, nous avons appliqué cette méthode sur un fantôme réaliste des tissus biologiques et chez la souris. Les résultats montrent une amélioration de l’image reconstruite d’un fantôme semi-cylindrique et de l’image de rein chez la souris, pour lesquelles la méthode des miroirs est supérieure à la méthode classique sans miroir. Malgré tout, nous avons observé que les résultats étaient très sensibles à certains paramètres, d’où une performance de reconstruction variable d’un cas à l’autre. Les perspectives futures concernent l’optimisation des paramètres afin de généraliser l’approche multi-angle
This thesis concerns the image processing of fluorescence diffuse optical tomography (fDOT), following two axes: FDOT image co-registration with PET (positron emission tomography) image and improvement of fDOT image reconstructions using mirrors to collect additional projections. It is presented in two parts:In the first part, an automatic method to co-register the fDOT images with PET images has been developed to correlate all the information from each modality. This co-registration method is based on automatic detection of fiducial markers (FM) present in both modalities. The particularity of this method is the use of optical surface image obtained in fDOT imaging system, which serves to identify the Z position of FM in optical images. We tested this method on a model of mice bearing tumor xenografts of MEN2A cancer cells that mimic a human medullary thyroid carcinoma, after a double injection of radiotracer [18F] 2-fluoro-2-Deoxy-D-glucose ( FDG) for PET imaging and optical fluorescent infrared tracer Sentidye. With the accuracy of our method, we can demonstrate that the signal of Sentidye is present both in the tumor and surrounding vessels.The fDOT reconstruction image quality is degraded along the Z axis due to a limited number of projections for reconstruction. In the second part, the work is oriented towards a new method of fDOT image reconstruction with a new multi-angle data acquisition system in placing two mirrors on each side of the animal. This work was conducted in collaboration with the CS Department of University College London (UCL), a partner of the European project FMT-XCT. TOAST software developed by this team was used as source code for the reconstruction algorithm, and was modified to adapt to the concerned problem. After several tests on the adjustment of program parameters, we applied this method on a phantom that simulating the biological tissue and on mice. The results showed an improvement in the reconstructed image of a semi-cylindrical phantom and the image of mouse kidney, for which the reconstruction of the mirrors geometry is better than that of conventional geometry without mirror. Nevertheless, we observed that the results were very sensitive to certain parameters, where the performance of reconstruction varies from one case to another. Future prospectives concern the optimization of parameters in order to generalize the multi-angle approach
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Boudjenouia, Fouad. "Restauration d’images avec critères orientés qualité." Thesis, Orléans, 2017. http://www.theses.fr/2017ORLE2031/document.

Повний текст джерела
Анотація:
Cette thèse concerne la restauration aveugle d’images (formulée comme un problème inverse mal-posé et mal-conditionné), en considérant particulièrement les systèmes SIMO. Dans un premier temps une technique d’identification aveugle de ce système où l’ordre du canal est inconnu (surestimé) est introduite. Nous introduisons d’abord une version simplifiée à coût réduit SCR de la méthode des relations croisées (CR). Ensuite, une version robuste R-SCR basée sur la recherche d’une solution parcimonieuse minimisant la fonction de coût CR est proposée. La restauration d’image est ensuite assurée par une nouvelle approche inspirée des techniques de décodage des signaux 1D et étendue ici aux cas de la restauration d’images en se basant sur une recherche arborescente efficace (algorithme ‘Stack’). Plusieurs améliorations de la méthode ‘Stack’ ont été introduites afin de réduire sa complexité et d’améliorer la qualité de restauration lorsque les images sont fortement bruitées. Ceci en utilisant une technique de régularisation et une approche d’optimisation all-at-once basée sur la descente du gradient qui permet de raffiner l’image estimée et mieux converger vers la solution optimale. Ensuite, les mesures de la qualité d’images sont utilisées comme fonctions de coûts (intégrées dans le critère global) et ce afin d’étudier leur potentiel pour améliorer les performances de restauration. Dans le contexte où l’image d’intérêt est corrompue par d’autres images interférentes, sa restauration nécessite le recours aux techniques de séparation aveugle de sources. Pour cela, une étude comparative de certaines techniques de séparation basées sur la propriété de décorrélation au second ordre et la parcimonie est réalisée
This thesis concerns the blind restoration of images (formulated as an ill-posed and illconditioned inverse problem), considering a SIMO system. Thus, a blind system identification technique in which the order of the channel is unknown (overestimated) is introduced. Firstly, a simplified version at reduced cost SCR of the cross relation (CR) method is introduced. Secondly, a robust version R-SCR based on the search for a sparse solution minimizing the CR cost function is proposed. Image restoration is then achieved by a new approach (inspired from 1D signal decoding techniques and extended here to the case of 2D images) based on an efficient tree search (Stack algorithm). Several improvements to the ‘Stack’ method have been introduced in order to reduce its complexity and to improve the restoration quality when the images are noisy. This is done using a regularization technique and an all-at-once optimization approach based on the gradient descent which refines the estimated image and improves the algorithm’s convergence towards the optimal solution. Then, image quality measurements are used as cost functions (integrated in the global criterion), in order to study their potential for improving restoration performance. In the context where the image of interest is corrupted by other interfering images, its restoration requires the use of blind sources separation techniques. In this sense, a comparative study of some separation techniques based on the property of second-order decorrelation and sparsity is performed
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Madec, Morgan. "Conception, simulation et réalisation d’un processeur optoélectronique pour la reconstruction d’images médicales." Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/MADEC_Morgan_2006.pdf.

Повний текст джерела
Анотація:
Le traitement optique des données tomodensitométriques fournies par les systèmes d’exploration volumique pourrait permettre d’accélérer considérablement les algorithmes de génération d’images dans le but de répondre aux besoins des futurs systèmes de thérapie assistée. Dans ce document, deux architectures optiques, correspondant aux deux opérations de base dans ce domaine, sont présentées : un système de filtrage et un système de rétroprojection. Ils sont abordés sous l’aspect matériel, puis sous l’aspect algorithmique. Quelle que soit la fonction réalisée, un processeur optique est toujours constitué de sources de lumière, d’afficheurs et de capteur d’images. L’état de l’art de ces composants révèle une faiblesse au niveau des afficheurs (SLM). En particulier, les SLM à base de cristaux liquides ferroélectriques sont étudiés en détail (modélisation, simulation et caractérisation de produits existants). L’intérêt des systèmes optiques de traitement est examiné à la fois du point de vue du temps de calcul, en comparaison avec les technologies numériques classiques, et en terme de qualité de traitement. Pour cela, les deux systèmes sont étudiés, dans un premier temps en simulation à l’aide d’un modèle approprié, puis expérimentalement sur un prototype. Dans le cadre du processeur de filtrage, les résultats restent plutôt moyens. Le rapport signal à bruit (SNR) sur les images reconstruites est de l’ordre de 20 dB en simulation avec un modèle dans lequel la majorité des distorsions géométriques n’ont pas été prises en compte. Les résultats expérimentaux mettent encore mieux en avant les limites de la méthode. Le travail de la lumière cohérente semble être un obstacle important. En revanche, les résultats avec le processeur de rétroprojection sont plutôt encourageants. Le modèle, beaucoup plus complet, et les simulations montrent qu’il est possible d’obtenir des images de qualité comparable à celles obtenues par calcul numérique (plus de 50 dB de SNR), avec une accélération d’un à deux ordres de grandeur. Les résultats obtenus avec le prototype expérimental confirment le potentiel de cette architecture. Une extension de ce travail concernant la réalisation d’un processeur hybride dédié à des algorithmes plus complexes (ex : l’algorithme ASSR pour la reconstruction d’image des CT-scan) est également présentée à la fin de ce document
Optical processing can be used to speed up some algorithms of image reconstruction from tomodensitometric data provided by volume exploration systems. This may be of high interest in order to meet the needs of future assisted therapy systems. Two systems are described in this document, corresponding to the two main steps of the above mentioned algorithms: a filtering processor and a backprojection processor. They are first considered under a material point of view. Whatever function it may compute, an optical processor is made up of light sources, displays and cameras. Present state-of-the-art devices highlight a weakness in display performances. Special attention has been focused on ferroelectric liquid crystal spatial light modulators (modelling, simulations, and characterizations of commercial solutions). The potential of optical architectures is compared with electronic solutions, considering computation power and processed image quality. This study has been carried out for both systems first in simulation, with a reliable model of the architecture, and then with an experimental prototype. The optical filtering processor does not give accurate results: the signal to noise ratio on the reconstructed image is about 20 dB in simulation (the model used does not take into account the majority of geometrical distortions) and experimental measurements show strong limitation, especially when considering the problem of image formation with coherent lighting (speckle). On the other hand, results obtained with the optical backprojection processor are most encouraging. The model, more complete and accurate than the filtering processor, as well as the simulations, shows that processed image quality can be virtually equivalent to the one obtained by digital means (signal to noise ratio is over 50 dB) with two order of magnitude speed-up. Results obtained with the experimental prototype are in accordance with simulations and confirm the potential held by the architecture. As an extension, a hybrid processor involving the backprojection processor for the computation of more complex reconstruction algorithms, e. G. ASSR for helical CT-scan, is proposed in the last part of the document
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Courchay, Jérôme. "Calibration par programmation linéaire et reconstruction spatio-temporelle à partir de réseaux d’images." Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1014/document.

Повний текст джерела
Анотація:
Le problème de la stéréovision à partir de caméras multiples calibrées capturant une scène fixe est étudié depuis plusieurs décennies. Les résultats présentés dans le benchmark de stéréovision proposé par Strecha et al., attestent de la qualité des reconstructions obtenues. En particulier, les travaux du laboratoire IMAGINE, mènent à des résultats visuellement impressionnant. Aussi, il devient intéressant de calibrer des scènes de plus en plus vastes, afin d'appliquer ces algorithmes de stéréovision de façon optimale. Trois objectifs essentiels apparaissent : – La précision de la calibration doit être améliorée. En effet comme pointé par Yasutaka Furukawa, même les benchmarks de stéréovision fournissent parfois des caméras bruitées à la précision imparfaite. Un des moyen d'améliorer les résultats de stéréovision est d'augmenter la précision de la calibration. – Il est important de pouvoir prendre en compte les cycles dans le graphe des caméras de façon globale. En effet la plupart des méthodes actuelles sont séquentielles, et dérivent. Ainsi ces méthodes ne garantissent pas, pour une très grande boucle, de retrouver cette configuration cyclique, mais peuvent plutôt retrouver une configuration des caméras en spirale. Comme on calibre des réseaux d'images, de plus en plus grand, ce point est donc crucial. – Pour calibrer des réseaux d'images très grands, il convient d'avoir des algorithmes rapides. Les méthodes de calibration que nous proposons dans la première partie, permettent de calibrer des réseaux avec une précision très proche de l'état de l'art. D'autre part elle permettent de gérer les contraintes de cyclicité par le biais d'optimisations linéaires sous contraintes linéaires. Ainsi ces méthodes permettent de prendre en compte les cycles et bénéficient de la rapidité de la programmation linéaire. Enfin, la recherche en stéréovision étant arrivée à maturité, il convient de s'intéresser à l'étape suivante, à savoir la reconstruction spatio-temporelle. La méthode du laboratoire IMAGINE représentant l'état de l'art en stéréovision, il est intéressant de développer cette méthode et de l'étendre à la reconstruction spatio-temporelle, c'est-à-dire la reconstruction d'une scène dynamique capturée par un dôme de caméras. Nous verrons cette méthode dans la seconde partie de ce manuscrit
The issue of retrieving a 3D shape from a static scene captured with multiple view point calibrated cameras has been deeply studied these last decades. Results presented in the stereovision benchmark made by Strecha et al., show the high quality of state of the art methods. Particularly, works from IMAGINE laboratory lead to impressive results. So, it becomes convenient to calibrate wider and wider scenes, in order to apply these stereovision algorithms to large scale scenes. Three main objectives appear : – The calibration accuracy should be improved. As stated by Yasutaka Furukawa, even stereovision benchmarks use noisy cameras. So one obvious way to improve stereovision, is to improve camera calibration. – It is crucial to take cycles into account in cameras graph in a global way. Most of nowadays methods are sequential and so present a drift. So these methods do not offer the guarantee to retrieve the loopy configuration for a loop made of a high number of images, but retrieve a spiral configuration. As we aim to calibrate wider and wider cameras networks, this point becomes quite crucial. – To calibrate wide cameras networks, having quick and linear algorithms can be necessary. Calibration methods we propose in the first part, allow to calibrate with an accuracy close to state of the art. Moreover, we take cyclicity constraints into account in a global way, with linear optimisations under linear constraints. So these methods allow to take cycle into account and benefit from quickness of linear programming. Finally, sterovision being a well studied topic, it is convenient to concentrate on the next step, that is, spatio-temporal reconstruction. The IMAGINE' stereovision method being the state of the art, it is interesting to extend this method to spatio-temporal reconstruction, that is, dynamique scene reconstruction captured from a dome of cameras
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Guénard, Jérôme. "Synthèse de modèles de plantes et reconstructions de baies à partir d’images." Thesis, Toulouse, INPT, 2013. http://www.theses.fr/2013INPT0101/document.

Повний текст джерела
Анотація:
Les plantes sont des éléments essentiels du monde qui nous entoure. Ainsi, si l’on veut créer des environnements virtuels qui soient à la fois agréables et réalistes, un effort doit être fait pour modéliser les plantes. Malgré les immenses progrès en vision par ordinateur pour reconstruire des objets de plus en plus compliqués, les plantes restent difficiles à reconstruire à cause de la complexité de leur topologie. Cette thèse se divise en deux grandes parties. La première partie s’intéresse à la modélisation de plantes, biologiquement réalistes, à partir d’une seule image. Nous générons un modèle de plante respectant les contraintes biologiques de son espèce et tel que sa projection soit la plus fidèle possible à l’image. La première étape consiste à extraire de l’image le squelette de la plante. Dans la plupart de nos images, aucune branche n’est visible et les images peuvent être de qualité moyenne. Notre première contribution consiste en une méthode de squelettisation basée sur les champs de vecteurs. Le squelette est extrait suite à un partitionnement non déterministe du feuillage de l’image assurant son réalisme. Dans un deuxième temps, la plante est modélisée en 3D. Notre deuxième contribution est la création de modèles pour différents types de plantes, basée sur les L-systèmes. Puis, un processus d’analyse-par-synthèse permet de choisir le modèle 3D final : plusieurs propositions de squelette sont générées et un processus bayésien permet d’extraire le modèle maximisant le critère a posteriori. Le terme d’attache aux données (vraisemblance) mesure la similarité entre l’image et la reprojection du modèle, la probabilité a priori mesure le réalisme du modèle. Après avoir généré des modèles de plantes, des modèles de fruits doivent être créés. Ayant travaillé principalement sur les pieds de vigne, nous avons développé une méthode pour reconstruire une grappe de raisin à partir d’au moins deux vues. Chaque baie est assimilée à un ellipsoïde de révolution. La méthode obtenue peut être plus généralement adaptée à tout type de fruits assimilables à une quadrique de révolution. La seconde partie de cette thèse s’intéresse à la reconstruction de quadriques de révolution à partir d’une ou plusieurs vues. La reconstruction de quadriques et, en général, la reconstruction de surfaces 3D est un problème très ancien en vision par ordinateur qui a donné lieu à de nombreux travaux. Nous rappelons les notions nécessaires de géométrie projective des quadriques, et de vision par ordinateur puis, nous présentons un état de l’art sur les méthodes existantes sur la reconstruction de surfaces quadratiques. Nous détaillons un premier algorithme permettant de retrouver les images des foyers principaux d’une quadrique de révolution à partir d’une vue « calibrée », c’est-à-dire pour laquelle les paramètres intrinsèques de la caméra sont connus. Puis, nous détaillons comment utiliser ce résultat pour reconstruire, à partir d’un schéma de triangulation linéaire, tout type de quadriques de révolution à partir d’au moins deux vues. Enfin, nous montrons comment il est possible de retrouver la pose 3D d’une quadrique de révolution dont on connaît les paramètres à partir d’un seul contour occultant. Nous évaluons les performances de nos méthodes et montrons quelques applications possibles
Plants are essential elements of our world. Thus, 3D plant models are necessary to create realistic virtual environments. Mature computer vision techniques allow the reconstruction of 3D objects from images. However, due to the complexity of the topology of plants, dedicated methods for generating 3D plant models must be devised. This thesis is divided into two parts. The first part focuses on the modeling of biologically realistic plants from a single image. We propose to generate a 3D model of a plant, using an analysis-by-synthesis method considering both a priori information of the plant species and a single image. First, a dedicated 2D skeletonisation algorithm generates possible branching structures from the foliage segmentation. Then, we built a 3D generative model based on a parametric model of branching systems taking into account botanical knowledge. The resulting skeleton follows the hierarchical organisation of natural branching structures. Varying parameter values of the generative model (main branching structure of the plant and foliage), we produce a series of candidate models. A Bayesian model optimizes a posterior criterion which is composed of a likelihood function which measures the similarity between the image and the reprojected 3D model and a prior probability measuring the realism of the model. After modeling plant models branching systems and foliage, we propose to model the fruits. As we mainly worked on vines, we propose a method for reconstructing a vine grape from at least two views. Each bay is considered to be an ellipsoid of revolution. The resulting method can be adapted to any type of fruits with a shape similar to a quadric of revolution. The second part of this thesis focuses on the reconstruction of quadrics of revolution from one or several views. Reconstruction of quadrics, and in general, 3D surface reconstruction is a very classical problem in computer vision. First, we recall the necessary background in projective geometry quadrics and computer vision and present existing methods for the reconstruction of quadrics or more generally quadratic surfaces. A first algorithm identifies the images of the principal foci of a quadric of revolution from a "calibrated" view (that is, the intrinsic parameters of the camera are given). Then we show how to use this result to reconstruct, from a linear triangulation scheme, any type of quadrics of revolution from at least two views. Finally, we show that we can derive the 3D pose of a given quadric of revolution from a single occluding contour. We evaluate the performance of our methods and show some possible applications
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Regnier, Rémi. "Approche de reconstruction d’images fondée sur l’inversion de certaines transformations de Radon généralisées." Thesis, Cergy-Pontoise, 2014. http://www.theses.fr/2014CERG0698/document.

Повний текст джерела
Анотація:
Depuis l'invention de la radiographie au début du vingtième siècle et des premiers radars lors la seconde guerre mondiale, le besoin de connaître notre environnement par différentes techniques d'imagerie n'a cessé de croître. Ce besoin a pris de multiples formes, allant de l'exploration d'une structure interne avec la prolifération des techniques d'imagerie non invasives à l'imagerie par satellite qui accompagna la conquête de l'espace. Nombre de systèmes d'imagerie ont donc été proposés pour arriver à créer les images les plus représentatives des milieux étudiés. Parmi eux la tomodensitométrie, ou scanner médical, a connu un succès remarquable depuis son invention. La raison de ce succès vient du fait que son principe de fonctionnement est fondé sur la transformée de Radon dont l'inversion permet de restituer une image fidèle de l'intérieur du milieu étudié.La transformée de Radon (TR) est une transformée géométrique intégrale, qui intègre une densité physique d'intérêt, le long d'une droite du plan. Il est donc naturel de penser qu'une généralisation de la TR, qui consiste à remplacer la droite, support d'intégration, par une courbe ou par une surface, peut amener à une nouvelle imagerie. Dans cette thèse, nous étudions deux types de transformées de Radon généralisées qui sont définies sur des lignes brisées en V du plan (appelées TRV) et des sphères centrées sur un plan fixe (appelées TRS) ainsi que leurs imageries correspondantes.Les transformées de Radon généralisées sur des lignes brisées (TRV) nous permettent de proposer trois nouvelles modalités tomographiques. La première, comme la tomodensitométrie, exploite le phénomène d'atténuation du rayonnement X lors de sa propagation dans un milieu mais utilise aussi le phénomène de réflexion du rayonnement sur une surface impénétrable. La deuxième exploite le phénomène de diffusion Compton du rayonnement émis par un objet. La troisième combine deux modalités d'imageries par transmission et par émission sous la forme d'une imagerie bimodale à partir du rayonnement ionisant diffusé. Cette étude permet non seulement de faire émerger de nouvelles imageries pouvant concurrencer celles existantes mais aussi d'établir de nouveaux algorithmes pour la correction de l'atténuation (un des facteurs physiques dégradant sérieusement la qualité d'image tomographique actuellement).La transformée de Radon sur des sphères centrées sur un plan fixe (TRS) est une généralisation connue de la transformée de Radon en trois dimensions. Elle a été proposée comme modèle mathématique de l'imagerie radar à synthèse d'ouverture (RSO). On montre par la construction d'algorithmes appropriés que l'inversion de cette TRS donne une solution efficace à la reconstruction d'images de l'environnement directement en 3D.La faisabilité théorique de ces nouvelles imageries modélisées par ces deux classes de transformées de Radon généralisées et la performance des algorithmes de reconstruction d'images basés sur les formules d'inversion de ces transformées ouvrent plusieurs perspectives : extension en 3D de l'imagerie bimodale par rayonnement ionisant diffusé, ou possibilité de détection de cibles mobiles en imagerie RSO par introduction d'autres généralisations de la TR. De plus, les méthodes développés dans cette thèse sont susceptibles d'application dans d'autres imageries : imagerie sismique modélisée par la transformée de Radon définie sur des paraboles, imagerie radar Doppler par la TR sur des hyperboles ou encore imagerie thermo-opto-acoustique modélisée par la TR sur des cercles centrés sur un cercle fixe
Since the invention of radiography at the beginning of the 20th century and of the radar during the 2nd world war, the need of information on our environment is ever increasing. This goes from the exploration of internal structures using non-invasive numerous imaging techniques to satellite imaging which rapidly expands with space exploration. A huge number of imaging systems have been conceived to provide faithful images of the objects of interest. Computed Tomography (or the medical scanner) has experienced a tremendous success since it was invented. The reason for this success lies in the fact that its mathematical foundation is the Radon transform (RT), which has an inverse formula allowing the faithful reconstruction of the interior of an object.The Radon transform is a geometric integral transform which integrates a physical density of interest along a straight line in the plane. It is natural to expect that, when the line is replaced by a curve or a surface as an integration support, new imaging processes may emerge. In this thesis, we study two generalized Radon transforms which are defined on broken lines in the form of a letter V (called V-line RT or VRT) and on spheres centered on a fixed plane (called spherical RT or SRT), as well as their resulting imaging processes.The Radon transforms on V-lines (VRT) form the mathematical foundation of three tomographic modalities. The first modality exploits not only the attenuation of X-rays in traversed matter (as in Computed Tomography) but also the phenomenon of reflection on an impenetrable surface. The second modality makes use of Compton scattering for emission imaging. The third modality combines transmission and emission imaging modalities into a bimodal imaging system from scattered ionizing radiation. This study puts forward new imaging systems which compete with the existing ones and develops new algorithms for attenuation corrections (in emission imaging the attenuation is one of factors degrading seriously tomographic image quality up to now).The Radon transform on spheres centered on a fixed plane (SRT) is a generalization of the classical Radon transform in three dimensions. It has been proposed as a mathematical model for Synthetic Aperture Radar (SAR) imaging. We show through the setting up of appropriate algorithms that the inversion of the SRT yields an efficient solution to the landscape reconstruction problem, directly in three dimensions.The theoretical feasibility of these new imaging systems based on generalized Radon transforms and the good performance of inversion algorithms based on inversion formulas open the way to several perspectives: 3D extension of bimodal imaging by scattered radiation or SAR target motion detection through the introduction of other generalized Radon transforms. Moreover the algorithmic methods developed here may serve in other imaging activities such as: seismics with the parabolic Radon transform, Doppler radar with the hyperbolic Radon transform, thermo-opto-acoustic imaging with the Radon transform on circles centered on a fixed circle
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Ait, Assou Manal. "Synthetic aperture imaging and spectroscopy in the terahertz range using time domain spectroscopy system." Electronic Thesis or Diss., Limoges, 2024. https://aurore.unilim.fr/theses/nxfile/default/437c1676-13e9-4b65-9ff5-95b93ac02ca3/blobholder:0/2024LIMO0008.pdf.

Повний текст джерела
Анотація:
Les techniques d'imagerie et de spectroscopie térahertz offrent de vastes applications dans le contrôle non destructif ou le contrôle de qualité dans la manufacture industrielle, la pharmaceutique et la biologie, l'archéologie ou encore le monde de l’art. Pour ces applications, la technique de spectroscopie térahertz dans le domaine temporel (THz-TDS) permet une analyse sur une bande passante instantanée très large (0.1-6 THz), mais nécessite généralement de déplacer mécaniquement l’échantillon à imager dans le plan focal du faisceau THz. Le travail de cette thèse porte sur l’adaptation d’un banc THz-TDS pour l’imagerie et la spectroscopie des échantillons fixes, en se basant sur le principe d’un radar à synthèse d’ouverture (SAR), en transmission. En utilisant cette technique, on démontre une reconstruction d'image en 3D avec une résolution inférieure au millimètre de plusieurs échantillons différents. Pour remédier aux temps d'acquisition prolongés, un échantillonnage spatial lacunaire est proposé, réduisant les éléments du réseau synthétique et améliorant la vitesse d'acquisition. De plus, les données reconstruites ne sont pas uniquement utilisées pour l'imagerie mais permettent également la caractérisation des paramètres optiques matériaux (l'indice de réfraction et le coefficient d'absorption) constituant l'objet imagé dans la bande de fréquence de reconstruction. Ainsi, la technique proposée permet la cartographie spectrale 2D de l'indice de réfraction à diverses fréquences térahertz. Enfin, la méthodologie proposée est appliquée à l'imagerie de sortie de guide d'ondes térahertz, illustrant sa grande flexibilité et ses vastes domaine potentielles d’utilisation
Les techniques d'imagerie et de spectroscopie térahertz offrent de vastes applications dans le control non destructif ou le contrôle de qualité dans la manufacture industrielle, la pharmaceutique et la biologie, l'archéologie ou encore le monde de l’art. Pour ces applications, la technique de spectroscopie térahertz dans le domaine temporel (THz-TDS) permet une analyse sur une bande passante instantanée très large (0.1-6 THz), mais nécessite généralement de déplacer mécaniquement l’échantillon à imager dans le plan focal du faisceau THz. Le travail de cette thèse porte sur l’adaptation d’un banc THz-TDS pour l’imagerie et la spectroscopie des échantillons fixes, en se basant sur le principe d’un radar à synthèse d’ouverture (SAR), en transmission. En utilisant cette technique, on démontre une reconstruction d'image en 3D avec une résolution inférieure au millimètre de plusieurs échantillons différents. Pour remédier au temps d'acquisition prolongés, un échantillonnage spatial lacunaire est proposé, réduisant les éléments du réseau synthétique et améliorant la vitesse d'acquisition. De plus, les données reconstruites ne sont pas uniquement utilisées pour l'imagerie mais permettent également la caractérisation des paramètres optiques matériaux (l'indice de réfraction et le coefficient d'absorption) constituant l'objet imagé dans la bande de fréquence de reconstruction. Ainsi, la technique proposée permet la cartographie spectrale 2D de l'indice de réfraction à diverses fréquences térahertz. Enfin, la méthodologie proposée est appliquée à l'imagerie de sortie de guide d'ondes térahertz, illustrant sa grande flexibilité et ses vastes domaine potentielles d’utilisation
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Aknoun, Sherazade. "Analyse quantitative d’images de phase obtenues par interféromètrie à décalage quadri-latéral. Applications en biologie." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4358/document.

Повний текст джерела
Анотація:
Ces travaux de thèse, consacrés à l'étude et analyse quantitative d'images de phase obtenues par interférométrie à décalage quadri-latéral, ont pour but la caractérisation d'un point de vue métrologique d'un outil de mesure et de ses différentes applications. Cette technique d'interférométrie, développée initialement par la société Phasics pour les marchés de la métrologie optique et de la caractérisation de faisceaux laser essentiellement, peut aussi permettre d'obtenir la cartographie d'un champ électromagnétique complexe grâce à une mesure de front d'onde. En l'utilisant sur un microscope en condition d'imagerie, ont été obtenues des images de l'intensité et de la différence de chemin optique introduite par un échantillon semi-transparent, définissant ainsi une nouvelle technique de contraste de phase quantitatif. La première partie de cette thèse sera consacrée aux techniques en microscopie qui permettent une quantification. Nous verrons les enjeux de l'obtention de ce caractère quantitatif et ce qu'il signifie dans le cadre de différentes techniques utilisant la fluorescence. On étudiera la mesure dans le cadre d'une approximation dite "projective" réalisant certaines hypothèses. On verra quelles sont les grandeurs accessibles grâce à une mesure dans le cadre de cette approximation et quelles applications en biologie peuvent être développées concernant les éléments isotropes dans une première partie et les éléments anisotropes dans une seconde partie.Nous démontrerons la possible transposition de ces applications réalisées en deux dimensions en trois dimensions avec une résolution axiale suffisante permettant une reconstruction tomographique
The aim of this thesis, dedicated to the study and quantitative analysis of phase images obtained thanks to quadri-wave lateral shearing interferometry, is to caracterize a metrological tool and its three proposed different applications.This work has been done in collaboration between Institut Fresnel (Marseille, France) and Phasics company (Palaiseau, France) and continues that of Pierre Bon who has been in charge the application this technique to microscopy. This interferometric technique, developped by Phasics, for optical metrology and lasers characterization, allows to record complex eletromagnetic field maps thanks to a wave front measurement. By using it in the microscope image plane, one can obtain inetnsity and optical path difference images of a semi-transparent biological sample. this technique is now considered as a new quantitative phase contrast technique.The first part of this manuscript will be a state of the art of quantitative microscopy techniques. The issues of quantification and its meanings in the framework of different fluorescent and phase based techniques will be discussed.A description of the technique that is used and its comparison with similar phase techniques will be done.The measurement, under the projective approximation, is studied leading to different variables. We show different applications concerning isotropic elements in a first part and anisotropic elements in the second one.We show how this measurement is trnasposed to the third dimensions allowing three dimensional imaging and complete reconstruction of refractive index maps of biological samples
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Brahim, Naouraz. "Reconstruction tridimensionnelle de scènes sous-marines à partir de séquences d’images acquises par des caméras acoustiques." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30470/30470.pdf.

Повний текст джерела
Анотація:
Depuis que les études des impacts des changements climatiques ont montré que le milieu marin pourrait être énormément fragilisé par la disparition de certaines espèces de sa faune et de sa flore, ainsi que par le vieillissement rapide de son infrastructure sous-marine, la recherche de systèmes d’observation robustes et continus est classée parmi les sujets de recherche les plus prioritaires des scientifiques. Généralement, l’observation de l’environnement et l’inspection des infrastructures sous-marines se font au moyen des capteurs imageurs tels que les capteurs optiques ou les systèmes acoustiques. Toutefois, ces outils souffrent de certaines limitations lors de leur utilisation. Les caméras optiques fournissent des données caractérisées par une bonne résolution permettant une interprétation facile des scènes observées mais aussi par des problèmes techniques lors de l’acquisition liés aux conditions du milieu marin (e.g. manque de visibilité) empêchant une observation continue du milieu. Les sonars traditionnels produisent aussi des images mais ils n’offrent pas de séquences d’images de haute cadence tels que les capteurs optiques, et leur utilisation est parfois contrainte dans les milieux portuaires et de faible profondeur. C’est pour pallier ces problèmes que les caméras acoustiques ont été conçues. Elles ont la capacité d’acquérir des séquences d’images multi-vues avec une haute cadence et de fonctionner dans des milieux très turbides. Néanmoins, ces caméras ne produisent que des images en 2D où l’élévation de la scène observée est inconnue. Or, une représentation 2D de l’environnement ne peut présenter qu’une partie des informations, elle n’est pas en mesure de représenter "fidèlement" le milieu où le phénomène est observé. Ceci n’est possible qu’à travers une représentation 3D. L’objectif de cette thèse est donc de développer une approche de reconstruction 3D de scènes sous-marines à partir de séquences d’images acquises par des caméras acoustiques. Pour ce faire, nous nous sommes inspirés du principe de la stéréovision pour une reconstruction 3D à partir de points saillants. Néanmoins, la géométrie et la nature bruitée des images acoustiques ne permettent pas une application directe du principe de la stéréovision. Ainsi nous proposons dans cette thèse, une méthodologie de reconstruction 3D qui répond aux problématiques posées par les images des caméras acoustiques. Elle se base, en première partie, sur la conception d'un processus d’extraction de points saillants pertinents sur lesquels, en deuxième partie, va pouvoir s'appuyer la reconstruction 3D de la scène observée. Pour la reconstruction 3D, nous proposons deux approches différentes : une approche curviligne et une approche volumique. Dans ces deux approches, l’algorithme d’optimisation SE-AMC issu de la famille des stratégies d’évolution intervient dans le calcul du mouvement de la caméra entre les images, la détermination de ce mouvement permettant par la suite, l'estimation des informations 3D. La performance de l’approche d’extraction de primitives ainsi que celle des approches de reconstruction 3D ont été évaluées: la première au travers de critères de bonne détection, de répétabilité et de bonne localisation et la deuxième au travers de la comparaison du mouvement et des informations 3D estimés avec des données réelles.
According to recent studies, climate change is having a significant impact on our marine environment inducing temperature increases, chemistry changes, ocean circulation influencing both population dynamics and underwater structure stability. Environmental change is thus a growing scientific concern requiring a regular monitoring of the evolution of underwater ecosystems with appropriate studies combined with accurate and relevant detailed information extraction and preservation. Tracking and modeling such changes in a marine environment is one of the current challenges for underwater exploration. The most common technique used to observe underwater environment, relies on vision-based systems either acoustical or optical. Optical cameras are widely used for acquiring images of the seafloor/underwater structures as they can provide information about the physical properties of the image that will enable the description of the observed scene (color, reflection, geometry). However, the range limitation and non-ideal underwater conditions (dark and turbid waters) make acoustic imaging the most reliable means of sight inside the underwater environment. Traditional sonar systems cannot provide an acoustic image sequences like optical cameras. To overcome those drawbacks, acoustic camera was built. They can produce real time high resolution underwater image sequences, with high refresh rate. Moreover, compared to optical devices, they can acquire acoustic images in turbid, deep and dark water making acoustic camera imaging a reliable means for observing underwater environment. However, although acoustic cameras can provide 2-D resolution of the order of centimeters, they do not resolve the altitude of observed scene. Thus they offer a 2D environment representation which provides incomplete information about the underwater environment. Hence, it would be very interesting to have a system which can provide height information as well as a high resolution. This is the purpose of this thesis where we developed a methodology that enables 3D reconstruction of underwater scenes using sequences of acoustic images. The proposed methodology is inspired from stereovision techniques that allow 3D information computation from image sequences. It consists of two main steps. In the first step, we propose an approach that enables the extraction of relevant salient points from several images. In the second step, two different methods have been proposed (curvilinear approach and volumetric approach) in order to reconstruct the observed scene using images acquired from different viewpoints. The Covariance Matrix Adaptation Evolution Strategy algorithm (SE-AMC) has been used to compute camera movement between images. This movement has been then used to retrieve 3D information. The methodology performances have been evaluated: feature extraction approach has been assessed using criteria of good detection, repeatability and good localization and 3D reconstruction approach has been assessed by comparison between estimated camera movement and 3D information with real data.
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Merasli, Alexandre. "Reconstruction d’images TEP par des méthodes d’optimisation hybrides utilisant un réseau de neurones non supervisé et de l'information anatomique." Electronic Thesis or Diss., Nantes Université, 2024. http://www.theses.fr/2024NANU1003.

Повний текст джерела
Анотація:
La TEP est une modalité d’imagerie fonctionnelle utilisée en oncologie permettant de réaliser une imagerie quantitative de la distribution d’un traceur radioactif injecté au patient. Les données brutes TEP présentent un niveau de bruit intrinsèquement élevé et une résolution spatiale modeste, en comparaison avec les modalités d’imagerie anatomiques telles que l’IRM et la TDM. Par ailleurs, les méthodes standards de reconstruction des images TEP à partir des données brutes introduisent du biais positif dans les régions de faible activité, en particulier dans le cas de faibles statistiques d'acquisition (données très bruitées). Dans ce travail, un nouvel algorithme de reconstruction, appelé DNA, a été développé. Par l'intermédiaire de l’algorithme ADMM, le DNA combine la récente méthode du Deep Image Prior (DIP) pour limiter la propagation du bruit et améliorer la résolution spatiale par l’apport d’informations anatomiques, et une méthode de réduction de biais développée pour l’imagerie TEP à faibles statistiques. En revanche, l’utilisation du DIP et d’ADMM requiert l’ajustement de nombreux hyperparamètres, souvent choisis manuellement. Une étude a été menée pour en optimiser certains de façon automatique, avec des méthodes pouvant être étendues à d’autres algorithmes. Enfin, l’utilisation d’informations anatomiques, notamment avec le DIP, permet d’améliorer la qualité des images TEP mais peut générer des artéfacts lorsque les informations des modalités ne concordent pas spatialement. C’est le cas notamment lorsque les tumeurs présentent des contours anatomiques et fonctionnels différents. Deux méthodes ont été développées pour éliminer ces artéfacts tout en préservant au mieux les informations utiles apportées par l’imagerie anatomique
PET is a functional imaging modality used in oncology to obtain a quantitative image of the distribution of a radiotracer injected into a patient. The raw PET data are characterized by a high level of noise and modest spatial resolution, compared to anatomical imaging modalities such as MRI or CT. In addition, standard methods for image reconstruction from the PET raw data introduce a positive bias in low activity regions, especially when dealing with low statistics acquisitions (highly noisy data). In this work, a new reconstruction algorithm, called DNA, has been developed. Using the ADMM algorithm, DNA combines the recently proposed Deep Image Prior (DIP) method to limit noise propagation and improve spatial resolution by using anatomical information, and a bias reduction method developed for low statistics PET imaging. However, the use of DIP and ADMM algorithms requires the tuning of many hyperparameters, which are often selected manually. A study has been carried out to tune some of them automatically, using methods that could benefit other algorithms. Finally, the use of anatomical information, especially with DIP, allows an improvement of the PET image quality, but can generate artifacts when information from one modality does not spatially match with the other. This is particularly the case when tumors have different anatomical and functional contours. Two methods have been developed to remove these artifacts while trying to preserve the useful information provided by the anatomical modality
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Gilardet, Mathieu. "Étude d’algorithmes de restauration d’images sismiques par optimisation de forme non linéaire et application à la reconstruction sédimentaire." Thesis, Pau, 2013. http://www.theses.fr/2013PAUU3040/document.

Повний текст джерела
Анотація:
Nous présentons une nouvelle méthode pour la restauration d'images sismiques. Quand on l'observe, une image sismique est le résultat d'un système de dépôt initial qui a été transformé par un ensemble de déformations géologiques successives (flexions, glissement de la faille, etc) qui se sont produites sur une grande période de temps. L'objectif de la restauration sismique consiste à inverser les déformations pour fournir une image résultante qui représente le système de dépôt géologique tel qu'il était dans un état antérieur. Classiquement, ce procédé permet de tester la cohérence des hypothèses d'interprétations formulées par les géophysiciens sur les images initiales. Dans notre contribution, nous fournissons un outil qui permet de générer rapidement des images restaurées et qui aide donc les géophysiciens à reconnaître et identifier les caractéristiques géologiques qui peuvent être très fortement modifiées et donc difficilement identifiables dans l'image observée d'origine. Cette application permet alors d'assister ces géophysiciens pour la formulation d'hypothèses d'interprétation des images sismiques. L'approche que nous introduisons est basée sur un processus de minimisation qui exprime les déformations géologiques en termes de contraintes géométriques. Nous utilisons une approche itérative de Gauss-Newton qui converge rapidement pour résoudre le système. Dans une deuxième partie de notre travail nous montrons différents résultats obtenus dans des cas concrets afin d'illustrer le processus de restauration d'image sismique sur des données réelles et de montrer comment la version restaurée peut être utilisée dans un cadre d'interprétation géologique
We present a new method for seismic image restoration. When observed, a seismic image is the result of an initial deposit system that has been transformed by a set of successive geological deformations (folding, fault slip, etc) that occurred over a large period of time. The goal of seismic restoration consists in inverting the deformations to provide a resulting image that depicts the geological deposit system as it was in a previous state. With our contribution, providing a tool that quickly generates restored images helps the geophysicists to recognize geological features that may be too strongly altered in the observed image. The proposed approach is based on a minimization process that expresses geological deformations in terms of geometrical constraints. We use a quickly-converging Gauss-Newton approach to solve the system. We provide results to illustrate the seismic image restoration process on real data and present how the restored version can be used in a geological interpretation framework
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Daisy, Maxime. "Inpainting basé motif d’images et de vidéos appliqué aux données stéréoscopiques avec carte de profondeur." Caen, 2015. https://hal.archives-ouvertes.fr/tel-01257756.

Повний текст джерела
Анотація:
Nous nous intéressons à l’étude et au perfectionnement d’algorithmes de traitement d’image gloutons basés motif, pour traiter le problème général de l’inpainting, c-à-d la complétion automatique de données manquantes dans les images et les vidéos numériques. Après avoir dressé un état de l’art du domaine et analysé les étapes sensibles des algorithmes gloutons existants dans la littérature, nous proposons, dans un premier temps, un ensemble de modifications améliorant de façon significative la cohérence géométrique globale des images reconstruites par ce type d’algorithmes. Dans un deuxième temps, nous nous focalisons sur la réduction des artefacts visuels de type bloc classiquement présents dans les résultats de reconstruction, en proposant un formalisme tensoriel de mélange anisotrope rapide de patchs, guidé par la géométrie des structures locales et par la détection automatique des points de localisation des artefacts. Nous illustrons avec de nombreux exemples que l’ensemble de ces contributions améliore significativement la qualité visuelle des résultats obtenus, tout en restant suffisamment générique pour s’adapter à tous types d’algorithmes d’inpainting basé motif. Pour finir, nous nous concentrons sur l’application et l’adaptation de nos algorithmes de reconstruction sur des données stéréoscopiques images et vidéos resynthétisées suivant de nouveaux points de vue virtuels de caméra. Nous intégrons l’information de profondeur estimée dans nos méthodes d’inpainting et de mélange de patchs pour proposer une solution visuellement satisfaisante au problème difficile de la désoccultation automatique de scènes réelles resynthétisées
We focus on the study and the enhancement of greedy pattern-based image processing algorithms for the specific purpose of inpainting, i. E. , the automatic completion of missing data in digital images and videos. We first review the state of the art methods in this field and analyze the important steps of prominent greedy algorithms in the literature. Then, we propose a set of changes that significantly enhance the global geometric coherence of images reconstructed with this kind of algorithms. We also focus on the reduction of the visual bloc artifacts classically appearing in the reconstruction results. For this purpose, we define a tensor-inspired formalism for fast anisotropic patch blending, guided by the geometry of the local image structures and by the automatic detection of the artifact locations. We illustrate the improvement of the visual quality brought by our contributions with many examples, and show that we are generic enough to perform similar adaptations to other existing pattern-based inpainting algorithms. Finally, we extend and apply our reconstruction algorithms to stereoscopic image and video data, synthesized with respect to new virtual camera viewpoints. We incorporate the estimated depth information (available from the original stereo pairs) in our inpainting and patch blending formalisms to propose a visually satisfactory solution to the non-trivial problem of automatic disocclusion of real resynthesized stereoscopic scenes
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Durix, Bastien. "Squelettes pour la reconstruction 3D : de l'estimation de la projection du squelette dans une image 2D à la triangulation du squelette en 3D." Phd thesis, Toulouse, INPT, 2017. http://oatao.univ-toulouse.fr/19589/1/durix.pdf.

Повний текст джерела
Анотація:
La reconstruction 3D consiste à acquérir des images d’un objet, et à s’en servir pour en estimer un modèle 3D. Dans ce manuscrit, nous développons une méthode de reconstruction basée sur la modélisation par squelette. Cette méthode a l’avantage de renvoyer un modèle 3D qui est un objet virtuel complet (i.e. fermé) et aisément éditable, grâce à la structure du squelette. Enfin, l’objet acquis n’a pas besoin d’être texturé, et entre 3 et 5 images sont suffisantes pour la reconstruction. Dans une première partie, nous étudions les aspects 2D de l’étude. En effet, l’estimation d’un squelette 3D nécessite d’étudier la formation de la silhouette de l’objet à partir de son squelette, et donc les propriétés de sa projection perspective, appelée squelette perspectif. Cette étude est suivie par notre première contribution : un algorithme d’estimation de la projection perspective d’un squelette 3D curviligne, constitué d’un ensemble de courbes. Cet algorithme a toutefois tendance, comme beaucoup d’algorithmes estimant un squelette, à générer des branches peu informatives, notamment sur une image rastérisée. Notre seconde contribution est donc un algorithme d’estimation de squelette 2D, capable de prendre en compte la discrétisation du contour de la forme 2D, et d’éviter ces branches peu informatives. Cet algorithme, d’abord conçu pour estimer un squelette classique, est ensuite généralisé à l’estimation d’un squelette perspectif. Dans une seconde partie, nous estimons le squelette 3D d’un objet à partir de ses projections. Tout d’abord, nous supposons que le squelette de l’objet 3D à reconstruire est curviligne. Ainsi, chaque squelette perspectif estimé correspond à la projection du squelette 3D de l’objet, sous différents points de vue. La topologie du squelette étant affectée par la projection, nous proposons notre troisième contribution, l’estimation de la topologie du squelette 3D à partir de l’ensemble de ses projections. Une fois celle-ci estimée, la projection d’une branche 3D du squelette est identifiée sur chaque image, i.e. sur chacun des squelettes perspectifs. Avec cette identification, nous pouvons trianguler les branches du squelette 3D, ce qui constitue notre quatrième contribution : nous sommes donc en mesure d’estimer un squelette curviligne associé à un ensemble d’images d’un objet. Toutefois, les squelettes 3D ne sont pas tous constitués d’un ensemble de courbes : certains d’entre eux possèdent aussi des parties surfaciques. Notre dernière contribution, pour reconstruire des squelettes 3D surfaciques, est une nouvelle approche pour l’estimation d’un squelette 3D à partir d’images : son principe est de faire grandir le squelette 3D, sous les contraintes données par les images de l’objet.
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Zhang, Mo. "Vers une méthode de restauration aveugle d’images hyperspectrales." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S132.

Повний текст джерела
Анотація:
Nous proposons dans cette thèse de développer une méthode de restauration aveugle d'images flouées et bruitées où aucune connaissance a priori n'est exigée. Ce manuscrit est composé de trois chapitres : le 1er chapitre est consacré aux travaux de l'état de l'art. Les approches d'optimisation pour la résolution du problème de restauration y sont d'abord discutées. Ensuite les principales méthodes de restauration, dites semi-aveugles car nécessitant un minimum de connaissance a priori sont analysées. Parmi ces méthodes, cinq sont retenues pour évaluation. Le 2ème chapitre est dédié à la comparaison des performances des méthodes retenues dans le chapitre précédent. Les principaux critères objectifs d'évaluation de la qualité des images restaurées sont présentés. Parmi ces critères, la norme L1 de l'erreur d'estimation est sélectionnée. L'étude comparative menée sur une banque d'images monochromes, dégradées artificiellement par deux fonctions floues de supports différents et trois niveaux de bruit a permis de mettre en évidence les deux méthodes les plus pertinentes. La première repose sur une approche alternée mono-échelle où la PSF et l'image sont estimées dans une seule étape. La seconde utilise une approche hybride multi-échelle qui consiste tout d'abord à estimer de manière alternée la PSF et une image latente, puis dans une étape suivante séquentielle, à restaurer l'image. Dans l'étude comparative conduite, l'avantage revient à cette dernière. Les performances de ces méthodes serviront de référence pour comparer ensuite la méthode développée. Le 3ème chapitre porte sur la méthode développée. Nous avons cherché à rendre aveugle l'approche hybride retenue dans le chapitre précédent tout en améliorant la qualité d'estimation de la PSF et de l'image restaurée. Les contributions ont porté sur plusieurs points. Une première série d'améliorations concerne la redéfinition des échelles, celle de l'initialisation de l'image latente à chaque niveau d'échelle, l'évolution des paramètres pour la sélection des contours pertinents servant de support à l'estimation de la PSF et enfin, la définition d'un critère d'arrêt aveugle. Une seconde série de contributions a porté sur l'estimation aveugle des deux paramètres de régularisation impliqués pour éviter d'avoir à les fixer empiriquement. Chaque paramètre est associé à une fonction coût distincte l'une pour l'estimation de la PSF et la seconde pour l'estimation d'une image latente. Dans l'étape séquentielle qui suit, nous avons cherché à affiner le support de la PSF estimée dans l'étape alternée, avant de l'exploiter dans le processus de restauration de l'image. A ce niveau, la seule connaissance a priori nécessaire est une borne supérieure du support de la PSF. Les différentes évaluations conduites sur des images monochromes et hyperspectrales dégradées artificiellement par plusieurs flous de type mouvement, de supports différents, montrent une nette amélioration de la qualité de restauration obtenue par l'approche développée par rapport aux deux meilleures approches de l'état de l'art retenues
We propose in this thesis manuscript to develop a blind restoration method of single component blurred and noisy images where no prior knowledge is required. This manuscript is composed of three chapters: the first chapter focuses on state-of-art works. The optimization approaches for resolving the restoration problem are discussed first. Then, the main methods of restoration, so-called semi-blind ones because requiring a minimum of a priori knowledge are analysed. Five of these methods are selected for evaluation. The second chapter is devoted to comparing the performance of the methods selected in the previous chapter. The main objective criteria for evaluating the quality of the restored images are presented. Of these criteria, the l1 norm for the estimation error is selected. The comparative study conducted on a database of monochromatic images, artificially degraded by two blurred functions with different support size and three levels of noise, revealed the most two relevant methods. The first one is based on a single-scale alternating approach where both the PSF and the image are estimated alternatively. The second one uses a multi-scale hybrid approach, which consists first of alternatingly estimating the PSF and a latent image, then in a sequential next step, restoring the image. In the comparative study performed, the benefit goes to the latter. The performance of both these methods will be used as references to then compare the newly designed method. The third chapter deals with the developed method. We have sought to make the hybrid approach retained in the previous chapter as blind as possible while improving the quality of estimation of both the PSF and the restored image. The contributions covers a number of points. A first series concerns the redefinition of the scales that of the initialization of the latent image at each scale level, the evolution of the parameters for the selection of the relevant contours supporting the estimation of the PSF and finally the definition of a blind stop criterion. A second series of contributions concentrates on the blind estimation of the two regularization parameters involved in order to avoid having to fix them empirically. Each parameter is associated with a separate cost function either for the PSF estimation or for the estimation of a latent image. In the sequential step that follows, we refine the estimation of the support of the PSF estimated in the previous alternated step, before exploiting it in the process of restoring the image. At this level, the only a priori knowledge necessary is a higher bound of the support of the PSF. The different evaluations performed on monochromatic and hyperspectral images artificially degraded by several motion-type blurs with different support sizes, show a clear improvement in the quality of restoration obtained by the newly designed method in comparison to the best two state-of-the-art methods retained
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Ding, Yanzheng. "Une analyse d’images pour l'identification microstructurale en 3D d’un kaolin saturé sous chargement mécanique." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0051.

Повний текст джерела
Анотація:
L'étude de la microstructure des argiles remaniées et saturées est cruciale pour la compréhension de leur comportement mécanique et des mécanismes de déformations volumiques. Cette thèse vise à identifier en 3D les mécanismes locaux qui s'activent au niveau de la microstructure en lien avec le chargement mécanique des milieux argileux. D'abord le comportement mécanique du Kaolin K13 est étudié à l'échelle de l'éprouvette sur deux chemins de chargement : œdométrique et isotrope. Ensuite, un protocole d'observation a été mis en place pour l'acquisition des images tridimensionnelles en utilisant la microscopie électronique à balayage (MEB) couplée à la Sonde Ionique Focalisée (FIB). La reconstitution des images obtenues par FIB-MEB nous permet d'accéder à la géométrie 3D d'un sous volume de l'échantillon. La deuxième partie consiste à développer une approche d'analyse quantitative en 3D permettant d'identifier les propriétés de la microstructure sur les différents chemins de chargement étudiés. La morphologie des pores est étudiée en utilisant les paramètres : flatness, élongation et sphéricité. L'orientation des pores et des particules a été d'abord identifier sur des images 2D représentants des coupes dans l'échantillon et étendue au 3D sur l'ensemble du volume et ceci sur les deux chemins de chargement. Les résultats obtenus dans le cadre de ce travail de thèse ont permis de mettre en évidence l'apport des images 3D à la compréhension de la microstructure des argiles remaniées saturées
AbstractMicrostructure investigation is essential for a better understanding of the mechanical behaviour and volumetric deformation mechanisms of remolded and saturated clays. The goal of this thesis is to identify in 3D the local mechanisms which can be activated at the microstructural level in relation to the mechanical loading of clayey meida. The mechanical behaviour of Kaolin k13 is firstly studied at on two loading paths - oedometric and isotropic. Then, an observation protocol was established for the acquisition of three-dimensional images using Scanning Electron Microscopy (SEM) coupled with Focused Ion Beam (FIB). The reconstruction of the images obtained by FIB-SEM allows us to study the 3D geometry of a sub-volume of the sample. The second part consists of developing a quantitative analysis approach in 3D to identify the microstructure properties on different loading paths. The pore morphology is studied using parameters such as flatness, elongation, and sphericity. The orientation of the pores and particles was first identified on 2D images representing cross-sections in the sample and extended to 3D throughout the entire volume for both loading paths. The results obtained in this thesis highlight the contribution of 3D images for a better understanding of the microstructure of saturated remolded clays
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Zein, Sara. "Simulations Monte Carlo des effets des photons de 250 keV sur un fantôme 3D réaliste de mitochondrie et évaluation des effets des nanoparticules d'or sur les caractéristiques des irradiations." Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAC036/document.

Повний текст джерела
Анотація:
Dans le domaine de la radiobiologie, les dommages causés à l'ADN nucléaire sont largement étudiés puisque l’ADN est considéré la cible la plus sensible dans la cellule. En plus de l’ADN, les mitochondries commencent à attirer l'attention comme des cibles sensibles, car elles contrôlent de nombreuses fonctions importantes pour la survie de la cellule. Ce sont des organites à double membranes principalement chargées de la production d'énergie ainsi que la régulation réactive des espèces d'oxygène, la signalisation cellulaire et le contrôle de l'apoptose. Certaines expériences ont montré qu'après exposition aux rayonnements ionisants, les teneurs mitochondriales sont modifiées et leurs fonctions sont affectées. C'est pourquoi nous sommes intéressés par l'étude des effets des rayonnements ionisants sur les mitochondries. À l'échelle microscopique, les simulations Monte-Carlo sont utiles pour reproduire les traces de particules ionisantes pour une étude approfondie. Par conséquent, nous avons produit des fantômes 3D de mitochondries à partir d'images microscopiques de cellules fibroblastiques. Ces fantômes ont été transformés de façon à être téléchargés dans Geant4 sous forme de mailles tessélisées et tétraédriques remplies d'eau représentant la géométrie réaliste de ces organites. Les simulations numériques ont été effectuées afin de calculer les dépôts d’énergie induits par des photons de 250 keV à l'intérieur de ces fantômes. Les processus électromagnétiques Geant4-DNA sont utilisés pour simuler les traces des électrons secondaires produits. Étant donné que les dommages groupés sont plus difficiles à réparer par les cellules, un algorithme spécifique est utilisé pour étudier le regroupement spatial des dégâts potentiels des rayonnements. En radiothérapie, il est difficile de donner une dose efficace aux sites de la tumeur sans affecter les tissus environnants sains. L'utilisation de nanoparticules d'or comme radio-sensibilisateurs semble être prometteuse. Leur coefficient d'absorption élevé augmente la probabilité d’interaction des photons et induit une dose tumorale plus importante lorsque ces particules sont absorbés de manière préférentielle dans les tumeurs. Puisque l'or a un nombre atomique élevé, les électrons Auger sont produits en abondance. Ces électrons ont une portée plus faible que les photoélectrons, ce qui leur permet de déposer la majeure partie de leur énergie près de la nanoparticule, ce qui augmente la dose locale. Nous avons étudié l'effet radio-sensibilisant des nanoparticules d'or sur le fantôme des mitochondries. L'efficacité de cette méthode dépend du nombre, de la taille et de la répartition spatiale des nanoparticules d'or. Après exposition aux rayonnements ionisants, des espèces réactives d'oxygène sont produites dans le milieu biologique qui contient une quantité d'eau abondante. Dans cette étude, nous simulons les espèces chimiques produites à l'intérieur du fantôme des mitochondries et leur regroupement est estimé. La distribution spatiale des produits chimiques et leur évolution avec le temps et par la suite analysée au moyen d’algorithme spécifique de traitement de données
In the field of radiobiology, damage to nuclear DNA is extensively studied since it is considered as a sensitive target inside cells. Mitochondria are starting to get some attention as sensitive targets as well since they control many functions important to the cell’s survival. They are double membraned organelles mainly in charge of energy production as well as reactive oxygen species regulation, cell signaling and apoptosis control. Some experiments have shown that after exposure to ionizing radiation the mitochondrial contents are altered and their functions are affected. That is why we are interested in studying the effects of ionizing radiation on mitochondria. At the microscopic scale, Monte Carlo simulations are helpful in reproducing the tracks of ionizing particles for a close study. Therefore, we produced 3D phantoms of mitochondria starting from microscopic images of fibroblast cells. These phantoms are easily uploaded into Geant4 as tessellated and tetrahedral meshes filled with water representing the realistic geometry of these organelles. Microdosimetric analysis is performed to deposited energy by 250keV photons inside these phantoms. The Geant4-DNA electromagnetic processes are used to simulate the tracking of the produced secondary electrons. Since clustered damages are harder to repair by cells, a clustering algorithm is used to study the spatial clustering of potential radiation damages. In radiotherapy, it is a challenge to deliver an efficient dose to the tumor sites without affecting healthy surrounding tissues. The use of gold nanoparticles as radio-sensitizers seems to be promising. Their high photon absorption coefficient compared to tissues deposit a larger dose when they are preferentially absorbed in tumors. Since gold has a high atomic number, Auger electrons are produced abundantly. These electrons have lower range than photoelectrons enabling them to deposit most of their energy near the nanoparticle and thus increasing the local dose. We studied the radio-sensitizing effect of gold nanoparticles on the mitochondria phantom. The effectiveness of this method is dependent on the number, size and spatial distribution of gold nanoparticles. After exposure to ionizing radiation, reactive oxygen species are produced in the biological material that contains abundant amount of water. In this study, we simulate the chemical species produced inside the mitochondria phantom and their clustering is estimated. We take advantage of the Geant4-DNA chemistry processes libraries that is recently included in the Geant4.10.1 release to simulate the spatial distribution of the chemicals and their evolution with time
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Gimenez, Lucile. "Outils numériques pour la reconstruction et l'analyse sémantique de représentations graphiques de bâtiments." Thesis, Paris 8, 2015. http://www.theses.fr/2015PA080047.

Повний текст джерела
Анотація:
De nombreux bâtiments anciens sont à rénover pour diminuer leur consommation énergétique. Grâce à l'émergence d’outils numériques tels que la maquette numérique d'un bâtiment ou BIM (Building Information Modeling), des simulations énergétiques peuvent être réalisées. Or, pour la plupart des bâtiments, aucune information numérique n'est disponible. L'objectif de nos travaux est de développer une méthodologie pour générer des maquettes numériques de bâtiments existants à faible coût en limitant l'acquisition de données. Notre choix s'est porté sur l'utilisation de plan papier 2D scanné. Nous faisons l'hypothèse qu'un tel plan est presque toujours disponible pour un bâtiment même s’il n'est pas toujours à jour et que sa qualité influe sur celle de la reconstruction. La reconstruction automatique d'un BIM à partir d'une image se base sur la recherche et l'identification de 3 composantes: la géométrie (forme des éléments), la topologie (liens entre les éléments) et la sémantique (caractéristiques des éléments). Lors de cette phase, des ambiguïtés peuvent apparaître. Nous proposons un processus basé sur des interventions ponctuelles et guidées de l'utilisateur afin d'identifier les erreurs et proposer des choix de correction pour éviter leur propagation.Nous présentons la méthodologie développée pour proposer une reconstruction semi-automatique et une analyse des résultats obtenus sur une base de 90 plans. Les travaux ont ensuite porté sur une généralisation du processus afin d'en tester la robustesse, le passage à l'échelle et la gestion multi-niveaux. Le processus développé est flexible pour permettre l’ajout d'autres sources de données pour enrichir la maquette numérique
Many buildings have to undergo major renovation to comply with regulations and environmental challenges. The BIM (Building Information Modeling) helps designers to make better-informed decisions, and results in more optimal energy-efficient designs. Such advanced design approaches require 3D digital models. However such models are not available for existing buildings. The aim of our work is to develop a method to generate 3D building models from existing buildings at low cost and in a reasonable time. We have chosen to work with 2D scanned plans. We assume that it is possible to find a paper plan for most buildings even if it is not always up-to-date and if the recognition quality is also dependent to the plan. The automatic reconstruction of a BIM from a paper plan is based on the extraction and identification of 3 main components: geometry (element shape), topology (links between elements) and semantics (object properties). During this process, some errors are generated which cannot be automatically corrected. This is why, we propose a novel approach based on punctual and guided human interventions to automatically identify and propose correction choices to the user to avoid error propagation.We describe the developed methodology to convert semi-automatically a 2D scanned plan into a BIM. A result analysis is done on 90 images. The following works is focused on the process genericity to test its robustness, the challenge of moving to scale and the multi-level management. The results highlight the pertinence of the error classification, identification and choices made to the user. The process is flexible in order to be completed by others data sources
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Tlig, Ghassen. "Programmation mathématique en tomographie discrète." Electronic Thesis or Diss., Paris, CNAM, 2013. http://www.theses.fr/2013CNAM0886.

Повний текст джерела
Анотація:
La tomographie est un ensemble de techniques visant à reconstruirel’intérieur d’un objet sans toucher l’objet lui même comme dans le casd’un scanner. Les principes théoriques de la tomographie ont été énoncéspar Radon en 1917. On peut assimiler l’objet à reconstruire à une image,matrice, etc.Le problème de reconstruction tomographique consiste à estimer l’objet àpartir d’un ensemble de projections obtenues par mesures expérimentalesautour de l’objet à reconstruire. La tomographie discrète étudie le cas où lenombre de projections est limité et l’objet est défini de façon discrète. Leschamps d’applications de la tomographie discrète sont nombreux et variés.Citons par exemple les applications de type non destructif comme l’imageriemédicale. Il existe d’autres applications de la tomographie discrète, commeles problèmes d’emplois du temps.La tomographie discrète peut être considérée comme un problème d’optimisationcombinatoire car le domaine de reconstruction est discret et le nombrede projections est fini. La programmation mathématique en nombres entiersconstitue un outil pour traiter les problèmes d’optimisation combinatoire.L’objectif de cette thèse est d’étudier et d’utiliser les techniques d’optimisationcombinatoire pour résoudre les problèmes de tomographie
The tomographic imaging problem deals with reconstructing an objectfrom a data called a projections and collected by illuminating the objectfrom many different directions. A projection means the information derivedfrom the transmitted energies, when an object is illuminated from a particularangle. The solution to the problem of how to reconstruct an object fromits projections dates to 1917 by Radon. The tomographic reconstructingis applicable in many interesting contexts such as nondestructive testing,image processing, electron microscopy, data security, industrial tomographyand material sciences.Discete tomography (DT) deals with the reconstruction of discret objectfrom limited number of projections. The projections are the sums along fewangles of the object to be reconstruct. One of the main problems in DTis the reconstruction of binary matrices from two projections. In general,the reconstruction of binary matrices from a small number of projections isundetermined and the number of solutions can be very large. Moreover, theprojections data and the prior knowledge about the object to reconstructare not sufficient to determine a unique solution. So DT is usually reducedto an optimization problem to select the best solution in a certain sense.In this thesis, we deal with the tomographic reconstruction of binaryand colored images. In particular, research objectives are to derive thecombinatorial optimization techniques in discrete tomography problems
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Tlig, Ghassen. "Programmation mathématique en tomographie discrète." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2013. http://tel.archives-ouvertes.fr/tel-00957445.

Повний текст джерела
Анотація:
La tomographie est un ensemble de techniques visant à reconstruirel'intérieur d'un objet sans toucher l'objet lui même comme dans le casd'un scanner. Les principes théoriques de la tomographie ont été énoncéspar Radon en 1917. On peut assimiler l'objet à reconstruire à une image,matrice, etc.Le problème de reconstruction tomographique consiste à estimer l'objet àpartir d'un ensemble de projections obtenues par mesures expérimentalesautour de l'objet à reconstruire. La tomographie discrète étudie le cas où lenombre de projections est limité et l'objet est défini de façon discrète. Leschamps d'applications de la tomographie discrète sont nombreux et variés.Citons par exemple les applications de type non destructif comme l'imageriemédicale. Il existe d'autres applications de la tomographie discrète, commeles problèmes d'emplois du temps.La tomographie discrète peut être considérée comme un problème d'optimisationcombinatoire car le domaine de reconstruction est discret et le nombrede projections est fini. La programmation mathématique en nombres entiersconstitue un outil pour traiter les problèmes d'optimisation combinatoire.L'objectif de cette thèse est d'étudier et d'utiliser les techniques d'optimisationcombinatoire pour résoudre les problèmes de tomographie.
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Gong, Xing. "Analyse de séries temporelles d’images à moyenne résolution spatiale : reconstruction de profils de LAI, démélangeage : application pour le suivi de la végétation sur des images MODIS." Thesis, Rennes 2, 2015. http://www.theses.fr/2015REN20021/document.

Повний текст джерела
Анотація:
Cette thèse s’intéresse à l’analyse de séries temporelles d’images satellites à moyenne résolution spatiale. L’intérêt principal de telles données est leur haute répétitivité qui autorise des analyses de l’usage des sols. Cependant, deux problèmes principaux subsistent avec de telles données. En premier lieu, en raison de la couverture nuageuse, des mauvaises conditions d’acquisition, ..., ces données sont souvent très bruitées. Deuxièmement, les pixels associés à la moyenne résolution spatiale sont souvent “mixtes” dans la mesure où leur réponse spectrale est une combinaison de la réponse de plusieurs éléments “purs”. Ces deux problèmes sont abordés dans cette thèse. Premièrement, nous proposons une technique d’assimilation de données capable de recouvrer des séries temporelles cohérentes de LAI (Leaf Area Index) à partir de séquences d’images MODIS bruitées. Pour cela, le modèle de croissance de plantes GreenLab estutilisé. En second lieu, nous proposons une technique originale de démélangeage, qui s’appuie notamment sur des noyaux “élastiques” capables de gérer les spécificités des séries temporelles (séries de taille différentes, décalées dans le temps, ...)Les résultats expérimentaux, sur des données synthétiques et réelles, montrent de bonnes performances des méthodologies proposées
This PhD dissertation is concerned with time series analysis for medium spatial resolution (MSR) remote sensing images. The main advantage of MSR data is their high temporal rate which allows to monitor land use. However, two main problems arise with such data. First, because of cloud coverage and bad acquisition conditions, the resulting time series are often corrupted and not directly exploitable. Secondly, pixels in medium spatial resolution images are often “mixed” in the sense that the spectral response is a combination of the response of “pure” elements.These two problems are addressed in this PhD. First, we propose a data assimilation technique able to recover consistent time series of Leaf Area Index from corrupted MODIS sequences. To this end, a plant growth model, namely GreenLab, is used as a dynamical constraint. Second, we propose a new and efficient unmixing technique for time series. It is in particular based on the use of “elastic” kernels able to properly compare time series shifted in time or of various lengths.Experimental results are shown both on synthetic and real data and demonstrate the efficiency of the proposed methodologies
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Belhi, Abdelhak. "Digital Cultural Heritage Preservation : enrichment and Reconstruction based on Hierarchical Multimodal CNNs and Image Inpainting Approaches." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSE2019.

Повний текст джерела
Анотація:
Le patrimoine culturel joue un rôle important dans la définition de l'identité d’une société. La préservation physique à long terme du patrimoine culturel reste fragile et peut induire de multiples risques liés à la destruction et aux dommages accidentels. Les technologies numériques telles que la photographie et la numérisation 3D ont fourni de nouvelles alternatives pour la préservation numérique. Cependant, les adapter au contexte du patrimoine culturel est une tâche difficile. En effet, la numérisation complète des objets culturels (visuelle avec une copie digitale et historique avec des métadonnées) n'est facile que lorsqu'il s'agit d’objets physiquement en bon état possédant toutes leurs données (entièrement annotés). Cependant, dans le monde réel, de nombreux objets culturels souffrent de dégradation physique et de perte d'informations. Habituellement, pour annoter et conserver ces objets, les institutions culturelles font appel à des spécialistes de l'art, à des historiens et à d'autres institutions. Ce processus est fastidieux, nécessite beaucoup de temps et de ressources financières et peut souvent s’avérer inexact. Notre travail se concentre sur la préservation effective et rentable du patrimoine culturel, basée sur des méthodes avancées d'apprentissage automatique. L'objectif est de fournir un Framework à la phase d'enrichissement du processus de préservation numérique du patrimoine culturel. A travers cette thèse, nous proposons de nouvelles méthodes permettant d’améliorer le processus de préservation des objets culturels. Nos défis sont principalement liés au processus d'annotation et d'enrichissement des objets dont les données sont manquantes et/ou incomplètes (annotations et données visuelles) ; ce processus est souvent inefficace lorsqu’il est effectué manuellement. Nous introduisons diverses approches basées sur l'apprentissage automatique et l'apprentissage profond pour compléter automatiquement les données culturelles manquantes. Nous nous concentrons principalement sur deux types essentiels de données manquantes : les données textuelles (métadonnées) et les données visuelles.La première étape est principalement liée à l'annotation et à l'étiquetage des objets culturels à l'aide de l'apprentissage profond. Nous avons proposé des approches exploitant des caractéristiques visuelles et textuelles disponibles des objets culturels pour effectuer efficacement leur classification. (i) La première approche est proposée pour la Classification Hiérarchique des objets afin de mieux répondre aux exigences de métadonnées de chaque type d’objets et augmenter les performances de classification. (ii) La seconde approche est dédiée à la Classification Multimodale des objets culturels où un quelconque objet peut être représenté, lors de la classification, avec les métadonnées disponibles en plus de sa capture visuelle. La deuxième étape considère le manque d'informations visuelles lorsqu’il s’agit d’objets culturels incomplets et endommagés. Nous avons proposé dans ce cas, une approche basée sur l'apprentissage profond à travers des modèles génératifs et le clustering d’images pour effectuer la reconstruction visuelle d’objets culturels. Pour nos expérimentations, nous avons collecté une grande base de données culturelles mais nous avons sélectionné les tableaux d’arts pour nos tests et validations car ils possèdent une meilleure qualité d’annotation et sont donc mieux adapté pour mesurer les performances de nos algorithmes
Cultural heritage plays an important role in defining the identity of a society. Long-term physical preservation of cultural heritage remains risky and can lead to multiple problems related to destruction and accidental damage. Digital technologies such as photography and 3D scanning provided new alternatives for digital preservation. However, adapting them to the context of cultural heritage is a challenging task. In fact, fully digitizing cultural assets (visually and historically) is only easy when it comes to assets that are in a good physical shape and all their data is at possession (fully annotated). However, in the real-world, many assets suffer from physical degradation and information loss. Usually, to annotate and curate these assets, heritage institutions need the help of art specialists and historians. This process is tedious, involves considerable time and financial resources, and can often be inaccurate. Our work focuses on the cost-effective preservation of cultural heritage through advanced machine learning methods. The aim is to provide a technical framework for the enrichment phase of the cultural heritage digital preservation/curation process. Through this thesis, we propose new methods to improve the process of cultural heritage preservation. Our challenges are mainly related to the annotation and enrichment of cultural objects suffering from missing and incomplete data (annotations and visual data) which is often considered ineffective when performed manually. Thus, we propose approaches based on machine learning and deep learning to tackle these challenges. These approaches consist of the automatic completion of missing cultural data. We mainly focus on two types of missing data: textual data (metadata) and visual data.The first stage is mainly related to the annotation and labeling of cultural objects using deep learning. We have proposed approaches, that take advantage of cultural objects’ visual features as well as partially available textual annotations, to perform an effective classification. (i) the first approach is related to the Hierarchical Classification of Objects to better meet the metadata requirements of each cultural object type and increase the classification algorithm performance. (ii) the second proposed approach is dedicated to the Multimodal Classification of cultural objects where any object can be represented, during classification, with a subset of available metadata in addition to its visual capture. The second stage considers the lack of visual information when dealing with incomplete and damaged cultural objects. In this case, we proposed an approach based on deep learning through generative models and image data clustering to optimize the image completion process of damaged cultural heritage objects. For our experiments, we collected a large database of cultural objects. We chose to use fine-art paintings in our tests and validations as they were the best in terms of annotations quality
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Quijano, Sergio. "Contribution à la reconstruction 3D des membres inférieurs reconstruits à partir des radios biplanes pour l’application à la planification et au suivi des chirurgies." Thesis, Paris, ENSAM, 2013. http://www.theses.fr/2013ENAM0032/document.

Повний текст джерела
Анотація:
Pour comprendre et diagnostiquer les pathologies qui affectent l’organisation spatialede notre squelette, il est essentiel d’aborder ces problématiques en 3D. Le CT-Scan et l’IRMsont des modalités d’imagerie couramment utilisées en milieu clinique pour étudier en 3D notresystème musculosquelettique. La plupart de ces systèmes d’imagerie proposent une acquisitioncouchée sur laquelle les effets gravitaires ne sont pas pris en compte. Le CT-Scan est unemodalité particulièrement irradiante et l’IRM est plus spécifiquement dédiée à l’étude des tissusmous. Le système EOS permet de reconstruire en 3D les os à partir d’une paire deradiographies biplanes à faible dose d’irradiation. En plus, le système EOS propose uneacquisition en position debout, prenant en compte les effets gravitaires. Cette thèse contribue àl’amélioration des méthodes de reconstruction 3D des membres inférieurs à partir des radiosbiplanes. Dans le cadre de thèse on a proposé et évalué : 1) Une méthode de reconstruction3D des membres inférieurs s’appuyant sur des modèles paramétrés et des inférencesstatistiques. 2) Une méthode d’auto-amélioration de la reconstruction 3D des membresinférieurs en utilisant du traitement d’images local et le recalcul d’inférences statistiques. 3)Enfin, des méthodes utilisant des critères de similarité d’images et des critères morphologiquespour détecter de manière automatique le côté médial et latéral du fémur et du tibia. Le but estd’éviter l’inversion par l’opérateur de condyles fémoraux et plateaux tibiaux, affectant la valeurdes paramètres cliniques, surtout les torsions. La méthode de reconstruction proposée dans lecadre de cette thèse est intégrée dans le logiciel sterEOS® et utilisée dans une soixantained’hôpitaux au monde. Les méthodes développées dans le cadre de cette thèse ont permis deprogresser vers la reconstruction semi-automatisée, précise et robuste du membre inférieur
For a better understanding and diagnosis of the pathologies affecting the spatialorganization of our skeleton it is necessary to address them in 3D. CT-Scan and MRI areimaging modalities commonly used to study the musculoskeletal system in 3D. Moreover,patients are recorded in reclining position thus gravity effect can’t be taken into account.Furthermore, CT-Scan exposes patient to high radiation doses and MRI is used mostly tocharacterize soft tissues. With the EOS system, from a pair of low dose biplanar radiographs wecan reconstruct bones in 3D, and the radiographs are recorded in standing position thus gravityeffects are considered. This thesis contributes to the improvement of the 3D reconstructionmethods of lower limbs from biplanar radiographs. In this thesis we have proposed andevaluated: 1) A 3D reconstruction method of the lower limbs based on parametric models andstatistical inferences. 2) A method for the auto-improvement of the 3D reconstruction of thelower limbs. This method combines image processing and the recalculation of the statisticalinferences. 3) Finally, methods based on similarity measures and shape criteria were used todetect automatically the medial and lateral side of the femur and tibia. The aim of thesemethods is to avoid the inversion of the femoral and tibial condyles in biplanar radiographs.These inversions have an impact in the calculation of clinical measurements, particularly thetorsional ones. The reconstruction method proposed in this thesis is already integrated withinthe sterEOS® software, available in 60 hospitals around the world. The methods developed inthis thesis have led us to a semi-automatic, accurate and robust reconstruction of lower limbs
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Llucia, Ludovic. "Suivi d'objets à partir d'images issues de caméras mobiles non calibrées." Thesis, Aix-Marseille 2, 2011. http://www.theses.fr/2011AIX22009/document.

Повний текст джерела
Анотація:
La finalité industrielle de ce travail est la réalisation d’un simulateur qui permette aux entraîneurs de football de mieux interpréter certaines situations de jeu à partir de séquences vidéo en en proposant une vision 3D, mais aussi de présenter de la manière la plus ergonomique qui soit des schémas de jeux sur la base de ces situations réelles. De plus, contrairement à ce qui se pratique assez couramment dans ce cadre-là, nous avons souhaité – pour des raisons de souplesse d’utilisation – rester dans un cadre assez large et ne pas profiter d’une phase préalable (fastidieuse) de calibrage, ce qui a été à l’origine de verrous scientifiques et technologiques que nous avons cherché à résoudre, et pour lesquels nous proposons des solutions dans la première partie. Les problèmes que nous avons eu à traiter sont de deux natures, informatiques d’une part et ergonomiques d’autre part. Il s’est agi, par exemple, de caractériser la transformation homographique permettant de passer de l’image au modèle, de retrouver la position de la caméra ou de déterminer automatiquement à quelle zone du terrain correspond l’image acquise. Et, au niveau ergonomique, il s’est agi de reproduire le plus fidèlement possible les modes d’appréhension de la réalité terrain, ainsi que de modélisation et de communication des entraîneurs de football
This work refers to a 3D simulator that has for purpose to help football trainers interpreting tactical sequences based on real situations. This simulator has to be able to interpret video movies, to reconstruct a situation. The camera’s calibration state has to be as simple as possible. The first part of this document refers to the solution elaborated to implement this constraint whereas the second one is more oriented on the industrialisation process. These processes imply to focus on vision computing and ergonomics problems and to answer questions such as : how to characterize a homographic transformation matching the image and the model ? How to retrieve the position of the camera? Which area is part of the image? In an ergonomically point of view, the simulator has to reproduce the game play reality and to improve the abstraction and the communication of the coaches
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Marre, Guilhem. "Développement de la photogrammétrie et d'analyses d'images pour l'étude et le suivi d'habitats marins." Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTG012.

Повний текст джерела
Анотація:
Dans un contexte de changement climatique et d’érosion de la biodiversité marine, la surveillance écologique des habitats marins les plus sensibles est primordiale et nécessite des méthodes opérationnelles de suivi permettant aux décideurs et gestionnaires d’établir des mesures de conservation pertinentes et d’évaluer leur efficacité. TEMPO et RECOR sont deux réseaux de surveillance centrés sur les herbiers de posidonie et les récifs coralligènes, les deux habitats les plus riches et sensibles de Méditerranée. L’objectif de cette thèse est de répondre aux besoins de la surveillance des habitats marins par le développement de méthodes d’évaluation de leur état de santé, basées sur deux techniques d’analyses d’images clés : les réseaux de neurones convolutifs et la photogrammétrie. Les résultats montrent que les réseaux de neurones convolutifs sont capables de reconnaître les principales espèces des assemblages coralligènes sur des photos sous-marines issues de RECOR, avec une précision semblable à celle d’un expert taxonomiste. Par ailleurs, nous avons montré que la photogrammétrie permettait de reproduire en 3D un habitat marin avec une grande précision, suffisante pour un suivi de la structure de l’habitat et de la distribution d’espèces à fine échelle. À partir de ces reconstructions, nous avons mis au point une méthode de cartographie automatique des herbiers de posidonie, permettant de réaliser un suivi temporel de la qualité écologique de cet habitat sensible. Enfin, nous avons caractérisé la structure 3D des récifs coralligènes à partir de leurs reconstructions photogrammétriques et étudié les liens avec la structuration des assemblages qui les composent. Ce travail de thèse a permis de développer des méthodes opérationnelles, aujourd’hui intégrées aux réseaux de surveillance TEMPO et RECOR, et ouvre la voie à de futures recherches, notamment la caractérisation de l’activité biologique des récifs coralligènes grâce au couplage entre photogrammétrie, réseaux de neurones et acoustique sous-marine
In a context of climate change and the erosion of marine biodiversity, ecological monitoring of the most sensitive marine habitats is of paramount importance. In particular, there is a need for operational methods that enable decision-makers and managers to establish relevant conservation measures and to evaluate their effectiveness. TEMPO and RECOR are two monitoring networks focusing on Posidonia meadows and coralligenous reefs, the two richest and most sensitive habitats in the Mediterranean. The objective of this thesis is to meet the needs of effective monitoring of marine habitats by developing methods for assessing their health, based on two key image analysis methods: convolutional neural networks and photogrammetry. The results show that convolutional neural networks are capable of recognizing the main species of coralligenous assemblages in underwater photographs from RECOR, with a precision similar to that of an expert taxonomist. Furthermore, we have shown that photogrammetry can reproduce a marine habitat in three dimensions with a high degree of accuracy, sufficient for monitoring habitat structure and species distribution at a fine scale. Based on these reconstructions, we have developed a method for automatic mapping of Posidonia meadows, enabling temporal monitoring of the ecological quality of this sensitive habitat. Finally, we characterized the three-dimensional structure of coralligenous reefs based on their photogrammetric reconstructions and studied the links with the structuring of the assemblages that make them up. This PhD work has led to the development of operational methods that are now integrated into the TEMPO and RECOR monitoring networks. Results of this work paves the way for future research, in particular concerning characterization of the biological activity of coralligenous reefs thanks to the coupling of photogrammetry, neural networks and underwater acoustics
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Gimenez, Lucile. "Outils numériques pour la reconstruction et l'analyse sémantique de représentations graphiques de bâtiments." Electronic Thesis or Diss., Paris 8, 2015. http://www.theses.fr/2015PA080047.

Повний текст джерела
Анотація:
De nombreux bâtiments anciens sont à rénover pour diminuer leur consommation énergétique. Grâce à l'émergence d’outils numériques tels que la maquette numérique d'un bâtiment ou BIM (Building Information Modeling), des simulations énergétiques peuvent être réalisées. Or, pour la plupart des bâtiments, aucune information numérique n'est disponible. L'objectif de nos travaux est de développer une méthodologie pour générer des maquettes numériques de bâtiments existants à faible coût en limitant l'acquisition de données. Notre choix s'est porté sur l'utilisation de plan papier 2D scanné. Nous faisons l'hypothèse qu'un tel plan est presque toujours disponible pour un bâtiment même s’il n'est pas toujours à jour et que sa qualité influe sur celle de la reconstruction. La reconstruction automatique d'un BIM à partir d'une image se base sur la recherche et l'identification de 3 composantes: la géométrie (forme des éléments), la topologie (liens entre les éléments) et la sémantique (caractéristiques des éléments). Lors de cette phase, des ambiguïtés peuvent apparaître. Nous proposons un processus basé sur des interventions ponctuelles et guidées de l'utilisateur afin d'identifier les erreurs et proposer des choix de correction pour éviter leur propagation.Nous présentons la méthodologie développée pour proposer une reconstruction semi-automatique et une analyse des résultats obtenus sur une base de 90 plans. Les travaux ont ensuite porté sur une généralisation du processus afin d'en tester la robustesse, le passage à l'échelle et la gestion multi-niveaux. Le processus développé est flexible pour permettre l’ajout d'autres sources de données pour enrichir la maquette numérique
Many buildings have to undergo major renovation to comply with regulations and environmental challenges. The BIM (Building Information Modeling) helps designers to make better-informed decisions, and results in more optimal energy-efficient designs. Such advanced design approaches require 3D digital models. However such models are not available for existing buildings. The aim of our work is to develop a method to generate 3D building models from existing buildings at low cost and in a reasonable time. We have chosen to work with 2D scanned plans. We assume that it is possible to find a paper plan for most buildings even if it is not always up-to-date and if the recognition quality is also dependent to the plan. The automatic reconstruction of a BIM from a paper plan is based on the extraction and identification of 3 main components: geometry (element shape), topology (links between elements) and semantics (object properties). During this process, some errors are generated which cannot be automatically corrected. This is why, we propose a novel approach based on punctual and guided human interventions to automatically identify and propose correction choices to the user to avoid error propagation.We describe the developed methodology to convert semi-automatically a 2D scanned plan into a BIM. A result analysis is done on 90 images. The following works is focused on the process genericity to test its robustness, the challenge of moving to scale and the multi-level management. The results highlight the pertinence of the error classification, identification and choices made to the user. The process is flexible in order to be completed by others data sources
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Bugarin, Florian. "Vision 3D multi-images : contribution à l’obtention de solutions globales par optimisation polynomiale et théorie des moments." Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0068/document.

Повний текст джерела
Анотація:
L’objectif général de cette thèse est d’appliquer une méthode d’optimisation polynomiale basée sur la théorie des moments à certains problèmes de vision artificielle. Ces problèmes sont en général non convexes et classiquement résolus à l’aide de méthodes d’optimisation locales Ces techniques ne convergent généralement pas vers le minimum global et nécessitent de fournir une estimée initiale proche de la solution exacte. Les méthodes d’optimisation globale permettent d’éviter ces inconvénients. L’optimisation polynomiale basée sur la théorie des moments présente en outre l’avantage de prendre en compte des contraintes. Dans cette thèse nous étendrons cette méthode aux problèmes de minimisation d’une somme d’un grand nombre de fractions rationnelles. De plus, sous certaines hypothèses de "faible couplage" ou de "parcimonie" des variables du problème, nous montrerons qu’il est possible de considérer un nombre important de variables tout en conservant des temps de calcul raisonnables. Enfin nous appliquerons les méthodes proposées aux problèmes de vision par ordinateur suivants : minimisation des distorsions projectives induites par le processus de rectification d’images, estimation de la matrice fondamentale, reconstruction 3D multi-vues avec et sans distorsions radiales
The overall objective of this thesis is to apply a polynomial optimization method, based on moments theory, on some vision problems. These problems are often nonconvex and they are classically solved using local optimization methods. Without additional hypothesis, these techniques don’t converge to the global minimum and need to provide an initial estimate close to the exact solution. Global optimization methods overcome this drawback. Moreover, the polynomial optimization based on moments theory could take into account particular constraints. In this thesis, we extend this method to the problems of minimizing a sum of many rational functions. In addition, under particular assumptions of "sparsity", we show that it is possible to deal with a large number of variables while maintaining reasonable computation times. Finally, we apply these methods to particular computer vision problems: minimization of projective distortions due to image rectification process, Fundamental matrix estimation, and multi-view 3D reconstruction with and without radial distortions
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Merlin, Thibaut. "Reconstruction 4D intégrant la modélisation pharmacocinétique du radiotraceur en imagerie fonctionnelle combinée TEP/TDM." Thesis, Bordeaux 2, 2013. http://www.theses.fr/2013BOR22111/document.

Повний текст джерела
Анотація:
L'imagerie TEP permet de mesurer et visualiser les changements de la distribution biologique des radiopharmaceutiques au sein des organes d'intérêt au court du temps. Ce suivi temporel offre des informations très utiles concernant les processus métaboliques et physiologiques sous-jacents, qui peuvent être extraites grâce à différentes techniques de modélisation cinétique. De plus, un autre avantage de la prise en compte de l'information temporelle dans les acquisitions TEP pour les examens en oncologie thoracique concerne le suivi des mouvements respiratoires. Ces acquisitions permettent de mettre en place des protocoles et des méthodologies visant à corriger leurs effets néfastes à la quantification, et les artefacts associés. L'objectif de ce projet est de développer une méthode de reconstruction permettant de combiner et mettre en oeuvre d'une part les corrections nécessaires à la quantification des données en TEP, et d'autre part la modélisation de la biodistribution du radiotraceur au cours du temps permettant d'obtenir des images paramétriques pour l'oncologie thoracique. Dans un premier temps, une méthodologie de correction des effets de volume partiel intégrant, dans le processus de reconstruction, une déconvolution de Lucy-Richardson associée à un débruitage dans le domaine des ondelettes, a été proposée. Une seconde étude a été consacrée au développement d'une méthodologie combinant une régularisation temporelle des données par l'intermédiaire d'un ensemble de fonctions de base temporelles, avec une méthode de correction des mouvements respiratoires basée sur un modèle élastique. Enfin, dans une troisième étape, le modèle cinétique de Patlak a été intégré dans un algorithme de reconstruction dynamique, et associé à la correction de mouvement afin de permettre la reconstruction directe d'images paramétriques de données thoraciques soumises au mouvement respiratoire. Les paramètres de transformation élastique pour la correction de mouvement ont été calculés à partir des images TEP d'intervalles synchronisés par rapport à l'amplitude de la respiration du patient. Des simulations Monte-Carlo d'un fantôme 4D géométrique avec plusieurs niveaux de statistiques, et du fantôme anthropomorphique NCAT intégrant des courbes d'activités temporelles réalistes pour les différents tissus, ont été réalisées afin de comparer les performances de la méthode de reconstruction paramétrique développée dans ce travail avec une approche 3D standard d'analyse cinétique. L'algorithme proposé a ensuite été testé sur des données cliniques de patients présentant un cancer bronchique non à petites cellules. Enfin, après la validation indépendante de l'algorithme de correction des effets de volume partiel d'une part, et de la reconstruction 4D incorporant la régularisation temporelle d'autre part, sur données simulées et cliniques, ces deux méthodologies ont été associées afin d'optimiser l'estimation de la fonction d'entrée à partir d'une région sanguine des images reconstruites. Les résultats de ce travail démontrent que l'approche de reconstruction paramétrique proposée permet de conserver un niveau de bruit stable dans les régions tumorales lorsque la statistique d'acquisition diminue, contrairement à l'approche d'estimation 3D pour laquelle le niveau de bruit constaté augmente. Ce résultat est intéressant dans l'optique d'une réduction de la durée des intervalles de la reconstruction 4D, permettant ainsi de réduire la durée totale de l'acquisition 4D. De plus, l'utilisation des fonctions d'entrée estimées avec les méthodes de régularisation temporelle proposées ont conduit à améliorer l'estimation des paramètres de Patlak. Enfin, la correction élastique du mouvement amène à une diminution du biais d'estimation des deux paramètres de Patlak, en particulier sur les tumeurs de petites dimensions situées dans des régions sensibles au mouvement respiratoire
Positron emission tomography (PET) is now considered as the gold standard and the main tool for the diagnosis and therapeutic monitoring of oncology patients, especially due to its quantitative aspects. With the advent of multimodal imaging in combined PET and X-ray CT systems, many methodological developments have been proposed in both pre-processing and data acquisition, image reconstruction, as well as post-processing in order to improve the quantification in PET imaging. Another important aspect of PET imaging is its high temporal resolution and ability to perform dynamic acquisitions, benefiting from the high sensitivity achieved with current systems. PET imaging allows measuring and visualizing changes in the biological distribution of radiopharmaceuticals within the organ of interest over time. This time tracking provides valuable information to physicians on underlying metabolic and physiological processes, which can be extracted using pharmacokinetic modeling. The objective of this project is, by taking advantage of dynamic data in PET/CT imaging, to develop a reconstruction method combining in a single process all the correction methodology required to accurately quantify PET data and, at the same time, include a pharmacokinetic model within the reconstruction in order to create parametric images for applications in oncology. In a first step, a partial volume effect correction methodology integrating, within the reconstruction process, the Lucy-Richardson deconvolution algorithm associated with a wavelet-based denoising method has been introduced. A second study focused on the development of a 4D reconstruction methodology performing temporal regularization of the dataset through a set of temporal basis functions, associated with a respiratory motion correction method based on an elastic deformation model. Finally, in a third step, the Patlak kinetic model has been integrated in a dynamic image reconstruction algorithm and associated with the respiratory motion correction methodology in order to allow the direct reconstruction of parametric images from dynamic thoracic datasets affected by the respiratory motion. The elastic transformation parameters derived for the motion correction have been estimated from respiratory-gated PET images according to the amplitude of the patient respiratory cycle. Monte-carlo simulations of two phantoms, a 4D geometrical phantom, and the anthropomorphic NCAT phantom integrating realistic time activity curves for the different tissues, have been performed in order to compare the performances of the proposed 4D parametric reconstruction algorithm with a standard 3D kinetic analysis approach. The proposed algorithm has then been assessed on clinical datasets of several patients with non small cell lung carcinoma. Finally, following the prior validation of the partial volume effect correction algorithm on one hand, and the 4D reconstruction incorporating the temporal regularization on the other hand, on simulated and clinical datasets, these two methodologies have been associated within the 4D reconstruction algorithm in order to optimize the estimation of image derived input functions. The results of this work show that the proposed direct parametric approach allows to maintain a similar noise level in the tumor regions when the statistic decreases, contrary to the 3D estimation approach for which the observed noise level increases. This result suggests interesting perspectives for the reduction of frame duration reduction of 4D reconstruction, allowing a reduction of the total 4D acquisition duration. In addition, the use of input function estimated with the developed temporal regularization methods led to the improvement of the Patlak parameters estimation. Finally, the elastic respiratory motion correction led to a diminution of the estimation bias of both Patlak parameters, in particular for small lesions located in regions affected by the respiratory motion
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Ye, Jing. "Utilisation de mesures de champs thermique et cinématique pour la reconstruction de sources de chaleur thermomécaniques par inversion de l’équation d’advection-diffusion 1D." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0027/document.

Повний текст джерела
Анотація:
Ce mémoire aborde la question de la production d’observables intrinsèques au comportement thermomécanique des matériaux pour mieux en formuler les lois d’états. Ces observables sont les sources de chaleur thermomécaniques, activées par sollicitation mécanique. Ces sources peuvent être reconstruites dans l’espace et le temps par inversion de mesures de champs de température obtenus par thermographie IR. Nous présentons essentiellement deux méthodes développées lors de ce travail de thèse qui reposent sur des approches spectrales réduites (dont la décomposition sur Modes de Branche) et des inversions séquentielles (méthode de Beck) ou itératives (Gradient Conjugué). Concernant cette dernière, nous proposons d’y adjoindre une régularisation efficace en s’inspirant de techniques de filtrage par TSVD. S’agissant de matériaux sujets aux instabilités plastiques (PolyEthylène Haute Densité) pour lesquels les vitesses locales peuvent être non négligeables, l’inversion des mesures en température nécessite que l’on considère un opérateur d’advection-diffusion, qui impose alors l’apport d’une connaissance supplémentaire : le champ de vitesses locales. Celui-ci est mesuré par corrélation d’images 3D et nous détaillons le travail expérimental mené ainsi que les résultats obtenus sur des essais de traction pilotés par vidéo-extensométrie. Nous montrons que pour des essais quasi-statiques à vitesses relativement élevées, les effets d’advection sont généralement négligeables. Nous montrons également en quoi la richesse des informations thermomécaniques (Sources) et cinématiques (Taux de déformation, vitesses) permet de mieux comprendre la dynamique de l’instabilité plastique. Enfin nous critiquons les résultats obtenus sur la reconstruction de source par confrontation des deux algorithmes développés et par une analyse physique des phénomènes observés
This work concerns the way intrinsic observables can be produced, which are related to the thermomechanical behavior of materials and necessary for better formulation of state laws. These observables are Thermomechanical Heat Sources (THS) which are activated through mechanical excitation. These sources can be reconstructed both in space and time by the inversion of measured temperature fields obtained through IR thermography. We develop two main methods in this work which rely on spectral reduced approaches (one of them being the decomposition on Branch Modes) and both on a sequential inversion (Beck’s method) and an iterative one (Conjugated Gradient). Regarding the latter, we suggest to combine the standard approach with an efficient regularization method which comes from the filtering techniques based on TSVD. As we are concerned with materials which can be subjected to plastic instabilities (High Density PolyEthylene) for which local velocities of matter displacement can be non negligible, the inversion of the measurements must be performed with the advection-diffusion operator of heat transfer. It is then necessary to obtained additional knowledge: the velocity field. This one is measured by 3D Digital Image Correlation and we detail the experimental work we have carried out, which are based on tensile tests monitored with video-extensometry. We show that for quasi-static tests at relatively high strain rates, the advective effects are generally negligible. We also show the richness of the information brought by this dual thermomechanical (heat sources) and kinematical (strain-rates, velocities) information. It allows for a better understanding of the plastic instability (necking) dynamics. Lastly, we criticize the obtained results on THS reconstruction by the confrontation between the two algorithms and by a physical analysis of the observed phenomena
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Tran, Dai viet. "Patch-based Bayesian approaches for image restoration." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCD049.

Повний текст джерела
Анотація:
Les travaux présentés dans cette thèse concernent les approches bayésiennes par patchs des problèmes d’amélioration de la qualité d’images. Notre contribution réside en le choix du dictionnaire construit grâce à un ensemble d’images de haute qualité et en la définition et l’utilisation d’un modèle à priori pour la distribution des patchs dans l’espace du dictionnaire. Nous avons montré qu’un choix attentif du dictionnaire représentant les informations locales des images permettait une amélioration de la qualité des images dégradées. Plus précisément, d’un dictionnaire construit de façon exhaustive sur les images de haute qualité nous avons sélectionné, pour chaque patch de l’image dégradée, un sous dictionnaire fait de ses voisins les plus proches. La similarité entre les patchs a été mesurée grâce à l’utilisation de la distance du cantonnier (Earth Mover’s Distance) entre les distributions des intensités de ces patchs. L’algorithme de super résolution présenté a conduit à de meilleurs résultats que les algorithmes les plus connus. Pour les problèmes de débruitage d’images nous nous sommes intéressés à la distribution à priori des patchs dans l’espace du dictionnaire afin de l’utiliser comme pré requis pour régulariser le problème d’optimisation donné par le Maximum à Posteriori. Dans le cas d’un dictionnaire de petite dimension, nous avons proposé une distribution constante par morceaux. Pour les dictionnaires de grande dimension, la distribution à priori a été recherchée comme un mélange de gaussiennes (GMM). Nous avons finalement justifié le nombre de gaussiennes utiles pour une bonne reconstruction apportant ainsi un nouvel éclairage sur l’utilisation des GMM
In this thesis, we investigate the patch-based image denoising and super-resolution under the Bayesian Maximum A Posteriori framework, with the help of a set of high quality images which are known as standard images. Our contributions are to address the construction of the dictionary, which is used to represent image patches, and the prior distribution in dictionary space. We have demonstrated that the careful selection of dictionary to represent the local information of image can improve the image reconstruction. By establishing an exhaustive dictionary from the standard images, our main attribute is to locally select a sub-dictionary of matched patches to recover each patch in the degraded image. Beside the conventional Euclidean measure, we propose an effective similarity metric based on the Earth Mover's Distance (EMD) for image patch-selection by considering each patch as a distribution of image intensities. Our EMD-based super-resolution algorithm has outperformed comparing to some state-of-the-art super-resolution methods.To enhance the quality of image denoising, we exploit the distribution of patches in the dictionary space as a an image prior to regularize the optimization problem. We develop a computationally efficient procedure, based on piece-wise constant function estimation, for low dimension dictionaries and then proposed a Gaussian Mixture Model (GMM) for higher complexity dictionary spaces. Finally, we justify the practical number of Gaussian components required for recovering patches. Our researches on multiple datasets with combination of different dictionaries and GMM models have complemented the lack of evidence of using GMM in the literature
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Bauchet, Jean-Philippe. "Structures de données cinétiques pour la modélisation géométrique d’environnements urbains." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4091.

Повний текст джерела
Анотація:
La modélisation géométrique d'objets urbains à partir de mesures physiques et leur représentation de manière efficace, compacte et précise est un problème difficile en vision par ordinateur et en infographie. Dans la littérature scientifique, les structures de données géométriques à l'interface entre les mesures physiques en entrée et les modèles produits en sortie passent rarement à l'échelle et ne permettent pas de partitionner des domaines fermés 2D et 3D représentant des scènes complexes. Dans cette thèse, on étudie une nouvelle famille de structures de données géométrique qui repose sur une formulation cinétique. Plus précisément, on réalise une partition de domaines fermés en détectant et en propageant au cours du temps des formes géométriques telles que des segments de droites ou des plans, jusqu'à collision et création de cellules polygonales. On propose en particulier deux méthodes de modélisation géométrique, une pour la vectorisation de régions d'intérêt dans des images, et une autre pour la reconstruction d'objets en maillages polygonaux concis à partir de nuages de points 3D. Les deux approches exploitent les structures de données cinétiques pour décomposer efficacement en cellules soit un domaine image en 2D, soit un domaine fermé en 3D. Les objets sont ensuite extraits de la partition à l’aide d’une procédure d’étiquetage binaire des cellules. Les expériences menées sur une grande variété de données en termes de nature, contenus, complexité, taille et caractéristiques d'acquisition démontrent la polyvalence de ces deux méthodes. On montre en particulier leur potentiel applicatif sur le problème de modélisation urbaine à grande échelle à partir de données aériennes et satellitaires
The geometric modeling of urban objects from physical measurements, and their representation in an accurate, compact and efficient way, is an enduring problem in computer vision and computer graphics. In the literature, the geometric data structures at the interface between physical measurements and output models typically suffer from scalability issues, and fail to partition 2D and 3D bounding domains of complex scenes. In this thesis, we propose a new family of geometric data structures that rely on kinetic frameworks. More precisely, we compute partitions of bounding domains by detecting geometric shapes such as line-segments and planes, and extending these shapes until they collide with each other. This process results in light partitions, containing a low number of polygonal cells. We propose two geometric modeling pipelines, one for the vectorization of regions of interest in images, another for the reconstruction of concise polygonal meshes from point clouds. Both approaches exploit kinetic data structures to decompose efficiently either a 2D image domain or a 3D bounding domain into cells. Then, we extract objects from the partitions by optimizing a binary labelling of cells. Conducted on a wide range of data in terms of contents, complexity, sizes and acquisition characteristics, our experiments demonstrate the scalability and the versatility of our methods. We show the applicative potential of our method by applying our kinetic formulation to the problem of urban modeling from remote sensing data
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Carlavan, Mikaël. "Optimization of the compression/restoration chain for satellite images." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00847182.

Повний текст джерела
Анотація:
The subject of this work is image coding and restoration in the context of satellite imaging. Regardless of recent developments in image restoration techniques and embedded compression algorithms, the reconstructed image still suffers from coding artifacts making its quality evaluation difficult. The objective of the thesis is to improve the quality of the final image with the study of the optimal structure of decoding and restoration regarding to the properties of the acquisition and compression processes. More essentially, the aim of this work is to propose a reliable technique to address the optimal decoding-deconvolution-denoising problem in the objective of global optimization of the compression/restoration chain. The thesis is organized in three parts. The first part is a general introduction to the problematic addressed in this work. We then review a state-of-the-art of restoration and compression techniques for satellite imaging and we describe the current imaging chain used by the French Space Agency as this is the focus of the thesis. The second part is concerned with the global optimization of the satellite imaging chain. We propose an approach to estimate the theoretical distortion of the complete chain and we present, for three different configurations of coding/restoration, an algorithm to perform its minimization. Our second contribution is also focused on the study of the global chain but is more aimed to optimize the visual quality of the final image. We present numerical methods to improve the quality of the reconstructed image and we propose a novel imaging chain based on the image quality assessment results of these techniques. The last part of the thesis introduces a satellite imaging chain based on a new sampling approach. This approach is interesting in the context of satellite imaging as it allows transferring all the difficulties to the on-ground decoder. We recall the main theoretical results of this sampling technique and we present a satellite imaging chain based on this framework. We propose an algorithm to solve the reconstruction problem and we conclude by comparing the proposed chain to the one currently used by the CNES.
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Leong-Hoï, Audrey. "Etude des techniques de super-résolution latérale en nanoscopie et développement d'un système interférométrique nano-3D." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAD048/document.

Повний текст джерела
Анотація:
Ce manuscrit de thèse présente l’étude des techniques de super-résolution latérale en nanoscopie optique, qui est une des nouvelles techniques d'imagerie haute résolution, aujourd'hui largement utilisée en biophysique et en imagerie médicale, pour imager et caractériser des nanostructures, tout en conservant les avantages de l'imagerie optique en champ lointain comme un vaste champ, la visualisation et l’analyse en temps réel…Un des défis futurs de la microscopie 3D super-résolue est d’éviter l’utilisation des marqueurs fluorescents. La microscopie interférométrique fait partie des techniques d’imagerie 3D sans marquage permettant la détection de nanostructures. Pour améliorer le pouvoir de détection de ce système optique, un premier protocole de traitement d’images a été développé et implémenté, permettant ainsi de révéler des structures initialement non mesurables. Puis, pour améliorer la résolution latérale du système, une nouvelle technique combinant l’interférométrie et le principe du nano-jet photonique a été développée permettant l’observation d’objets de taille inférieure à la limite de diffraction de l’instrument optique
This manuscript presents the study of the lateral super-resolution techniques in optical nanoscopy, which is a new high-resolution imaging method now widely used in biophysics and medical imaging, to observe and measure nanostructures, with the advantages of far field optical imaging, such as a large field of view, visualization and analysis in real time…One of the future challenges of 3D super resolution microscopy is to avoid the use of fluorescent markers. Interferometric microscopy is a 3D label-free imaging technique enabling the detection of nanostructures. To improve the detection capability of this optical system, a first version of a protocol composed of image processing methods was developed and implemented, revealing structures initially unmeasurable. Then, to improve the lateral resolution of the system, a new technique combining interferometry and the principle of the photonic nano-jet has been developed, thus allowing the observation of objects of a size smaller than the diffraction limit of the optical instrument
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Deregnaucourt, Thomas. "Prédiction spatio-temporelle de surfaces issues de l'imagerie en utilisant des processus stochastiques." Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC088.

Повний текст джерела
Анотація:
La prédiction de surface est désormais une problématique importante dans de multiples domaines, tels que la vision par ordinateur, la simulation d'avatars en cinématographie ou dans les jeux vidéo, etc. Une surface pouvant être statique ou dynamique, c'est-à-dire évoluant dans le temps, le problème peut être séparé en deux catégories : un problème de prédiction spatial et un problème de prédiction spatio-temporel. Afin de proposer une nouvelle approche à chacune de ces problématiques, ce travail de thèse a été séparé en deux parties.Nous avons d'abord cherché à prédire une surface statique, qui est supposée cylindrique, en la connaissant partiellement sous la forme de courbes. L'approche que nous avons proposée consiste à déformer un cylindre sur les courbes connues afin de reconstruire la surface d'intérêt. Tout d'abord, une correspondance entre les courbes connues et le cylindre est générée à l'aide d'outils d'analyse de forme. Une fois cette étape effectuée, une interpolation du champ de déformation, qui a été supposé gaussien, a été estimée en se basant sur le maximum de vraisemblance d'une part, et par inférence bayésienne d'autre part. La méthodologie a par la suite été appliquée à des données réelles provenant de deux domaines de l'imagerie : l'imagerie médicale et l'infographie. Les divers résultats obtenus montrent que la méthode proposée surpasse les méthodes existantes dans la littérature, avec de meilleurs résultats en utilisant l'inférence bayésienne.Dans un second temps, nous nous sommes intéressés à la prédiction spatio-temporelle de surfaces dynamiques. L'objectif était de prédire entièrement une surface dynamique à partir de sa surface initiale. La prédiction nécessitant une phase d'apprentissage à partir d'observations connues, nous avons tout d'abord développé un outil d'analyse spatio-temporel de surfaces. Cette analyse se base sur des outils d'analyse de forme, et permet un meilleur apprentissage pour la prédiction. Une fois cette étape préliminaire effectuée, nous avons estimé la déformation temporelle de la surface dynamique à prédire. Plus précisément, une adaptation, applicable sur l'espace des surfaces, des estimateurs couramment utilisés en statistique a été utilisée. En appliquant la déformation estimée sur la surface initiale, une estimation de la surface dynamique a ainsi été créée. Cette méthodologie a par la suite été utilisée pour prédire des expressions 4D du visage, ce qui permet de générer des expressions visuellement convaincantes
The prediction of a surface is now an important problem due to its use in multiple domains, such as computer vision, the simulation of avatars for cinematography or video games, etc. Since a surface can be static or dynamic, i.e. evolving with time, this problem can be separated in two classes: a spatial prediction problem and a spatio-temporal one. In order to propose a new approach for each of these problems, this thesis works have been separated in two parts.First of all, we have searched to predict a static surface, which is supposed cylindrical, knowing it partially from curves. The proposed approach consisted in deforming a cylinder on the known curves in order to reconstruct the surface of interest. First, a correspondence between known curves and the cylinder is generated with the help of shape analysis tools. Once this step done, an interpolation of the deformation field, which is supposed Gaussian, have been estimated using maximum likelihood and Bayesian inference. This methodology has then been applied to real data from two domains of imaging: medical imaging and infography. The obtained results show that the proposed approach exceeds the existing methods in the literature, with better results using Bayesian inference.In a second hand, we have been interested in the spatio-temporal prediction of dynamic surfaces. The objective was to predict a dynamic surface based on its initial surface. Since the prediction needs to learn on known observations, we first have developed a spatio-temporal surface analysis tool. This analysis is based on shape analysis tools, and allows a better learning. Once this preliminary step done, we have estimated the temporal deformation of the dynamic surface of interest. More precisely, an adaptation, with is usable on the space of surfaces, of usual statistical estimators has been used. Using this estimated deformation on the initial surface, an estimation of the dynamic surface has been created. This process has then been applied for predicting 4D expressions of faces, which allow us to generate visually convincing expressions
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Cafaro, Alexandre. "AI-Driven Adaptive Radiation Treatment Delivery for Head & Neck Cancers." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASL103.

Повний текст джерела
Анотація:
Le cancer de la tête et du cou (HNC) est l'un des cancers les plus difficiles à traiter en raison de la complexité de son anatomie et des changements significatifs spécifiques à chaque patient au cours du traitement. En tant que 6e cancer le plus fréquent dans le monde, le HNC présente souvent un mauvais pronostic en raison d'un diagnostic tardif et de l'absence de marqueurs prédictifs fiables. La radiothérapie, souvent associée à la chirurgie, est confrontée à des défis tels que la variabilité inter-observateur, la complexité de la planification et les changements anatomiques pendant le traitement.La radiothérapie adaptative est essentielle pour maintenir la précision à mesure que l'anatomie du patient évolue. Cependant, les méthodes d'imagerie peu invasives actuelles, comme la tomographie conique (CBCT) et les rayons X biplanaires, sont limitées en qualité ou ne fournissent que des images 2D, ce qui complique l'adaptation quotidienne du traitement. Cette thèse propose des approches innovantes basées sur l'apprentissage profond pour reconstruire des images CT 3D précises à partir de rayons X biplanaires, permettant une radiothérapie adaptative qui réduit la dose de radiation, accélère l'acquisition, réduit les coûts et améliore la précision.La reconstruction de volumes 3D à partir de rayons X biplanaires est difficile en raison des informations limitées de seulement deux projections, ce qui crée une ambiguïté importante dans la capture des structures internes. Pour y remédier, cette thèse intègre des a priori anatomiques et de déformation via l'apprentissage profond, améliorant ainsi considérablement la précision des reconstructions malgré des données limitées.La première méthode, X2Vision, est une approche non supervisée qui utilise des modèles génératifs entraînés sur des scans CT pour apprendre la distribution des anatomies de la tête et du cou. Elle optimise des vecteurs latents pour générer des volumes 3D alignés avec les rayons X biplanaires et les a priori anatomiques. En utilisant ces a priori et en naviguant dans le domaine anatomique, X2Vision réduit considérablement la nature mal posée du problème de reconstruction, obtenant des résultats précis même avec seulement deux projections.En radiothérapie, des scans pré-traitement comme le CT ou l'IRM sont souvent disponibles et essentiels pour améliorer les reconstructions en tenant compte des changements anatomiques au fil du temps. Nous avons développé XSynthMorph, une méthode qui intègre des caractéristiques spécifiques au patient à partir des scans CT préalablement acquis. En combinant des a priori anatomiques et de déformation, XSynthMorph s'adapte aux changements tels que la perte de poids ou les déformations non rigides, permettant des reconstructions plus robustes et personnalisées, avec une précision et un détail sans précédent.Nous avons exploré le potentiel clinique de X2Vision et XSynthMorph, avec des évaluations cliniques préliminaires montrant leur efficacité dans le positionnement du patient, la recnstruction des structures et l'analyse dosimétrique, soulignant leur potentiel pour la radiothérapie adaptative quotidienne. Pour approcher la réalité clinique, nous avons développé une première approche pour intégrer ces méthodes aux systèmes de rayons X biplanaires utilisés en radiothérapie.En conclusion, cette thèse démontre la faisabilité de la radiothérapie adaptative utilisant uniquement des rayons X biplanaires. En combinant des modèles génératifs, des a priori de déformation et des scans préalablement acquis, nous avons montré que des reconstructions 3D de haute qualité peuvent être obtenues avec une faible exposition aux radiations. Ce travail ouvre la voie à une radiothérapie adaptative quotidienne, offrant une solution peu invasive, peu coûteuse, et précise
Head and neck cancer (HNC) is one of the most challenging cancers to treat due to its complex anatomy and significant patient-specific changes during treatment. As the 6th most common cancer worldwide, HNC often has a poor prognosis due to late diagnosis and the lack of reliable predictive markers. Radiation therapy, typically combined with surgery, faces challenges such as inter-observer variability, complex treatment planning, and anatomical changes throughout the treatment process.Adaptive radiotherapy is essential to maintain precision as the patient's anatomy evolves during treatment. However, current low-invasive imaging methods before each treatment fraction, such as Cone Beam CT (CBCT) and biplanar X-rays, are limited in quality or provide only 2D images, making daily treatment adaptation challenging. This thesis introduces novel deep learning approaches to reconstruct accurate 3D CT images from biplanar X-rays, enabling adaptive radiotherapy that reduces radiation dose, shortens acquisition times, lowers costs, and improves treatment precision.Reconstructing 3D volumes from biplanar X-rays is inherently challenging due to the limited information provided by only two projections, leading to significant ambiguity in capturing internal structures. To address this, the thesis incorporates anatomical and deformation priors through deep learning, significantly improving reconstruction accuracy despite the very sparse measurements.The first method, X2Vision, is an unsupervised approach that uses generative models trained on head and neck CT scans to learn the distribution of head and neck anatomies. It optimizes latent vectors to generate 3D volumes that align with both biplanar X-rays and anatomical priors. By leveraging these priors and navigating the anatomical manifold, X2Vision dramatically reduces the ill-posed nature of the reconstruction problem, achieving accurate results even with just two projections.In radiotherapy, pre-treatment scans such as CT or MRI are typically available and are essential for improving reconstructions by accounting for anatomical changes over time. To make use of this data, we developed XSynthMorph, a method that integrates patient-specific features from pre-acquired planning CT scans. By combining anatomical and deformation priors, XSynthMorph adjusts for changes like weight loss, non-rigid deformations, or tumor regression. This approach enables more robust and personalized reconstructions, providing an unprecedented level of precision and detail in capturing 3D structures.We explored the clinical potential of X2Vision and XSynthMorph, with preliminary clinical evaluations demonstrating their effectiveness in patient positioning, structure retrieval, and dosimetry analysis, highlighting their promise for daily adaptive radiotherapy. To bring these methods closer to clinical reality, we developed an initial approach to integrate them into real-world biplanar X-ray systems used in radiotherapy.In conclusion, this thesis demonstrates the feasibility of adaptive radiotherapy using only biplanar X-rays. By combining generative models, deformation priors, and pre-acquired scans, we have shown that high-quality 3D reconstructions can be achieved with minimal radiation exposure. This work paves the way for daily adaptive radiotherapy, offering a low-invasive, cost-effective solution that enhances precision, reduces radiation exposure, and improves overall treatment efficiency
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Guénard, Jérôme. "Synthèse de modèles de plantes et reconstructions de baies à partir d’images." Phd thesis, 2013. http://oatao.univ-toulouse.fr/14710/1/guenard.pdf.

Повний текст джерела
Анотація:
Les plantes sont des éléments essentiels du monde qui nous entoure. Ainsi, si l’on veut créer des environnements virtuels qui soient à la fois agréables et réalistes, un effort doit être fait pour modéliser les plantes. Malgré les immenses progrès en vision par ordinateur pour reconstruire des objets de plus en plus compliqués, les plantes restent difficiles à reconstruire à cause de la complexité de leur topologie. Cette thèse se divise en deux grandes parties. La première partie s’intéresse à la modélisation de plantes, biologiquement réalistes, à partir d’une seule image. Nous générons un modèle de plante respectant les contraintes biologiques de son espèce et tel que sa projection soit la plus fidèle possible à l’image. La première étape consiste à extraire de l’image le squelette de la plante. Dans la plupart de nos images, aucune branche n’est visible et les images peuvent être de qualité moyenne. Notre première contribution consiste en une méthode de squelettisation basée sur les champs de vecteurs. Le squelette est extrait suite à un partitionnement non déterministe du feuillage de l’image assurant son réalisme. Dans un deuxième temps, la plante est modélisée en 3D. Notre deuxième contribution est la création de modèles pour différents types de plantes, basée sur les L-systèmes. Puis, un processus d’analyse-par-synthèse permet de choisir le modèle 3D final : plusieurs propositions de squelette sont générées et un processus bayésien permet d’extraire le modèle maximisant le critère a posteriori. Le terme d’attache aux données (vraisemblance) mesure la similarité entre l’image et la reprojection du modèle, la probabilité a priori mesure le réalisme du modèle. Après avoir généré des modèles de plantes, des modèles de fruits doivent être créés. Ayant travaillé principalement sur les pieds de vigne, nous avons développé une méthode pour reconstruire une grappe de raisin à partir d’au moins deux vues. Chaque baie est assimilée à un ellipsoïde de révolution. La méthode obtenue peut être plus généralement adaptée à tout type de fruits assimilables à une quadrique de révolution. La seconde partie de cette thèse s’intéresse à la reconstruction de quadriques de révolution à partir d’une ou plusieurs vues. La reconstruction de quadriques et, en général, la reconstruction de surfaces 3D est un problème très ancien en vision par ordinateur qui a donné lieu à de nombreux travaux. Nous rappelons les notions nécessaires de géométrie projective des quadriques, et de vision par ordinateur puis, nous présentons un état de l’art sur les méthodes existantes sur la reconstruction de surfaces quadratiques. Nous détaillons un premier algorithme permettant de retrouver les images des foyers principaux d’une quadrique de révolution à partir d’une vue « calibrée », c’est-à-dire pour laquelle les paramètres intrinsèques de la caméra sont connus. Puis, nous détaillons comment utiliser ce résultat pour reconstruire, à partir d’un schéma de triangulation linéaire, tout type de quadriques de révolution à partir d’au moins deux vues. Enfin, nous montrons comment il est possible de retrouver la pose 3D d’une quadrique de révolution dont on connaît les paramètres à partir d’un seul contour occultant. Nous évaluons les performances de nos méthodes et montrons quelques applications possibles.
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Merouche, Samir. "Suivi des vaisseaux sanguins en temps réel à partir d’images ultrasonores mode-B et reconstruction 3D : application à la caractérisation des sténoses artérielles." Thèse, 2013. http://hdl.handle.net/1866/12733.

Повний текст джерела
Анотація:
La maladie des artères périphériques (MAP) se manifeste par une réduction (sténose) de la lumière de l’artère des membres inférieurs. Elle est causée par l’athérosclérose, une accumulation de cellules spumeuses, de graisse, de calcium et de débris cellulaires dans la paroi artérielle, généralement dans les bifurcations et les ramifications. Par ailleurs, la MAP peut être causée par d`autres facteurs associés comme l’inflammation, une malformation anatomique et dans de rares cas, au niveau des artères iliaques et fémorales, par la dysplasie fibromusculaire. L’imagerie ultrasonore est le premier moyen de diagnostic de la MAP. La littérature clinique rapporte qu’au niveau de l’artère fémorale, l’écho-Doppler montre une sensibilité de 80 à 98 % et une spécificité de 89 à 99 % à détecter une sténose supérieure à 50 %. Cependant, l’écho-Doppler ne permet pas une cartographie de l’ensemble des artères des membres inférieurs. D’autre part, la reconstruction 3D à partir des images échographiques 2D des artères atteintes de la MAP est fortement opérateur dépendant à cause de la grande variabilité des mesures pendant l’examen par les cliniciens. Pour planifier une intervention chirurgicale, les cliniciens utilisent la tomodensitométrie (CTA), l’angiographie par résonance magnétique (MRA) et l’angiographie par soustraction numérique (DSA). Il est vrai que ces modalités sont très performantes. La CTA montre une grande précision dans la détection et l’évaluation des sténoses supérieures à 50 % avec une sensibilité de 92 à 97 % et une spécificité entre 93 et 97 %. Par contre, elle est ionisante (rayon x) et invasive à cause du produit de contraste, qui peut causer des néphropathies. La MRA avec injection de contraste (CE MRA) est maintenant la plus utilisée. Elle offre une sensibilité de 92 à 99.5 % et une spécificité entre 64 et 99 %. Cependant, elle sous-estime les sténoses et peut aussi causer une néphropathie dans de rares cas. De plus les patients avec stents, implants métalliques ou bien claustrophobes sont exclus de ce type d`examen. La DSA est très performante mais s`avère invasive et ionisante. Aujourd’hui, l’imagerie ultrasonore (3D US) s’est généralisée surtout en obstétrique et échocardiographie. En angiographie il est possible de calculer le volume de la plaque grâce à l’imagerie ultrasonore 3D, ce qui permet un suivi de l’évolution de la plaque athéromateuse au niveau des vaisseaux. L’imagerie intravasculaire ultrasonore (IVUS) est une technique qui mesure ce volume. Cependant, elle est invasive, dispendieuse et risquée. Des études in vivo ont montré qu’avec l’imagerie 3D-US on est capable de quantifier la plaque au niveau de la carotide et de caractériser la géométrie 3D de l'anastomose dans les artères périphériques. Par contre, ces systèmes ne fonctionnent que sur de courtes distances. Par conséquent, ils ne sont pas adaptés pour l’examen de l’artère fémorale, à cause de sa longueur et de sa forme tortueuse. L’intérêt pour la robotique médicale date des années 70. Depuis, plusieurs robots médicaux ont été proposés pour la chirurgie, la thérapie et le diagnostic. Dans le cas du diagnostic artériel, seuls deux prototypes sont proposés, mais non commercialisés. Hippocrate est le premier robot de type maitre/esclave conçu pour des examens des petits segments d’artères (carotide). Il est composé d’un bras à 6 degrés de liberté (ddl) suspendu au-dessus du patient sur un socle rigide. À partir de ce prototype, un contrôleur automatisant les déplacements du robot par rétroaction des images échographiques a été conçu et testé sur des fantômes. Le deuxième est le robot de la Colombie Britannique conçu pour les examens à distance de la carotide. Le mouvement de la sonde est asservi par rétroaction des images US. Les travaux publiés avec les deux robots se limitent à la carotide. Afin d’examiner un long segment d’artère, un système robotique US a été conçu dans notre laboratoire. Le système possède deux modes de fonctionnement, le mode teach/replay (voir annexe 3) et le mode commande libre par l’utilisateur. Dans ce dernier mode, l’utilisateur peut implémenter des programmes personnalisés comme ceux utilisés dans ce projet afin de contrôler les mouvements du robot. Le but de ce projet est de démontrer les performances de ce système robotique dans des conditions proches au contexte clinique avec le mode commande libre par l’utilisateur. Deux objectifs étaient visés: (1) évaluer in vitro le suivi automatique et la reconstruction 3D en temps réel d’une artère en utilisant trois fantômes ayant des géométries réalistes. (2) évaluer in vivo la capacité de ce système d'imagerie robotique pour la cartographie 3D en temps réel d'une artère fémorale normale. Pour le premier objectif, la reconstruction 3D US a été comparée avec les fichiers CAD (computer-aided-design) des fantômes. De plus, pour le troisième fantôme, la reconstruction 3D US a été comparée avec sa reconstruction CTA, considéré comme examen de référence pour évaluer la MAP. Cinq chapitres composent ce mémoire. Dans le premier chapitre, la MAP sera expliquée, puis dans les deuxième et troisième chapitres, l’imagerie 3D ultrasonore et la robotique médicale seront développées. Le quatrième chapitre sera consacré à la présentation d’un article intitulé " A robotic ultrasound scanner for automatic vessel tracking and three-dimensional reconstruction of B-mode images" qui résume les résultats obtenus dans ce projet de maîtrise. Une discussion générale conclura ce mémoire. L’article intitulé " A 3D ultrasound imaging robotic system to detect and quantify lower limb arterial stenoses: in vivo feasibility " de Marie-Ange Janvier et al dans l’annexe 3, permettra également au lecteur de mieux comprendre notre système robotisé. Ma contribution dans cet article était l’acquisition des images mode B, la reconstruction 3D et l’analyse des résultats pour le patient sain.
Locating and quantifying stenosis length and severity are essential for planning adequate treatment of peripheral arterial disease (PAD). To do this, clinicians use imaging methods such as ultrasound (US), Magnetic Resonance Angiography (MRA) and Computed Tomography Angiography (CTA). However, US examination cannot provide maps of entire lower limb arteries in 3D, MRA is expensive and invasive, CTA is ionizing and also invasive. We propose a new 3D-US robotic system with B-mode images, which is non-ionizing, non-invasive, and is able to track and reconstruct in 3D the superficial femoral artery from the iliac down to the popliteal artery, in real time. In vitro, 3D-US reconstruction was evaluated for simple and complex geometries phantoms in comparison with their computer-aided-design (CAD) file in terms of lengths, cross sectional areas and stenosis severity. In addition, for the phantom with a complex geometry, an evaluation was realized using Hausdorff distance, cross-sectional area and stenosis severity in comparison with 3D reconstruction with CTA. A mean Hausdorff distance of 0.97± 0.46 mm was found for 3D-US compared to 3D-CTA vessel representations. In vitro investigation to evaluate stenosis severity when compared with the original phantom CAD file showed that 3D-US reconstruction, with 3%-6% error, is better than 3D-CTA reconstruction, with 4-13% error. The in vivo system’s feasibility to reconstruct a normal femoral artery segment of a volunteer was also investigated. All of these promising results show that our ultrasound robotic system is able to track automatically the vessel and reconstruct it in 3D as well as CTA. Clinically, our system will allow firstly to the radiologist to have 3D images readily interpretable and secondly, to avoid radiation and contrast agent for patients.
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії