Thèses sur le sujet « Simulation and reconstruction »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Simulation and reconstruction.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Simulation and reconstruction ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Stevenson, Timothy James. « Simulation of Vehicle-Pedestrian Interaction ». Thesis, University of Canterbury. Mechanical Engineering, 2006. http://hdl.handle.net/10092/1180.

Texte intégral
Résumé :
The literature on vehicle crash reconstruction provides a number of empirical or classical theoretical models for the distance pedestrians are thrown in impacts with various types of vehicles and impact speeds. The aim of this research was to compare the predictions offered by computer simulation to those obtained using the empirical and classical theoretical models traditionally utilised in vehicle-pedestrian accident reconstruction. Particular attention was paid to the pedestrian throw distance versus vehicle impact speed relationship and the determination of pedestrian injury patterns and associated severity. It was discovered that computer simulation offered improved pedestrian kinematic prediction in comparison to traditional vehicle-pedestrian accident reconstruction techniques. The superior kinematic prediction was found to result in a more reliable pedestrian throw distance versus vehicle impact speed relationship, particularly in regard to varying vehicle and pedestrian parameters such as shape, size and orientation. The pedestrian injury prediction capability of computer simulation was found to be very good for head and lower extremity injury determination. Such injury prediction capabilities were noted to be useful in providing additional correlation of vehicle impact speed predictions, whether these predictions were made using computer simulation, traditional vehicle-pedestrian accident reconstruction methods or a combination of both. A generalised approach to the use of computer simulation for the reconstruction of vehicle-pedestrian accidents was also offered. It is hoped that this approach is developed and improved by other researchers so that over time guidelines for a standardised approach to the simulation of vehicle-pedestrian accidents might evolve. Thoracic injury prediction, particularly for frontal impacts, was found to be less than ideal. It is suspected that the relatively poor thoracic biofidelity stems from the development of pedestrian mathematical models from occupant mathematical models, which were in turn developed from cadaver and dummy tests. It is hoped that future research will result in improved thoracic biofidelity in human mathematical models.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Earls, Craig P. « Holographic particle image velocimetry : computational simulation and reconstruction ». Thesis, Springfield, Va. : Available from National Technical Information Service, 1999. http://handle.dtic.mil/100.2/ADA372219.

Texte intégral
Résumé :
Thesis (Degree of Naval Engineer and M.S. in Aerospace Engineering) Massachusetts Institute of Technology, June 1999.
"June 1999". Includes bibliographical references (leaves 77-79). Also available online.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Earls, Craig P. (Craig Paul) 1967. « Holographic particle image velocimetry : computational simulation and reconstruction ». Thesis, Massachusetts Institute of Technology, 1999. http://hdl.handle.net/1721.1/80189.

Texte intégral
Résumé :
Thesis (Nav.E.)--Massachusetts Institute of Technology, Dept. of Ocean Engineering; and, (S.M.)--Massachusetts Institute of Technology, Dept. of Aeronautics and Astronautics, 1999.
Includes bibliographical references (leaves 78-80).
by Craig P. Earls.
S.M.
Nav.E.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Desai, Amresh S. « Array-based GPR SAR simulation and image reconstruction ». Master's thesis, University of Cape Town, 2002. http://hdl.handle.net/11427/7397.

Texte intégral
Résumé :
Bibliography: leaves 53-55.
Subsurface object detection has mainly been carried out using conventional ground penetrating radar (OPR) techniques, which use a single receiving antenna from which a number of range profiles (known as ""A Scope"" images) are assembled to form a two-dimensional data field (known as a ""B Scope"" image). These OPR systems have difficulties with high clutter level, surface reflections, limited ground penetration and the required fine resolution. The resolution in the across track and along track directions is limited by the physical aperture in these directions. This project aims at developing a SAR imaging technique, which uses a single transmitting/receiving antenna to synthesize a two-dimensional planar aperture. Thus a three-dimensional reflectivity image of a scene is generated. The resolution in the across track and along track directions is achieved via a SAR aperture synthesis technique. The depth/range resolution is achieved via the transmission of narrowband Stepped Frequency Continuous Wave (SFCW) signals.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Huynh, Minh Duc. « Reconstruction Volumique de Résultats de Simulation à Base Chimère ». Thesis, Pau, 2012. http://www.theses.fr/2012PAUU3051/document.

Texte intégral
Résumé :
La simulation numérique des écoulements est une étape essentielle de la conception des turbines à gaz équipant les hélicoptères. La recherche permanente de la performance a conduit à des géométries de turbines très complexes et il devient de plus en plus difficile de modéliser des grilles de simulation qui épousent parfaitement la CAO des moteurs. La technique chimère permet de s’affranchir des contraintes de recollement parfait des différentes grilles en autorisant leur chevauchement. Cependant elle soulève de nouveaux problèmes lors de la phase de post-traitement, lorsqu’il s’agit d’exploiter les résultats de simulation afin de faire de nouveaux calculs ou de les visualiser, parce que les outils usuels ne sont pas adaptés à ces configurations particulières. Dans le cadre des deux premiers projets du programme MOSART du pôle de compétitivité Aerospace Valley, respectivement MACAO et OSMOSES, nous avons travaillé en collaboration avec l’entreprise Turbomeca à la conception d’une méthode de reconstruction volumique afin de traiter les résultats de simulations à base chimère. Nous avons ainsi proposé une méthode innovante permettant de reconstruire une partition de l’espace de simulation exempte de chevauchement entre grilles. La nouvelle partition conserve le maximum de propriétés des grilles d’origine et assure en tout point la conformité aux bords. La complexité théorique est linéaire avec la taille des grilles d’origine et nous permet d’obtenir des temps de traitement de l’ordre de la seconde pour des grilles de plusieurs centaines de milliers de mailles. Le principal intérêt de ce travail est de rendre exploitables les résultats de simulations à base chimère par les outils de post-traitement, qu’il s’agisse d’outils maison ou des nombreux logiciels commerciaux ou OpenSource disponibles, condition indispensable pour l’adoption de la méthode chimère par les bureaux d’études
Computationnal fluid dynamics is an essential step in gas turbine modelling. Continuous optimization of turbines has led to sophisticated geometries, which raises severe issues for the design of adapted simulation grids. The chimera technique aims at relaxing geometry matching constraints by allowing grids overlap. However, post-processing of simulation results performed over chimera grids raises new issues because usual tools are not tuned for this particular geometricconfigurations. In the framework of the MOSART programme of the world competitiveness cluster Aerospace Valley, we have been working in collaboration with Turbomeca in order to develop a technique for the volumetric reconstruction of chimerasimulation results. We propose an innovative method that allows us to build a collection of non-overlapping grids while preserving the main properties of the former simulation grids and featuring boundary conforming property everywhere.The theorical complexity of our algorithms has proved to be linear in the size of the former grids and leads to computation times of a few seconds for grids of hundreds of thousands of cells. The main impact of this work leads in the possibility of using any post-processing tool, including a large number of OpenSource solutions, for post-processing chimera simulation results, which is a mandatory condition for the wide acceptance of this method by industry actors
Styles APA, Harvard, Vancouver, ISO, etc.
6

Yang, Kuan. « Ancestral Genome Reconstruction in Bacteria ». Diss., Virginia Tech, 2012. http://hdl.handle.net/10919/28091.

Texte intégral
Résumé :
The rapid accumulation of numerous sequenced genomes has provided a golden opportunity for ancestral state reconstruction studies, especially in the whole genome reconstruction area. However, most ancestral genome reconstruction methods developed so far only focus on gene or replicon sequences instead of whole genomes. They rely largely on either detailed modeling of evolutionary events or edit distance computation, both of which can be computationally prohibitive for large data sets. Hence, most of these methods can only be applied to a small number of features and species. In this dissertation, we describe the design, implementation, and evaluation of an ancestral genome reconstruction system (REGEN) for bacteria. It is the first bacterial genome reconstruction tool that focuses on ancestral state reconstruction at the genome scale instead of the gene scale. It not only reconstructs ancestral gene content and contiguous gene runs using either a maximum parsimony or a maximum likelihood criterion but also replicon structures of each ancestor. Based on the reconstructed genomes, it can infer all major events at both the gene scale, such as insertion, deletion, and translocation, and the replicon scale, such as replicon gain, loss, and merge. REGEN finishes by producing a visual representation of the entire evolutionary history of all genomes in the study. With a model-free reconstruction method at its core, the computational requirement for ancestral genome reconstruction is reduced sufficiently for the tool to be applied to large data sets with dozens of genomes and thousands of features. To achieve as accurate a reconstruction as possible, we also develop a homologous gene family prediction tool for preprocessing. Furthermore, we build our in-house Prokaryote Genome Evolution simulator (PEGsim) for evaluation purposes. The homologous gene family prediction refinement module can refine homologous gene family predictions generated by third party de novo prediction programs by combining phylogeny and local gene synteny. We show that such refinement can be accomplished for up to 80% of homologous gene family predictions with ambiguity (mixed families). The genome evolution simulator, PEGsim, is the first random events based high level bacteria genome evolution simulator with models for all common evolutionary events at the gene, replicon, and genome scales. The concepts of conserved gene runs and horizontal gene transfer (HGT) are also built in. We show the validation of PEGsim itself and the evaluation of the last reconstruction component with simulated data produced by it. REGEN, REconstruction of GENomes, is an ancestral genome reconstruction tool based on the concept of neighboring gene pairs (NGPs). Although it does not cover the reconstruction of actual nucleotide sequences, it is capable of reconstructing gene content, contiguous genes runs, and replicon structure of each ancestor using either a maximum parsimony or a maximum likelihood criterion. Based on the reconstructed genomes, it can infer all major events at both the gene scale, such as insertion, deletion, and translocation, and the replicon scale, such as replicon gain, loss, and merge. REGEN finishes by producing a visual representation of the entire evolutionary history of all genomes in the study.
Ph. D.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Chang, Ka Kit. « Human model reconstruction from image sequence / ». View Abstract or Full-Text, 2003. http://library.ust.hk/cgi/db/thesis.pl?MECH%202003%20CHANG.

Texte intégral
Résumé :
Thesis (Ph. D.)--Hong Kong University of Science and Technology, 2003.
Includes bibliographical references (leaves 124-134). Also available in electronic version. Access restricted to campus users.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Talukdar, Saifulla. « Ekofisk Chalk : Core Measurements, Stochastic Reconstruction, Network Modeling and Simulation ». Doctoral thesis, Norwegian University of Science and Technology, Faculty of Engineering Science and Technology, 2002. http://urn.kb.se/resolve?urn=urn:nbn:no:ntnu:diva-120.

Texte intégral
Résumé :

This dissertation deals with (1) experimental measurements on petrophysical reservoir engineering and morphological properties of Ekofisk chalk, (2) numerical simulation of core flood experiments to analyze and improve relative permeability data, (3) stochastic reconstruction of chalk samples from limited morphological information, (4) extraction of pore space parameters from the reconstructed samples, development of network model using pore space information, and computation of petrophysical and reservoir engineering properties from network model, and (5) development of 2D and 3D idealized fractured reservoir models and verification of the applicability of several widely used conventional upscaling techniques in fractured reservoir simulation.

Experiments have been conducted on eight Ekofisk chalk samples and porosity, absolute permeability, formation factor, and oil-water relative permeability, capillary pressure and resistivity index are measured at laboratory conditions. Mercury porosimetry data and backscatter scanning electron microscope images have also been acquired for the samples.

A numerical simulation technique involving history matching of the production profits is employed to improve the relative permeability curves and to analyze hysteresis of the Ekofisk chalk sample. The technique was found to be a powerful tool to supplement the uncertainties in experimental measurements.

Porosity and correlation statistics obtained from backscatter scanning electron microscope image are used to reconstruct microstructures of chalk and particulate media. The reconstruction technique involves a simulated annealing algorithm, which can be constrained by an arbitrary number of morphological parameters. This flexibility of the algorithm is exploited to successfully reconstruct particulate media and chalk samples using more that one correlation function. A technique based on conditional simulated annealing has been introduced for exact reproduction of vuggy porosity in chalk in the form of foraminifer shells. A hybrid reconstruction technique that initialized the simulated annealing reconstruction with input generated using the Gaussian random field model has also been introduced. The technique was found to accelerate significantly the rate of convergence of the simulated annealing method. This finding is important because the main advantage of the simulated annealing method, namely its ability to impose a variety of reconstruction constraints, is usually compromised by its very slow rate of convergence.

Absolutely permeability, formation factor and mercury-air capillary pressure are computed from simple network models. The input parameters for the network models were extracted from a reconstructed chalk sample. The computed permeability, formation factor and mercury-air capillary pressure correspond well with the experimental data. The predictive power of a network model for chalk is further extended through incorporating important pore-level displacement phenomena and realistic description of pore space geometry and topology. Limited results show that the model may be used to compute absolute and relative permeabilities, capillary pressure, formation factor, resistivity index and saturation exponent. The above findings suggest that the network modeling technique may be used for prediction of petrophysical and reservoir engineering properties of chalk. Further works are necessary and an outline is given with considerable details.

Two 2D, one 3D and a dual-porosity fractured reservoir models have been developed and an imbibition process involving water displacing oil is simulated at various injection rates and with different oil-to-water viscosity ratios using four widely used conventional upscaling techniques. The upscaling techniques are the Kyte & Berry, Pore Volume Weighted, Weighed Relative Permeability, and Stone. The results suggest that the upscaling of fractured reservoirs may be possible using the conventional techniques. Kyte & Berry technique was found to be the most effective in all situations. However, further investigations are necessary using realistic description of fracture length, orientation, connectivity, aperture, spacing, etc.


Paper 3,4 and 5 reprinted with kind persmission of Elsevier Science, Science Direct.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Grandi, Massimiliano <1970&gt. « Microwave Breast Cancer Imaging : Simulation, Experimental Data, Reconstruction and Classification ». Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amsdottorato.unibo.it/7276/1/GRANDI_MASSIMILIANO_TESI.pdf.

Texte intégral
Résumé :
This work concerns the microwave imaging (MWI) for breast cancer. The full process to develop an experimental phantom is detailed. The models used in the simulation stage are presented in an increasing complexity. Starting from a simplified homogeneous breast where only the tumor is placed in a background medium, moving to an intermediate complexity model where a rugged fibroglandular structure other than tumor has been placed and reaching a realistic breast model derived from the nuclear magnetic resonance phantoms. The reconstruction is performed in 2D using the linear TR-MUSIC algorithm tested in the monostatic and multistatic approaches. The description of the developed phantom and the instruments involved are detailed along with the already planned improvements. The simulated and experimental results are compared. Finally a classification stage based on the leading technique known as “deep learning”, an improved branch of the machine learning, is adopted using mammographic images.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Yue, Jinlong. « L'élastographie par résonance magnétique et l'élastographie ultrasonore par ondes de cisaillement supersonic : simulation, comparaison expérimentale et l'application pour la caractérisation du foie ». Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS483/document.

Texte intégral
Résumé :
L’élastographie est une modalité d'imagerie médicale émergente qui permet de mesurer les propriétés mécaniques des tissus moux humains. Ces mesures peuvent servir de biomarqueurs pour l'amélioration de la prise en charge des maladies, du diagnostic précoce et de l'évaluation de la sévérité, au suivi de la réponse au traitement. Parmi les différentes approches de l’élastographie, l'élastographie par Résonance Magnétique (ERM) et l’élastographie ultrasonore par ondes de cisaillement (Supersonic Shear Imaging (SSI)) suscitent des intérêts particuliers. Ces deux modalités ont été largement étudiées pour des applications cliniques multiples. Toutefois, chaque modalité repose sur des conditions d'acquisition et de reconstruction différentes et caractérisées par leur propres limites qui peuvent induire des biais de mesure intra-et inter-modalité et donc entraver l'interchangeabilité des deux modalités pour des applications cliniques. Dans un premier temps, ma thèse a porté sur l'identification des biais de mesure entre ERM et SSI. Grâce à une comparaison méthodologique approfondie des deux modalités, nous avons identifié les différentes caractéristiques de fréquence des ondes de cisaillement générées par les deux modalités et les contraintes spécifiques de reconstruction, en particulier en ERM, comme les principales sources de biais de mesure entre les deux modalités. Dans un deuxième temps, une étude de simulation a étéeffectuée afin de caractériser l'influence des conditions d'acquisition et de reconstruction sur l'exactitude et la précision des mesures d’ERM. Nous avons établi des abaci in silico pour identifier le nombre de voxels par longueur d'onde idéal (rapport λ/a) pour obtenir des mesures ERM exactes et précises. En outre, nous avons montré que le rééchantillonnage pouvait s’avérer efficace afin de répondre aux critères de λ/a favorable lorsque le nombre de voxels par longueur d'onde initial était mal défini. Les résultats finaux, qui sont généralement calculés à partir des trois directions d'encodage, peuvent être améliorés grâce à des stratégies de pondération appropriées qui reposent sur le champ rotationnel du déplacement de l'onde de cisaillement. Pour la modalité SSI, nous avons utilisé le paramètre de qualité fourni par le fabricant afin d’éliminer raisonnablement des résultats peu fiables et améliorer encore la qualité des mesures. Ensuite nous avons intégré les stratégies d'optimisation proposées dans chaque modalité pour effectuer des études de comparaison expérimentales impartiales entre ces deux modalités. Des études in vitro ont été effectuées sur des fantômes commerciaux calibrés et aussi des fantômes à la base de l'alcool polyvinylique. Des résultats expérimentaux confirment bien ceux de la simulation. Des mesures SSI et ERM sont en bon accord quand des biais reliés à la théorie, l'expérimentation et la reconstruction sont minimisés. Des études in vivo ont été ensuite effectuées sur le foie de deux volontaires sains. On a constaté que lorsque le foie est quasi-élastique, des mesures SSI et ERM avec la qualité optimisée concordent bien les uns et les autres, ils sont donc interchangeables. Dans le cas du tissu hépatique viscoélastique, des mesures SSI et ERM dépendent de la fréquence. Dans ce contexte, des mesures ERM et SSI pour la même fréquence spécifique sont nécessaires pour réaliser une comparaison impartiale entre des deux modalités
Elastography is an emerging medical imaging modality which permits to measure the mechanical properties of human soft tissue. The measured mechanical properties can serve as potential biomarkers for improving the management of diseases, from early diagnosis, to severity evaluation and therapy response monitoring. Among different approaches, Magnetic Resonance Elastography (MRE) and Supersonic Shear Imaging (SSI) have shown particular interests. The two modalities have been widely investigated for multiple clinical applications. However, each modality is challenged by specific acquisition and reconstruction conditions which may induce intra- and inter-modality measurement biases and hence impede the interchangeability of the two modalities. The first part of my thesis focused on identifying the measurement biases between MRE and SSI. Through a thorough methodological comparison study, we recognized different frequency characteristics of generated shear waves for the two modalities and modality specific reconstruction validity issues as the main sources for the measurement biases between the two modalities. Then through a dedicated simulation study, we established an in silico abaci to identify the favorable range of number of voxels per wavelength which leads to accurate and precise MRE. Moreover, resampling was proven effective to regulate poorly defined number of voxels per wavelength to the favorable range. The overall outcome, which is usually computed from the three acquired motionencoded directions, may further be improved by appropriate weighting strategies that are based on curl of shear displacement field. For SSI, we referred to the quality parameter provided by the manufacturer to reasonably eliminate unreliable results so as to further improve the measurement quality. After establishing the potential measurement biases between MRE and SSI, we incorporated the proposed quality optimization strategies into both modalities in order to perform unbiased experimental comparison studies between the two modalities. First, in vitro studies were carried out on commercial calibrated phantoms as well as home-made polyvinyl alcohol phantoms. Experimental results corroborate well the simulation findings. MRE and SSI measurements agree well witheach other when theory, experiment, and reconstruction biases are minimized. In vivo studies were then performed on the livers of two healthy volunteers. We found that when the liver is quasi-elastic, the quality-guided MRE and SSI measurements agree well with each other and hence are interchangeable. In case of viscoelastic liver tissue, both MRE and SSI measurements are frequency dependent. Thus frequency-specific measurements are essential for cross-validating the measurements of these two modalities
Styles APA, Harvard, Vancouver, ISO, etc.
11

Ruiz, Fernández Guillermo. « 3D reconstruction for plastic surgery simulation based on statistical shape models ». Doctoral thesis, Universitat Pompeu Fabra, 2018. http://hdl.handle.net/10803/667049.

Texte intégral
Résumé :
This thesis has been accomplished in Crisalix in collaboration with the Universitat Pompeu Fabra within the program of Doctorats Industrials. Crisalix has the mission of enhancing the communication between professionals of plastic surgery and patients by providing a solution to the most common question during the surgery planning process of ``How will I look after the surgery?''. The solution proposed by Crisalix is based in 3D imaging technology. This technology generates the 3D reconstruction that accurately represents the area of the patient that is going to be operated. This is followed by the possibility of creating multiple simulations of the plastic procedure, which results in the representation of the possible outcomes of the surgery. This thesis presents a framework capable to reconstruct 3D shapes of faces and breasts of plastic surgery patients from 2D images and 3D scans. The 3D reconstruction of an object is a challenging problem with many inherent ambiguities. Statistical model based methods are a powerful approach to overcome some of these ambiguities. We follow the intuition of maximizing the use of available prior information by introducing it into statistical model based methods to enhance their properties. First, we explore Active Shape Models (ASM) which are a well known method to perform 2D shapes alignment. However, it is challenging to maintain prior information (e.g. small set of given landmarks) unchanged once the statistical model constraints are applied. We propose a new weighted regularized projection into the parameter space which allows us to obtain shapes that at the same time fulfill the imposed shape constraints and are plausible according to the statistical model. Second, we extend this methodology to be applied to 3D Morphable Models (3DMM), which are a widespread method to perform 3D reconstruction. However, existing methods present some limitations. Some of them are based in non-linear optimizations computationally expensive that can get stuck in local minima. Another limitation is that not all the methods provide enough resolution to represent accurately the anatomy details needed for this application. Given the medical use of the application, the accuracy and robustness of the method, are important factors to take into consideration. We show how 3DMM initialization and 3DMM fitting can be improved using our weighted regularized projection. Finally, we present a framework capable to reconstruct 3D shapes of plastic surgery patients from two possible inputs: 2D images and 3D scans. Our method is used in different stages of the 3D reconstruction pipeline: shape alignment; 3DMM initialization and 3DMM fitting. The developed methods have been integrated in the production environment of Crisalix, proving their validity.
Aquesta tesi ha estat realitzada a Crisalix amb la col·laboració de la Universitat Pompeu Fabra sota el pla de Doctorats Industrials. Crisalix té com a objectiu la millora de la comunicació entre els professionals de la cirurgia plàstica i els pacients, proporcionant una solució a la pregunta que sorgeix més freqüentment durant el procés de planificació d'una operació quirúrgica ``Com em veuré després de la cirurgia?''. La solució proposada per Crisalix està basada en la tecnologia d'imatge 3D. Aquesta tecnologia genera la reconstrucció 3D de la zona del pacient operada, seguit de la possibilitat de crear múltiples simulacions obtenint la representació dels possibles resultats de la cirurgia. Aquesta tesi presenta un sistema capaç de reconstruir cares i pits de pacients de cirurgia plàstica a partir de fotos 2D i escanegis. La reconstrucció en 3D d'un objecte és un problema complicat degut a la presència d'ambigüitats. Els mètodes basats en models estadístics son adequats per mitigar-les. En aquest treball, hem seguit la intuïció de maximitzar l'ús d'informació prèvia, introduint-la al model estadístic per millorar les seves propietats. En primer lloc, explorem els Active Shape Models (ASM) que són un conegut mètode fet servir per alinear contorns d'objectes 2D. No obstant, un cop aplicades les correccions de forma del model estadístic, es difícil de mantenir informació de la que es disposava a priori (per exemple, un petit conjunt de punts donat) inalterada. Proposem una nova projecció ponderada amb un terme de regularització, que permet obtenir formes que compleixen les restriccions de forma imposades i alhora són plausibles en concordança amb el model estadístic. En segon lloc, ampliem la metodologia per aplicar-la als anomenats 3D Morphable Models (3DMM) que són un mètode extensivament utilitzat per fer reconstrucció 3D. No obstant, els mètodes de 3DMM existents presenten algunes limitacions. Alguns estan basats en optimitzacions no lineals, computacionalment costoses i que poden quedar atrapades en mínims locals. Una altra limitació, és que no tots el mètodes proporcionen la resolució adequada per representar amb precisió els detalls de l'anatomia. Donat l'ús mèdic de l'aplicació, la precisió i la robustesa són factors molt importants a tenir en compte. Mostrem com la inicialització i l'ajustament de 3DMM poden ser millorats fent servir la projecció ponderada amb regularització proposada. Finalment, es presenta un sistema capaç de reconstruir models 3D de pacients de cirurgia plàstica a partir de dos possibles tipus de dades: imatges 2D i escaneigs en 3D. El nostre mètode es fa servir en diverses etapes del procés de reconstrucció: alineament de formes en imatge, la inicialització i l'ajustament de 3DMM. Els mètodes desenvolupats han estat integrats a l'entorn de producció de Crisalix provant la seva validesa.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Perchet, Diane. « Modélisation in-silico des voies aériennes : reconstruction morphologique et simulation fonctionnelle ». Phd thesis, Université René Descartes - Paris V, 2005. http://tel.archives-ouvertes.fr/tel-00273244.

Texte intégral
Résumé :
Dans les nouveaux protocoles thérapeutiques par voie inhalée, le dosage des particules actives reste un problème complexe qui dépend de trois principaux facteurs : leur taille, la dynamique des flux et les variations de calibre bronchique. La solution nécessite de disposer d'un modèle de distribution des gaz et aérosols administrés dans les poumons. Ventilation pulmonaire et effets du cycle respiratoire sur la dynamique des fluides deviennent deux enjeux clés de la pratique clinique.

Dans ce contexte, le projet RNTS RMOD a pour objectif de développer un simulateur morpho-fonctionnel des voies respiratoires pour l'aide au diagnostic, au geste médico-chirurgical et à l'administration de médicaments par inhalation.

Contribuant au projet RMOD, la recherche développée dans cette thèse propose une modélisation in-silico de la structure des voies aériennes supérieures (VAS) et proximales (VAP) à partir d'examens tomodensitométriques (TDM). L'investigation morphologique et la simulation fonctionnelle bénéficient alors de géométries 3D réelles, adaptées au patient et spécifiques des pathologies rencontrées.

La modélisation développée fait coopérer des méthodes originales de segmentation, de construction de surface maillée et d'analyse morpho-fonctionnelle.

La segmentation des VAP est obtenue par un schéma diffusif et agrégatif gouverné par un modèle markovien, dont l'initialisation repose sur l'opérateur de coût de connexion sous contrainte topographique. De cette segmentation, l'axe central de l'arbre bronchique est extrait de manière robuste et précise en combinant information de distance, propagation de fronts, et partition conditionnelle locale. Cet axe central est représenté sous forme d'une structure hiérarchique multivaluée synthétisant caractéristiques topologiques et géométriques de l'arbre bronchique. Une surface maillée est ensuite construite en appliquant une procédure de Marching Cubes adaptative, les paramètres des différents filtres mis en jeu étant automatiquement ajustés aux caractéristiques locales du réseau bronchique conditionnellement aux attributs de l'axe central.

La segmentation des VAS repose sur une propagation markovienne exploitant les variations locales de densité. L'initialisation combine morphologie mathématique et information de contour afin de garantir la robustesse à la topologie. Une procédure de type triangulation de Delaunay restreinte à une surface fournit ensuite la représentation maillée des VAS. Il est établi que la topologie et la géométrie des structures complexes composant les VAS sont effectivement préservées.

Pour permettre aux médecins de valider les modèles maillés ainsi construits, un environnement virtuel 3D convivial et interactif a été réalisé. En outre, la morphologie des voies aériennes exo- et endo-luminale est analysée de façon automatique à partir de simulations d'écoulement pour des géométries réelles.

Enfin, une modélisation unifiée des VAP et VAS est obtenue pour la première fois. Elle démontre la pertinence des approches développées. Elle ouvre la voie à la construction de modèles in-silico complets de l'appareil respiratoire ainsi qu'aux études fonctionnelles prenant en compte les paramètres morphologiques susceptibles d'influer localement ou globalement sur la dynamique des écoulements.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Zhao, Qiang. « Multi-model based simulation in the reconstruction of road traffic accident ». Thesis, Loughborough University, 2007. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.500371.

Texte intégral
Résumé :
A Synthetic Traffic SIMluation (ST-SIM) framework is constructed in this project. The framework provides a computer-based platform for traffic research, consisting of three modules: Driver Behaviour, Vehicle Dynamics, and Road Network modelling. Based on these models, ST-SIM can construct and simulate a broad range of traffic scenarios, including accidents. The research in this project has concentrated on the contribution of driver behaviour to the formation of normal traffic and traffic failure, ST-SIM has been designed and implemented using Agent-based modelling techniques. The software has been validated using simulator based driver collision avoidance behaviour from TRL and applied to help the accident reconstruction work of On-The-Spot (OTS) team in the UK.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Richard, Sébastien. « Reconstruction géométrique de la cornée par vidéokératographie ». Aix-Marseille 3, 2005. http://www.theses.fr/2005AIX30040.

Texte intégral
Résumé :
L'objectif est de reconstruire en 3D la cornée à partir d'une image 2D acquise par vidéokératographie. Le procédé de mesure consiste à projeter sur l'oeil une mire lumineuse constituée d'anneaux concentriques. La cornée réfléchit les rayons lumineux en direction d'une caméra vidéo qui en fournit une image 2D. Jusqu'à présent, les algorithmes implantés dans les vidéokératographes se révèlent parfois imprécis. Aussi nous avons développé une nouvelle méthodologie de reconstruction qui s'appuie sur un processus d'analyse ascendant-descendant. La phase ascendante consiste à reconstruire la cornée à partir de données extraites de l'image 2D acquise, en simulant la vidéokératographie par lancer de rayons inverse. Le résultat obtenu est une solution approchée mais robuste. La phase descendante consiste à ajuster le modèle approché directement sur l'image, en s'appuyant sur le lancer de rayons direct. On obtiendra ainsi un modèle fin représentatif de la cornée du patient
The goal is to rebuild in 3D the cornea starting from a digital image computed by videokeratography. Image is generated by illuminating a specularly reflective surface with a pattern of light with concentric rings, and captured by a camera video. Until now, algorithms used by videokeratographs are sometimes inaccurate. So we have developed a new methodology based on an ascending-descending analysis process. The ascending phase is based on the simulation of the videokeratography by backward ray tracing, and consists in rebuild the cornea starting from data resulting from a segmentation of the digital image. The result obtained is an approximate but robust solution. The descending phase is based on forward ray tracing, and consists in fitting the approximate model directly on digital image. One will thus obtains an accurate model representative of the patient's cornea
Styles APA, Harvard, Vancouver, ISO, etc.
15

Madec, Morgan. « Conception, Simulation et Realisation d'un processeur optoélectronique pour la reconstruction d'images médicales ». Phd thesis, Université Louis Pasteur - Strasbourg I, 2006. http://tel.archives-ouvertes.fr/tel-00166879.

Texte intégral
Résumé :
Le traitement optique des données tomodensitométriques fournies par les systèmes d'exploration volumique pourrait permettre d'accélérer considérablement les algorithmes de génération d'images dans le but de répondre aux besoins des futurs systèmes de thérapie assistée. Dans ce document, deux architectures optiques, correspondant aux deux opérations de base dans ce domaine, sont présentées : un système de filtrage et un système de rétroprojection. Ils sont abordés sous l'aspect matériel, puis sous l'aspect algorithmique. Quelle que soit la fonction réalisée, un processeur optique est toujours constitué de sources de lumière, d'afficheurs et de capteur d'images. L'état de l'art de ces composants révèle une faiblesse au niveau des afficheurs (SLM). En particulier, les SLM à base de cristaux liquides ferroélectriques sont étudiés en détail (modélisation, simulation et caractérisation de produits existants). L'intérêt des systèmes optiques de traitement est examiné à la fois du point de vue du temps de calcul, en comparaison avec les technologies numériques classiques, et en terme de qualité de traitement. Pour cela, les deux systèmes sont étudiés, dans un premier temps en simulation à l'aide d'un modèle approprié, puis expérimentalement sur un prototype. Dans le cadre du processeur de filtrage, les résultats restent plutôt moyens. Le rapport signal à bruit (SNR) sur les images reconstruites est de l'ordre de 20 dB en simulation avec un modèle dans lequel la majorité des distorsions géométriques n'ont pas été prises en compte. Les résultats expérimentaux mettent encore mieux en avant les limites de la méthode. Le travail de la lumière cohérente semble être un obstacle important. En revanche, les résultats avec le processeur de rétroprojection sont plutôt encourageants. Le modèle, beaucoup plus complet, et les simulations montrent qu'il est possible d'obtenir des images de qualité comparable à celles obtenues par calcul numérique (plus de 50 dB de SNR), avec une accélération d'un à deux ordres de grandeur. Les résultats obtenus avec le prototype expérimental confirment le potentiel de cette architecture. Une extension de ce travail concernant la réalisation d'un processeur hybride dédié à des algorithmes plus complexes (ex : l'algorithme ASSR pour la reconstruction d'image des CT-scan) est également présentée à la fin de ce document.
Styles APA, Harvard, Vancouver, ISO, etc.
16

ABDULMASSIH, DIOGO SOARES. « RIGID GROUND VEHICLES MODELS FOR COLLISIONS ANALYSIS AND SIMULATION AND ACCIDENTS RECONSTRUCTION ». PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2003. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=5101@1.

Texte intégral
Résumé :
COORDENAÇÃO DE APERFEIÇOAMENTO DO PESSOAL DE ENSINO SUPERIOR
Apresentam-se nesta dissertação os principais modelos para análise e simulação de colisões e reconstituição de acidentes, desenvolvidos especialmente para reproduzir a dinâmica de uma colisão de forma adequada. Esse tipo de tratamento está se tornando uma indispensável ferramenta de auxílio nas perícias judiciais e para uma melhor interpretação de problemas de colisão em geral. Os programas desenvolvidos em MATLAB são baseados na implementação das equações relacionadas à interação entre os veículos, supostos rígidos, que ocorre durante uma colisão e são aplicáveis aos casos de colisões centrais e oblíquas, gerando resultados válidos e compatíveis aqueles obtidos através da teoria de conservação da quantidade de movimento, e com as medições realizadas após os acidentes.
It is shown in this dissertation the main models for collisions analysis and simulation and accidents reconstruction, developed specially to reproduce the collision dynamics by an appropriated approach. This approach are becoming an indispensable tool of help for a better interpretation of collision and forensic problems. The MATLAB programs developed are based on implementation of equations related to rigid vehicles interaction in a collision, and are applicable for the central and oblique collisions, supplying valid and compatible results to those obtained by momentum conservation theory, and accidents experimental data.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Madec, Morgan. « Conception, simulation et réalisation d’un processeur optoélectronique pour la reconstruction d’images médicales ». Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/MADEC_Morgan_2006.pdf.

Texte intégral
Résumé :
Le traitement optique des données tomodensitométriques fournies par les systèmes d’exploration volumique pourrait permettre d’accélérer considérablement les algorithmes de génération d’images dans le but de répondre aux besoins des futurs systèmes de thérapie assistée. Dans ce document, deux architectures optiques, correspondant aux deux opérations de base dans ce domaine, sont présentées : un système de filtrage et un système de rétroprojection. Ils sont abordés sous l’aspect matériel, puis sous l’aspect algorithmique. Quelle que soit la fonction réalisée, un processeur optique est toujours constitué de sources de lumière, d’afficheurs et de capteur d’images. L’état de l’art de ces composants révèle une faiblesse au niveau des afficheurs (SLM). En particulier, les SLM à base de cristaux liquides ferroélectriques sont étudiés en détail (modélisation, simulation et caractérisation de produits existants). L’intérêt des systèmes optiques de traitement est examiné à la fois du point de vue du temps de calcul, en comparaison avec les technologies numériques classiques, et en terme de qualité de traitement. Pour cela, les deux systèmes sont étudiés, dans un premier temps en simulation à l’aide d’un modèle approprié, puis expérimentalement sur un prototype. Dans le cadre du processeur de filtrage, les résultats restent plutôt moyens. Le rapport signal à bruit (SNR) sur les images reconstruites est de l’ordre de 20 dB en simulation avec un modèle dans lequel la majorité des distorsions géométriques n’ont pas été prises en compte. Les résultats expérimentaux mettent encore mieux en avant les limites de la méthode. Le travail de la lumière cohérente semble être un obstacle important. En revanche, les résultats avec le processeur de rétroprojection sont plutôt encourageants. Le modèle, beaucoup plus complet, et les simulations montrent qu’il est possible d’obtenir des images de qualité comparable à celles obtenues par calcul numérique (plus de 50 dB de SNR), avec une accélération d’un à deux ordres de grandeur. Les résultats obtenus avec le prototype expérimental confirment le potentiel de cette architecture. Une extension de ce travail concernant la réalisation d’un processeur hybride dédié à des algorithmes plus complexes (ex : l’algorithme ASSR pour la reconstruction d’image des CT-scan) est également présentée à la fin de ce document
Optical processing can be used to speed up some algorithms of image reconstruction from tomodensitometric data provided by volume exploration systems. This may be of high interest in order to meet the needs of future assisted therapy systems. Two systems are described in this document, corresponding to the two main steps of the above mentioned algorithms: a filtering processor and a backprojection processor. They are first considered under a material point of view. Whatever function it may compute, an optical processor is made up of light sources, displays and cameras. Present state-of-the-art devices highlight a weakness in display performances. Special attention has been focused on ferroelectric liquid crystal spatial light modulators (modelling, simulations, and characterizations of commercial solutions). The potential of optical architectures is compared with electronic solutions, considering computation power and processed image quality. This study has been carried out for both systems first in simulation, with a reliable model of the architecture, and then with an experimental prototype. The optical filtering processor does not give accurate results: the signal to noise ratio on the reconstructed image is about 20 dB in simulation (the model used does not take into account the majority of geometrical distortions) and experimental measurements show strong limitation, especially when considering the problem of image formation with coherent lighting (speckle). On the other hand, results obtained with the optical backprojection processor are most encouraging. The model, more complete and accurate than the filtering processor, as well as the simulations, shows that processed image quality can be virtually equivalent to the one obtained by digital means (signal to noise ratio is over 50 dB) with two order of magnitude speed-up. Results obtained with the experimental prototype are in accordance with simulations and confirm the potential held by the architecture. As an extension, a hybrid processor involving the backprojection processor for the computation of more complex reconstruction algorithms, e. G. ASSR for helical CT-scan, is proposed in the last part of the document
Styles APA, Harvard, Vancouver, ISO, etc.
18

Rajaram, Ramya Zhou Otto. « A stationary digital breast tomosynthesis system design simulation, characterization and image reconstruction / ». Chapel Hill, N.C. : University of North Carolina at Chapel Hill, 2009. http://dc.lib.unc.edu/u?/etd,2541.

Texte intégral
Résumé :
Thesis (Ph. D.)--University of North Carolina at Chapel Hill, 2009.
Title from electronic title page (viewed Oct. 5, 2009). "... in partial fulfillment of the requirements for the degree of Doctor of Philosophy in the Curriculum of Applied Sciences and Engineering." Discipline: Applied and Materials Sciences; Department/School: Applied and Materials Sciences.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Madec, Morgan Hervé Yannick. « Conception, simulation et réalisation d'un processeur optoélectronique pour la reconstruction d'images médicales ». Strasbourg : Université Louis Pasteur, 2007. http://eprints-scd-ulp.u-strasbg.fr:8080/630/01/madec2006.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
20

Munsch, Marie. « Élaboration d’une méthodologie de reconstruction numérique d’accidents réels piéton ». Strasbourg, 2011. https://publication-theses.unistra.fr/public/theses_doctorat/2011/MUNSCH_Marie_2011.pdf.

Texte intégral
Résumé :
Les piétons sont considérés comme les usagers les plus vulnérables de la route et représentent à eux seuls 13 % des tués lors d'accidents de la route en France. Depuis plusieurs années, afin d'améliorer la sécurité des piétons, un premier pas a été de comprendre les relations entre la conception du véhicule et les mécanismes de lésion du piéton. Des modèles mathématiques multicorps de piétons et de véhicules ont été développés dans le but de simuler la cinématique de la victime lors d'impact avec le véhicule. Ce sont ces efforts de modélisation qui doivent conduire à la définition des conditions initiales de la tête à l'impact pour la simulation du traumatisme crânien au moyen d'une modélisation par éléments finis. Dans ce contexte, l'objectif est de développer une méthodologie de reconstruction de l'accident réel de piéton, afin de déterminer sa cinématique puis à terme de simuler le traumatisme crânien. Cette dernière étape permettra in fine d'extraire des critères de blessure de la tête plus précis que les critères actuellement en vigueur. Il est ainsi nécessaire de définir des modèles mathématiques de véhicule et de piéton. Une évaluation de différents modèles multicorps de coups ainsi que des conditions aux limites de la tête a été réalisée à l'aide d'une analyse modale multidirectionnelle. Puis la thèse se portera sur le développement d'une méthode de reconstruction automatisée de la cinématique du piéton par la modélisation multicorps. Une application de l’outil développé est réalisée sur une base de données de 8 accidents réels piéton/véhicule
Pedestrians are considered the most vulnerable road users and alone account for 13% of killed in road accidents in France. For several years, to improve pedestrian safety, the first step was to understand the relationship between vehicle design and mechanisms of pedestrian injuries. Mathematical multibody models of pedestrians and vehicles have been developed to simulate the kinematics of the victim during impact with the vehicle. These are the modeling efforts that should lead to the definition of the initial conditions of the head at impact for the simulation of head injury using a finite element modeling. In this context, the objective is to develop a methodology for the reconstruction of real pedestrian accident to determine its kinematics and to simulate the head injury. This last step will ultimately extract head injury criteria more accurate than the criteria currently used. It is thus necessary to define mathematical models of vehicle and pedestrian. An evaluation of different models of multibody neck models and head boundary conditions was performed using a multi-modal analysis. Then the thesis will be on developing an automated method of reconstruction of the pedestrian kinematics with multibody modeling. An application of the developed tool is performed on a database of 8 real accidents of pedestrian vs. Vehicle
Styles APA, Harvard, Vancouver, ISO, etc.
21

Tsang, Kin Ting. « Interactive 3D model reconstruction from images and quasi-dense points / ». View abstract or full-text, 2004. http://library.ust.hk/cgi/db/thesis.pl?COMP%202004%20TSANG.

Texte intégral
Résumé :
Thesis (M. Phil.)--Hong Kong University of Science and Technology, 2004.
Includes bibliographical references (leaves 59-62). Also available in electronic version. Access restricted to campus users.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Hilaire, Estelle. « Simulation et reconstruction 3D à partir de caméra Compton pour l’hadronthérapie : Influence des paramètres d’acquisition ». Thesis, Lyon, INSA, 2015. http://www.theses.fr/2015ISAL0104/document.

Texte intégral
Résumé :
L'hadronthérapie est une méthode de traitement du cancer qui emploie des ions (carbone ou proton) au lieu des rayons X. Les interactions entre le faisceau et le patient produisent des radiations secondaires. Il existe une corrélation entre la position d'émission de certaines de ces particules et la position du pic de Bragg. Parmi ces particules, des gamma-prompt sont produits par les fragments nucléaires excités et des travaux actuels ont pour but de concevoir des systèmes de tomographie par émission mono-photonique capable d'imager la position d'émission ces radiations en temps réel, avec une précision millimétrique, malgré le faible nombre de données acquises. Bien que ce ne soit pas actuellement possible, le but in fine est de surveiller le dépôt de dose. La caméra Compton est un des système TEMP qui a été proposé pour imager ce type de particules, car elle offre une meilleure résolution énergétique et la possibilité d'avoir une image 3D. Cependant, en pratique l'acquisition est affectée par le bruit provenant d'autres particules secondaires, et les algorithmes de reconstruction des images Compton sont plus compliqués et encore peu aboutis, mais sur une bonne voie de développement. Dans le cadre de cette thèse, nous avons développé une chaîne complète allant de la simulation de l'irradiation d'un fantôme par un faisceau de protons allant jusqu'à la reconstruction tomographique des images obtenues à partir de données acquises par la caméra Compton. Nous avons étudié différentes méthodes de reconstruction analytiques et itératives, et nous avons développé une méthode de reconstruction itérative capable de prendre en compte les incertitudes de mesure sur l'énergie. Enfin nous avons développé des méthodes pour la détection de la fin du parcours des distributions gamma-prompt reconstruites
Hadrontherapy is a cancer treatment method which uses ions (proton or carbon) instead of X-rays. Interactions between the beam and the patient produce secondary radiation. It has been shown that there is a correlation between the emission position of some of these particles and the Bragg peak position. Among these particles, prompt-gamma are produced by excited nuclear fragments and current work aims to design SPECT systems able to image the emission position the radiation in real time, with a millimetric precision, despite the low data statistic. Although it is not currently possible, the goal is to monitor the deposited dose. The Compton camera is a SPECT system that proposed for imaging such particles, because it offers a good energy resolution and the possibility of a 3D imaging. However, in practice the acquisition is affected by noise from other secondary particles and the reconstruction algorithms are more complex and not totally completed, but the developments are well advanced. In this thesis, we developed a complete process from the simulation of irradiation of a phantom by a proton beam up to the tomographic reconstruction of images obtained from data acquired by the Compton camera. We studied different reconstruction methods (analytical and iterative), and we have developed an iterative method able to consider the measurement uncertainties on energy. Finally we developed methods to detect the end-of-range of the reconstructed prompt-gamma distributions
Styles APA, Harvard, Vancouver, ISO, etc.
23

Amrani, Morade. « Modélisation et simulation d'objets déformables ». Lyon 1, 2002. http://www.theses.fr/2002LYO10256.

Texte intégral
Résumé :
Nous traitons, dans ce mémoire, du problème de la modélisation et de la simulation d'objets déformables. Nos travaux s'inscrivant dans le cadre d'un projet médical où les objets déformables sont des organes, nous avons porté une attention particulière au réalisme physique. Nous avons proposé une approche basée sur les systèmes de particules. Divers problèmes liés à ce modèle ont ainsi été résolus et nous avons établi une relation entre l'élasticité de l'objet réel et les paramètres du modèle. Afin de réduire les temps de calcul, nous avons étudié la possibilité d'utiliser dans une même scène des systèmes de particules et des surfaces implicites. Cette approche nous a permis de produire des simulations réaliste du comportement de certains organes, en particulier le système vessie prostate rectum, et les poumons.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Yureidini, Ahmed. « Robust blood vessel reconstruction for interactive medical simulations ». Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10044/document.

Texte intégral
Résumé :
Dans le cadre des simulations interactives, le manque de modèles géométriques reste une des limitations majeurs des simulateurs. Actuellement, les simulateurs commerciaux ne propose pas ou un tout cas, un nombre limité de cas. Un grand nombre des travaux abordent cependant ce sujet tout au long de ces deux dernières décennies. Malgré une vaste littérature, les méthodes ne sont pas adaptées à un contexte interactive, plus particulièrement quand il s'agit des réseaux vasculaires. Dans cette thèse, nous considérons le problème de la segmentation et la reconstruction des vaisseaux sanguins à partir de données patients en 3DRA. Pour ce faire, nous proposons deux nouveaux algorithmes, un pour la segmentation et un autre, pour la reconstruction. Tout d'abord, le réseau vasculaire est construit grâce à un algorithme de suivi de la ligne centrale des vaisseaux. De plus, notre procédure de suivi extrait des point à la surface des vaisseaux de manière robuste. Deuxièmement, ces points sont estimés par une surface implicite (un blobby model) qui est raffinée de façon itérative. Les résultats du suivi et de la reconstruction sont produit à partir de données synthétiques et réelles. Lors de la simulation de la navigation d'outils interventionnels, notre modèle géométrique remplit les exigences des simulations interactives : une prédiction et détection rapide des collisions, l'accès à l'information topologique, une surface lisse et la mise à disposition de quantités différentielles pour la résolution des contacts
In the context of interactive simulation, the lack of patient specific geometrical models remains one of the major limitations of simulators. Current commercial simulators proposed no or a limited number of cases. However, a vast literature on the subject has been introduced in the past twenty years. Nevertheless, the proposed methods are not adapted to an interactive context, especially when dealing with vascular networks. In this work, we address the problem of blood vessel segmentation and reconstruction from 3DRA patient data. To this end, we propose two novel algorithms for segmentation and reconstruction. First, the vessel tree is built by tracking the vessel centerline. Our dedicated tracking process also extracts points on the vessel surface in a robust way. Second, those points are fitted by an implicit surface (a blobby model) that is iteratively refined. Tracking and reconstruction results are reported on synthetic and patient data. Simulations within an interventional tool navigation context showed that the resulting geometrical model complies with interactive simulation requirements : fast collision detection and prediction, topology information, smoothness and availability of differential quantities for contact response computation
Styles APA, Harvard, Vancouver, ISO, etc.
25

Khellaf, Feriel. « List-mode proton CT reconstruction ». Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI074.

Texte intégral
Résumé :
La thérapie proton est utilisée dans le cadre du traitement contre le cancer afin de parvenir à une meilleure distribution de dose en exploitant les propriétés du proton. Les systèmes de planification de thérapie proton requièrent une carte du pouvoir d’arrêt des tissus du patient afin de pouvoir calculer la dose absorbée. En clinique, cette image est générée à partir d’une conversion des unités Hounsfield d’une image tomodensitométrique (CT) rayons X au pouvoir d’arrêt relatif (RSP) du proton. Cette calibration induit des incertitudes étant donné que les interactions physiques des photons et des protons sont différentes, ce qui va mener à l’utilisation de marges de sécurité et à la réduction de la conformité de dose. Afin de réduire ces incertitudes, l’imagerie proton CT a été proposée pour la planification de la thérapie proton puisque la quantité reconstruite est directement le RSP. En plus de la perte d’énergie, les protons interagissent également via la diffusion multiple de Coulomb (MCS) qui induit des trajectoires non linéaires, ce qui rend le problème de reconstruction en proton CT différent de la reconstruction CT rayons X. L’objectif de cette thèse est l’amélioration de la qualité d’image en reconstruction proton CT en mode liste. L’utilisation du formalisme du chemin le plus probable (MLP) afin de prendre en compte les effets du MCS a permis d’améliorer la résolution spatiale en proton CT. Ce formalisme suppose un milieu homogène. La première contribution de cette thèse est une étude sur les trajectoires des protons en milieux hétérogènes: la justesse du MLP a été évaluée en comparaison avec un MLP obtenu par simulations Monte Carlo dans différentes configurations. Les résultats en matière de distribution spatiale, angulaire, et énergétique ont été analysés afin d’évaluer l’impact sur l’image reconstruite. La seconde contribution est un filtre rampe directionnel 2D utilisé dans le cadre de la reconstruction proton CT. Il s’agit d’une méthode intermédiaire entre la rétroprojection filtrée et le filtrage de la rétroprojection, basée sur l’extension du filtre rampe en 2D afin de préserver l’information spatiale sur le MLP. Une expression pour une version 2D limitée en bande de fréquence du filtre rampe a été dérivée et testée sur des données pCT simulées. Ensuite, une comparaison de différents algorithmes de reconstruction directs en matière de résolution spatiale et justesse du RSP a été menée. Cinq algorithmes, incluant le filtre rampe directionnel, ont été testés afin de reconstruire différents fantômes. Les résultats obtenus à partir de données acquises avec des détecteurs idéaux ou réalistes ont été comparés. Enfin, la dernière contribution est une méthode de déconvolution qui utilise l’information sur l’incertitude du MLP afin d’améliorer la résolution des images proton CT
Proton therapy is used for cancer treatment to achieve better dose conformity by exploiting the energy-loss properties of protons. Proton treatment planning systems require knowledge of the stopping-power map of the patient’s anatomy to compute the absorbed dose. In clinical practice, this map is generated through a conversion from X-ray computed tomography (CT) Hounsfield units to proton stopping power relative to water (RSP). This calibration generates uncertainties as photon and proton physics are different, which leads to the use of safety margins and the reduction of dose conformity. In order to reduce uncertainties, proton CT (pCT) was proposed as a planning imaging modality since the reconstructed quantity is directly the RSP. In addition to energy loss, protons also undergo multiple Coulomb scattering (MCS) inducing non-linear paths, thus making the pCT reconstruction problem different from that of X-ray CT. The objective of this thesis is to improve image quality of pCT list-mode reconstruction. The use of a most likely path (MLP) formalism for protons to account for the effects of MCS has improved the spatial resolution in pCT. This formalism assumes a homogeneous medium. The first contribution of this thesis is a study on proton paths in heteregeneous media: the accuracy of the MLP was evaluated against a Monte Carlo generated path in different heterogeneous configurations. Results in terms of spatial, angular, and energy distributions were analyzed to assess the impact on reconstruction. The second contribution is a 2D directional ramp filter used for pCT data reconstruction. An intermediate between a filtered backprojection and a backproject-filter approach was proposed, based on the extension of the usual ramp filter to two dimensions, in order to preserve the MLP spatial information. An expression for a band-limited 2D version of the ramp filter was derived and tested on simulated pCT list-mode data. Then, a comparison of direct reconstruction algorithms in terms of spatial resolution and RSP accuracy was conducted. Five algorithms, including the 2D directional ramp, were tested to reconstruct different simulated phantoms. Results were compared between reconstruction from data acquired using idealized or realistic trackers. Finally, the last contribution is a deconvolution method using the information on the MLP uncertainty in order to improve spatial resolution of pCT images
Styles APA, Harvard, Vancouver, ISO, etc.
26

CARVALHO, FABIO VINICIUS MOURA DE. « FLEXIBLE VEHICLES MODELS FOR THE ANALYSIS AND SIMULATION OF COLLISIONS AND ACCIDENT RECONSTRUCTION ». PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2004. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=5134@1.

Texte intégral
Résumé :
É apresentado um procedimento para simulação de colisões de veículos terrestres deformáveis, cuja entrada são as condições imediatamente anteriores ao choque, produzindo como saída a evolução das variáveis ao longo do tempo de duração do impacto. Foram feitas simulações de casos semelhantes aos apresentados na literatura, e os resultados obtidos validaram os modelos criados. O procedimento foi implementado em Simulink/MatLab, seguindo a mesma estrutura dos demais programas em desenvolvimento nesta linha de pesquisa, de modo a futuramente integrá-lo aos pré- processadores e pós-processadores gráficos do programa SVDV - Simulação e Visualização da Dinâmica de Veículos.
A procedure for the simulation of flexible ground vehicles collisions is presented, which uses the conditions at the instant just before the impact as input variables and the evolution of the dynamic variables during the collision as output. Various simulations are presented and compared to similar cases found in the literature, what validates the proposed models. The algorithm was implemented using Simulink/Matlab software and used the same structure of the other programs under development in this area, in order to integrate it to graphic pre-processors and post-processors available in SVDV program - Simulation and Visualization of Vehicle Dynamics.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Wang, Junjie. « Numerical simulation of corneal refractive surgery based on improved reconstruction of corneal surface ». Thesis, University of Liverpool, 2016. http://livrepository.liverpool.ac.uk/3000347/.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
28

Allan, Gregory W. (Gregory William). « Simulation and testing of wavefront reconstruction algorithms for the deformable mirror (DeMi) cubesat ». Thesis, Massachusetts Institute of Technology, 2018. http://hdl.handle.net/1721.1/120381.

Texte intégral
Résumé :
Thesis: S.M., Massachusetts Institute of Technology, Department of Aeronautics and Astronautics, 2018.
This electronic version was submitted by the student author. The certified thesis is available in the Institute Archives and Special Collections.
Cataloged from student-submitted PDF version of thesis.
Includes bibliographical references (pages 93-98).
The search for exoplanets has discovered thousands of worlds orbiting stars other than our own. To learn more about these worlds, it is necessary to directly image them and study their atmospheric spectra. Especially of interest are Earth-like planets, but they are typically outshined by their host stars by a factor of 10₁₀, meaning high-contrast imaging is required to see them. Coronagraphs are typically used to block the starlight to achieve high contrast, but atmospheric, thermal, and mechanical aberrations can cause spurious speckles of starlight to contaminate the image. Use of space telescopes removes atmospheric aberrations, but other sources still remain. In order to achieve the optical performance necessary for high-contrast imaging, adaptive optics (AO) techniques in space are needed. High actuator count deformable mirrors (DMs) used in an AO system enable the required contrasts across sufficient fields of view, but typically have high size, weight, and power requirements, and can be complex to implement. New technologies such as Micro-electromechanical Systems (MEMS) DMs can potentially alleviate these problems. MEMS DMs also have applications in high-energy lasers, optical communications, and imaging systems. However, MEMS DMs have not been sufficiently tested in an orbital environment. While environmental tests can be performed on the ground, on-orbit operation in vacuum with exposure to radiation for extended periods cannot be sufficiently simulated. If MEMS DMs are to gain acceptance for use in future space missions, interactions with other system components must be studied, and support systems suitable for operating the DM in the space environment with constrained size, power, and computation resources must be developed. This thesis discusses the Deformable Mirror Demonstration Mission (DeMi), which aims to address these needs. Specifically, we develop and demonstrate wavefront sensing approaches suitable for demonstrating and characterizing a MEMS DM on a small satellite platform.
by Gregory W. Allan.
S.M.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Papadopoulos, Konstantinos. « Knowledge production through the process of digital reconstruction : simulation of Greek neolithic space ». Thesis, University of Southampton, 2014. https://eprints.soton.ac.uk/366597/.

Texte intégral
Résumé :
Archaeological research and practice is based on a paradox; the excavated three-dimensional data are transformed into two-dimensional representations in an attempt to create a sustainable record, which will act as a reference back to the process of excavation. These two-dimensional products, which carry interpretations, ambiguities and contradictions are restored to three-dimensional information, and are utilised in computer graphic simulations in an attempt to visualise, research and understand past experiences, attitudes and structures. This thesis examines the variable and dialectic processes among excavation, recording, perception, interpretation and simulation in order to understand how knowledge is produced in any project that aims to model three-dimensional aspects of the past. Koutroulou Magoula, a distinctive Middle Neolithic tell site in Phthiotida, Greece, provides a case study to problematise the process of reconstruction and contributes a novel three-dimensional approach to the study of Greek Neolithic space.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Lin, Yixin. « A Local Surface Reconstruction Algorithm for Surface Tension Simulation in Smoothed Particle Hydrodynamics ». University of Cincinnati / OhioLINK, 2020. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1613752656589083.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
31

Atkin, Ryan Justin. « Simulation of the ATLAS ITk strip endcap modules for testbeam reconstruction and analysis ». Master's thesis, Faculty of Science, 2019. http://hdl.handle.net/11427/31148.

Texte intégral
Résumé :
The Large Hadron Collider (LHC) is planned to be upgraded to the High Luminosity LHC (HL-LHC), increasing the rate of collisions and producing more particles passing through the detectors. This increased production rate will require upgrades to the detectors in order to cope with the large increase in data collection and radiation as well as improving the tracking and particle reconstruction in the higher occupancy environment. A major upgrade to ATLAS, one of the LHC detectors, will be replacing the current Inner Detector (ID) with a fully silicon semi-conductor based Inner Tracker (ITk). The research and development phase of the ITk requires a simulation of the sensors for performance simulations and testing the sensors in testbeams. The ITk strip end-cap sensors will use radial geometries, however the current testbeam telescope simulation software (AllPix) and reconstruction software (EUTelescope) are designed with cartesian geometries. Presented is the work behind implementing a radial geometry for one of the ITk strip endcap sensors, the R0 module, in the simulation software of Allpix and the reconstruction software of EUTelescope. Included in this work is the simulation of the propagation of the charge deposited in the sensor by the beam. The simulated data, as well as data from the actual EUDET testbeam telescope at DESY, Hamburg are both reconstructed with the same reconstruction software and analysed using the same post-reconstruction software. A comparison of the simulation to experiment is then performed, in particular to study the residuals, efficiency and charge sharing of the R0 module.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Westling, Fredrik Anders. « Pruning of Tree Crops through 3D Reconstruction and Light Simulation using Mobile LiDAR ». Thesis, The University of Sydney, 2021. https://hdl.handle.net/2123/27427.

Texte intégral
Résumé :
Consistent sunlight access is critical when growing fruit crops, and therefore pruning is a vital operation for tree management as it can be used for controlling shading within and between trees. This thesis focuses on using Light Detection And Ranging (LiDAR) to understand and improve the light distribution of fruit trees. To enable commercial applications, the tools developed aim to provide insights on every individual tree at whole orchard scale. Since acquisition and labelling of 3D data is difficult at a large scale, a system is developed for simulating LiDAR scans of tree crops for development and validation of techniques using infinite, perfectly-labelled datasets. Furthermore, processing scans at a large scale require rapid and relatively low-cost solutions, but many existing methods for point cloud analysis require a priori information or expensive high quality LiDAR scans. New tools are presented for structural analysis of noisy mobile LiDAR scans using a novel graph-search approach which can operate on unstructured point clouds with significant overlap between trees. The light available to trees is important for predicting future growth and crop yields as well as making pruning decisions, but many measurement techniques cannot provide branch-level analysis, or are difficult to apply on a large scale. Using mobile LiDAR, which can easily capture large areas, a method is developed to estimate the light available throughout the canopy. A study is then performed to demonstrate the viability of this approach to replace traditional agronomic methods, enabling large-scale adoption. The main contribution of this thesis is a novel framework for suggesting pruning decisions to improve light availability of individual trees. A full-tree quality metric is proposed and branch-scale light information identifies underexposed areas of the tree to suggest branches whose removal will improve the light distribution. Simulated tree scans are then used to validate a technique for estimating matter removed from the point cloud given specific pruning decisions, and this is used to quantify the improvement of real tree scans. The findings of this iv ABSTRACT v thesis demonstrate the value and application of mobile LiDAR in tree crops, and the tools developed through this work promise usefulness in scientific and commercial contexts.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Chandramouli, Pranav. « Turbulent complex flows reconstruction via data assimilation in large eddy models ». Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S035/document.

Texte intégral
Résumé :
L'assimilation de données en tant qu'outil pour la mécanique des fluides a connu une croissance exponentielle au cours des dernières décennies. La possibilité de combiner des mesures précises mais partielles avec un modèle dynamique complet est précieuse et a de nombreuses applications dans des domaines allant de l'aérodynamique, à la géophysique et à l’aéraulique. Cependant, son utilité reste limitée en raison des contraintes imposées par l'assimilation de données notamment en termes de puissance de calcul, de besoins en mémoire et en informations préalables. Cette thèse tente de remédier aux différentes limites de la procédure d'assimilation pour faciliter plus largement son utilisation en mécanique des fluides. Un obstacle majeur à l'assimilation des données est un coût de calcul prohibitif pour les écoulements complexes. Une modélisation de la turbulence à grande échelle est intégrée à la procédure d'assimilation afin de réduire considérablement la coût de calcul et le temps requis. La nécessité d'une information volumétrique préalable pour l'assimilation est abordée à l'aide d'une nouvelle méthodologie de reconstruction développée et évaluée dans cette thèse. L'algorithme d'optimisation reconstruit les champs 3D à partir d'observations dans deux plans orthogonaux en exploitant l'homogénéité directionnelle. La méthode et ses variantes fonctionnent bien avec des ensembles de données synthétiques et expérimentaux fournissant des reconstructions précises. La méthodologie de reconstruction permet également d’estimer la matrice de covariance d’ébauche indispensable à un algorithme d’assimilation efficace. Tous les ingrédients sont combinés pour effectuer avec succès l'assimilation de données variationnelles d'un écoulement turbulent dans le sillage d'un cylindre à un nombre de Reynolds transitoire. L'algorithme d'assimilation est validé pour des observations volumétriques synthétiques et est évalué sur des observations expérimentales dans deux plans orthogonaux
Data assimilation as a tool for fluid mechanics has grown exponentially over the last few decades. The ability to combine accurate but partial measurements with a complete dynamical model is invaluable and has numerous applications to fields ranging from aerodynamics, geophysics, and internal ventilation. However, its utility remains limited due to the restrictive requirements for performing data assimilation in the form of computing power, memory, and prior information. This thesis attempts at redressing various limitations of the assimilation procedure in order to facilitate its wider use in fluid mechanics. A major roadblock for data assimilation is the computational cost which is restrictive for all but the simplest of flows. Following along the lines of Joseph Smagorinsky, turbulence modelling through large-eddy simulation is incorporated in to the assimilation procedure to significantly reduce computing power and time required. The requirement for prior volumetric information for assimilation is tackled using a novel reconstruction methodology developed and assessed in this thesis. The snapshot optimisation algorithm reconstructs 3D fields from 2D cross- planar observations by exploiting directional homogeneity. The method and its variants work well with synthetic and experimental data-sets providing accurate reconstructions. The reconstruction methodology also provides the means to estimate the background covariance matrix which is essential for an efficient assimilation algorithm. All the ingredients are combined to perform variational data assimilation of a turbulent wake flow around a cylinder successfully at a transitional Reynolds number. The assimilation algorithm is validated with synthetic volumetric observation and assessed on 2D cross-planar observations emulating experimental data
Styles APA, Harvard, Vancouver, ISO, etc.
34

Walck, Guillaume. « Reconstruction 3D automatique d'objets inconnus en vue d'actions de saisie et manipulation ». Paris 6, 2010. http://www.theses.fr/2010PA066251.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
35

ROSSI, MARCO. « DEEP LEARNING APPLICATIONS TO PARTICLE PHYSICS : FROM MONTE CARLO SIMULATION ACCELERATION TO PROTODUNE RECONSTRUCTION ». Doctoral thesis, Università degli Studi di Milano, 2023. https://hdl.handle.net/2434/951789.

Texte intégral
Résumé :
The thesis arises in the context of deep learning applications to particle physics. The dissertation follows two main parallel streams: the development of hardware-accelerated tools for event simulation in high-energy collider physics, and the optimization of deep learning models for reconstruction algorithms at neutrino detectors. These two topics are anticipated by a review of the literature concerning the recent advancements of artificial intelligence models in particle physics. Event generation is a central concept in high-energy physics phenomenology studies. The state-of-the-art software dedicated to Monte Carlo simulation is often written for general-purpose computing architectures, which allow great flexibility but are not compatible with specialized accelerating devices, such as Graphics Processing Units. The original tools presented in the thesis, PDFFlow and MadFlow, manage to combine these two aspects in Python and require no prior knowledge of specific programming languages for hardware accelerators. The former product, PDFFlow, is a Parton Distribution Functions interpolator, the latter, MadFlow, aims at building a complete tool suite to accelerate the whole event generation framework. The reconstruction pipeline at neutrino detectors is comprised of many different algorithms that work in synergy to extract a high-level representation of detector data. All the most important experiments in neutrino physics are developing software to automatically process and extract this information. This work describes the implementation of deep learning techniques to improve neutrino reconstruction efficiency at the ProtoDUNE-SP detector. Two original contributions are presented concerning raw data denoising and a hit-clustering procedure named "slicing". Both denoising and slicing involve the implementation and the training of novel neural network architectures, based on state-of-the-art models in machine learning, such as feed-forward, convolutional and graph neural networks. They represent a proof of concept that these models are indeed capable of providing an important impact on signal reconstruction at neutrino detectors.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Bonfort, Thomas. « Reconstruction de Surfaces Réfléchissantes à partir d'Images ». Phd thesis, Grenoble INPG, 2006. http://tel.archives-ouvertes.fr/tel-00083540.

Texte intégral
Résumé :
La reconstruction de surfaces spéculaires à partir d'images est un domaine relativement peu exploré, du fait du caractère peu commun de ces objets, et la complexité induite par rapport aux surfaces mattes. Ceci est du au fait que la texture apparente de telles surfaces est dépendante du point de vue, ou formulé autrement, que le chemin lumineux entre un point d'intérêt et un pixel n'est pas une ligne droite. De ce fait, la plupart des algorithmes de reconstructions ignorent les contributions spéculaires, alors que nous montrons que le contraintes qu'elles apportent permettent d'obtenir des informations géométriques de localisation et d'orientation précises, et ce sans les contraintes de continuité ou de régularité habituellement requises. Cette thèse présente deux méthodes permettant d'obtenir la position et l'orientation de points d'une surface parfaitement spéculaire, à partir de la réflection de points environnants connus. La première étend les approches de ”space carving”, et obtient des voxels d'un objet spéculaire en utilisant une mesure de consistance géométrique putôt que photométrique, qui dans ce cas n'a pas de sens. La deuxième procède par triangulation, en supposant une caméra fixe observant la refléction d'au moins 2 points connus par point de la surface à reconstruire. Finalement, nous proposons des méthodes pour obtenir la pose d'objets de calibration alors qu'ils ne sont pas dans le champ de vue d'une caméra, à travers la reflection d'objets spéculaires. La première suppose que cet objet est vu à travers la réflection de 3 miroirs plans inconnus, et obtient par ailleurs la pose de ces miroirs. La seconde présente une contrainte géométrique permettant théoriquement d'obtenir la pose d'un tel objet placé à deux endroits différents, vu à travers la reflection d'une surface spéculaire quelconque.
Styles APA, Harvard, Vancouver, ISO, etc.
37

Tarsha, Kurdi Fayez. « Extraction et reconstruction de bâtiments en 3D à partir de relevés lidar aéroportés ». Université Louis Pasteur (Strasbourg) (1971-2008), 2008. https://publication-theses.unistra.fr/public/theses_doctorat/2008/TARSHA_KURDI_Fayez_2008.pdf.

Texte intégral
Résumé :
Pour construire automatiquement un modèle 3D d’une ville à partir de données lidar, deux étapes sont indispensables. La première consiste à segmenter automatiquement le nuage de points pour en extraire des classes (en général le sol, les bâtiments et la végétation). La seconde se base ensuite sur la classe « bâtiments » pour en modéliser les éléments de manière automatique. L’approche proposée consiste à réaliser une segmentation automatique en deux étapes. La première étape vise à segmenter le Modèle Numérique de Surface (MNS) en deux classes que sont le « sol » et le « sursol ». Pour cela, un seuillage local est appliqué par le biais d’un opérateur de convolution. Cette procédure permet de séparer le sursol du sol, même dans les régions de topographie accidentée. La deuxième étape consiste à détecter les bâtiments à partir de la classe « sursol ». A cet effet, le MNS et le nuage de points sont utilisés conjointement de manière à profiter des atouts de chacun. Pour la modélisation automatique de bâtiments, l’approche proposée est composée de trois étapes essentielles : la modélisation des façades, la modélisation 2D des toits et la modélisation 3D des toits. La technique RANSAC (RANdom SAmple Consensus) a été adaptée et appliquée afin de détecter automatiquement les plans les plus probables du toit. Enfin, la détection des plans des toits, des arêtes et des nœuds de toits permettent des modéliser les toits des bâtiments en 3D
In order to construct automatically a 3D city model from lidar data, two steps are essential. The first one is the automatic segmentation of the point cloud into three mean classes (terrain, vegetation and buildings). Once the buildings are detected, the automatic building construction can start. The proposed approach achieves automatically the segmentation task into two stages. The first one is the segmentation of the Digital Surface Model (DSM) into two classes which are terrain and off-terrain. For this purpose, a local thresholding is applied through a convolution operator. This operation allows to separate the two classes even in rugged topography areas. The second step is the automatic building detection from the off-terrain class. At this stage, the DSM and the point cloud are used together in order to take advantage of each one. For automatic modelling of buildings, the proposed approach consists of three phases: buildings facade modelling by detection and segmentation of building outline polygons, construction of 2D roof model starting from the automatic detection of roof planes and finally, the total 3D building model is calculated by analysing the mutual relationships between adjacent roof planes. The technique RANSAC (Random Sample Consensus) has been extended and applied to detect automatically the roof planes. Finally the detection of roof planes, borders and nodes allows to construct the 3D building model
Styles APA, Harvard, Vancouver, ISO, etc.
38

Bidal, Samuel. « Reconstruction tridimensionnelle d'éléments anatomiques et génération automatique de maillage éléments finis optimisés ». Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2003. http://tel.archives-ouvertes.fr/tel-00545018.

Texte intégral
Résumé :
Ce travail a été motive par la volonté d'obtenir rapidement des modèles fidèles du corps humain. Nous avons créé et implémenté un ensemble de méthodes permettant de générer des maillages éléments finis en se basant sur une imagerie sériée (coupes anatomiques, scanner, irm). La génération de maillages a été décomposée en trois grandes parties : extraction de contours, reconstruction 3d, maillage surfacique ou volumique. Les méthodes de détection de contours ont été choisies afin d'être applicables sur tout type d'imagerie sériée dans le but d'être d'un emploi le plus large possible. Les méthodes de reconstruction 3d et maillage sont originales et basées sur une décomposition octaédrique de l'espace. Elles génèrent directement des éléments quads et hexas. La validation de la chaîne de traitement et des modèles obtenus a été effectuée sur le segment céphalique. Divers autres segments ont aussi été abordés même si leur étude n'est ici aborde qu'en guise d'illustration.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Yang, Guanyu. « Environnement de simulation pour l'évaluation des algorithmes de reconstruction 3D en angiographie rotationnelle R-X ». Rennes 1, 2008. http://www.theses.fr/2008REN1S173.

Texte intégral
Résumé :
Nous proposons un environnement de simulation pour évaluer les algorithmes de reconstruction 3D en imagerie rotationnelle R-X. Il comprend la construction d’un modèle dynamique coeur vaisseau à partir d’une séquence volumique acquise en imagerie scanner multibarette (une séquence étant constituée de 10 volumes extraits tous les 10% du cycle cardiaque), la modélisation du système d’acquisition rotationnel angiographique R-X et le calcul des images de projection à partir du modèle dynamique 3D Coeur vaisseau sur plusieurs cycles cardiaques
We propose a simulation environment for the evaluation of 3D coronary tree reconstruction algorithms in rotational angiography. It includes the construction of a 3D dynamic model of the coronary tree from a dynamic sequence of volumes acquired on a multi-slice computed tomography angiography system (volumes reconstructed every 10% of the cardiac cycle), the modelling of the rotational angiography acquisition system to simulate different acquisition and gating strategies and the calculation of radiographic projections of the 3D model of coronary tree throughout several cardiac cycles
Styles APA, Harvard, Vancouver, ISO, etc.
40

Bouchard-Gilanton, Véronique. « Modélisation et correction de l'effet Compton dans la reconstruction d'images tomoscintigraphiques ». Grenoble 1, 1997. http://www.theses.fr/1997GRE10003.

Texte intégral
Résumé :
L'imagerie nucleaire apporte des informations fonctionnelles, complementaires des informations anatomiques provenant d'images scanner, irm ou echographiques. Afin d'ameliorer et de faciliter le diagnostic, il semble important d'avoir acces a des images de haute resolution, et donc d'ameliorer la mauvaise resolution des images tomoscintigraphiques due principalement a l'attenuation et la diffusion. Nous nous interessons plus particulierement a l'effet compton, phenomene physique majoritairement perturbateur et diffusant. Differentes techniques de correction de cette diffusion ont d'ores et deja ete proposees, mais la plupart d'entre elles ne tiennent pas compte du fait que l'effet compton depend de la densite electronique du milieu. Grace a la mise en correspondance images anatomiques / images fonctionnelles developpee au laboratoire, nous avons acces, en tout point de la zone a reconstruire, a cette information de densite. Nous pouvons donc modeliser physiquement le processus d'acquisition d'une image, depuis l'injection du radiopharmaceutique jusqu'a la detection par la gamma-camera. Apres avoir donne quelques rappels sur l'imagerie spect et quelques techniques de reconstruction usuelles, nous presentons une modelisation physique de l'effet compton grace a la formule de klein et nishina, et l'importance de sa prise en compte dans la reconstruction. Nous rappelons les principales methodes de correction actuellement developpees pour pallier a ce phenomene, avant d'introduire notre propre modelisation. Une etude rapide de sa complexite algorithmique nous amene a considerer differentes simplifications de notre modele et a paralleliser notre algorithme de modelisation. Enfin, une validation est effectuee sur des simulations et des donnees cliniques.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Calvez, Steven. « Development of reconstruction tools and sensitivity of the SuperNEMO demonstrator ». Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS285/document.

Texte intégral
Résumé :
L’expérience SuperNEMO cherche à observer la double désintégration beta sans émission de neutrinos, uniquement possible si le neutrino est une particule de Majorana. Le premier module, aussi appelé démonstrateur, est en cours de construction au Laboratoire Souterrain de Modane. Sa capacité à détecter les particules individuelles en plus d’en mesurer l’énergie en fait un détecteur unique. Le démonstrateur peut contenir 7 kg de ⁸²Se sous forme de fines feuilles source. Ces feuilles source sont entourées par une chambre à fils, permettant ainsi la reconstruction en 3 dimensions des traces de particules chargées. Un calorimètre segmenté, composé de scintillateurs plastiques couplés à des photomultiplicateurs, assure quant à lui la mesure de l’énergie de chaque particule. De plus, la chambre à fils peut être soumise à un champ magnétique afin d’identifier la charge des particules. SuperNEMO est donc capable d’effectuer la reconstruction complète de la cinématique d’un événement ainsi que d’identifier la nature des particules impliquées dans ce dernier : électrons, positrons, particules α ou encore particules γ. En pratique, la reconstruction des particules repose sur divers algorithmes implémentés dans un logiciel de simulation et de reconstruction développé par et pour la collaboration SuperNEMO. La reconstruction des particules γ est particulièrement délicate puisque ces particules ne laissent pas de traces dans la chambre à fils et sont seulement détectées par le calorimètre, parfois même plusieurs fois. Différentes approches ont été explorées durant cette thèse. Ce travail a abouti à la création d’un nouvel algorithme permettant à la fois d’optimiser l’efficacité de reconstruction des particules γ mais aussi d’améliorer la reconstruction de leurs énergies. D'autres programmes assurant l’identification des particules et l’opération des mesures topologiques pertinentes à chaque événement ont aussi été développés. La valeur du champ magnétique a été optimisée pour la recherche de la désintégration 0νββ à l’aide de simulations Monte-Carlo. Les performances des blindages magnétiques ainsi que leur influence sur le champ magnétique ont été évaluées via des mesures effectuées grâce à des bobines magnétiques à échelle réduite. Le démonstrateur SuperNEMO est capable de mesurer ses propres contaminations en bruits de fond grâce à des canaux d’analyse dédiés. À l’issue d’une première prise de données de 2,5 ans, les activités visées pour les principaux bruits de fond devraient être connues précisément. En outre, la demi-vie du processus 2νββ pour le ⁸²Se devrait être mesurée avec une incertitude totale de 0,3 %.À la différence d’autres expériences double beta se basant uniquement sur la somme en énergie des deux électrons, SuperNEMO a accès à la totalité de la cinématique d’un événement et donc à de plus nombreuses informations topologiques. Une analyse multivariée reposant sur des arbres de décision boostés permet ainsi une amélioration d’au moins 10 % de la sensibilité pour la recherche de la désintégration 0νββ. Après 2,5 ans, et si aucun excès d'événements 0νββ n'est observé, le démonstrateur pourra établir une limite inférieure sur la demi-vie du processus 0νββ : T > 5.85 10²⁴ ans, équivalant à une limite supérieure sur la masse effective du neutrino mββ < 0.2 − 0.55 eV. En extrapolant ce résultat à une exposition de 500 kg.an, ces mêmes limites deviendraient T > 10²⁶ ans et mββ < 40 − 110 meV
SuperNEMO is an experiment looking for the neutrinoless double beta decay in an effort to unveil the Majorana nature of the neutrino. The first module, called the demonstrator, is under construction and commissioning in the Laboratoire Souterrain de Modane. Its unique design combines tracking and calorimetry techniques. The demonstrator can study 7 kg of ⁸²Se, shaped in thin source foils. These source foils are surrounded by a wire chamber, thus allowing a 3-dimensional reconstruction of the charged particles tracks. The individual particles energies are then measured by a segmented calorimeter, composed of plastic scintillators coupled with photomultipliers. A magnetic field can be applied to the tracking volume in order to identify the charge of the particles. SuperNEMO is thus able to perform a full reconstruction of the events kinematics and to identify the nature of the particles involved: electrons, positrons, α particles or γ particles. In practice, the particle and event reconstruction relies on a variety of algorithms, implemented in the dedicated SuperNEMO simulation and reconstruction software. The γ reconstruction is particularly challenging since γ particles do not leave tracks in the wire chamber and are only detected by the calorimeter, sometimes multiple times. Several γ reconstruction approaches were explored during this thesis. This work lead to the creation of a new algorithm optimizing the γ reconstruction efficiency and improving the γ energy reconstruction. Other programs allowing the particle identification and performing the topological measurements relevant to an event were also developed. The value of the magnetic field was optimized for the 0νββ decay search, based on Monte-Carlo simulations. The magnetic shieldings performances and their impact on the shape of the magnetic field were estimated with measurements performed on small scale magnetic coils. The SuperNEMO demonstrator is able to measure its own background contamination thanks to dedicated analysis channels. At the end of the first 2.5 years data taking phase, the main backgrounds target activities should be measured accurately. The ⁸²Se 2νββ half-life should be known with a 0.3 % total uncertainty. Unlike other double beta decay experiments relying solely on the two electrons energy sum, SuperNEMO has access to the full events kinematics and thus to more topological information. A multivariate analysis based on Boosted Decision Trees was shown to guarantee at least a 10 % increase of the sensitivity of the 0νββ decay search. After 2.5 years, and if no excess of 0νββ events is observed, the SuperNEMO demonstrator should be able to set a limit on the 0νββ half-life of T > 5.85 10²⁴ y, translating into a limit on the effective Majorana neutrino mass mββ < 0.2 − 0.55 eV. Extrapolating this result to the full-scale SuperNEMO experiment, i.e. 500 kg.y, the sensitivity would be raised to T > 10²⁶ y or mββ < 40 − 110 meV
Styles APA, Harvard, Vancouver, ISO, etc.
42

Haouchine, Nazim. « Image-guided simulation for augmented reality during hepatic surgery ». Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10009/document.

Texte intégral
Résumé :
L’objectif principal de cette thèse est de fournir aux chirurgiens des outils d’aide à la décision pré et per-opératoire lors d’interventions minimalement invasives en chirurgie hépatique. Ces interventions reposent en général sur des techniques de laparoscopie ou plus récemment d’endoscopie flexible. Lors de telles interventions, le chirurgien cherche à retirer un nombre souvent important de tumeurs hépatiques, tout en préservant le rôle fonctionnel du foie. Cela implique de définir une hépatectomie optimale, c’est à dire garantissant un volume du foie post-opératoire d’au moins 55% du foie initial et préservant au mieux la vascularisation hépatique. Bien qu’une planification de l’intervention puisse actuellement s’envisager sur la base de données pré-opératoire spécifiques au patient, les mouvements importants du foie et ses déformations lors de l’intervention rendent cette planification très difficile à exploiter en pratique. Les travaux proposés dans cette thèse visent à fournir des outils de réalité augmentée utilisables en conditions per-opératoires et permettant de visualiser à chaque instant la position des tumeurs et réseaux vasculaires hépatiques
The main objective of this thesis is to provide surgeons with tools for pre and intra-operative decision support during minimally invasive hepatic surgery. These interventions are usually based on laparoscopic techniques or, more recently, flexible endoscopy. During such operations, the surgeon tries to remove a significant number of liver tumors while preserving the functional role of the liver. This involves defining an optimal hepatectomy, i.e. ensuring that the volume of post-operative liver is at least at 55% of the original liver and the preserving at hepatic vasculature. Although intervention planning can now be considered on the basis of preoperative patient-specific, significant movements of the liver and its deformations during surgery data make this very difficult to use planning in practice. The work proposed in this thesis aims to provide augmented reality tools to be used in intra-operative conditions in order to visualize the position of tumors and hepatic vascular networks at any time
Styles APA, Harvard, Vancouver, ISO, etc.
43

Soiné, Jérôme Roger Dennis [Verfasser], et Ulrich S. [Akademischer Betreuer] Schwarz. « Reconstruction and Simulation of Cellular Traction Forces / Jérôme Roger Dennis Soiné ; Betreuer : Ulrich S. Schwarz ». Heidelberg : Universitätsbibliothek Heidelberg, 2014. http://d-nb.info/1179924827/34.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
44

Soiné, Jérôme [Verfasser], et Ulrich S. [Akademischer Betreuer] Schwarz. « Reconstruction and Simulation of Cellular Traction Forces / Jérôme Roger Dennis Soiné ; Betreuer : Ulrich S. Schwarz ». Heidelberg : Universitätsbibliothek Heidelberg, 2014. http://nbn-resolving.de/urn:nbn:de:bsz:16-heidok-168694.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
45

Delestre, Olivier. « Simulation du ruissellement d'eau de pluie sur des surfaces agricoles ». Phd thesis, Université d'Orléans, 2010. http://tel.archives-ouvertes.fr/tel-00587197.

Texte intégral
Résumé :
L'objectif de ce travail est le développement d'un modèle et d'une méthode numérique adaptés à la simulation du ruissellement d'eau de pluie sur des surfaces agricoles. Pour cela, nous utilisons un système d'équations aux dérivées partielles pour les eaux peu profondes : le système de Saint Venant. La pluie et l'infiltration y sont pris en compte par l'ajout de termes source et le couplage avec un modèle d'infiltration. Le système étant hyperbolique et conservatif nous choisissons d'utiliser un schéma aux volumes finis avec reconstruction hydrostatique. Avec cette reconstruction nous obtenons un schéma permettant de traiter les équilibres stationnaires et les interfaces sec/mouillé dues aux événements pluvieux. Tout d'abord, nous effectuons une comparaison systématique de différents flux numériques, de différentes reconstructions d'ordre deux (MUSCL et ENO modifiées) et de différentes méthodes de traitement des frottements sur des solutions analytiques unidimensionnelles. Ces comparaisons nous permettent de choisir une méthode numérique adaptée à la simulation du ruissellement qui en outre capture les phénomènes de type roll-waves. Ensuite nous nous intéressons au traitement de la pluie et de l'infiltration à l'aide du modèle de Green-Ampt. Cette méthode généralisée en dimension deux est validée sur des résultats expérimentaux obtenus à l'INRA d'Orléans et à l'IRD. La méthode numérique choisie et validée a été implémentée dans FullSWOF_2D un logiciel libre écrit en C++ pour la simulation de ruissellement d'eau de pluie sur des surfaces agricoles.
Styles APA, Harvard, Vancouver, ISO, etc.
46

Weber, Loriane. « Iterative tomographic X-Ray phase reconstruction ». Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI085/document.

Texte intégral
Résumé :
L’imagerie par contraste de phase suscite un intérêt croissant dans le domaine biomédical, puisqu’il offre un contraste amélioré par rapport à l’imagerie d’atténuation conventionnelle. En effet, le décalage en phase induit par les tissus mous, dans la gamme d’énergie utilisée en imagerie, est environ mille fois plus important que leur atténuation. Le contraste de phase peut être obtenu, entre autres, en laissant un faisceau de rayons X cohérent se propager librement après avoir traversé un échantillon. Dans ce cas, les signaux obtenus peuvent être modélisés par la diffraction de Fresnel. Le défi de l’imagerie de phase quantitative est de retrouver l’atténuation et l’information de phase de l’objet observé, à partir des motifs diffractés enregistrés à une ou plusieurs distances. Ces deux quantités d’atténuation et de phase, sont entremêlées de manière non-linéaire dans le signal acquis. Dans ces travaux, nous considérons les développements et les applications de la micro- et nanotomographie de phase. D’abord, nous nous sommes intéressés à la reconstruction quantitative de biomatériaux à partir d’une acquisition multi-distance. L’estimation de la phase a été effectuée via une approche mixte, basée sur la linéarisation du modèle de contraste. Elle a été suivie d’une étape de reconstruction tomographique. Nous avons automatisé le processus de reconstruction de phase, permettant ainsi l’analyse d’un grand nombre d’échantillons. Cette méthode a été utilisée pour étudier l’influence de différentes cellules osseuses sur la croissance de l’os. Ensuite, des échantillons d’os humains ont été observés en nanotomographie de phase. Nous avons montré le potentiel d’une telle technique sur l’observation et l’analyse du réseau lacuno-canaliculaire de l’os. Nous avons appliqué des outils existants pour caractériser de manière plus approfondie la minéralisation et les l’orientation des fibres de collagènes de certains échantillons. L’estimation de phase, est, néanmoins, un problème inverse mal posé. Il n’existe pas de méthode de reconstruction générale. Les méthodes existantes sont soit sensibles au bruit basse fréquence, soit exigent des conditions strictes sur l’objet observé. Ainsi, nous considérons le problème inverse joint, qui combine l’estimation de phase et la reconstruction tomographique en une seule étape. Nous avons proposé des algorithmes itératifs innovants qui couplent ces deux étapes dans une seule boucle régularisée. Nous avons considéré un modèle de contraste linéarisé, couplé à un algorithme algébrique de reconstruction tomographique. Ces algorithmes sont testés sur des données simulées
Phase contrast imaging has been of growing interest in the biomedical field, since it provides an enhanced contrast compared to attenuation-based imaging. Actually, the phase shift of the incoming X-ray beam induced by an object can be up to three orders of magnitude higher than its attenuation, particularly for soft tissues in the imaging energy range. Phase contrast can be, among others existing techniques, achieved by letting a coherent X-ray beam freely propagate after the sample. In this case, the obtained and recorded signals can be modeled as Fresnel diffraction patterns. The challenge of quantitative phase imaging is to retrieve, from these diffraction patterns, both the attenuation and the phase information of the imaged object, quantities that are non-linearly entangled in the recorded signal. In this work we consider developments and applications of X-ray phase micro and nano-CT. First, we investigated the reconstruction of seeded bone scaffolds using sed multiple distance phase acquisitions. Phase retrieval is here performed using the mixed approach, based on a linearization of the contrast model, and followed by filtered-back projection. We implemented an automatic version of the phase reconstruction process, to allow for the reconstruction of large sets of samples. The method was applied to bone scaffold data in order to study the influence of different bone cells cultures on bone formation. Then, human bone samples were imaged using phase nano-CT, and the potential of phase nano-imaging to analyze the morphology of the lacuno-canalicular network is shown. We applied existing tools to further characterize the mineralization and the collagen orientation of these samples. Phase retrieval, however, is an ill-posed inverse problem. A general reconstruction method does not exist. Existing methods are either sensitive to low frequency noise, or put stringent requirements on the imaged object. Therefore, we considered the joint inverse problem of combining both phase retrieval and tomographic reconstruction. We proposed an innovative algorithm for this problem, which combines phase retrieval and tomographic reconstruction into a single iterative regularized loop, where a linear phase contrast model is coupled with an algebraic tomographic reconstruction algorithm. This algorithm is applied to numerical simulated data
Styles APA, Harvard, Vancouver, ISO, etc.
47

Huet, Pauline. « Modélisation, simulation et quantification de lésions athéromateuses en tomographie par émission de positons ». Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112132/document.

Texte intégral
Résumé :
Les pathologies cardio-vasculaires d’origine athéroscléreuse, premières causes de mortalité dans les pays occidentaux, sont insuffisamment prises en charge par les outils de dépistage et de suivi thérapeutique actuels. La Tomographie par Emission de Positons (TEP) est susceptible d’apporter au clinicien des outils puissants pour le diagnostic et le suivi thérapeutique des patients, en particulier grâce au traceur Fluorodésoxyglucose marqué au fluor 18 ([18F]-FDG). Cependant, l’Effet de Volume Partiel (EVP), dû notamment à la résolution spatiale limitée dans les images (plusieurs millimètres) en regard des faibles dimensions (de l’ordre du millimètre) des VOlumes d’Intérêt (VOIs), et les fluctuations statistiques du signal mesuré présentent des défis pour une quantification fiable.Un modèle original de lésion athéromateuse, paramétré par ses dimensions et sa concentration d’activité, a été développé et des simulations Monte-Carlo d’acquisitions TEP au [18F]-FDG de 36 lésions ont été produites. A partir des acquisitions simulées, nous avons montré que le nombre d’itérations des reconstructions itératives, le post-filtrage appliqué et le moyennage dans le VOI,paramètres relevés comme hautement variables dans une revue de la littérature dédiée, peuvent induire des variations des valeurs de fixation mesurées d’un facteur 1.5 à 4. Nous avons montré qu’une modélisation de la réponse du tomographe pouvait réduire le biais de mesure d’environ 10% par rapport au biais mesuré sur une image reconstruite avec un algorithme itératif standard et pour un niveau de bruit comparable. Sur les images reconstruites, nous avons montré que la fixation mesurée reste très biaisée (sous-estimation de plus de 50% du SUV réel) et dépend fortement des dimensions de la lésion à cause de l’EVP. Un contraste minimum de 4 par rapport à l’activité sanguine est nécessaire pour qu’une lésion soit détectée. Sans correction d’EVP, la mesure présente une corrélation faible avec la concentration d’activité, mais est très corrélée à l’activité totale dans la lésion. L’application d’une correction d’EVP fournit une mesure moins sensible à la géométrie de la lésion et plus corrélée à la concentration d’activité mais réduit la corrélation à l’activité totale dans la lésion.En conclusion, nous avons montré que l’intégralité de la fixation du [18F]-FDG dans les lésions athéromateuses inflammatoires totale peut être caractérisée sur les images TEP. Cette estimée ne requiert pas de correction de l’EVP. Lorsque la concentration d’activité dans la lésion est estimée, les mesures sont très biaisées à cause de l’EVP. Ce biais peut être réduit en mesurant le voxel d’intensité maximale, dans les images reconstruites sans post-filtrage avec au moins 80 itérations incluant un modèle de réponse du détecteur. La mise en œuvre d’une correction d’EVP facilite la détection des changements d’activité métabolique indépendamment de changements de dimensions de la zone siègede l’inflammation. Une quantification absolue exacte de la concentration d’activité dans les lésions ne sera possible que via une amélioration substantielle de la résolution spatiale des détecteurs TEP
Cardiovascular disease is the leading cause of death in western countries. New strategies and tools for diagnosis and therapeutic monitoring need to be developed to manage patients with atherosclerosis, which is one major cause of cardiovascular disease. Fluorodeoxyglucose Positron Emission Tomography (FDG-PET) is a powerful imaging technique that can detect at early stages plaques prone to rupture. Yet, Partial Volume Effect (PVE), due to the small lesion dimensions (around 1 mm) with respect to the scanner spatial resolution (around 6 mm full width at half maximum), and statistical variations considerably challenge the precise characterization of plaques from PET images. An original model of atheromatous lesion parameterized by its dimensions and activity concentration, was developed. Thirty six Monte Carlo simulations of FDG-PET acquisitions were produced. Based on the simulations, we showed that the number of iterations in iterative reconstructions, the post filtering of reconstructed images and the quantification method in the Volume Of Interests (VOI) varied sharply in an analysis of the dedicated literature. Changes in one of these parameters only could induce variations by a factor of 1.5 to 4 in the quantitative index. Overall, inflammation remained largely underestimated (> 50% of the real uptake). We demonstrated that modeling the detector response could reduce the bias by 10% of its value in comparison to a standard OSEM recontruction and for an identical level of noise. In reconstructed images, we showed that the measured values depended not only on the real uptake but also on the lesion dimensions because of PVE. A minimum contrast of 4 with respect to blood activity was required for the lesion to be observable. Without PVE correction, the measured values exhibited a correlation with activity concentration but were much more correlated with the total uptake in the lesion. Applying a PVE correction leads to an activity estimate that was less sensitive to the geometry of the lesion. The corrected values were more correlated to the activity concentration and less correlated to the total activity. In conclusion, we showed that the total activity in inflammatory lesions could be assessed in FDG-PET images. This estimate did not require PVE correction. Tracer concentration estimates are largely biased due to PVE, and the bias can be reduced by measuring the maximum voxel in the lesion in images reconstructed with at least 80 iterations and by modeling the detector response. Explicit PVE correction is recommended to detect metabolic changes independent of geometric changes. An accurate estimation of plaque uptake will however require the intrinsic spatial resolution of PET scanners to be improved
Styles APA, Harvard, Vancouver, ISO, etc.
48

Bondeau, Christine. « Etude d'images perturbées par la turbulence atmosphérique : simulation et restauration ». Dijon, 1999. http://www.theses.fr/1999DIJOS076.

Texte intégral
Résumé :
La turbulence atmosphérique perturbe l'observation à haute résolution. C'est un phénomène étudié depuis longtemps, en astronomie notamment. La présente étude porte sur le cas de l'observation d'un objet situé à environ vingt kilomètres, la propagation étant horizontale et près du sol, en infrarouge. Apres un rappel des effets de la turbulence en imagerie haute résolution, nous exposons la méthode de simulation qui nous permet de générer des images longue pose et des séquences d'images courte pose dégradées. L'évolution temporelle de la turbulence et les effets d'anisoplanétisme ont été pris en compte. Les images longue pose sont restaurées avec des algorithmes classiques de déconvolution. Les résultats ne sont satisfaisants que pour une faible perturbation. Il est plus avantageux d'exploiter des images courte pose, car elles contiennent plus de hautes fréquences spatiales ; mais l'objet observé y fluctue aléatoirement. On travaille donc ici à partir d'une séquence de plusieurs dizaines d'images. Deux approches sont proposées. L'une consiste à analyser statistiquement les régions de chaque image pour en extraire les plus représentatives et reconstituer ainsi l'objet réel. Les résultats sont alors nettement meilleurs. La seconde est une approche frontière. Une analyse du problème, basée sur la méthode du maximum de vraisemblance appliquée aux descripteurs de Fourier de la forme, permet d'établir que le contour le plus probable est obtenu par la moyenne de la position de chaque point de contour au long de la séquence. Nous déterminons ce contour soit grâce à un appariement multirésolution des contours point à point, d'une image sur l'autre, soit en appliquant un snake région, optimal au sens de la théorie statistique, que nous faisons évoluer avec l'objet au cours de la séquence ; dans ce dernier cas, l'appariement est automatiquement réalisé puisque l'on connait la position des noeuds du snake.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Suggs, Jeremy F. (Jeremy Floyd) 1976. « Simulation of anterior cruciate ligament injury and reconstruction using a 3D finite element knee joint model ». Thesis, Massachusetts Institute of Technology, 2002. http://hdl.handle.net/1721.1/89369.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
50

PETRETTO, GUIDO. « Density functional simulation of chalcogen doped silicon nanowires ». Doctoral thesis, Università degli Studi di Milano-Bicocca, 2012. http://hdl.handle.net/10281/28938.

Texte intégral
Résumé :
In this thesis we report about the first principle investigation of silicon nanowires. Density functional theory has been used to study the electronic properties of pristine and chalcogen doped nanowires. Nanowires with different surface structures and orientations have been considered. We show that substitutional chalcogen atoms have favorable configurations for positions close to the surface of the nanowire. We also show that hyperfine interactions increase at small diameters, as long as the nanowire is large enough to prevent surface distortion which modifies the symmetry of the donor wave function. Moreover, surface effects lead to strong differences in the hyperfine parameters depending on the Se location inside the nanowire, allowing the identification of an impurity site on the basis of EPR spectra.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie