Dissertations / Theses on the topic 'Document reconstruction'

To see the other types of publications on this topic, follow the link: Document reconstruction.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Document reconstruction.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Chhatkuli, Ajad. "Local analytic and global convex methods for the 3D reconstruction of isometric deformable surfaces." Thesis, Clermont-Ferrand 1, 2016. http://www.theses.fr/2016CLF1MM27/document.

Full text
Abstract:
Cette thèse contribue au problème de la reconstruction 3D pour les surfaces déformables avec une seule caméra. Afin de modéliser la déformation de la surface, nous considérons l’isométrie puisque de nombreuses déformations d’objets réels sont quasi-isométriques. L’isométrie implique que, lors de sa déformation, la surface ne peut pas être étirée ou compressée. Nous étudions deux problèmes. Le premier est le problème basé sur une modèle 3D de référence et une seule image. L’état de l’art propose une méthode locale et analytique de calcul direct de profondeur sous l’hypothèse d’isométrie. Dans cette méthode, la solution pour le gradient de la profondeur n’est pas utilisée. Nous prouvons que cette méthode s’avère instable lorsque la géométrie de la caméra tend à être affine. Nous fournissons des méthodes alternatives basées sur les solutions analytiques locales des quantités de premier ordre, telles que les gradients de profondeur ou les normales de la surface. Nos méthodes sont stables dans toutes les géométries de projection. Dans le deuxième type de problème de reconstruction sans modèle 3D de référence, on obtient les formes de l’objet à partir d’un ensemble d’images où il apparaît déformé. Nous fournissons des solutions locales et globales basées sur le modéle de la caméra perspective. Dans la méthode locale ou par point, nous résolvons pour la normale de la surface en chaque point en supposant que la surface est infinitésimalement plane. Nous calculons ensuite la surface par intégration. Dans la méthode globale, nous trouvons une relaxation convexe du problème. Celle-ci est basée sur la relaxation de l’isométrie en contrainte d’inextensibilité et sur la maximisation de la profondeur en chaque point de la surface. Cette solution combine toutes les contraintes en un seul programme d’optimisation convexe qui calcule la profondeur et utilise une représentation éparse de la surface. Nous détaillons les expériences approfondies qui ont été réalisées pour démontrer l’efficacité de chacune des méthodes. Les expériences montrent que notre solution libre de modèle de référence local fonctionne mieux que la plupart des méthodes précédentes. Notre méthode local avec un modèle 3D de référence et notre méthode globale sans modèle 3D apportent de meilleurs résultats que les méthodes de l’état de l’art en étant robuste au bruit de la correspondance. En particulier, nous sommes en mesure de reconstruire des déformations complexes, non-lisses et d’articulations avec la seconde méthode; alors qu’avec la première, nous pouvons reconstruire avec précision de déformations larges à partir d’images prises avec des très longues focales
This thesis contributes to the problem of 3D reconstruction for deformable surfaces using a single camera. In order to model surface deformation, we use the isometric prior because many real object deformations are near-isometric. Isometry implies that the surface cannot stretch or compress. We tackle two different problems. The first is called Shape-from-Template where the object’s deformed shape is computed from a single image and a texture-mapped 3D template of the object surface. Previous methods propose a differential model of the problem and compute the local analytic solutions. In the methods the solution related to the depth-gradient is discarded and only the depth solution is used. We demonstrate that the depth solution lacks stability as the projection geometry tends to affine. We provide alternative methods based on the local analytic solutions of first-order quantities, such as the depth-gradient or surface normals. Our methods are stable in all projection geometries. The second type of problem, called Non-Rigid Shape-from-Motion is the more general templatefree reconstruction scenario. In this case one obtains the object’s shapes from a set of images where it appears deformed. We contribute to this problem for both local and global solutions using the perspective camera. In the local or point-wise method, we solve for the surface normal at each point assuming infinitesimal planarity of the surface. We then compute the surface by integration. In the global method we find a convex relaxation of the problem. This is based on relaxing isometry to inextensibility and maximizing the surface’s average depth. This solution combines all constraints into a single convex optimization program to compute depth and works for a sparse point representation of the surface. We detail the extensive experiments that were used to demonstrate the effectiveness of each of the proposed methods. The experiments show that our local template-free solution performs better than most of the previous methods. Our local template-based method and our global template-free method performs better than the state-of-the-art methods with robustness to correspondence noise. In particular, we are able to reconstruct difficult, non-smooth and articulating deformations with the latter; while with the former we can accurately reconstruct large deformations with images taken at very long focal lengths
APA, Harvard, Vancouver, ISO, and other styles
2

Al, Moussawi Ali. "Reconstruction 3D de vaisseaux sanguins." Thesis, Toulon, 2014. http://www.theses.fr/2014TOUL0014/document.

Full text
Abstract:
Ce travail concerne la reconstruction 3D de vaisseaux sanguins à partir de coupes transversales en nombre éventuellement réduit. Si des données sont manquantes, une reconstruction cohérente avec un réseau de vaisseaux est obtenue. Cette approche permet en outre de limiter les interventions humaines lors du traitement des images des coupes transversales 2D. Sachant que les images utilisées sont obtenues par scanner,la difficulté est de connecter les vaisseaux sanguins entre deux coupes espacées pour obtenir un graphe qui correspond au cœur des vaisseaux. En associant les vaisseaux sanguins sur les coupes à des masses à transporter, on construit un graphe solution d’un problème de transport ramifié. La reconstruction 3D de la géométrie résulte des données 2D d’imagerie issues des différentes coupes transversales et du graphe. La géométrie 3D des vaisseaux sanguins est représentée par la donnée d’une fonction Level Set définie en tout point de l’espace dont l’iso-valeur zéro correspond aux parois des vaisseaux. On s’intéresse ensuite à résoudre numériquement le modèle de Navier-Stokes en écoulement incompressible sur un maillage cartésien inclus dans la géométrie reconstruite. Ce choix est motivé par la rapidité d’assemblage du maillage et des opérateurs discrets de dérivation, en vue d’éventuelles déformation des vaisseaux. L’inadaptation du maillage avec l’interface de la géométrie amène à considérer une condition limite modifiée permettant un calcul consistant des contraintes aux parois
This work concerns the 3D reconstruction of blood vessels from a limited number of 2D transversal cuts obtained from scanners. If data are missing, a coherentreconstruction with a vessel network is obtained. This approach allows to limit human interventions in processing images of 2D transversal cuts. Knowing that the images used are obtained by scanner, the difficulty is to connect the blood vessels between some widely spaced cuts in order to produce the graph corresponding to the network of vessels. We identify the vessels on each trnasversal cut as a mass to be transported, we construct a graph solution of a branched transport problem. At this stage, we are able to reconstruct the 3D geometry by using the 2D Level Set Functions given by the transversal cuts and the graph information. The 3D geometry of blood vessels is represented by the data of the Level Set function defined at any point of the space whose 0-level corresponds to the vessel walls. The resulting geometry is usually integrated in a fluid mechanic code solving the incompressible Navier-Stokes equations on a Cartesian grid strictly included in a reconstructed geometry. The inadequacy of the mesh with the interface of the geometry is overcomed thanks to a modified boundary condition leading to an accurate computation of the constraints to the walls
APA, Harvard, Vancouver, ISO, and other styles
3

Yang, Xiaoyi. "Background reconstruction from multiple images." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLT020/document.

Full text
Abstract:
La problématique générale de cette thèse est de reconstituer la scène de fond à partir d’une séquence d’images en présence de masques d’avant-plan. Nous nous sommes intéressés aux méthodes pour détecter ce qui constitue le fond ainsi que les solutions pour corriger les parties cachées et les distor­sions géométrique et chromatique introduites lors de la photographie.Une série de processus est proposée, dont la mise en œuvre comporte dans l'ordre l’aligne­ment géométrique, le réglage chromatique, la fusion des images et la correction des défauts.Nous nous plaçons dans l’hypothèse où le fond est porté sur une surface plane. L'aligne­ment géométrique est alors réalisé par calcul de l'homographie entre une image quelconque et l’image qui sert de référence, suivi d’une interpolation bilinéaire.Le réglage chromatique vise à retrouver un même contraste dans les différentes images. Nous proposons de modéliser la mise en cor­respondance chromatique entre images par une approximation linéaire dont les para­mètres sont déterminés par les résultats de la mise en correspondance des points de contrôle (SIFT).Ces deux étapes sont suivies par une étape de fusion. Plusieurs techniques sont comparées.La première proposition est d’étendre la définition de la médiane dans l’espace vec­toriel. Elle est robuste lorsqu’il y a plus de la moitié des images qui voient les pixels d’arrière-plan. En outre, nous concevons un algorithme original basé sur la notion de clique. Il permet de détecter le plus grand nuage de pixels dans l'espace RGB. Cette approche est fiable même lorsque les pixels d’arrière-plan sont minoritaires.Lors de la mise en œuvre de ce protocole, on constate que certains résultats de fusion présentent des défauts de type flou dus à l’existence d’erreurs d’alignement géomé­trique. Nous proposons donc un traitement complémentaire. Il est basé sur une compa­raison entre le résultat de fusion et les images alignées après passage d'un filtre gaussien. Sa sortie est un assemblage des morceaux très détaillés d'image alignés qui ressemblent le plus au résultat de fusion associés.La performance de nos méthodes est éva­luée par un ensemble de données contenant de nombreuses images de qualités diffé­rentes. Les expériences confirment la fiabi­lisé et la robustesse de notre conception dans diverses conditions de photographie
The general topic of this thesis is to reconstruct the background scene from a burst of images in presence of masks. We focus on the background detection methods as well as on solutions to geometric and chromatic distortions introduced during ph-otography. A series of process is proposed, which con­sists of geometric alignment, chromatic adjustment, image fusion and defect correction.We consider the case where the background scene is a flat surface. The geometric align­ment between a reference image and any other images in the sequence, depends on the computation of a homography followed by a bilinear interpolation.The chromatic adjustment aims to attach a similar contrast to the scene in different im­ages. We propose to model the chromatic mapping between images with linear approximations whose parameters are decided by matched pixels of SIFT .These two steps are followed by a discus­sion on image fusion. Several methods have been compared.The first proposition is a generation of typical median filter to the vector range. It is robust when more than half of the images convey the background information. Besides, we design an original algorithm based on the notion of clique. It serves to distinguish the biggest cloud of pixels in RGB space. This approach is highly reliable even when the background pixels are the minority.During the implementation, we notice that some fusion results bear blur-like defects due to the existence of geometric alignment errors. We provide therefore a combination method as a complementary step to ameli-orate the fusion results. It is based on a com-parison between the fusion image and other aligned images after applying a Gaussian filter. The output is a mosaic of patches with clear details issued from the aligned images which are the most similar to their related fusion patches.The performance of our methods is evaluated by a data set containing extensive images of different qualities. Experiments confirm the reliability and robustness of our design under a variety of photography conditions
APA, Harvard, Vancouver, ISO, and other styles
4

Slysz, Rémi. "Reconstruction de surface 3D d'objets vivants." Thesis, Troyes, 2014. http://www.theses.fr/2014TROY0022/document.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre du projet CPER Bramms, dont un des objectifs était de développer une méthode d'acquisition de la surface du buste féminin. Les travaux menés ont donc eu pour but la conception, le développement et la réalisation d'une machine de mesure tridimensionnelle adaptée aux objets vivants. Parmi le nombre important de méthodes de mesures tridimensionnelles existantes, l'attention a été portée sur la mise en correspondance par stéréovision ainsi que sur l'utilisation de lumière structurée. La mise en correspondance par stéréovision consiste à retrouver les pixels homologues dans deux images d'une même scène, prise de deux points de vue différents. Une des manières de réaliser la mise en correspondance est de faire appel à des mesures de corrélation. Les algorithmes utilisés se heurtent alors à certaines difficultés : les changements de luminosité, les bruits, les déformations, les occultations, les zones peu texturées et les larges zones homogènes. L'utilisation de lumière structurée a permis essentiellement d'ajouter de l'information dans les zones homogènes lors des travaux menés. En développant cette approche, une méthode de reconstruction originale basée sur l'exploitation d'un motif particulier projeté sur la surface a ainsi été conçue. Un appariement basé sur la comparaison de signatures de points particuliers du motif a été mis en place. Ce procédé permet une reconstruction éparse en une unique acquisition et simplifie l'étape de gestion du nuage de points pour en faire un maillage surfacique
This thesis is part of the CPER BRAMSS project, one of its objectives was to develop an surface's retrieval method applied to the female bust. Therefore the work has aimed at the design, development and implementation of a three-dimensional measuring machine adapted to living objects.Among the large number of existing methods of three-dimensional measurements, attention was paid to the stereo matching as well as the use of structured light. Matching in stereovision is to find homologous pixels in two images of the same scene, taken from two different points of view. One way to achieve the mapping is to use correlation measurements. The algorithms used come up against certain difficulties: the changing light, noises, distortions, occlusions, low textured areas and large homogeneous areas. The use of structured light allow essentially the adding of information in homogeneous areas in this work. Developing this approach, an original method of reconstruction based on the exploitation of a particular pattern projected on the surface has been designed. A matching based on a comparison of the signatures of specific points in the pattern was implemented. This method allows a single sparse reconstruction acquisition step and simplifies the handling of the point cloud when transforming it in a surface mesh
APA, Harvard, Vancouver, ISO, and other styles
5

Weber, Loriane. "Iterative tomographic X-Ray phase reconstruction." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI085/document.

Full text
Abstract:
L’imagerie par contraste de phase suscite un intérêt croissant dans le domaine biomédical, puisqu’il offre un contraste amélioré par rapport à l’imagerie d’atténuation conventionnelle. En effet, le décalage en phase induit par les tissus mous, dans la gamme d’énergie utilisée en imagerie, est environ mille fois plus important que leur atténuation. Le contraste de phase peut être obtenu, entre autres, en laissant un faisceau de rayons X cohérent se propager librement après avoir traversé un échantillon. Dans ce cas, les signaux obtenus peuvent être modélisés par la diffraction de Fresnel. Le défi de l’imagerie de phase quantitative est de retrouver l’atténuation et l’information de phase de l’objet observé, à partir des motifs diffractés enregistrés à une ou plusieurs distances. Ces deux quantités d’atténuation et de phase, sont entremêlées de manière non-linéaire dans le signal acquis. Dans ces travaux, nous considérons les développements et les applications de la micro- et nanotomographie de phase. D’abord, nous nous sommes intéressés à la reconstruction quantitative de biomatériaux à partir d’une acquisition multi-distance. L’estimation de la phase a été effectuée via une approche mixte, basée sur la linéarisation du modèle de contraste. Elle a été suivie d’une étape de reconstruction tomographique. Nous avons automatisé le processus de reconstruction de phase, permettant ainsi l’analyse d’un grand nombre d’échantillons. Cette méthode a été utilisée pour étudier l’influence de différentes cellules osseuses sur la croissance de l’os. Ensuite, des échantillons d’os humains ont été observés en nanotomographie de phase. Nous avons montré le potentiel d’une telle technique sur l’observation et l’analyse du réseau lacuno-canaliculaire de l’os. Nous avons appliqué des outils existants pour caractériser de manière plus approfondie la minéralisation et les l’orientation des fibres de collagènes de certains échantillons. L’estimation de phase, est, néanmoins, un problème inverse mal posé. Il n’existe pas de méthode de reconstruction générale. Les méthodes existantes sont soit sensibles au bruit basse fréquence, soit exigent des conditions strictes sur l’objet observé. Ainsi, nous considérons le problème inverse joint, qui combine l’estimation de phase et la reconstruction tomographique en une seule étape. Nous avons proposé des algorithmes itératifs innovants qui couplent ces deux étapes dans une seule boucle régularisée. Nous avons considéré un modèle de contraste linéarisé, couplé à un algorithme algébrique de reconstruction tomographique. Ces algorithmes sont testés sur des données simulées
Phase contrast imaging has been of growing interest in the biomedical field, since it provides an enhanced contrast compared to attenuation-based imaging. Actually, the phase shift of the incoming X-ray beam induced by an object can be up to three orders of magnitude higher than its attenuation, particularly for soft tissues in the imaging energy range. Phase contrast can be, among others existing techniques, achieved by letting a coherent X-ray beam freely propagate after the sample. In this case, the obtained and recorded signals can be modeled as Fresnel diffraction patterns. The challenge of quantitative phase imaging is to retrieve, from these diffraction patterns, both the attenuation and the phase information of the imaged object, quantities that are non-linearly entangled in the recorded signal. In this work we consider developments and applications of X-ray phase micro and nano-CT. First, we investigated the reconstruction of seeded bone scaffolds using sed multiple distance phase acquisitions. Phase retrieval is here performed using the mixed approach, based on a linearization of the contrast model, and followed by filtered-back projection. We implemented an automatic version of the phase reconstruction process, to allow for the reconstruction of large sets of samples. The method was applied to bone scaffold data in order to study the influence of different bone cells cultures on bone formation. Then, human bone samples were imaged using phase nano-CT, and the potential of phase nano-imaging to analyze the morphology of the lacuno-canalicular network is shown. We applied existing tools to further characterize the mineralization and the collagen orientation of these samples. Phase retrieval, however, is an ill-posed inverse problem. A general reconstruction method does not exist. Existing methods are either sensitive to low frequency noise, or put stringent requirements on the imaged object. Therefore, we considered the joint inverse problem of combining both phase retrieval and tomographic reconstruction. We proposed an innovative algorithm for this problem, which combines phase retrieval and tomographic reconstruction into a single iterative regularized loop, where a linear phase contrast model is coupled with an algebraic tomographic reconstruction algorithm. This algorithm is applied to numerical simulated data
APA, Harvard, Vancouver, ISO, and other styles
6

Eijk, Rutger Mark van der. "Track reconstruction in the LHCb experiment." [S.l. : Amsterdam : s.n.] ; Universiteit van Amsterdam [Host], 2002. http://dare.uva.nl/document/66446.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Boulch, Alexandre. "Reconstruction automatique de maquettes numériques 3D." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1099/document.

Full text
Abstract:
La maquette numérique de bâtiment est un outil nouveau et en plein essor dans les métiers de la construction. Elle centralise les informations et facilite la communication entre les acteurs : évaluation des coûts, simulations physiques, présentations virtuelles, suivis de travaux, etc. Si une maquette numérique est désormais utilisée pour les grands chantiers de bâtiments nouveaux, il n'en existe pas en revanche pour la plupart des bâtiments déjà construits. Or, avec le vieillissement du parc immobilier et le développement du marché de la rénovation, la maquette numérique serait une aide considérable pour des bâtiments anciens. Des techniques de reconstruction plus ou moins automatique ont été développées ces dernières années, à base de mesures laser ou de photogrammétrie. Les lasers, précis et denses, sont chers mais restent abordables pour les industriels, tandis que la photogrammétrie, souvent moins précise et moins fiable dans les zones uniformes (p.ex. les murs), est beaucoup plus bon marché. Mais la plupart des approches s'arrêtent à la reconstruction de surfaces, sans produire de maquettes numériques. À la géométrie doit cependant s'ajouter des informations sémantiques décrivant les éléments de la scène. L'objectif de cette thèse est de fournir un cadre de reconstruction de maquettes numériques, à la fois en ce qui concerne la géométrie et la sémantique, à partir de nuages de points. Pour cela, plusieurs étapes sont proposées. Elles s'inscrivent dans un processus d'enrichissement des données, depuis les points jusqu'à la maquette numérique finale. Dans un premier temps, un estimateur de normales pour les nuages de points est défini. Basé sur une transformée de Hough robuste, il permet de retrouver correctement les normales, y compris dans les zones anguleuses et s'adapte à l'anisotropie des données. Dans un second temps, des primitives géométriques sont extraites du nuage de points avec leur normales. Afin d'identifier les primitives identiques existantes en cas de sur-segmentation, nous développons un critère statistique robuste et général pour l'identification de formes, ne requérant qu'une fonction distance entre points et formes. Ensuite, une surface planaire par morceaux est reconstruite. Des hypothèses de plans pour les zones visibles et les parties cachées sont générées et insérées dans un arrangement. La surface est extraite avec une nouvelle régularisation sur le nombre de coins et la longueur des arêtes. L'utilisation d'une formulation linéaire permet, après relaxation continue, d'extraire efficacement une surface proche de l'optimum. Enfin, nous proposons une approche basée sur des grammaires attribuées avec contraintes pour l'enrichissement sémantique de modèles 3D. Cette méthode est bottom-up : nous partons des données pour construire des objets de complexité croissante. La possible explosion combinatoire est gérée efficacement via l'introduction d'opérateurs maximaux et d'un ordre pour l'instanciation des variables
The interest for digital models in the building industry is growing rapidly. These centralize all the information concerning the building and facilitate communication between the players of construction : cost evaluation, physical simulations, virtual presentations, building lifecycle management, site supervision, etc. Although building models now tend to be used for large projects of new constructions, there is no such models for existing building. In particular, old buildings do not enjoy digital 3D model and information whereas they would benefit the most from them, e.g., to plan cost-effective renovation that achieves good thermal performance. Such 3D models are reconstructed from the real building. Lately a number of automatic reconstruction methods have been developed either from laser or photogrammetric data. Lasers are precise and produce dense point clouds. Their price have greatly reduced in the past few years, making them affordable for industries. Photogrammetry, often less precise and failing in uniform regions (e.g. bare walls), is a lot cheaper than the lasers. However most approaches only reconstruct a surface from point clouds, not a semantically rich building model. A building information model is the alliance of a geometry and a semantics for the scene elements. The main objective of this thesis is to define a framework for digital model production regarding both geometry and semantic, using point clouds as an entry. The reconstruction process is divided in four parts, gradually enriching information, from the points to the final digital mockup. First, we define a normal estimator for unstructured point clouds based on a robust Hough transform. It allows to estimate accurate normals, even near sharp edges and corners, and deals with the anisotropy inherent to laser scans. Then, primitives such as planes are extracted from the point cloud. To avoid over-segmentation issues, we develop a general and robust statistical criterion for shape merging. It only requires a distance function from points to shapes. A piecewise-planar surface is then reconstructed. Planes hypothesis for visible and hidden parts of the scene are inserted in a 3D plane arrangement. Cells of the arrangement are labelled full or empty using a new regularization on corner count and edge length. A linear formulation allow us to efficiently solve this labelling problem with a continuous relaxation. Finally, we propose an approach based on constrained attribute grammars for 3D model semantization. This method is entirely bottom-up. We prevent the possible combinatorial explosion by introducing maximal operators and an order on variable instantiation
APA, Harvard, Vancouver, ISO, and other styles
8

Viswanathan, Kartik. "Représentation reconstruction adaptative des hologrammes numériques." Thesis, Rennes, INSA, 2016. http://www.theses.fr/2016ISAR0012/document.

Full text
Abstract:
On constate une forte augmentation de l’intérêt porté sur l’utilisation des technologies vidéo 3D pour des besoins commerciaux, notamment par l’application de l’holographie, pour fournir des images réalistes, qui semblent vivantes. Surtout, pour sa capacité à reconstruire tous les parallaxes nécessaires, afin de permettre de réaliser une vision véritablement immersive qui peut être observée par quiconque (humains, machine ou animal). Malheureusement la grande quantité d'information contenue dans un hologramme le rend inapte à être transmis en temps réel sur les réseaux existants. Cette thèse présente des techniques afin de réduire efficacement la taille de l'hologramme par l'élagage de portions de l'hologramme en fonction de la position de l'observateur. Un grand nombre d'informations contenues dans l'hologramme n'est pas utilisé si le nombre d'observateurs d'une scène immersive est limité. Sous cette hypothèse, éléments de l'hologramme peuvent être décomposés pour que seules les parties requises sensibles au phénomène de diffraction vers un point d'observation particulier soient conservés. Les reconstructions de ces hologrammes élagués peuvent être propagées numériquement ou optiquement. On utilise la transformation en ondelettes pour capter les informations de fréquences localisées depuis l'hologramme. La sélection des ondelettes est basée sur des capacités de localisation en espace et en fréquence. Par exemple, les ondelettes de Gabor et Morlet possèdent une bonne localisation dans l'espace et la fréquence. Ce sont des bons candidats pour la reconstruction des hologrammes suivant la position de l'observateur. Pour cette raison les ondelettes de Shannon sont également utilisées. De plus l'application en fonction du domaine de fréquence des ondelettes de Shannon est présentée pour fournir des calculs rapides de l'élagage en temps réel et de la reconstruction
With the increased interest in 3D video technologies for commercial purposes, there is renewed interest in holography for providing true, life-like images. Mainly for the hologram's capability to reconstruct all the parallaxes that are needed for a truly immersive views that can be observed by anyone (human, machine or animal). But the large amount of information that is contained in a hologram make it quite unsuitable to be transmitted over existing networks in real-time. In this thesis we present techniques to effectively reduce the size of the hologram by pruning portions of the hologram based on the position of the observer. A large amount of information contained in the hologram is not used if the number of observers of an immersive scene is limited. Under this assumption, parts of the hologram can be pruned out and only the requisite parts that can cause diffraction at an observer point can be retained. For reconstructions these pruned holograms can be propagated numerically or optically. Wavelet transforms are employed to capture the localized frequency information from the hologram. The selection of the wavelets is based on the localization capabilities in the space and frequency domains. Gabor and Morlet wavelets possess good localization in space and frequency and form good candidates for the view based reconstruction system. Shannon wavelets are also employed for this cause and the frequency domain based application using the Shannon wavelet is shown to provide fast calculations for real-time pruning and reconstruction
APA, Harvard, Vancouver, ISO, and other styles
9

Vuiets, Anatoliy. "Reconstruction empirique du spectre ultraviolet solaire." Thesis, Orléans, 2015. http://www.theses.fr/2015ORLE2015/document.

Full text
Abstract:
L’irradiance spectrale solaire (SSI) dans la bande ultraviolette est un paramètre-clé pour la spécification de la moyenne et la haute atmosphère terrestre. Elle est requise dans de nombreuses applications en météorologie de l’espace, et aussi pour l’étude du climat. Or les observations souffrent de plusieurs défauts : manque de couverture spectrale et temporelle permanente, dégradation des capteurs, désaccords entre les instruments, etc. Plusieurs modèles de reconstruction de la SSI ont été développés pour pallier à ces difficultés. Chacun souffre de défauts, et la reconstruction du spectre en-dessous de 120nm est un réel défi. C’est dans ce contexte que nous avons développé un modèle empirique, qui recourt au champ magnétique photosphérique pour reconstruire les variations du spectre solaire. Ce modèle décompose les magnétogrammes solaires en différentes structures qui sont classées à partir de leur aire (et non sur la base de leur intensité, comme dans la plupart des autres modèles). La signature spectrale de ces structures est déduite des observations, et non pas imposée par des modèles de l’atmosphère solaire. La qualité de la reconstruction s’avère être comparable à celle d’autres modèles. Parmi les principaux résultats, relevons que deux classes seulement de structures solaires suffisent à reproduire correctement la variabilité spectrale solaire. En outre, seule une faible résolution radiale suffit pour reproduire les variations de centre-bord. Enfin, nous montrons que l’amélioration apportée par la décomposition du modèle en deux constantes de temps peut être attribuée à l’effet des raies optiquement minces
The spectrally-resolved radiative output of the Sun (SSI) in the UV band, i.e. at wavelengths below 300 nm, is a key quantity for specifying the state of the middle and upper terrestrial atmosphere. This quantity is required in numerous space weather applications, and also for climate studies. Unfortunately, SSI observations suffer from several problems : they have numerous spectral and temporal gaps, instruments are prone to degradation and often disagree, etc. This has stimulated the development of various types of SSI models. Proxy-based models suffer from lack of the physical interpretation and are as good as the proxies are. Semi-empirical models do not perform well below 300 nm, where the local thermodynamic equilibrium approximation does not hold anymore. We have developed an empirical model, which assumes that variations in the SSI are driven by solar surface magnetic flux. This model proceeds by segmenting solar magnetograms into different structures. In contrast to existing models, these features are classified by their area (and not their intensity), and their spectral signatures are derived from the observations (and not from models). The quality of the reconstruction is comparable to that of other models. More importantly, we find that two classes only of solar features are required to properly reproduce the spectral variability. Furthermore, we find that a coarse radial resolution suffices to account for geometrical line-of-sight effects. Finally, we show how the performance of the model on different time-scales is related to the optical thickness of the emission lines
APA, Harvard, Vancouver, ISO, and other styles
10

Lejeune, Joseph. "Surface recovery and reconstruction after deformation." Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAE031/document.

Full text
Abstract:
Les propriétés des polymères sont intéressantes pour des applications pneumatiques, de verres organiques, de joints, … Leurs propriétés mécaniques sont néanmoins mal comprises. Dans ce manuscrit, le comportement mécanique du PMMA et du CR39 est étudié en fonction du temps.Il en résulte des courbes maîtresses à partir d’expérience de relaxation de contrainte et de fluage d’indentation. D'autre part, le comportement mécanique au contact est analysé sur des expériences de fluage et recouvrance d’indentation et de rayures analysées pour la première fois dans cette thèse. Finalement, des lois de comportements sont construites, leurs précisions sont comparées grâce à des calculs par éléments finis aux expériences en contact
Polymer's low weight, deformability and easy manufacturing make them attractive materials for tire, organic glasses, sealing applications … Their mechanical properties are nonetheless poorly understood. In particular, two fields are searched over this thesis: time dependency and contact behavior for two transparent polymer: PMMA and CR39. The mechanical behavior time dependency is observed by the construction of stress relaxation and contact master curves. The mechanical contact behavior is analyzed by indentation creep and recovery experiments. Moreover the immediate scratch recovery is measured in the thesis. Finally, the uniaxial data is used to build constitutive laws, which accuracy is compared by Finite Element Modeling to contact tests
APA, Harvard, Vancouver, ISO, and other styles
11

Synave, Rémi. "Reconstruction de solides à partir d'acquisitions surfaciques." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13909/document.

Full text
Abstract:
Le scanner laser est un périphérique permettant d'analyser un objet réel et d'extraire des informations de sa surface. Grâce à cet outil, il est possible d'obtenir la représentation numérique de tout ou partie de la surface frontière d'un objet réel. Les scanners laser sont livrés avec un logiciel permettant de faire l'acquisition des données brutes, le recalage des différentes parties acquises et la reconstruction de la surface. Cette suite d'opérations permet de construire le modèle numérique et est communément appelée pipeline 3D d'acquisition. Dans cette thèse, nous développons notre pipeline, que nous nommons A2RI, et y ajoutons une étape d'impression. Ce pipeline permet la reproduction d'un objet à partir de son acquisition au scanner laser. Nous veillons particulièrement à quantifier et maîtriser l'erreur commise dans chaque maillon de la chaîne grâce à des mesures euclidiennes et géodésiques sur l'objet réel et le modèle numérique
Abstract
APA, Harvard, Vancouver, ISO, and other styles
12

Moncla, Ludovic. "Automatic Reconstruction of Itineraries from Descriptive Texts." Thesis, Pau, 2015. http://www.theses.fr/2015PAUU3029/document.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre du projet PERDIDO dont les objectifs sont l'extraction et la reconstruction d'itinéraires à partir de documents textuels. Ces travaux ont été réalisés en collaboration entre le laboratoire LIUPPA de l'université de Pau et des Pays de l'Adour (France), l'équipe IAAA de l'université de Saragosse (Espagne) et le laboratoire COGIT de l'IGN (France). Les objectifs de cette thèse sont de concevoir un système automatique permettant d'extraire, dans des récits de voyages ou des descriptions d’itinéraires, des déplacements, puis de les représenter sur une carte. Nous proposons une approche automatique pour la représentation d'un itinéraire décrit en langage naturel. Notre approche est composée de deux tâches principales. La première tâche a pour rôle d'identifier et d'extraire les informations qui décrivent l'itinéraire dans le texte, comme par exemple les entités nommées de lieux et les expressions de déplacement ou de perception. La seconde tâche a pour objectif la reconstruction de l'itinéraire. Notre proposition combine l'utilisation d'information extraites grâce au traitement automatique du langage ainsi que des données extraites de ressources géographiques externes (comme des gazetiers). L'étape d'annotation d'informations spatiales est réalisée par une approche qui combine l'étiquetage morpho-syntaxique et des patrons lexico-syntaxiques (cascade de transducteurs) afin d'annoter des entités nommées spatiales et des expressions de déplacement ou de perception. Une première contribution au sein de la première tâche est la désambiguïsation des toponymes, qui est un problème encore mal résolu en NER et essentiel en recherche d'information géographique. Nous proposons un algorithme non-supervisé de géo-référencement basé sur une technique de clustering capable de proposer une solution pour désambiguïser les toponymes trouvés dans les ressources géographiques externes, et dans le même temps proposer une estimation de la localisation des toponymes non référencés. Nous proposons un modèle de graphe générique pour la reconstruction automatique d'itinéraires, où chaque noeud représente un lieu et chaque segment représente un chemin reliant deux lieux. L'originalité de notre modèle est qu'en plus de tenir compte des éléments habituels (chemins et points de passage), il permet de représenter les autres éléments impliqués dans la description d'un itinéraire, comme par exemple les points de repères visuels. Un calcul d'arbre de recouvrement minimal à partir d'un graphe pondéré est utilisé pour obtenir automatiquement un itinéraire sous la forme d'un graphe. Chaque segment du graphe initial est pondéré en utilisant une méthode d'analyse multi-critère combinant des critères qualitatifs et des critères quantitatifs. La valeur des critères est déterminée à partir d'informations extraites du texte et d'informations provenant de ressources géographique externes. Par exemple, nous combinons les informations issues du traitement automatique de la langue comme les relations spatiales décrivant une orientation (ex: se diriger vers le sud) avec les coordonnées géographiques des lieux trouvés dans les ressources pour déterminer la valeur du critère "relation spatiale". De plus, à partir de la définition du concept d'itinéraire et des informations utilisées dans la langue pour décrire un itinéraire, nous avons modélisé un langage d'annotation d'information spatiale adapté à la description de déplacements, s'appuyant sur les recommendations du consortium TEI (Text Encoding and Interchange). Enfin, nous avons implémenté et évalué les différentes étapes de notre approche sur un corpus multilingue de descriptions de randonnées (Français, Espagnol et Italien)
This PhD thesis is part of the research project PERDIDO, which aims at extracting and retrieving displacements from textual documents. This work was conducted in collaboration with the LIUPPA laboratory of the university of Pau (France), the IAAA team of the university of Zaragoza (Spain) and the COGIT laboratory of IGN (France). The objective of this PhD is to propose a method for establishing a processing chain to support the geoparsing and geocoding of text documents describing events strongly linked with space. We propose an approach for the automatic geocoding of itineraries described in natural language. Our proposal is divided into two main tasks. The first task aims at identifying and extracting information describing the itinerary in texts such as spatial named entities and expressions of displacement or perception. The second task deal with the reconstruction of the itinerary. Our proposal combines local information extracted using natural language processing and physical features extracted from external geographical sources such as gazetteers or datasets providing digital elevation models. The geoparsing part is a Natural Language Processing approach which combines the use of part of speech and syntactico-semantic combined patterns (cascade of transducers) for the annotation of spatial named entities and expressions of displacement or perception. The main contribution in the first task of our approach is the toponym disambiguation which represents an important issue in Geographical Information Retrieval (GIR). We propose an unsupervised geocoding algorithm that takes profit of clustering techniques to provide a solution for disambiguating the toponyms found in gazetteers, and at the same time estimating the spatial footprint of those other fine-grain toponyms not found in gazetteers. We propose a generic graph-based model for the automatic reconstruction of itineraries from texts, where each vertex represents a location and each edge represents a path between locations. %, combining information extracted from texts and information extracted from geographical databases. Our model is original in that in addition to taking into account the classic elements (paths and waypoints), it allows to represent the other elements describing an itinerary, such as features seen or mentioned as landmarks. To build automatically this graph-based representation of the itinerary, our approach computes an informed spanning tree on a weighted graph. Each edge of the initial graph is weighted using a multi-criteria analysis approach combining qualitative and quantitative criteria. Criteria are based on information extracted from the text and information extracted from geographical sources. For instance, we compare information given in the text such as spatial relations describing orientation (e.g., going south) with the geographical coordinates of locations found in gazetteers. Finally, according to the definition of an itinerary and the information used in natural language to describe itineraries, we propose a markup langugage for encoding spatial and motion information based on the Text Encoding and Interchange guidelines (TEI) which defines a standard for the representation of texts in digital form. Additionally, the rationale of the proposed approach has been verified with a set of experiments on a corpus of multilingual hiking descriptions (French, Spanish and Italian)
APA, Harvard, Vancouver, ISO, and other styles
13

Schaefer, Pierre-Loup. "Reconstruction de la déformée d’une aiguille instrumentée." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAS025/document.

Full text
Abstract:
La plupart des environnements de navigation de gestes interventionnels utilisant des aiguilles font l'hypothèse que celles-ci ne se déforment pas durant l'intervention. En pratique, cette hypothèse n'est pas toujours vérifiée car les aiguilles intéragissent avec les tissus lors des insertions et subissent alors des déformations parfois importantes. Cet effet provoque une perte de précision sur le geste réalisé. Ma thèse fait partie du projet ANR GAME-D dont l'objectif est de répondre à cette problématique par l'étude et le prototypage d'une aiguille instrumentée qui permettra à terme aux cliniciens de visualiser la déformation de l'aiguille en 3D et en temps réel. Mes travaux de recherche se focalisent sur la reconstruction de la déformée d'une aiguille instrumentée à partir des capteurs de déformations fixés à sa surface. L'impératif de précision nécessaire à une utilisation clinique du dispositif se heurte alors aux limitations techniques qui restreignent fortement le nombre de capteurs de déformation implantable sur une aiguille. Les méthodes développées pour résoudre cette problématique s'articulent autour de deux thématiques: l'obtention des données de capteurs et leurs exploitations. L'utilisation de la théorie des poutres permet, par l'etude des déformations des capteurs, d'obtenir des informations de déformations supplémentaires tel que la torsion. Elle permet également de développer des méthodes de reconstruction capables d'exploiter ces nouvelles informations et qui se révèlent donc plus précises. Une méthode d'optimisation des positions de capteurs fondée sur des données expérimentales de piqués d'aiguille est proposée. Les positions optimales calculées permettent d'augmenter la significativité des données renvoyées par les capteurs. Le traitement statistiques réalisé à partir des données expérimentales permet d'extraire les caractéristiques des déformations des aiguilles dans les tissus et de les utiliser dans une méthode de reconstruction spécifiquement développé. La représentativité de ces caractéristiques aide alors à la reconstruction de la déformée
Most of navigation system dedicated to interventional radiology make the assumption that needles stay straight during insertions in tissues. In practice, this hypothesis is not verified as the interactions between needles and surrounding tissues cause the needles to bend, resulting in a loss of accuracy. My PhD thesis is a part of the national projet GAME-D whose goal is to solve that problem by developing and studying instrumented needles which should eventually provide 3D deformed shape of the needle to clinicians in real-time. My reasearch work focus on reconstruction of deformed needle shape from its strain sensors data. Precision needed for clinical use faces technical limitations which restraint number of sensors embedded on the needle. Methods developped to adress this issue fall into one of these two categories: sensors data retrieving and sensors data processing. Use of beam theory to study sensors deformations gives strain information such as torsion. It also allows to develop reconstruction methods able to use these informations to gain accuracy. An optimization method of the sensors positions based on needle insertions experimental data is proposed. Sensors optimal positions make sensors data much more significant. A statistical processing of experimental data is performed to extract deformation features of needles in tissue. It is further used in a a specially built reconstruction method. Representativeness of these features improve the reconstrution of the deformed shape of the needle
APA, Harvard, Vancouver, ISO, and other styles
14

Paleo, Pierre. "Méthodes itératives pour la reconstruction tomographique régularisée." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT070/document.

Full text
Abstract:
Au cours des dernières années, les techniques d'imagerie par tomographie se sont diversifiées pour de nombreuses applications. Cependant, des contraintes expérimentales conduisent souvent à une acquisition de données limitées, par exemple les scans rapides ou l'imagerie médicale pour laquelle la dose de rayonnement est une préoccupation majeure. L'insuffisance de données peut prendre forme d'un faible rapport signal à bruit, peu de vues, ou une gamme angulaire manquante. D'autre part, les artefacts nuisent à la qualité de reconstruction. Dans ces contextes, les techniques standard montrent leurs limitations. Dans ce travail, nous explorons comment les méthodes de reconstruction régularisée peuvent répondre à ces défis. Ces méthodes traitent la reconstruction comme un problème inverse, et la solution est généralement calculée par une procédure d'optimisation. L'implémentation de méthodes de reconstruction régularisée implique à la fois de concevoir une régularisation appropriée, et de choisir le meilleur algorithme d'optimisation pour le problème résultant. Du point de vue de la modélisation, nous considérons trois types de régularisations dans un cadre mathématique unifié, ainsi que leur implémentation efficace : la variation totale, les ondelettes et la reconstruction basée sur un dictionnaire. Du point de vue algorithmique, nous étudions quels algorithmes d'optimisation de l'état de l'art sont les mieux adaptés pour le problème et l'architecture parallèle cible (GPU), et nous proposons un nouvel algorithme d'optimisation avec une vitesse de convergence accrue. Nous montrons ensuite comment les modèles régularisés de reconstruction peuvent être étendus pour prendre en compte les artefacts usuels : les artefacts en anneau et les artefacts de tomographie locale. Nous proposons notamment un nouvel algorithme quasi-exact de reconstruction en tomographie locale
In the last years, there have been a diversification of the tomography imaging technique for many applications. However, experimental constraints often lead to limited data - for example fast scans, or medical imaging where the radiation dose is a primary concern. The data limitation may come as a low signal to noise ratio, scarce views or a missing angle wedge.On the other hand, artefacts are detrimental to reconstruction quality.In these contexts, the standard techniques show their limitations.In this work, we explore how regularized tomographic reconstruction methods can handle these challenges.These methods treat the problem as an inverse problem, and the solution is generally found by the means of an optimization procedure.Implementing regularized reconstruction methods entails to both designing an appropriate regularization, and choosing the best optimization algorithm for the resulting problem.On the modelling part, we focus on three types of regularizers in an unified mathematical framework, along with their efficient implementation: Total Variation, Wavelets and dictionary-based reconstruction. On the algorithmic part, we study which state-of-the-art convex optimization algorithms are best fitted for the problem and parallel architectures (GPU), and propose a new algorithm for an increased convergence speed.We then show how the standard regularization models can be extended to take the usual artefacts into account, namely rings and local tomography artefacts. Notably, a novel quasi-exact local tomography reconstruction method is proposed
APA, Harvard, Vancouver, ISO, and other styles
15

Capanna, Claire. "Reconstruction 3D de petits corps par photoclinométrie." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4757/document.

Full text
Abstract:
Mon travail de thèse consiste en la mise en place d'une méthode de reconstruction 3D. Les objets à reconstruire sont des petits corps du système solaire qui ont été observée dans le domaine visible par des sondes lors de missions spatiales. La méthode proposée (appelée photoclinométrie par déformation) consiste à déformer un maillage jusqu'à ce que les images synthétiques de ce maillage correspondent aux images observées, ceci s'effectue au sein d'une boucle d'optimisation. Cette méthode nécessitant un maillage de départ proche de la solution souhaitée, nous avons implémenter cette méthode au sein d'un schéma multirésolution (multirésolution photoclinométrie par déformation) permettant d'obtenir une reconstruction sans apriori de forme. Cependant cette méthode ne permet pas d'obtenir de modèles contenant des millions de facettes. Une troisième méthode a donc été développé pour pallier ce problème, elle consiste à découper le maillage en différents morceaux et à appliquer la méthode multirésolution photoclinométrie par déformation à chacun de ces morceaux. Par fusion de ces morceaux, on arrive ainsi à obtenir des maillages de plusieurs millions de facettes (modèle haute résolution). Ces méthodes ont été testées avec la reconstruction des deux astéroïdes (Steins and lutetia) survolé par la sonde Rosetta de l'Agence Spatiale Européenne (ESA)
My PhD work consists in the establishment of a method of 3D reconstruction. Studied objects are small solar system bodies that have been observed in the visible range by sensors during space missions. The proposed method (called photoclinometry by deformation ) consists in deforming a mesh until the synthetic images of the mesh correspond to the observed ones, this is done in an optimization loop . This method requires an initial mesh close to the desired solution. We implement this method in a multiresolution scheme (multiresolution photoclinometry by deformation) to obtain a reconstruction without an apriori shape . However, this method does not allow models containing millions of facets . A third method has been developed to overcome this problem, it consists in cutting the mesh into different pieces and apply the multiresolution method photoclinometry by deforming to each of these pieces . By merging these pieces , we obtain meshes of several millions facets (high resolution model). These methods have been tested by reconstructing the two asteroids (Steins and lutetia) flown-by the Rosetta spacecraft of the European Space Agency (ESA)
APA, Harvard, Vancouver, ISO, and other styles
16

Mannani, Haroon. "La reconstruction de l'État-Nation en Afghanistan." Thesis, Toulouse 1, 2014. http://www.theses.fr/2014TOU10063/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Ostrovskii, Dmitrii. "Reconstruction adaptative des signaux par optimisation convexe." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM004/document.

Full text
Abstract:
Nous considérons le problème de débruitage d'un signal ou d'une image observés dans le bruit gaussien. Dans ce problème les estimateurs linéaires classiques sont quasi-optimaux quand l'ensemble des signaux, qui doit être convexe et compact, est connu a priori. Si cet ensemble n'est pas spécifié, la conception d'un estimateur adaptatif qui ``ne connait pas'' la structure cachée du signal reste un problème difficile. Dans cette thèse, nous étudions une nouvelle famille d'estimateurs des signaux satisfaisant certains propriétés d'invariance dans le temps. De tels signaux sont caractérisés par leur structure harmonique, qui est généralement inconnu dans la pratique.Nous proposons des nouveaux estimateurs capables d'exploiter la structure harmonique inconnue du signal è reconstruire. Nous démontrons que ces estimateurs obéissent aux divers "inégalités d'oracle," et nous proposons une implémentation algorithmique numériquement efficace de ces estimateurs basée sur des algorithmes d'optimisation de "premier ordre." Nous évaluons ces estimateurs sur des données synthétiques et sur des signaux et images réelles
We consider the problem of denoising a signal observed in Gaussian noise.In this problem, classical linear estimators are quasi-optimal provided that the set of possible signals is convex, compact, and known a priori. However, when the set is unspecified, designing an estimator which does not ``know'' the underlying structure of a signal yet has favorable theoretical guarantees of statistical performance remains a challenging problem. In this thesis, we study a new family of estimators for statistical recovery of signals satisfying certain time-invariance properties. Such signals are characterized by their harmonic structure, which is usually unknown in practice. We propose new estimators which are capable to exploit the unknown harmonic structure of a signal to reconstruct. We demonstrate that these estimators admit theoretical performance guarantees, in the form of oracle inequalities, in a variety of settings.We provide efficient algorithmic implementations of these estimators via first-order optimization algorithm with non-Euclidean geometry, and evaluate them on synthetic data, as well as some real-world signals and images
APA, Harvard, Vancouver, ISO, and other styles
18

Dalla, Vedova Gaetan. "Imagerie et analyse hyperspectrales d'observations interférométriques d'environnement circumstellaires." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4060/document.

Full text
Abstract:
L'observation des planètes extrasolaires, ainsi que l'étude de l'environnementcircumstellaire demandent des instruments très performants en matière dedynamique et de résolution angulaire. L'interférométrie classique et annulanteoffrent une solution. En particulier, dans le cas de l'interférométrie annulante,le flux de l'étoile sur l'axe de l'interféromètre est fortement réduit et permetainsi aux structures plus faibles hors axe d'émerger et être plus facilementdétectables. Dans ce contexte, la reconstruction d'image est un outilfondamental. Le développement d'interféromètres à haute résolution spectraletelle que AMBER, et bientôt MATISSE et GRAVITY, fait de la reconstruction d'imagepolychromatique une priorité.Cette thèse a comme objectif de développer et d'améliorer des techniques dereconstruction d'image hyperspectrale. Le travail présenté s'articule en deuxparties. En premier, nous discutons le potentiel de l'interférométrie annulantedans le cadre de la résolution du problème inverse. Ce travail repose sur dessimulations numériques et sur l'exploitation de données collectées sur le bancinterférométrique annulant PERSEE. Ensuite, nous avons adapté et développé desméthodes de reconstruction d'images monochromatique et polychromatique. Cestechniques ont été appliquées pour étudier l'environnement circumstellaire dedeux objets évolués, Achernar et Eta Carina, à partir de données PIONIER etAMBER.Ce travail apporte des éléments méthodologiques sur la reconstruction d'image etl'analyse hyperspectrale, ainsi que des études spécifiques sur l'environnementd'Achernar et d'Eta Carina
Environment of nearby stars requires instruments with high performances in termsof dynamics and angular resolution. The interferometry offers a solution. Inparticular, in the nulling interferometry, the flux of the star on the axis ofthe interferometer is strongly reduced, allowing to emerge fainter structuresaround it. In this context, the image reconstruction is a fundamental andpowerful tool. The advent of the high spectral resolution interferometers such asAMBER, MATISSE and GRAVITY boost the interest in the polychromatic imagereconstruction, in order to exploit all the available spectral information.The goal of this thesis is to develop and improve monochromatic and hyperspectralimaging techniques. The work here presented has two main parts. First, we discussthe performances of the nulling in the context of the inverse problem solving.This part is based on simulations and data collected on the nulling test benchPERSEE. Second, we adapted and developed monochromatic and hyperspectral imagereconstruction methods. Then, we applied these methods in order to study thecircumstellar environment of two evolved objects, Achernar and Eta Carina, fromPIONIER and AMBER observations.This work provides elements in the field of the image reconstruction forminterferometric observations as well as the specific studies on the environmentof Achernar and Eta Carina
APA, Harvard, Vancouver, ISO, and other styles
19

Giraudot, Simon. "Reconstruction robuste de formes à partir de données imparfaites." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4024/document.

Full text
Abstract:
Au cours des vingt dernières années, de nombreux algorithmes de reconstruction de surface ont été développés. Néanmoins, des données additionnelles telles que les normales orientées sont souvent requises et la robustesse aux données imparfaites est encore un vrai défi. Dans cette thèse, nous traitons de nuages de points non-orientés et imparfaits, et proposons deux nouvelles méthodes gérant deux différents types de surfaces. La première méthode, adaptée au bruit, s'applique aux surfaces lisses et fermées. Elle prend en entrée un nuage de points avec du bruit variable et des données aberrantes, et comporte trois grandes étapes. Premièrement, en supposant que la surface est lisse et de dimension connue, nous calculons une fonction distance adaptée au bruit. Puis nous estimons le signe et l'incertitude de la fonction sur un ensemble de points-sources, en minimisant une énergie quadratique exprimée sur les arêtes d'un graphe uniforme aléatoire. Enfin, nous calculons une fonction implicite signée par une approche dite « random walker » avec des contraintes molles choisies aux points-sources de faible incertitude. La seconde méthode génère des surfaces planaires par morceaux, potentiellement non-variétés, représentées par des maillages triangulaires simples. En faisant croitre des primitives planaires convexes sous une erreur de Hausdorff bornée, nous déduisons à la fois la surface et sa connectivité et générons un complexe simplicial qui représente efficacement les grandes régions planaires, les petits éléments et les bords. La convexité des primitives est essentielle pour la robustesse et l'efficacité de notre approche
Over the last two decades, a high number of reliable algorithms for surface reconstruction from point clouds has been developed. However, they often require additional attributes such as normals or visibility, and robustness to defect-laden data is often achieved through strong assumptions and remains a scientific challenge. In this thesis we focus on defect-laden, unoriented point clouds and contribute two new reconstruction methods designed for two specific classes of output surfaces. The first method is noise-adaptive and specialized to smooth, closed shapes. It takes as input a point cloud with variable noise and outliers, and comprises three main steps. First, we compute a novel noise-adaptive distance function to the inferred shape, which relies on the assumption that this shape is a smooth submanifold of known dimension. Second, we estimate the sign and confidence of the function at a set of seed points, through minimizing a quadratic energy expressed on the edges of a uniform random graph. Third, we compute a signed implicit function through a random walker approach with soft constraints chosen as the most confident seed points. The second method generates piecewise-planar surfaces, possibly non-manifold, represented by low complexity triangle surface meshes. Through multiscale region growing of Hausdorff-error-bounded convex planar primitives, we infer both shape and connectivity of the input and generate a simplicial complex that efficiently captures large flat regions as well as small features and boundaries. Imposing convexity of primitives is shown to be crucial to both the robustness and efficacy of our approach
APA, Harvard, Vancouver, ISO, and other styles
20

Hmida, Rihab. "Vision et reconstruction 3D : application à la robotique mobile." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT335/document.

Full text
Abstract:
Avec l’évolution des processus technologiques, l’intérêt pour la robotique mobile n’a de cesse d’augmenter depuis quelques années, notamment pour remplacer l’homme dans des environnements à risque (zones radioactives, robots militaires) ou des zones qui lui sont inaccessibles (exploration planétaire ou sous-marine), ou à des échelles différentes (robot à l’intérieur d’une canalisation, voire robot chirurgical à l’intérieur du corps humain). Dans ce même contexte, les systèmes de navigation destinés plus particulièrement à l’exploration sous-marine suscitent de plus en plus l’intérêt de plusieurs géologues, roboticiens et scientifiques en vue de mieux connaître et caractériser les réseaux sous-marins. Pour des raisons de sécurité optimale, de nouvelles technologies (Radar, Sonar, système de caméras,..) ont été développées pour remplacer les plongeurs humains.C’est dans ce cadre que s’intègre les travaux de cette thèse ayant comme objectif la mise en œuvre d’un système de vision stéréoscopique permettant l’acquisition d’informations utiles et le développement d’un algorithme pour la restitution de la structure 3D d’un environnement confiné aquatique. Notre système est composé d’une paire de capteurs catadioptriques et d’une ceinture de pointeurs lasers permettant d’identifier des amers visuels de la scène et d’une plateforme pour l’exécution du processus de traitement des images acquises. La chaîne de traitement est précédée par une phase d’étalonnage effectuée hors-ligne pour la modélisation géométrique du système complet. L’algorithme de traitement consiste à une analyse pixellique des images stéréoscopiques pour l’extraction des projections lasers 2D et reconstruire leurs correspondants 3D en se basant sur les paramètres d’étalonnage.La mise en œuvre du système complet sur une plateforme logicielle demande un temps d’exécution supérieur à celui exigé par l’application. Les travaux clôturant ce mémoire s’adressent à cette problématique, et proposent une solution permettant de simplifier le développement et l’implémentation d’applications temps-réel sur des plateformes basées sur un dispositif FPGA. La mise en œuvre de notre application a été effectuée et une étude des performances est présentée tout en considérant les besoins de l’application et ses exigences de point de vue précision, rapidité et taux d’efficacité
With the development of technological processes, interest in mobile robotics is constantly increasing in recent years, particularly to replace human in environments of risk (radioactive areas, military robots) or areas that are inaccessible (planetary or underwater exploration), or at different scales (robot within a pipeline or surgical robot inside the human body). In the same context, navigation systems are designed specifically for underwater exploration which is attracting more and more interest of several geologists, robotics and scientists in order to better understand and characterize submarine environment. For optimal security, new technologies (radar, sonar, camera system, ..) have been developed to replace human.In this context, the work of this thesis is focusing with the aim of implementing a stereoscopic vision system to acquire useful information and the development of an algorithm for the restoration of the 3D structure of a confined aquatic environment. Our system consists of a pair of catadioptric sensors and a laser pointer belt permitting to identify visual landmarks of the scene and a platform for the implementation of the acquired image processing. The processing chain is preceded by an offline calibration phase to generate the geometric modeling of the complete system. The processing algorithm consists of pixel-wise analysis of the stereoscopic images for the extraction of 2D laser projections and rebuilds their 3D corresponding based on the calibration parameters.The implementation of the complete system on a software platform requests an execution time higher than that required by the application. The work closing the memory is addressed to this problem and proposes a solution to simplify the development and implementation of real-time applications on platforms based on a FPGA device. The implementation of our application was performed and a study of performance is presented, considering the requirements of the application in terms of precision, speed and efficiency rate
APA, Harvard, Vancouver, ISO, and other styles
21

Morel, Jules. "Surface reconstruction based on forest terrestrial LiDAR data." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0039/document.

Full text
Abstract:
Au cours des dernières années, la capacité de la technologie LiDAR à capturer des informations détaillées sur la structure des forêts a attiré une attention croissante de la part de la communauté des écologues et des forestiers. Le LiDAR terrestre, notamment, apparaît comme un outil prometteur pour recueillir les caractéristiques géométriques des arbres à une précision millimétrique.Cette thèse étudie la reconstruction de surface à partir de nuages de points épars et non structurés, capturés en environnement forestier par un LiDAR terrestre. Nous proposons une suite d’algorithmes dédiés à la reconstruction de modèles d’attributs de placettes forestières : le sol etla structure ligneuse des arbres (i.e. troncs et branches principales). En pratique, nos approches modélisent le problème par des surfaces implicites construites à partir de fonctions à base radiale pour faire face à la forte hétérogénéité spatiale du nuage de points Lidar terrestre
In recent years, the capacity of LiDAR technology to capture detailed information about forests structure has attracted increasing attention in the field of forest science. In particular, the terrestrial LiDAR arises as a promising tool to retrieve geometrical characteristics of trees at a millimeter level.This thesis studies the surface reconstruction problem from scattered and unorganized point clouds, captured in forested environment by a terrestrial LiDAR. We propose a sequence of algorithms dedicated to the reconstruction of forests plot attributes model: the ground and the woody structure of trees (i.e. the trunk and the main branches). In practice, our approaches model the surface with implicit function build with radial basis functions to manage the homogeneity and handle the noise of the sample data points
APA, Harvard, Vancouver, ISO, and other styles
22

Heijboer, Adriaan Jacob. "Track reconstruction and point source searches with ANTARES." [S.l. : Amsterdam : s.n.] ; Universiteit van Amsterdam [Host], 2004. http://dare.uva.nl/document/77461.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Yureidini, Ahmed. "Robust blood vessel reconstruction for interactive medical simulations." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10044/document.

Full text
Abstract:
Dans le cadre des simulations interactives, le manque de modèles géométriques reste une des limitations majeurs des simulateurs. Actuellement, les simulateurs commerciaux ne propose pas ou un tout cas, un nombre limité de cas. Un grand nombre des travaux abordent cependant ce sujet tout au long de ces deux dernières décennies. Malgré une vaste littérature, les méthodes ne sont pas adaptées à un contexte interactive, plus particulièrement quand il s'agit des réseaux vasculaires. Dans cette thèse, nous considérons le problème de la segmentation et la reconstruction des vaisseaux sanguins à partir de données patients en 3DRA. Pour ce faire, nous proposons deux nouveaux algorithmes, un pour la segmentation et un autre, pour la reconstruction. Tout d'abord, le réseau vasculaire est construit grâce à un algorithme de suivi de la ligne centrale des vaisseaux. De plus, notre procédure de suivi extrait des point à la surface des vaisseaux de manière robuste. Deuxièmement, ces points sont estimés par une surface implicite (un blobby model) qui est raffinée de façon itérative. Les résultats du suivi et de la reconstruction sont produit à partir de données synthétiques et réelles. Lors de la simulation de la navigation d'outils interventionnels, notre modèle géométrique remplit les exigences des simulations interactives : une prédiction et détection rapide des collisions, l'accès à l'information topologique, une surface lisse et la mise à disposition de quantités différentielles pour la résolution des contacts
In the context of interactive simulation, the lack of patient specific geometrical models remains one of the major limitations of simulators. Current commercial simulators proposed no or a limited number of cases. However, a vast literature on the subject has been introduced in the past twenty years. Nevertheless, the proposed methods are not adapted to an interactive context, especially when dealing with vascular networks. In this work, we address the problem of blood vessel segmentation and reconstruction from 3DRA patient data. To this end, we propose two novel algorithms for segmentation and reconstruction. First, the vessel tree is built by tracking the vessel centerline. Our dedicated tracking process also extracts points on the vessel surface in a robust way. Second, those points are fitted by an implicit surface (a blobby model) that is iteratively refined. Tracking and reconstruction results are reported on synthetic and patient data. Simulations within an interventional tool navigation context showed that the resulting geometrical model complies with interactive simulation requirements : fast collision detection and prediction, topology information, smoothness and availability of differential quantities for contact response computation
APA, Harvard, Vancouver, ISO, and other styles
24

Chen, Zhouye. "Reconstruction of enhanced ultrasound images from compressed measurements." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30222/document.

Full text
Abstract:
L'intérêt de l'échantillonnage compressé dans l'imagerie ultrasonore a été récemment évalué largement par plusieurs équipes de recherche. Suite aux différentes configurations d'application, il a été démontré que les données RF peuvent être reconstituées à partir d'un faible nombre de mesures et / ou en utilisant un nombre réduit d'émission d'impulsions ultrasonores. Selon le modèle de l'échantillonnage compressé, la résolution des images ultrasonores reconstruites à partir des mesures compressées dépend principalement de trois aspects: la configuration d'acquisition, c.à.d. l'incohérence de la matrice d'échantillonnage, la régularisation de l'image, c.à.d. l'a priori de parcimonie et la technique d'optimisation. Nous nous sommes concentrés principalement sur les deux derniers aspects dans cette thèse. Néanmoins, la résolution spatiale d'image RF, le contraste et le rapport signal sur bruit dépendent de la bande passante limitée du transducteur d'imagerie et du phénomène physique lié à la propagation des ondes ultrasonores. Pour surmonter ces limitations, plusieurs techniques de traitement d'image en fonction de déconvolution ont été proposées pour améliorer les images ultrasonores. Dans cette thèse, nous proposons d'abord un nouveau cadre de travail pour l'imagerie ultrasonore, nommé déconvolution compressée, pour combiner l'échantillonnage compressé et la déconvolution. Exploitant une formulation unifiée du modèle d'acquisition directe, combinant des projections aléatoires et une convolution 2D avec une réponse impulsionnelle spatialement invariante, l'avantage de ce cadre de travail est la réduction du volume de données et l'amélioration de la qualité de l'image. Une méthode d'optimisation basée sur l'algorithme des directions alternées est ensuite proposée pour inverser le modèle linéaire, en incluant deux termes de régularisation exprimant la parcimonie des images RF dans une base donnée et l'hypothèse statistique gaussienne généralisée sur les fonctions de réflectivité des tissus. Nous améliorons les résultats ensuite par la méthode basée sur l'algorithme des directions simultanées. Les deux algorithmes sont évalués sur des données simulées et des données in vivo. Avec les techniques de régularisation, une nouvelle approche basée sur la minimisation alternée est finalement développée pour estimer conjointement les fonctions de réflectivité des tissus et la réponse impulsionnelle. Une investigation préliminaire est effectuée sur des données simulées
The interest of compressive sampling in ultrasound imaging has been recently extensively evaluated by several research teams. Following the different application setups, it has been shown that the RF data may be reconstructed from a small number of measurements and/or using a reduced number of ultrasound pulse emissions. According to the model of compressive sampling, the resolution of reconstructed ultrasound images from compressed measurements mainly depends on three aspects: the acquisition setup, i.e. the incoherence of the sampling matrix, the image regularization, i.e. the sparsity prior, and the optimization technique. We mainly focused on the last two aspects in this thesis. Nevertheless, RF image spatial resolution, contrast and signal to noise ratio are affected by the limited bandwidth of the imaging transducer and the physical phenomenon related to Ultrasound wave propagation. To overcome these limitations, several deconvolution-based image processing techniques have been proposed to enhance the ultrasound images. In this thesis, we first propose a novel framework for Ultrasound imaging, named compressive deconvolution, to combine the compressive sampling and deconvolution. Exploiting an unified formulation of the direct acquisition model, combining random projections and 2D convolution with a spatially invariant point spread function, the benefit of this framework is the joint data volume reduction and image quality improvement. An optimization method based on the Alternating Direction Method of Multipliers is then proposed to invert the linear model, including two regularization terms expressing the sparsity of the RF images in a given basis and the generalized Gaussian statistical assumption on tissue reflectivity functions. It is improved afterwards by the method based on the Simultaneous Direction Method of Multipliers. Both algorithms are evaluated on simulated and in vivo data. With regularization techniques, a novel approach based on Alternating Minimization is finally developed to jointly estimate the tissue reflectivity function and the point spread function. A preliminary investigation is made on simulated data
APA, Harvard, Vancouver, ISO, and other styles
25

Bianchetti, Morales Rennan. "Density profile reconstruction methods for extraordinary mode reflectometry." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0031/document.

Full text
Abstract:
Le but de cette thèse est d'améliorer les techniques d'analyse de données de la réflectométrie à balayage de fréquence pour la détermination du profil de densité des plasmas de fusion. Au cours des deux dernières décennies, des améliorations significatives ont été apportées sur la partie matérielle et sur d'extraction des signaux, mais l'analyse des données est en retard et nécessite d'autres améliorations pour répondre aux spécifications exigées pour un fonctionnement en continu des futurs réacteurs. Les améliorations obtenues lors de ce travail de thèse sur la reconstruction des profils de densité fournissent une meilleure précision en un temps plus court ceci même en présence de trou de densité conduisant à une mesure des propriétés de la turbulence suffisamment précise pour valider des modèles numériques et permettant la surveillance en temps réel de la forme et de la position du plasma
The goal of this PhD is to improve the data analysis techniques of frequency swept reflectometry for determination of the density profile of fusion plasmas. There has been significant improvements in the last two decades on the hardware design and signal extraction techniques, but the data analysis is lagging behind and require further improvements to meet the required standards for continuous operation in future reactors. The improvements obtained in this thesis on the reconstruction of density profiles provide a better accuracy in a shorter time, even in the presence of a density hole, also enabling sufficiently precise measurements of the properties of turbulence used to validate numerical models, and allowing real-time monitoring of the shape and position of the plasma
APA, Harvard, Vancouver, ISO, and other styles
26

Yu, Liang. "Acoustical source reconstruction from non-synchronous sequential measurements." Thesis, Lyon, INSA, 2015. http://www.theses.fr/2015ISAL0023/document.

Full text
Abstract:
Une limitation fondamentale du problème inverse acoustique est déterminée par la taille et la densité de l'antenne de microphones. Une solution pour atteindre une grande antenne et / ou à forte densité de microphones est de scanner l'objet d'intérêt en déplaçant séquentiellement une antenne de petites dimensions (mesures dites séquentielles). La différence entre des mesures séquentielle et une mesure simultanée en tous points est que dans ce dernier cas, l'intégralité de la matrice interpectrale peut être estimée, contrairement au cas des mesures séquentielles qui ne permettent l'estimation que d'une partie réduite de cette matrice; les éléments croisés (interspectres) entre deux points de mesures n'appartenant pas à la même séquence ne sont pas estimés. Néanmoins, ces données restent nécessaires pour la reconstruction acoustique. Dans l'approche classique, une ou plusieurs références sont utilisées pour retrouver les données manquantes. L'objet de cette thèse est de récupérer les éléments manquants de la matrice interspectrale sans capteurs de référence, dans le cas où le champ acoustique est suffisamment cohérent pour mettre en œuvre les mesures séquentielles. Deux modèles de spectre de valeurs propres parcimonieux sont proposés pour résoudre ce problème, le premier impose une valeur faible de rang, tandis que le second repose sur la minimisation de la norme nucléaire (recherche d'une solution faiblement parcimonieuse)
A fundamental limitation of the inverse acoustic problem is determined by the size of the array and the microphone density. A solution to achieve large array and/or high microphone density is to scan the object of interest by moving sequentially a small prototype array, which is referred to as sequential measurements. In comparison to a large array and/or high microphone density array that can acquire simultaneously all the information of the spectral matrix, in particular all cross-spectra, sequential measurements can only acquire a block diagonal spectral matrix, while the cross-spectra between the sequential measurements remain unknown due to the missing phase relationships between consecutive positions. Nevertheless, these unknown cross-spectra are necessary for acoustic reconstruction. The object of this thesis is to recover the missing elements of the spectral matrix in the case that the acoustical field is highly coherent so as to implement the sequential measurements. Sparse eigenvalue spectrum are assumed to solve this problem, which lead to a structured low rank model and a weakly sparse eigenvalue spectrum model
APA, Harvard, Vancouver, ISO, and other styles
27

Duhant, Alexandre. "Contrôle non destructif par reconstruction en tomographie térahertz." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTS006/document.

Full text
Abstract:
La tomographie et ses algorithmes associés sont désormais bien connus dans le domaine des rayons X. En revanche tous ces outils s’appuient sur une modélisation qui diffère de celle qui pourrait être envisagée dans le domaine des ondes Térahertz (THz). On retrouve, dans l’état de l’art, des modèles de propagation de l’onde THz au sein d’un objet. Ces modèles génèrent une onde THz qui est soit éloigné d’une vérité terrain, soit d’une complexité algorithmique trop élevée pour être utilisée au sein d’une reconstruction tomographique dans des temps de calcul acceptables. Un des objectifs de ce travail de thèse est donc d’obtenir un modèle de propagation de l’onde THz permettant une meilleure modélisation du processus d’acquisition et pouvant être calculé dans des temps relativement courts. Lors de la mesure d’une projection d’un objet, le phénomène d’absorption n’est pas le seul phénomène responsable de l’atténuation de l’onde THz. Les phénomènes de réfraction et de réflexion sont aussi responsables d’une atténuation de l’onde THz mesurée. Lors d’une reconstruction tomographique THz, si ces phénomènes ne sont pas pris en compte, l’algorithme attribue cette atténuation au phénomène d’absorption. Cela se traduit par une reconstruction des coefficients d’absorption de l’objet éloignée de leur valeur réelle. Sous l’effet de ces phénomènes, le problème de la reconstruction tomographique THz est non linéaire. Cela empêche ainsi l’utilisation directe des méthodes de reconstruction classiques puisque ces méthodes impliquent que la relation liant un objet à ses projections soit linéaire
Tomography and its associated algorithms are now well known in the field of X-rays. On the other hand, all these tools are based on a modeling that differs from which could be envisaged in the field of Terahertz (THz) waves. We find, in the state of the art, models of propagation of the THz wave within an object. These models generate a THz wave that is either far from a ground truth, or of an algorithmic complexity that is too high to be used within a tomographic reconstruction in acceptable computing times. One of the objectives of this thesis work is therefore to obtain a propagation model of the THz wave allowing better modeling of the acquisition process and which can be calculated in relatively short times. When measuring the projection of an object, the absorption phenomenon is not the only phenomenon responsible for the attenuation of the THz wave. The phenomena of refraction and reflection are also responsible for attenuation of the measured THz wave. During a THz tomographic reconstruction, if these phenomena are not taken into account, the algorithm attributes this attenuation to the absorption phenomenon. This results in a reconstruction of the absorption coefficients of the object far from their real value. Under the effect of these phenomena, the problem of THz tomographic reconstruction is non-linear. This prevents the direct use of classical reconstruction methods since these methods imply that the relationship between an object and its projections is linear
APA, Harvard, Vancouver, ISO, and other styles
28

Dieuleveut, Daphné. "Coupe et reconstruction d'arbres et de cartes aléatoires." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS217/document.

Full text
Abstract:
Cette thèse se divise en deux parties. Nous nous intéressons dans un premier temps à des fragmentations d'arbres aléatoires, et aux arbres des coupes associés. Dans le cadre discret, les modèles étudiés sont des arbres de Galton-Watson, fragmentés en enlevant successivement des arêtes choisies au hasard. Nous étudions également leurs analogues continus, l'arbre brownien et les arbres stables, que l'on fragmente en supprimant des points donnés par des processus ponctuels de Poisson. L'arbre des coupes associé à l'un de ces processus, discret ou continu, décrit la généalogie des composantes connexes créées au fur et à mesure de la dislocation. Pour une fragmentation qui se concentre autour de nœuds de grand degré, nous montrons que l'arbre des coupes continu est la limite d'échelle des arbres des coupes discrets correspondants. Dans les cas brownien et stable, nous montrons également que l'on peut reconstruire l'arbre initial à partir de son arbre des coupes et d'un étiquetage bien choisi de ses points de branchement. Nous étudions ensuite un problème portant sur les cartes aléatoires, et plus précisément sur la quadrangulation uniforme infinie du plan (UIPQ). De récents résultats montrent que dans l'UIPQ, toutes les géodésiques infinies issues de la racine sont essentiellement similaires. Nous déterminons la quadrangulation limite obtenue en ré-enracinant l'UIPQ ''à l'infini'' sur de l'une de ces géodésiques. Cette étude se fait en découpant l'UIPQ le long de cette géodésique. Nous étudions les deux parties ainsi créées via une correspondance avec des arbres discrets, puis nous obtenons la limite souhaitée par recollement
This PhD thesis is divided into two parts. First, we study some fragmentations of random trees and the associated cut-trees. The discrete models we are interested in are Galton-Watson trees, which are cut down by recursively removing random edges. We also consider their continuous counterparts, the Brownian and stable trees, which are fragmented by deleting the atoms of Poisson point processes. For these discrete and continuous models, the associated cut-tree describes the genealogy of the connected components which appear during the cutting procedure. We show that for a ''vertex-fragmentation'', in which the nodes having a large degree are more susceptible to be deleted, the continuous cut-tree is the scaling limit of the corresponding discrete cut-trees. In the Brownian and stable cases, we also give a transformation which rebuilds the initial tree from its cut-tree and a well chosen labeling of its branchpoints. The second part relates to random maps, and more precisely the uniform infinite quadrangulation of the plane (UIPQ). Recent results show that in the UIPQ, all infinite geodesic rays originating from the root are essentially similar. We identify the limit quadrangulation obtained by rerooting the UIPQ at a point ''at infinity'' on one of these geodesics. To do this, we split the UIPQ along this geodesic ray. Using a correspondence with discrete trees, we study the two sides, and obtain the desired limit by gluing them back together
APA, Harvard, Vancouver, ISO, and other styles
29

Liu, Zhe. "Robust, refined and selective matching for accurate camera pose estimation." Thesis, Paris Est, 2015. http://www.theses.fr/2015PEST1020/document.

Full text
Abstract:
Grâce aux progrès récents en photogrammétrie, il est désormais possible de reconstruire automatiquement un modèle d'une scène 3D à partir de photographies ou d'une vidéo. La reconstruction est réalisée en plusieurs étapes. Tout d'abord, on détecte des traits saillants (features) dans chaque image, souvent des points mais plus généralement des régions. Puis on cherche à les mettre en correspondance entre images. On utilise ensuite les traits communs à deux images pour déterminer la pose (positions et orientations) relative des images. Puis les poses sont mises dans un même repère global et la position des traits saillants dans l'espace est reconstruite (structure from motion). Enfin, un modèle 3D dense de la scène peut être estimé. La détection de traits saillants, leur appariement, ainsi que l'estimation de la position des caméras, jouent des rôles primordiaux dans la chaîne de reconstruction 3D. Des imprécisions ou des erreurs dans ces étapes ont un impact majeur sur la précision et la robustesse de la reconstruction de la scène entière. Dans cette thèse, nous nous intéressons à l'amélioration des méthodes pour établir la correspondance entre régions caractéristiques et pour les sélectionner lors de l'estimation des poses de caméras, afin de rendre les résultats de reconstruction plus robustes et plus précis. Nous introduisons tout d'abord une contrainte photométrique pour une paire de correspondances (VLD) au sein d'une même image, qui est plus fiable que les contraintes purement géométriques. Puis, nous proposons une méthode semi-locale (K-VLD) pour la mise en correspondance, basée sur cette contrainte photométrique. Nous démontrons que notre méthode est très robuste pour des scènes rigides, mais aussi non-rigides ou répétitives, et qu'elle permet d'améliorer la robustesse et la précision de méthodes d'estimation de poses, notamment basées sur RANSAC. Puis, pour améliorer l'estimation de la position des caméras, nous analysons la précision des reconstructions et des estimations de pose en fonction du nombre et de la qualité des correspondances. Nous en dérivons une formule expérimentale caractérisant la relation ``qualité contre quantité''. Sur cette base, nous proposons une méthode pour sélectionner un sous-ensemble des correspondances de meilleure qualité de façon à obtenir une très haute précision en estimation de poses. Nous cherchons aussi raffiner la précision de localisation des points en correspondance. Pour cela, nous développons une extension de la méthode de mise en correspondance aux moindres carrés (LSM) en introduisant un échantillonnage irrégulier et une exploration des échelles d'images. Nous montrons que le raffinement et la sélection de correspondances agissent indépendamment pour améliorer la reconstruction. Combinées, les deux méthodes produisent des résultats encore meilleurs
With the recent progress in photogrammetry, it is now possible to automatically reconstruct a model of a 3D scene from pictures or videos. The model is reconstructed in several stages. First, salient features (often points, but more generally regions) are detected in each image. Second, features that are common in images pairs are matched. Third, matched features are used to estimate the relative pose (position and orientation) of images. The global poses are then computed as well as the 3D location of these features (structure from motion). Finally, a dense 3D model can be estimated. The detection of salient features, their matching, as well as the estimation of camera poses play a crucial role in the reconstruction process. Inaccuracies or errors in these stages have a major impact on the accuracy and robustness of reconstruction for the entire scene. In this thesis, we propose better methods for feature matching and feature selection, which improve the robustness and accuracy of existing methods for camera position estimation. We first introduce a photometric pairwise constraint for feature matches (VLD), which is more reliable than geometric constraints. Then we propose a semi-local matching approach (K-VLD) using this photometric match constraint. We show that our method is very robust, not only for rigid scenes but also for non-rigid and repetitive scenes, which can improve the robustness and accuracy of pose estimation methods, such as based on RANSAC. To improve the accuracy in camera position estimation, we study the accuracy of reconstruction and pose estimation in function of the number and quality of matches. We experimentally derive a “quantity vs. quality” relation. Using this relation, we propose a method to select a subset of good matches to produce highly accurate pose estimations. We also aim at refining match position. For this, we propose an improvement of least square matching (LSM) using an irregular sampling grid and image scale exploration. We show that match refinement and match selection independently improve the reconstruction results, and when combined together, the results are further improved
APA, Harvard, Vancouver, ISO, and other styles
30

Huard, Mathieu. "Modélisation géométrique et reconstruction de formes équipées de capteurs d'orientation." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM090/document.

Full text
Abstract:
Ce travail de thèse en Mathématiques Appliquées a été effectué au sein du service Capteurs et Systèmes Electroniques (SCSE) au CEA-Leti, organisme majeur de la recherche publique française implanté à Grenoble. Il s'inscrit dans le cadre d'une collaboration avec le laboratoire de mathématiques appliquées Jean Kuntzmann (LJK) de l'Université Joseph Fourier (UJF). Le Leti développe des systèmes de capteurs de données terrestres (magnétomètres, accéléromètres...) capables de se géoréférencer de manière autonome. Placés sur des objets, ces dispositifs de capteursfournissent leur orientation propre dans l'espace, et ouvrent donc un vaste champ d'applications dans le domaine de l'acquisition et la reconstruction de formes.Le problème de la reconstruction de surfaces à partir de données d'orientation non structurées est par essence un problème mal posé. Cependant, des travaux précédents effectués au Leti ont permis de dégager un protocole fournissant un cadre valide pour le processus de reconstruction. Les capteurs ont été intégrés dans les rubans Morphosense : ces rubans souples équipés de noeuds de capteurs selon unegéométrie connue permettent ainsi le développement d'algorithmes de reconstruction de la courbe suivie par le ruban. L'application de rubans Morphosense sur une surface physique permet alors d'acquérir la famille des courbes suivies par les rubans et tracées sur la surface. Il s'agit ensuite d'exploiter le réseau des courbes ainsi obtenues pour reconstruire la surface. Dans un premier temps, nous revisitons la question de la reconstruction du ruban. Nous proposons des algorithmes de reconstruction de la courbe 3D suivie par le ruban Morphosense prenant maintenant en compte l'intégralité des données fournies par les capteurs d'orientation, ainsi que les propriétés méca-niques du ruban qui le conduisent à suivre des courbes géodésiques sur une surface. De ce point de vue, la reconstruction peut être considérée comme optimale.On étudie ensuite un ensemble de méthodes pour la reconstruction de surfaces à partir d'un réseau de courbes rubans. Dans le cas général, un tel type de réseau conduit à des problèmes de fermeture et d'estimation de données manquantes. La question de la fermeture, d'ordre essentiellement numérique et liée à des contraintes différentielles, concerne le réseau des courbes et la difficulté d'obtenir des contoursfermés. La question cruciale de l'estimation des données manquantes traduit le fait qu'aucune information sur la surface n'est connue et accessible en dehors du réseau des courbes rubans.Afin de s'affranchir de ces problèmes et de proposer des solutions pratiques pour la reconstruction, il est nécessaire de faire des hypothèses sur le modèle de surfaces à reconstruire ou sur la topologie de réseau de courbes acquises. Les méthodes développées s'inscrivent donc dans l'une des deux approchessuivantes.– D'une part des méthodes de reconstruction de surfaces développables et quasi-développables, qui modélisent de manière satisfaisante les surfaces étudiées dans le cadre de nombreuses applications.– D'autre part des méthodes de reconstruction à partir d'une topologie spécifique de réseaux de courbes (courbes quasi-planaires, contour ouvert), permettant de résoudre le problème de fermeture.L'ensemble des méthodes proposées dans ces travaux permet ainsi de formuler un processus global de reconstruction de surfaces, qu'il est possible d'adapter aux problèmes étudiés en pratique, afin de proposer une solution à la fois simple et précise dans chaque cas. La validation des résultats dans le cadre des données réelles fournies par les rubans Morphosense nous a conduit à développer des dispositifs métrologiques. Enfin, notons que le contexte général des données d'orientation étudié ici soulève des problématiques peu classiques, voire nouvelles, auxquelles nous avons essayé d'apporter des solutions originales, en particulier au travers d'algorithmes d'interpolation et d'optimisation
This PhD thesis in applied mathematics was conducted within the Electronic Systems andSensors department of the CEA-Leti (Atomic Energy and Alternative Energies Commission - Laboratory for Electronics and Information Technologies), a major organism for technological research located in Grenoble, France. This work originated from a partnership with the applied mathematics laboratory (LJK) of the Joseph Fourier university (UJF). The Leti develops embedded systems equiped with micro-sensors (magnetometers, accelerometers...) from which it is possible to retrieve informations about their spatial orientation. These systems allow for innovative applications in the field of shape acquisition and reconstruction. The problem of reconstructing surfaces from unstructured orientation data is ill-posed. However, previous work done within the Leti came up with a valid reconstruction protocol. The micro-sensors were integrated into the Morphosense ribbon : this flexible ribbon instrumented with sensor knots according to a known geometry is at the core of a number of reconstruction algorithms for the curves followed by the ribbon. When lied on a physical surface, Morphosense ribbons then allow the acquisition and reconstruction of a network of curves on the surface, that are then used for the reconstruction of the entire surface. We first propose new algorithms for curve reconstruction thanks to the Morphosense ribbon. Those new methods now integrate the orientation informations provided by the sensors in their entirety, as well as the mechanical properties of the ribbon that force it to follow geodesic curves on a surface. From this point of view, the curve reconstruction can be considered optimal, as it integrates all the information embedded in the ribbons' structure. We then study a set of methods for the reconstruction of surfaces using a network of ribbon curves. Such a network generally leads to problems linked to the closure of the network and missing data estimation. The closure of the network is essentially a numerical problem related to differential constraints. The missing data corresponds to the lack of information on the surface outside the network of curves. In order to deal with these problems and propose practical solutions for the reconstruction, hypotheses either on the surface models or the topology of the network of curves are required. Therefore, the developed methods fall within the two following approaches.– On the one hand, reconstruction methods for developable and quasi-developable surfaces, which are a good approximation for the surfaces considered in numerous applications.– On the other hand, reconstruction methods from networks of curves with specific topologies (quasi-planar curves, open network) so as to deal with the closure problem.The set of methods developed in this work allow to formulate a global process for the reconstruction of surfaces, with flexible algorithms adapting to the different practical situations, so as to propose a solution both simple and precise in each case. The validation of our results in the case of real sensors data provided by the Morphosense ribbons also led us to develop metrological device. Finally, notice that the general context of reconstruction from orientation data studied here raises original theorical problems, to which we tried to answer with innovative solutions through interpolation and optimization algorithms
APA, Harvard, Vancouver, ISO, and other styles
31

Bechetoille, Soizik. "Reconstructions et restaurations des monuments en bois. Les techniques traditionnelles du Japon face aux enjeux de la modernisation, de la construction du sanctuaire de Heian à Kyōto (1894) à la reconstruction du pavillon de l'Ultime Suprême de l'ancien palais impérial de Nara (2010)." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEP072/document.

Full text
Abstract:
Cette recherche entend aborder la question de l’authenticité à travers les pratiques de restauration liées au patrimoine architectural au Japon avec pour principal objet d’étude, des bâtiments traditionnels en bois en cours de restauration. Une des particularités des techniques relatives à la transmission de l’architecture au Japon est certainement le démontage périodique des édifices. Cette impermanence constructive tire ses origines de conditions climatiques difficiles, de spécificités liées à l’architecture en bois, ou encore de pratiques religieuses ancestrales, comme la reconstruction périodique de certains sanctuaires shintō. Dans la notion de « reconstruction », il y a l’idée de bâtir « à nouveau » ce qui a été détruit, de rétablir, de reproduire, de redonner une forme primitive à une structure ou à un édifice à partir d’éléments fragmentaires (vestiges, sources épigraphiques, etc.). Cela suppose la mise en présence d’un objet nouveau – à la matérialité inédite – avec l’idée de refaire « une fois encore » quelque chose qui a, jadis, eu une existence. Cette définition nous invite à considérer la possible coexistence de différentes pratiques et différents niveaux de reconstruction. La « reconstruction - restitution » est souvent invoquée pour retrouver des savoir-faire manquants. Pour de nombreux spécialistes, la pratique de la restauration par désassemblage (et, par la suite, de la reconstruction) agirait comme une synthèse de techniques et de théories apparentées à l’architecture traditionnelle. L’objectif de cette recherche est d’étudier différents cas de bâtiments reconstruits et les pratiques qui les animent
This research addresses the issue of authenticity through restoration practices on Japanese architectural heritage and focuses mainly on traditional wooden buildings under restoration. One of the particularities of architectural practice in Japan is certainly the periodic dismantling of old buildings. The origins of this traditional practice stems from harsh climatic conditions, specificities related to wooden architecture, or ancient religious practices including the periodic reconstruction of some Shinto shrines. This “non-permanence” of buildings allows the transmission of forms and techniques through ages and time. With the concept of “reconstruction” comes the idea of building “once again” what was destroyed, as well as restoring, reproducing or restoring a primitive form, a structure or a building from fragmentary elements (vestiges, epigraphic sources, etc.). This presupposes the creation of a completely new object – with unprecedented materiality – that is triggered by the idea of making "once again" something that already existed. This definition of “reconstructing” invites us to consider a possible coexistence of different types of practices and standards of reconstruction. The act of “reconstruction - restitution” is often invoked to retrieve a missing “savoir-faire” (technical know-how). For many specialists, the practice of restoration by disassembling (prior to reconstructing) constitutes (or involves) the synthesis of techniques and theories related to traditional architecture. The aim of this research work is thus to study different cases of building reconstruction and type of practices that drive them
APA, Harvard, Vancouver, ISO, and other styles
32

Government, South African. "RDP white paper: discussion document." Government Printer, 1994. http://hdl.handle.net/10962/69419.

Full text
Abstract:
My Government’s commitment to create a people-centred society of liberty binds us to the pursuit of the goals of freedom from want, freedom from hunger, freedom from deprivation, freedom from ignorance, freedom from suppression and freedom from fear. These freedoms are fundamental to the guarantee of human dignity. They will therefore constitute part of the centrepiece of what this Government will seek to achieve, the focal point on which our attention will be continuously focused. The things we have said constitute the true meaning, the justification and the purpose of the Reconstruction and Development Programme, without which it would lose all legitimacy.
APA, Harvard, Vancouver, ISO, and other styles
33

Liu, Kun. "Multi-View Oriented 3D Data Processing." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0273/document.

Full text
Abstract:
Le raffinement de nuage de points et la reconstruction de surface sont deux problèmes fondamentaux dans le traitement de la géométrie. La plupart des méthodes existantes ont été ciblées sur les données de capteur de distance et se sont avérées être mal adaptées aux données multi-vues. Dans cette thèse, deux nouvelles méthodes sont proposées respectivement pour les deux problèmes avec une attention particulière aux données multi-vues. La première méthode permet de lisser les nuages de points provenant de la reconstruction multi-vue sans endommager les données. Le problème est formulé comme une optimisation non-linéaire sous contrainte et ensuite résolu par une série de problèmes d’optimisation sans contrainte au moyen d’une méthode de barrière. La seconde méthode effectue une triangulation du nuage de points d’entrée pour générer un maillage en utilisant une stratégie de l’avancement du front pilotée par un critère de l’empilement compact de sphères. L’algorithme est simple et permet de produire efficacement des maillages de haute qualité. Les expérimentations sur des données synthétiques et du monde réel démontrent la robustesse et l’efficacité des méthodes proposées. Notre méthodes sont adaptées aux applications qui nécessitent des informations de position précises et cohérentes telles que la photogrammétrie et le suivi des objets en vision par ordinateur
Point cloud refinement and surface reconstruction are two fundamental problems in geometry processing. Most of the existing methods have been targeted at range sensor data and turned out be ill-adapted to multi-view data. In this thesis, two novel methods are proposed respectively for the two problems with special attention to multi-view data. The first method smooths point clouds originating from multi-view reconstruction without impairing the data. The problem is formulated as a nonlinear constrained optimization and addressed as a series of unconstrained optimization problems by means of a barrier method. The second method triangulates point clouds into meshes using an advancing front strategy directed by a sphere packing criterion. The method is algorithmically simple and can produce high-quality meshes efficiently. The experiments on synthetic and real-world data have been conducted as well, which demonstrates the robustness and the efficiency of the methods. The developed methods are suitable for applications which require accurate and consistent position information such photogrammetry and tracking in computer vision
APA, Harvard, Vancouver, ISO, and other styles
34

Lojacono, Xavier. "Image reconstruction for Compton camera with application to hadrontherapy." Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0126/document.

Full text
Abstract:
La caméra Compton est un dispositif permettant d’imager les sources de rayonnement gamma. Ses avantages sont sa sensibilité (absence de collimateur mécanique) et la possibilité de reconstruire des images 3D avec un dispositif immobile. Elle également adaptée pour des sources à large spectre énergétique. Ce dispositif est un candidat prometteur en médecine nucléaire et en hadronthérapie. Ces travaux, financés par le projet européen ENVISION (European NoVel Imaging Systems for ION therapy) Coopération-FP7, portent sur le développement de méthodes de reconstruction d’images pour la caméra Compton pour la surveillance de la thérapie par ions. Celle-ci nécessite idéalement une reconstruction temps réel avec une précision millimétrique, même si le nombre de données acquises est relativement faible. Nous avons développé des méthodes analytiques et itératives. Leurs performances sont analysées dans le contexte d’acquisitions réalistes (géométrie de la caméra, nombre d’événements). Nous avons développé une méthode analytique de rétroprojection filtrée. Cette méthode est rapide mais nécessite beaucoup de données. Nous avons également développé des méthodes itératives utilisant un algorithme de maximisation de la fonction de vraisemblance. Nous avons proposé un modèle probabiliste pour l’estimation des éléments de la matrice système nécessaire à la reconstruction et nous avons développé différentes approches pour le calcul de ses éléments : l’une néglige les incertitudes de mesure sur l’énergie, l’autre les prend en compte en utilisant une distribution gaussienne. Nous avons étudié une méthode simplifiée utilisant notre modèle probabiliste. Plusieurs reconstructions sont menées à partir de données simulées, obtenues avec Geant4, mais provenant aussi de plusieurs prototypes simulés de caméra Compton proposés par l’Institut de Physique Nucléaire de Lyon (IPNL) et par le Centre de recherche de Dresde-Rossendorf en Allemagne. Les résultats sont prometteurs et des études plus poussées, à partir de données encore plus réalistes, viseront à les confirmer
The Compton camera is a device for imaging gamma radiation sources. The advantages of the system lie in its sensitivity, due to the absence of mechanical collimator, and the possibility of imaging wide energy spectrum sources. These advantages make it a promising candidate for application in hadrontherapy. Funded by the european project ENVISION, FP7-Cooperation Work Program, this work deals with the development of image reconstruction methods for the Compton camera. We developed both analytical and iterative methods in order to reconstruct the source from cone-surface projections. Their performances are analyzed with regards to the context (geometry of the camera, number of events). We developped an analytical method using a Filtered BackProjection (FBP) formulation. This method is fast but really sensitive to the noise. We have also developped iterative methods using a List Mode-Maximum Likelihood Expectation Maximization (LM-MLEM) algorithm. We proposed a new probabilistic model for the computation of the elements of the system matrix and different approaches for the calculation of these elements neglecting or not the measurement uncertainties. We also implemented a simplified method using the probabilistic model we proposed. The novelty of the method also lies on the specific discretization of the cone-surface projections. Several studies are carried out upon the reconstructions of simulated data worked out with Geant4, but also simulated data obtained from several prototypes of Compton cameras under study at the Institut de Physique Nucléaire de Lyon (IPNL) and at the Research Center of Dresden-Rossendorf. Results are promising, and further investigations on more realistic data are to be done
APA, Harvard, Vancouver, ISO, and other styles
35

Arnault, Anthony. "Reconstruction de champs aérodynamiques à partir de mesures ponctuelles." Thesis, Ecole centrale de Lille, 2016. http://www.theses.fr/2016ECLI0023/document.

Full text
Abstract:
Le suivi en temps réel des écoulements turbulents est une tâche difficile ayant des applications dans de nombreux domaines. Un exemple est la mesure des tourbillons de sillage au niveau des pistes d’aéroports afin d’optimiser la distance entre les avions en phase d’approche ou de décollage. Un autre exemple se rapporte au contrôle actif d’écoulements. De tels contrôles peuvent servir à réduire le bruit des avions... Cette thèse vise à développer des outils afin d’estimer en temps réel des champs de vitesse d’écoulements turbulents à partir d’un faible nombre de mesures ponctuelles. Après une étude bibliographique centrée sur une méthode de reconstruction populaire, l’estimation stochastique (SE), ses performances sont évaluées pour la prédiction de champs de vitesse issus d’écoulements de complexité croissante. La précision des estimations obtenues étant très faibles dans certains cas, une analyse précise de la méthode est effectuée. Celle-ci a montré l’effet filtrant de la SE sur le contenu spatial et temporel des champs de vitesse. De plus, le fort impact de la position des capteurs a été mis en avant. C’est pourquoi un algorithme d’optimisation de la position des capteurs est ensuite présenté. Bien que l’optimisation de la position des capteurs mène à une amélioration de la précision des prédictions obtenues par SE, elle reste néanmoins très faible pour certains cas tests. L’utilisation d’une technique issue du domaine de l’assimilation de données, le filtre de Kalman qui combine un modèle dynamique de l’écoulement avec les mesures, a donc été étudiée. Pour certains écoulements, le filtre de Kalman permet d’obtenir des prédictions plus précises que la SE
Real time monitoring of turbulent flows is a challenging task that concerns a large range of applications. Evaluating wake vortices around the approach runway of an airport, in order to optimize the distance between lined-up aircraft, is an example. Another one touches to the broad subject of active flow control. In aerodynamic, control of detached flows is an essential issue. Such a control can serve to reduce noise produced by airplanes, or improve their aerodynamic performances. This work aims at developing tools to produce real time prediction of turbulent velocity fields from a small number of punctual sensors. After a literature review focused on a popular reconstruction method in fluid mechanics, the Stochastic Estimation (SE), the first step was to evaluate its overall prediction performances on several turbulent flows of gradual complexity. The accuracy of the SE being very limited in some cases, a deeper characterization of the method was performed. The filtering effect of the SE in terms of spatial and temporal content was particularly highlighted. This characterization pointed out the strong influence of the sensor locations on the estimation quality. Therefore, a sensor location optimization algorithm was proposed and extended to the choice of time delays when using Multi-Time-Delay SE. While using optimized locations for the sensors hold some accuracy improvements, they were still insufficient for some test cases. The opportunity to use a data assimilation method, the Kalman filter that combines a dynamic model of the flow with sensor information, was investigated. For some cases, the results were promising and the Kalman filter outperforms all SE methods
APA, Harvard, Vancouver, ISO, and other styles
36

Singh, Inderjeet. "Curve based approach for shape reconstruction of continuum manipulators." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I042/document.

Full text
Abstract:
Ce travail de thèse propose une nouvelle méthode de modélisation et de reconstruction de la forme d’une classe de manipulateurs continuum, basée sur la géométrie des courbes. Les Hodographes Pythagoriens (courbes HP) sont utilisées pour reconstruire des formes optimales pour ce type de robots, par une optimisation des énergies potentielles de flexion et de torsion. Cette méthode nous permis de déduire la cinématique optimale des bras manipulateurs continuum. La validation de la méthode proposée a été réalisée sur le robot dit trompe d’éléphant ‘Compact Bionic Handling Assistant (CBHA)’. Une calibration a été réalisée sur la méthode de reconstruction afin d’améliorer les performances en terme de précision et de prendre en considération les incertitudes dues à la structure du bras manipulateur. La méthode proposée est également testée dans le cas de la préhension, en s’appuyant sur une approche qualitative à base de réseaux de neurones. De plus, l'approche HP est étendue à la modélisation des structures de robots hétérogènes avec plusieurs sections. Ce dernier a été validé pour une chaîne cinématique fermée, composée de deux manipulateurs CBHA, manipulant conjointement une corde flexible
This work provides a new methodology to reconstruct the shape of continuum manipulators using a curve based approach. Pythagorean Hodograph (PH) curves are used to reconstruct the optimal shape of continuum manipulators using minimum potential energy (bending and twisting energy) criteria. This methodology allows us to obtain the optimal kinematics of continuum manipulators. The models are applied to a continuum manipulator, namely, the Compact Bionic Handling Assistant (CBHA) for experimental validation under free load manipulation. The calibration of the PH-based shape reconstruction methodology is performed to improve its accuracy to accommodate the uncertainties due to the structure of the manipulator. The proposed method is also tested under the loaded manipulation after combining it with a qualitative Neural Network approach. Furthermore, the PH-based methodology is extended to model multi-section heterogeneous bodies. This model is experimentally validated for a closed loop kinematic chain formed using two CBHA manipulating jointly a rope
APA, Harvard, Vancouver, ISO, and other styles
37

Zhang, Miaomiao. "Fourier-based reconstruction of ultrafast sectorial images in ultrasound." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI144/document.

Full text
Abstract:
L'échocardiographie est une modalité d'imagerie sûre, non-invasive, qui est utilisée pour évaluer la fonction et l'anatomie cardiaque en routine clinique. Mais la cadence maximale d’imagerie atteinte est limitée en raison de la vitesse limitée du son. Afin d’augmenter la fréquence d'image, l'utilisation d’ondes planes ou d’ondes divergentes en transmissinon a été proposée afin de réduire le nombre de tirs nécessaires à la reconstruction d'une image. L'objectif de cette thèse consiste à développer un procédé d'imagerie par ultrasons ultra-rapide en échocardiographie 2/3D basé sur une insonification par ondes divergentes et réalisant une reconstruction dans le domaine de Fourier. Les contributions principales obtenues au cours de la thèse sont décrites ci-dessous. La première contribution de cette thèse concerne un schéma de transmission dichotomique pour l'acquisition linéaire en analysant mathématiquement la pression générée. Nous avons ensuite montré que ce système de transmission peut améliorer la qualité des images reconstruites pour une cadence constante en utilisant les algorithmes de reconstruction conventionnels. La qualité des images reconstruites a été évaluée en termes de résolution et de contraste au moyen de simulations et acquisitions expérimentales réalisées sur des fantômes. La deuxième contribution concerne le développement d'une nouvelle méthode d'imagerie 2D en ondes plane opérant dans le domaine de Fourier et basée sur le théorème de la coupe centrale. Les résultats que nous avons obtenus montrent que l'approche proposée fournit des résultats très proches de ceux fournit par les méthodes classiques en termes de résolution latérale et contraste de l'image. La troisième contribution concerne le développement d'une transformation spatiale explicite permettant d'étendre les méthodes 2D opérant dans le domaine de Fourier d'une acquisition en géométrie linéaire avec des ondes planes à la géométrie sectorielle avec des ondes divergente en transmission. Les résultats que nous avons obtenus à partir de simulations et d'acquisitions expérimentales in vivo montrent que l'application de cette extension à la méthode de Lu permet d'obtenir la même qualité d’image que la méthode spatiale de Papadacci basée sur des ondes divergentes, mais avec une complexité de calcul plus faible. Finalement, la formulation proposée en 2D pour les méthodes ultra-rapides opérant dans le domaine de Fourier ont été étendues en 3D. L'approche proposée donne des résultats compétitifs associés à une complexité de calcul beaucoup plus faible par rapport à la technique de retard et somme conventionnelle
Three-dimensional echocardiography is one of the most widely used modality in real time heart imaging thanks to its noninvasive and low cost. However, the real-time property is limited because of the limited speed of sound. To increase the frame rate, plane wave and diverging wave in transmission have been proposed to drastically reduce the number of transmissions to reconstruct one image. In this thesis, starting with the 2D plane wave imaging methods, the reconstruction of 2D/3D echocardiographic sequences in Fourier domain using diverging waves is addressed. The main contributions are as follows: The first contribution concerns the study of the influence of transmission scheme in the context of 2D plane wave imaging. A dichotomous transmission scheme was proposed. Results show that the proposed scheme allows the improvement of the quality of the reconstructed B-mode images at a constant frame rate. Then we proposed an alternative Fourier-based plane wave imaging method (i.e. Ultrasound Fourier Slice Beamforming). The proposed method was assessed using numerical simulations and experiments. Results revealed that the method produces very competitive image quality compared to the state-of-the-art methods. The third contribution concerns the extension of Fourier-based plane wave imaging methods to sectorial imaging in 2D. We derived an explicit spatial transformation which allows the extension of the current Fourier-based plane wave imaging techniques to the reconstruction of sectorial scan using diverging waves. Results obtained from simulations and experiments show that the derived methods produce competitive results with lower computational complexity when compared to the conventional delay and sum (DAS) technique. Finally, the 2D Fourier-based diverging wave imaging methods are extended to 3D. Numerical simulations were performed to evaluate the proposed method. Results show that the proposed approach provides competitive scores in terms of image quality compared to the DAS technique, but with a much lower computational complexity
APA, Harvard, Vancouver, ISO, and other styles
38

Huynh, Minh Duc. "Reconstruction Volumique de Résultats de Simulation à Base Chimère." Thesis, Pau, 2012. http://www.theses.fr/2012PAUU3051/document.

Full text
Abstract:
La simulation numérique des écoulements est une étape essentielle de la conception des turbines à gaz équipant les hélicoptères. La recherche permanente de la performance a conduit à des géométries de turbines très complexes et il devient de plus en plus difficile de modéliser des grilles de simulation qui épousent parfaitement la CAO des moteurs. La technique chimère permet de s’affranchir des contraintes de recollement parfait des différentes grilles en autorisant leur chevauchement. Cependant elle soulève de nouveaux problèmes lors de la phase de post-traitement, lorsqu’il s’agit d’exploiter les résultats de simulation afin de faire de nouveaux calculs ou de les visualiser, parce que les outils usuels ne sont pas adaptés à ces configurations particulières. Dans le cadre des deux premiers projets du programme MOSART du pôle de compétitivité Aerospace Valley, respectivement MACAO et OSMOSES, nous avons travaillé en collaboration avec l’entreprise Turbomeca à la conception d’une méthode de reconstruction volumique afin de traiter les résultats de simulations à base chimère. Nous avons ainsi proposé une méthode innovante permettant de reconstruire une partition de l’espace de simulation exempte de chevauchement entre grilles. La nouvelle partition conserve le maximum de propriétés des grilles d’origine et assure en tout point la conformité aux bords. La complexité théorique est linéaire avec la taille des grilles d’origine et nous permet d’obtenir des temps de traitement de l’ordre de la seconde pour des grilles de plusieurs centaines de milliers de mailles. Le principal intérêt de ce travail est de rendre exploitables les résultats de simulations à base chimère par les outils de post-traitement, qu’il s’agisse d’outils maison ou des nombreux logiciels commerciaux ou OpenSource disponibles, condition indispensable pour l’adoption de la méthode chimère par les bureaux d’études
Computationnal fluid dynamics is an essential step in gas turbine modelling. Continuous optimization of turbines has led to sophisticated geometries, which raises severe issues for the design of adapted simulation grids. The chimera technique aims at relaxing geometry matching constraints by allowing grids overlap. However, post-processing of simulation results performed over chimera grids raises new issues because usual tools are not tuned for this particular geometricconfigurations. In the framework of the MOSART programme of the world competitiveness cluster Aerospace Valley, we have been working in collaboration with Turbomeca in order to develop a technique for the volumetric reconstruction of chimerasimulation results. We propose an innovative method that allows us to build a collection of non-overlapping grids while preserving the main properties of the former simulation grids and featuring boundary conforming property everywhere.The theorical complexity of our algorithms has proved to be linear in the size of the former grids and leads to computation times of a few seconds for grids of hundreds of thousands of cells. The main impact of this work leads in the possibility of using any post-processing tool, including a large number of OpenSource solutions, for post-processing chimera simulation results, which is a mandatory condition for the wide acceptance of this method by industry actors
APA, Harvard, Vancouver, ISO, and other styles
39

Recur, Benoît. "Précision et qualité en reconstruction tomographique : algorithmes et applications." Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14113/document.

Full text
Abstract:
Il existe un grand nombre de modalités permettant l'acquisition d'un objet de manière non destructrice (Scanner à Rayons X, micro-scanner, Ondes Térahertz, Microscopie Électronique de Transmission, etc). Ces outils acquièrent un ensemble de projections autour de l'objet et une étape de reconstruction aboutit à une représentation de l'espace acquis. La principale limitation de ces méthodes est qu'elles s'appuient sur une modélisation continue de l'espace alors qu'elles sont exploitées dans un domaine fini. L'étape de discrétisation qui en résulte est une source d'erreurs sur les images produites. De plus, la phase d'acquisition ne s'effectue pas de manière idéale et peut donc être entachée d'artéfacts et de bruits. Un grand nombre de méthodes, directes ou itératives, ont été développées pour tenter de réduire les erreurs et reproduire une image la plus représentative possible de la réalité. Un panorama de ces reconstructions est proposé ici et est coloré par une étude de la qualité, de la précision et de la résistances aux bruits d'acquisition.Puisque la discrétisation constitue l'une des principales limitations, nous cherchons ensuite à adapter des méthodes discrètes pour la reconstruction de données réelles. Ces méthodes sont exactes dans un domaine fini mais ne sont pas adaptées à une acquisition réelle, notamment à cause de leur sensibilité aux erreurs. Nous proposons donc un lien entre les deux mondes et développons de nouvelles méthodes discrètes plus robustes aux bruits. Enfin, nous nous intéressons au problème des données manquantes, i.e. lorsque l'acquisition n'est pas uniforme autour de l'objet, à l'origine de déformations dans les images reconstruites. Comme les méthodes discrètes sont insensibles à cet effet nous proposons une amorce de solution utilisant les outils développés dans nos travaux
A large kind of methods are available now to acquire an object in a non-destructive way (X-Ray scanner, micro-scanner, Tera-hertz waves, Transmission Electron Microscopy, etc). These tools acquire a projection set around the object and a reconstruction step leads to a representation of the acquired domain. The main limitation of these methods is that they rely on a continuous domain modeling wheareas they compute in a finite domain. The resulting discretization step sparks off errors in obtained images. Moreover, the acquisition step is not performed ideally and may be corrupted by artifacts and noises. Many direct or iterative methods have been developped to try to reduce errors and to give a better representative image of reality. An overview of these reconstructions is proposed and it is enriched with a study on quality, precision and noise robustness.\\Since the discretization is one of the major limitations, we try to adjust discrete methods for the reconstruction of real data. These methods are accurate in a finite domain but are not suitable for real acquisition, especially because of their error sensitivity. Therefore, we propose a link between the two worlds and we develop new discrete and noise robust methods. Finally, we are interesting in the missing data problem, i.e. when the acquisition is not uniform around the object, giving deformations into reconstructed images. Since discrete reconstructions are insensitive to this effect, we propose a primer solution using the tools developed previously
APA, Harvard, Vancouver, ISO, and other styles
40

Loira, Nicolas. "Scaffold-based reconstruction method of genome-scale metabolic models." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14484/document.

Full text
Abstract:
La compréhension des organismes vivant a été une quête pendant longtemps. Depuisles premiers progrès des derniers siècles, nous sommes arrivés jusqu’au point où desquantités massives de données et d’information sont constamment générées. Bien que,jusqu’au présent la plupart du travail a été concentré sur la génération d’un catalogued’éléments biologiques, ce n’est pas que récemment qu’un effort coordonné pour découvrirles réseaux de relations entre ces parties a été constaté. Nous nous sommes intéressésà comprendre non pas seulement ces réseaux, mais aussi la façon dont, à partir de sesconnexions, émergent des fonctions biologiques.Ce travail se concentre sur la modélisation et l’exploitation d’un de ces réseaux :le métabolisme. Un réseau métabolique est un ensemble des réactions biochimiquesinterconnectées qui se produisent à l’intérieur, ou dans les proximité d’une cellulevivante. Une nouvelle méthode de découverte, ou de reconstruction des réseaux métaboliquesest proposée dans ce travail, avec une emphase particulière sur les organismeseucaryotes.Cette nouvelle méthode est divisée en deux parties : une nouvelle approche pour lamodélisation de la reconstruction basée sur l’instanciation des éléments d’un modèlesquelette existant, et une nouvelle méthode de réécriture d’association des gènes. Cetteméthode en deux parties permet des reconstructions qui vont au-delà de la capacitédes méthodes de l’état de l’art, permettant la reconstruction de modèles métaboliquesdes organismes eucaryotes, et fournissant une relation détaillée entre ses réactions etses gènes, des connaissances cruciales pour des applications biotechnologiques.Les méthodes de reconstruction développées dans ce travail, ont été complétéespar un workflow itératif d’édition, de vérification et d’amélioration du modèle. Ceworkflow a été implémenté dans un logiciel, appelé Pathtastic.Comme une étude de cas de la méthode développée et implémentée dans le présenttravail, le réseau métabolique de la levure oléagineuse Yarrowia lipolytica, connucomme contaminant alimentaire et utilisé pour la biorestauration et comme usinecellulaire, a été reconstruit. Une version préliminaire du modèle a été générée avecPathtastic, laquelle a été améliorée par curation manuelle, à travers d’un travail avecdes spécialistes dans le domaine de cette espèce. Les données expérimentales, obtenuesà partir de la littérature, ont été utilisées pour évaluer la qualité du modèle produit.La méthode de reconstruction chez les eucaryotes, et le modèle reconstruit deY. lipolytica peuvent être utiles pour les communautés scientifiques respectives, lepremier comme un pas vers une meilleure reconstruction automatique des réseauxmétaboliques, et le deuxième comme un soutien à la recherche, un outil pour desapplications biotechnologiques et comme un étalon-or pour les reconstructions futures
Understanding living organisms has been a quest for a long time. Since the advancesof the last centuries, we have arrived to a point where massive quantities of data andinformation are constantly generated. Even though most of the work so far has focusedon generating a parts catalog of biological elements, only recently have we seena coordinated effort to discover the networks of relationships between those parts. Notonly are we trying to understand these networks, but also the way in which, from theirconnections, emerge biological functions.This work focuses on the modeling and exploitation of one of those networks:metabolism. A metabolic network is a net of interconnected biochemical reactionsthat occur inside, or in the proximity of, a living cell. A new method of discovery, orreconstruction, of metabolic networks is proposed in this work, with special emphasison eukaryote organisms.This new method is divided in two parts: a novel approach to reconstruct metabolicmodels, based on instantiation of elements of an existing scaffold model, and a novelmethod of assigning gene associations to reactions. This two-parts method allows reconstructionsthat are beyond the capacity of the state-of-the-art methods, enablingthe reconstruction of metabolic models of eukaryotes, and providing a detailed relationshipbetween its reactions and genes, knowledge that is crucial for biotechnologicalapplications.The reconstruction methods developed for the present work were complementedwith an iterative workflow of model edition, verification and improvement. This workflowwas implemented as a software package, called Pathtastic.As a case study of the method developed and implemented in the present work,we reconstructed the metabolic network of the oleaginous yeast Yarrowia lipolytica,known as food contaminant and used for bioremediation and as a cell factory. A draftversion of the model was generated using Pathtastic, and further improved by manualcuration, working closely with specialists in that species. Experimental data, obtainedfrom the literature, were used to assess the quality of the produced model.Both, the method of reconstruction in eukaryotes, and the reconstructed model ofY. lipolytica can be useful for their respective research communities, the former as astep towards better automatic reconstructions of metabolic networks, and the latteras a support for research, a tool in biotechnological applications and a gold standardfor future reconstructions
APA, Harvard, Vancouver, ISO, and other styles
41

Semeria, Magali. "Évolution de l’architecture des génomes : modélisation et reconstruction phylogénétique." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10280/document.

Full text
Abstract:
L'évolution des génomes peut être observée à plusieurs échelles, chaque échelle révélant des processus évolutifs différents. A l'échelle de séquences ADN, il s'agit d'insertions, délétions et substitutions de nucléotides. Si l'on s'intéresse aux gènes composant les génomes, il s'agit de duplications, pertes et transferts horizontaux de gènes. Et à plus large échelle, on observe des réarrangements chromosomiques modifiant l'agencement des gènes sur les chromosomes. Reconstruire l'histoire évolutive des génomes implique donc de comprendre et de modéliser tous les processus à l'œuvre, ce qui reste hors de notre portée. A la place, les efforts de modélisation ont exploré deux directions principales. D'un côté, les méthodes de reconstruction phylogénétique se sont concentrées sur l'évolution des séquences, certaines intégrant l'évolution des familles de gènes. D'un autre côté, les réarrangements chromosomiques ont été très largement étudiés, donnant naissance à de nombreux modèles d'évolution de l'architecture des génomes. Ces deux voies de modélisation se sont rarement rencontrées jusqu'à récemment. Au cours de ma thèse, j'ai développé un modèle d'évolution de l'architecture des génomes prenant en compte l'évolution des gènes et des séquences. Ce modèle rend possible une reconstruction probabiliste de l'histoire évolutive d'adjacences et de l'ordre des gènes de génomes ancestraux en tenant compte à la fois d'évènements modifiant le contenu en gènes des génomes (duplications et pertes de gènes), et d'évènements modifiant l'architecture des génomes (les réarrangements chromosomiques). Intégrer l'information phylogénétique à la reconstruction d'ordres des gènes permet de reconstruire des histoires évolutives plus complètes. Inversement, la reconstruction d'ordres des gènes ancestraux peut aussi apporter une information complémentaire à la phylogénie et peut être utilisée comme un critère pour évaluer la qualité d'arbres de gènes, ouvrant la voie à un modèle et une reconstruction intégrative
Genomes evolve through processes that modify their content and organization at different scales, ranging from the substitution, insertion or deletion of a single nucleotide to the duplication, loss or transfer of a gene and to large scale chromosomal rearrangements. Extant genomes are the result of a combination of many such processes, which makes it difficult to reconstruct the overall picture of genome evolution. As a result, most models and methods focus on one scale and use only one kind of data, such as gene orders or sequence alignments. Most phylogenetic reconstruction methods focus on the evolution of sequences. Recently, some of these methods have been extended to integrate gene family evolution. Chromosomal rearrangements have also been extensively studied, leading to the development of many models for the evolution of the architecture of genomes. These two ways to model genome evolution have not exchanged much so far, mainly because of computational issues. In this thesis, I present a new model of evolution for the architecture of genomes that accounts for the evolution of gene families. With this model, one can reconstruct the evolutionary history of gene adjacencies and gene order accounting for events that modify the gene content of genomes (duplications and losses of genes) and for events that modify the architecture of genomes (chromosomal rearrangements). Integrating these two types of information in a single model yields more accurate evolutionary histories. Moreover, we show that reconstructing ancestral gene orders can provide feedback on the quality of gene trees thus paving the way for an integrative model and reconstruction method
APA, Harvard, Vancouver, ISO, and other styles
42

Nguyễn, Hoàng Hà. "Automatic reconstruction of realistic road networks from GIS data." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4007/document.

Full text
Abstract:
La reconstruction de routes est un sujet important dans le domaine de la modélisation 3D. Nous proposons dans cette thèse des méthodes pour construire des modèles de réseaux routiers réalistes à partir de données SIG.Tout d'abord, les problèmes de la reconstruction d'un simple axe de route à partir d'une polyligne sont étudiés. Nous présentons un modèle de courbe par morceaux G1 qui est non seulement fidèle à l'axe de la route réelle mais aussi pratique et pas onéreux à obtenir. Notre algorithme Least Square Growing crée, comme dans le génie civil, une courbe horizontale et une courbe verticale, puis les combine pour produire un axe routier 3D approchant la polyligne. Traiter individuellement des polylignes conduit à des discontinuités aux intersections des routes. C’est pourquoi nous introduisons une procédure pour détecter les relations entre les routes, afin de proposer un processus global pour reconstruire tous les axes routiers avec prenant en compte les nouvelles contraintes sur les extrémités des routes.Enfin, sur la base de l'axe de la route et les propriétés résultant de la route dans la base de données SIG, nous définissons un modèle mathématique de la surface de la route en respectant les contraintes essentielles de surfaces routières réelles. Pour produire une géométrie représentant la surface de la route finale, nous construisons un maillage grossier de la carte d'élévation du terrain d'entrée, que nous subdivisons adaptativement le long de l'axe de la route, puis ajustons l'altitude des sommets concernés à la valeur définie par le modèle mathématique de la route afin de parvenir à une correspondance correcte entre le terrain et la vraie route
Road reconstruction is an important topic in 3D modeling. Recently, the steady development of many critical-accurate applications has posed a high demand for realistic road models, taking into account road-design constraints selected from civil engineering. We propose in this dissertation methods for building realistic road network models from GIS data.Firstly, problems of single road axis reconstruction from a polyline are addressed. We present a novel G1-piecewise-curve model which is not only faithful to the real road axis but also convenient and cheap to render. Our Least Square Growing Algorithm creates, as in civil engineering, an horizontal and a vertical curves, then combines them to produce a 3D road axis fitting well the polyline. Processing individual polyline will leads to the discontinuities at road intersections so we introduce a procedure to detect road relations, then we propose a global process to reconstruct all road axes with the considerations on further constraints of road ends.Finally, based upon the resulting road axis and road properties in the GIS database, we define a mathematical road surface model respecting the essential constraints of real road surfaces. To produce a geometry representing the final road surface, we build a coarse mesh from the input terrain highmap, subdivide it adaptively along the road axis, then adjust the altitude of concerning vertices to the value defined by the mathematical model in order to attain a correct mapping between the terrain and the real road
APA, Harvard, Vancouver, ISO, and other styles
43

Salaün, Yohann. "Reconstruction 3D de scènes d'intérieurs à partir de photographies." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1186/document.

Full text
Abstract:
Les méthodes actuelles de photogrammétrie permettent de reconstruire en 3D de nombreux objets et/ou scènes à partir de leurs photographies. Pour ce faire, les méthodes classiques détectent des points saillants dans les images et les mettent en correspondance entre plusieurs images. Ces correspondances permettent d'obtenir une information de calibration entre les différentes positions d'où la scène a été photographiée. Une fois ces positions déterminées, il est alors possible d'obtenir une reconstruction dense de la scène en triangulant les parties de la scène vues dans plusieurs images. La détection et la mise en correspondance de points saillants jouent un rôle crucial dans le procédé de reconstruction 3D. C'est pourquoi certaines scènes ou objets sont encore difficiles à reconstruire à partir de méthode de photogrammétrie. C'est notamment le cas des scènes d'intérieur, souvent constituées de larges pans de mur peu texturés où la détection et la mise en correspondance de points sont souvent défaillantes. De plus, la très grande présence de motifs planaires, cas dégénérés des méthodes de calibration usuelles, rend ces scènes très difficiles à calibrer. Dans cette thèse, nous nous intéressons à l'utilisation de segments pour compenser la faible efficacité des points dans le cas des scènes d'intérieur. Dans un premier temps, nous introduisons une méthode de détection de segments plus robuste au manque de contraste des scènes d'intérieur. C'est une méthode multi-échelle qui permet également d'obtenir d'aussi bons résultats quelle que soit la résolution de l'image utilisée. Nous utilisons pour cela des critères inspirés des méthodes emph{a contrario} pour éviter l'utilisation de nombreux paramètres. Nous présentons ensuite une méthode de calibration bifocale utilisant à la fois les segments et les points pour obtenir une méthode robuste au manque de texture et à la planarité de la scène tout en conservant la précision des méthodes de points. Nous introduisons alors une variante du RANSAC emph{a contrario} pour déterminer lorsqu'il vaut mieux utiliser les segments plutôt que les points pour calibrer. Enfin, pour compenser le manque de recouvrement entre photographies dans le cadre des scènes d'intérieur, nous introduisons une méthode de calibration multi-vue utilisant des contraintes de coplanarité entre segments sans avoir besoin de contraintes trifocales. Nous expliquons enfin comment modifier les contraintes trifocales usuelles pour les ajouter aux contraintes de coplanarité et ainsi obtenir une méthode plus robuste mais aussi précise que les méthodes usuelles
The 3D reconstruction of many objects and/or scenes from their photographies is made possible by current photogrammetry methods. To do so, usual methods detect salient points in every pictures and then match them between each pictures. These matches then give information on the position of every camera that took a picture of the scene. Once these positions are obtained, a dense reconstruction of the scene can be obtained by triangulating the parts seen in different pictures. Point detection and matching are crucial parts of these 3D reconstruction methods. That is why some scenes or objects are still hard to reconstruct in 3D with photogrammetry methods. Indoor scenes belong to these difficult cases, with their lack of texture that causes point detection and matching to give poor results. Moreover, the planarity of these scenes is a degenerate case for usual calibration methods. Combined, these drawbacks explain the difficulty to calibrate such scenes. In this thesis, we explain how to use segments to compensate for the lack of robustness of point methods in the case of indoor scenes. First, we introduce a segment detection method that is more robust to the lack of contrast in indoor scenes. This multi-scale method also gives good results whatever the image resolution is. We use criterion inspired from emph{a contrario} methods to avoid usage of several parameters. We then present a bifocal calibration method that uses both line segments and points. Segments allow the method to still work in low-texture and/or planar scenes and points allow the method to be as accurate as other point methods. To do so, we introduce an emph{a contrario} RANSAC variant to choose, for each scene, whether points or line segments should be used for calibration. Finally, to deal with the lack of overlap between consecutive pictures in indoor scenes, we introduce a multi-view calibration method that uses coplanarity constraints between segments when there are no trifocal constraints. We explain how to modify usual trifocal constraints to combine them with coplanarity constrains in order to obtain a method as accurate as usual methods but more robust in wide-baseline scenes
APA, Harvard, Vancouver, ISO, and other styles
44

Cura, Rémi. "Inverse procedural Street Modelling : from interactive to automatic reconstruction." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1034/document.

Full text
Abstract:
La population mondiale augmente rapidement, et avec elle, le nombre de citadins, ce qui rend d'autant plus importantes la planification et la gestion des villes.La gestion "intelligente" de ces villes et les nombreuses applications (gestion, tourisme virtuel, simulation de trafic, etc.) nécessitent plus de données réunies dans des modèles virtuels de villes.En milieu urbain, les rues et routes sont essentielles par leur rôle d'interface entre les espaces publics et privés, et entre ces différents usages.Il est difficile de modéliser les rues (ou de les reconstruire virtuellement) car celles-ci sont très diverses (de par leur forme, fonction, morphologie), et contiennent des objets très divers (mobilier, marquages, panneaux).Ce travail de thèse propose une méthode (semi-) automatique pour reconstruire des rues en utilisant le paradigme de la modélisation procédurale inverse dont le principe est de générer un modèle procéduralement, puis de l'adapter à des observations de la réalité.Notre méthode génère un premier modèle approximatif - à partir de très peu d'informations (un réseau d'axes routiers + attributs associés) - assez largement disponible.Ce modèle est ensuite adapté à des observations de façon interactive (interaction en base compatible avec les logiciels SIG communs) et (semi-) automatique (optimisation).L'adaptation (semi-) automatique déforme le modèle de route de façon à ce qu'il corresponde à des observations (bords de trottoir, objets urbains) extraites d'images et de nuages de points.La génération (StreetGen) et l'édition interactive se font dans un serveur de base de données ; de même que la gestion des milliards de points Lidar (Point Cloud Server).La génération de toutes les rues de la ville de Paris prends quelques minutes, l'édition multi-utilisateurs est interactive (<0.3 s). Les premiers résultats de l'adaptation (semi-) automatique (qq minute) sont prometteurs (la distance moyenne à la vérité terrain passe de 2.0 m à 0.5 m).Cette méthode, combinée avec d'autres telles que la reconstruction de bâtiment, de végétation, etc., pourrait permettre rapidement et semi automatiquement la création de modèles précis et à jour de ville
World urban population is growing fast, and so are cities, inducing an urgent need for city planning and management.Increasing amounts of data are required as cities are becoming larger, "Smarter", and as more related applications necessitate those data (planning, virtual tourism, traffic simulation, etc.).Data related to cities then become larger and are integrated into more complex city model.Roads and streets are an essential part of the city, being the interface between public and private space, and between urban usages.Modelling streets (or street reconstruction) is difficult because streets can be very different from each other (in layout, functions, morphology) and contain widely varying urban features (furniture, markings, traffic signs), at different scales.In this thesis, we propose an automatic and semi-automatic framework to model and reconstruct streets using the inverse procedural modelling paradigm.The main guiding principle is to generate a procedural generic model and then to adapt it to reality using observations.In our framework, a "best guess" road model is first generated from very little information (road axis network and associated attributes), that is available in most of national databases.This road model is then fitted to observations by combining in-base interactive user edition (using common GIS software as graphical interface) with semi-automated optimisation.The optimisation approach adapts the road model so it fits observations of urban features extracted from diverse sensing data.Both street generation (StreetGen) and interactions happen in a database server, as well as the management of large amount of street Lidar data (sensing data) as the observations using a Point Cloud Server.We test our methods on the entire Paris city, whose streets are generated in a few minutes, can be edited interactively (<0.3 s) by several concurrent users.Automatic fitting (few m) shows promising results (average distance to ground truth reduced from 2.0 m to 0.5m).In the future, this method could be mixed with others dedicated to reconstruction of buildings, vegetation, etc., so an affordable, precise, and up to date City model can be obtained quickly and semi-automatically.This will also allow to such models to be used in other application areas.Indeed, the possibility to have common, more generic, city models is an important challenge given the cost an complexity of their construction
APA, Harvard, Vancouver, ISO, and other styles
45

Chauraud, Dimitri. "Influence des contraintes sur la reconstruction de l'Au (111)." Thesis, Poitiers, 2019. http://www.theses.fr/2019POIT2295/document.

Full text
Abstract:
L’évolution de la reconstruction de surface de l’Au(111) sous contrainte-déformation a été étudiée dans le cadre d’une approche, à la fois expérimentale par microscopie à effet tunnel sous environnement ultra-vide couplée à un dispositif en compression, et numériquement par simulations en dynamique moléculaire. Dans un premier temps, nous avons étudié l’interaction entre les marches atomiques (vicinales ou traces de glissement) et la reconstruction. Nous avons notamment montré expérimentalement une forte dépendance de la longueur de la reconstruction avec la largeur des terrasses, en très bon accord avec les simulations atomistiques. Nous avons démontré de manière quantitative que ce comportement provenait de la relaxation des contraintes de surface, à la fois le long et perpendiculairement aux marches atomiques. Par la suite, nous avons montré que l’apparition d’une trace de glissement, résultant de l’émergence d’une dislocation à la surface, induit une réorganisation de la reconstruction, caractérisée par la formation d’un motif en forme de U. Nous avons par ailleurs observé expérimentalement la présence de décrochements le long de la trace. Les simulations ont confirmé que ces décrochements étaient corrélés avec la modification de la reconstruction. Dans un second temps, l’étude s’est axée sur l’évolution de la reconstruction en chevrons sous contrainte-déformation appliquée. Les observations expérimentales ont montré qu’une contrainte de compression macroscopique était à l’origine d’une modification de la structure en chevrons. Les simulations en dynamique moléculaire ont permis d’analyser l’influence de l’orientation de la contrainte sur les dislocations perçant la surface. Nous avons montré qu’une réorganisation irréversible de la structure en chevrons a lieu, se caractérisant par l’annihilation des dislocations perçant la surface et la suppression de la structure en chevrons
The evolution of the surface reconstruction of the Au(111) under stress-strain has been studied in the context of an experimental approach, both by tunneling microscopy under ultra-vacuum environment coupled to a compression device, and numerically by molecular dynamics simulations. At first, we studied the interaction between atomic steps (vicinal or slip traces) and reconstruction. In particular, we showed experimentally a strong dependence of the length of the reconstruction with the width of the terraces, in very good agreement with the atomistic simulations. We have quantitatively demonstrated that this behavior is originated from the release of surface stress, both along and perpendicular to the atomic steps. Subsequently, we have shown that the appearance of a slip traces, resulting from the emergence of dislocations at the surface, induce a reorganization of the reconstruction, characterized by the formation of a U-shaped pattern. We also observed experimentally the presence of kinks along the trace. The simulations confirmed that these kinks are correlated with the modification of the reconstruction. At last, the study focused on the evolution of the chevron pattern under applied stress-strain. Experimental observations have shown that a macroscopic compressive strain involved a modification of the herringbone structure. Molecular dynamics simulations allowed to analyze the influence of stress orientation on surface threading dislocations. We have shown that an irreversible reorganisation of the herringbone structure takes place, characterized by the annihilation of the surface threading dislocations and the removal of the herringbone structure
APA, Harvard, Vancouver, ISO, and other styles
46

Agaltsov, Alexey. "Reconstruction methods for inverse problems for Helmholtz-type equations." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX099/document.

Full text
Abstract:
La présente thèse est consacrée à l'étude de quelques problèmes inverses pour l'équation de Helmholtz jauge-covariante, dont des cas particuliers comprennent l'équation de Schrödinger pour une particule élémentaire chargée dans un champ magnétique et l'équation d'onde harmonique en temps qui décrive des ondes acoustiques dans un fluide en écoulement. Ces problèmes ont comme motivation des applications dans des tomographies différentes, qui comprennent la tomographie acoustique, la tomographie qui utilise des particules élémentaires et la tomographie d'impédance électrique. En particulier, nous étudions des problèmes inverses motivés par des applications en tomographie acoustique de fluide en écoulement. Nous proposons des formules et équations qui permettent de réduire le problème de tomographie acoustique à un problème de diffusion inverse approprié. En suivant, nous développons un algorithme fonctionnel-analytique pour la résolution de ce problème de diffusion inverse. Cependant, en général, la solution de ce problème n'est unique qu'à une transformation de jauge appropriée près. À cet égard, nous établissons des formules qui permettent de se débarrasser de cette non-unicité de jauge et retrouver des paramètres du fluide, en mesurant des ondes acoustiques à des plusieurs fréquences. Nous présentons également des exemples des fluides qui ne sont pas distinguable dans le cadre de tomographie acoustique considérée. En suivant, nous considérons le problème de diffusion inverse sans information de phase. Ce problème est motivé par des applications en tomographie qui utilise des particules élémentaires, où seulement le module de l'amplitude de diffusion peut être mesuré facilement. Nous établissons des estimations dans l'espace de configuration pour les reconstructions sans phase de type Borne, qui sont requises pour le développement des méthodes de diffusion inverse précises. Finalement, nous considérons le problème de détermination d'une surface de Riemann dans le plan projectif à partir de son bord. Ce problème survient comme une partie du problème de Dirichlet-Neumann inverse pour l'équation de Laplace sur une surface inconnue, qui est motivé par des applications en tomographie d'impédance électrique
This work is devoted to study of some inverse problems for the gauge-covariant Helmholtz equation, whose particular cases include the Schrödinger equation for a charged elementary particle in a magnetic field and the time-harmonic wave equation describing sound waves in a moving fluid. These problems are mainly motivated by applications in different tomographies, including acoustic tomography, tomography using elementary particles and electrical impedance tomography. In particular, we study inverse problems motivated by applications in acoustic tomography of moving fluid. We present formulas and equations which allow to reduce the acoustic tomography problem to an appropriate inverse scattering problem. Next, we develop a functional-analytic algorithm for solving this inverse scattering problem. However, in general, the solution to the latter problem is unique only up to an appropriate gauge transformation. In this connection, we give formulas and equations which allow to get rid of this gauge non-uniqueness and recover the fluid parameters, by measuring acoustic fields at several frequencies. We also present examples of fluids which are not distinguishable in this acoustic tomography setting. Next, we consider the inverse scattering problem without phase information. This problem is motivated by applications in tomography using elementary particles, where only the absolute value of the scattering amplitude can be measured relatively easily. We give estimates in the configuration space for the phaseless Born-type reconstructions, which are needed for the further development of precise inverse scattering algorithms. Finally, we consider the problem of determination of a Riemann surface in the complex projective plane from its boundary. This problem arises as a part of the inverse Dirichlet-to-Neumann problem for the Laplace equation on an unknown 2-dimensional surface, and is motivated by applications in electrical impedance tomography
APA, Harvard, Vancouver, ISO, and other styles
47

Burns, Calum. "Super résolution de texture pour la reconstruction 3D fine." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS026/document.

Full text
Abstract:
La reconstruction 3D multi-vue atteint désormais un niveau de maturité industrielle : des utilisateurs non-experts peuvent produire des modèles 3D large-échelle de qualité à l'aide de logiciels commerciaux. Ces reconstructions utilisent des capteurs haut de gamme comme des LIDAR ou des appareils photos de type DSLR, montés sur un trépied et déplacés autour de la scène. Ces protocoles d'acquisition sont mal adaptés à l’inspection d’infrastructures de grande taille, à géométrie complexe. Avec l'évolution rapide des capacités des micro-drones, il devient envisageable de leur confier ce type de tâche. Un tel choix modifie les données d’acquisition : on passe d’un ensemble restreint de photos de qualité, soigneusement acquises par l’opérateur, à une séquence d'images à cadence vidéo, sujette à des variations de qualité image dues, par exemple, au bougé et au défocus.Les données vidéo posent problème aux logiciels de photogrammétrie du fait de la combinatoire élevée engendrée par le grand nombre d’images. Nous proposons d’exploiter l’intégralité des images en deux étapes. Au cours de la première, la reconstruction 3D est obtenue en sous-échantillonnant temporellement la séquence, lors de la seconde, la restitution haute résolution de texture est obtenue en exploitant l'ensemble des images. L'intérêt de la texture est de permettre de visualiser des détails fins du modèle numérisé qui ont été perdus dans le bruit géométrique de la reconstruction. Cette augmentation de qualité se fait via des techniques de Super Résolution (SR).Pour atteindre cet objectif nous avons conçu et réalisé une chaîne algorithmique prenant, en entrée, la séquence vidéo acquise et fournissant, en sortie, un modèle 3D de la scène avec une texture sur-résolue. Cette chaîne est construite autour d’un algorithme de reconstruction 3D multi-vues de l’état de l’art pour la partie géométrique.Une contribution centrale de notre chaîne est la méthode de recalage employée afin d’atteindre la précision sub-pixellique requise pour la SR. Contrairement aux données classiquement utilisées en SR, nos prises de vues sont affectées par un mouvement 3D, face à une scène à géométrie 3D, ce qui entraîne des mouvements image complexes. La précision intrinsèque des méthodes de reconstruction 3D est insuffisante pour effectuer un recalage purement géométrique, ainsi nous appliquons un raffinement supplémentaire par flot optique. Le résultat de cette méthode de restitution de texture SR est d'abord comparée qualitativement à une approche concurrente de l’état de l’art.Ces appréciations qualitatives sont renforcées par une évaluation quantitative de qualité image. Nous avons à cet effet élaboré un protocole d’évaluation quantitatif de techniques de SR appliquées sur des surfaces 3D. Il est fondé sur l'utilisation de mires fractales binaires, initialement proposées par S. Landeau. Nous avons étendu ces idées au contexte de SR sur des surfaces courbes. Cette méthode est employée ici pour valider les choix de notre méthode de SR, mais elle s'applique à l'évaluation de toute texturation de modèle 3D.Enfin, les surfaces spéculaires présentes dans les scènes induisent des artefacts au niveau des résultats de SR en raison de la perte de photoconsistence des pixels au travers des images à fusionner. Pour traiter ce problème nous avons proposé deux méthodes correctives permettant de recaler photométriquement nos images et restaurer la photoconsistence. La première méthode est basée sur une modélisation des phénomènes d’illumination dans un cas d'usage particulier, la seconde repose sur une égalisation photométrique locale. Les deux méthodes testées sur des données polluées par une illumination variable s'avèrent effectivement capables d'éliminer les artefacts
Multi-view 3D reconstruction techniques have reached industrial level maturity : non-expert users are now able to use commercial software to produce quality, large scale, 3D models. These reconstructions use top of the line sensors such as LIDAR or DSLR cameras, mounted on tripods and moved around the scene. Such protocols are not designed to efficiently inspect large infrastructures with complex geometry. As the capabilities of micro-drones progress at a fast rate, it is becoming possible to delegate such tasks to them. This choice induces changes in the acquired data : rather than a set of carefully acquired images, micro-drones will produce a video sequence with varying image quality, due to such flaws as motion blur and defocus. Processing video data is challenging for photogrammetry software, due to the high combinatorial cost induced by the large number of images. We use the full image sequence in two steps. Firstly, a 3D reconstruction is obtained using a temporal sub-sampling of the data, then a high resolution texture is built from the full sequence. Texture allows the inspector to visualize small details that may be lost in the noise of the geometric reconstruction. We apply Super Resolution techniques to achieve texture quality augmentation. To reach this goal we developed an algorithmic pipeline that processes the video input and outputs a 3D model of the scene with super resolved texture. This pipeline uses a state of the art 3D reconstruction software for the geometric reconstruction step. The main contribution of this pipeline is the image registration method used to achieve the sub-pixel accuracy required for Super Resolution. Unlike the data on which Super Resolution is generally applied, our viewpoints are subject to relative 3D motion and are facing a scene with 3D geometry, which makes the motion field all the more complex. The intrinsic precision of current 3D reconstruction algorithms is insufficient to perform a purely geometric registration. Instead we refine the geometric registration with an optical flow algorithm. This approach is qualitatively to a competing state of the art method. qualitative comparisons are reinforced by a quantitative evaluation of the resulting image quality. For this we developed a quantitative evaluation protocol of Super Resolution techniques applied to 3D surfaces. This method is based on the Binary Fractal Targets proposed by S. Landeau. We extended these ideas to the context of curved surfaces. This method has been used to validate our choice of Super Resolution algorithm. Finally, specularities present on the scene surfaces induce artefacts in our Super Resolution results, due to the loss of photoconsistency among the set of images to be fused. To address this problem we propose two corrective methods designed to achieve photometric registration of our images and restore photoconsistency. The first method is based on a model of the illumination phenomena, valid in a specific setting, the second relies on local photometric equalization among the images. When tested on data polluted by varying illumination, both methods were able to eliminate these artefacts
APA, Harvard, Vancouver, ISO, and other styles
48

Khomutenko, Bogdan. "Contribution à la Perception Visuelle Basée Caméras Grand Angle pour la Robotique Mobile et Les Véhicules Autonomes." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0010/document.

Full text
Abstract:
Ce travail de thèse présente un nouveau modèle de projection pour les cameras fisheye, qui est mathématiquement simple et pourtant montre une haute précision une fois appliqué aux caméras réelles. Les propriétés géométriques de ce modèle ont été analysées en utilisant le concept de surface de projection, introduit dans ce travail. En particulier, une inverse analytique de ce modèle a été établie, ainsi qu'une équation implicite des projections de lignes droites. Cette dernière nous a permis de développer une méthode de reconstruction 3D directe basée vision pour les caméras fisheye sans rectifier les images. Cela a été fait grâce à une algorithme de rastérisation de courbes implicites. Cet algorithme de reconstruction nous permet d'employer le Semi-Global Matching pour obtenir une reconstruction 3D précise. Tous ces éléments ont été employés dans un système de localisation visuelle directe avec deux méthodes de recalage d'images : minimisation d'erreur photométrique et maximisation d'information mutuelle. L'étalonnage intrinsèque et extrinsèque d'un robot mobile équipé de caméras fisheye a été considéré et une toolbox d'étalonnage a été développée
This thesis presents a novel projection model for fisheye cameras, which is mathematically simple and yet shows a high precision when applied to real cameras. Geometric properties of the model have been analyzed using the concept of projection surface, introduced in this work. In particular, a closed-form inverse mapping and an implicit equation for straight line projection have been found. This fact has been used to develop a method of direct stereo correspondence on raw fisheye images via rasterization of implicit curve. This correspondence algorithm allows us to apply the Semi-Global Matching algorithm to get an accurate 3D reconstruction using fisheye stereo systems. All these elements have been shown to be applicable to a direct visual localization system with two different methods of image registration: direct photometric error minimization and mutual information maximization. Intrinsic and extrinsic calibration of a mobile robot with fisheye cameras has been considered and a toolbox for such a calibration has been developed
APA, Harvard, Vancouver, ISO, and other styles
49

Chamouine, Saïd Omar. "Nouvelle approche de la correction de l'atténuation mammaire en tomoscintigraphie de perfusion myocardique." Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1073/document.

Full text
Abstract:
Nous proposons dans le cadre de cette thèse une nouvelle approche permettant de s'affranchir de l'atténuation mammaire en tomographie par émission monophotonique (TEMP) de perfusion myocardique. Elle est constituée de deux parties : - la première consiste à rendre les projections acquises consistantes. - la deuxième consiste à pondérer ces même les projections corrigées durant la reconstruction. Nous avons effectué l'étude de validité de nos méthodes sur quelques exemples de simulation TEMP de perfusion myocardique simulant l'atténuation mammaire et sur quelques exemples d'études patients réelles notamment : des cas d'atténuation mammaire, d'infarctus inférieure, d'infarctus apical, d'infarctus antérieur, d'ischémie antérieure et inférieure. Les résultats semblent encourageants. Il s'agit dans le proche avenir de mener une étude de validation chez les patients versus un gold standard (coronarographie, coroscanner)
We propose in this thesis a new approach to correct the breast attenuation in SPECT myocardial perfusion imaging. It consists of two parts: -The first is to make the acquired projections consistent with each other. - The second is to weight the corrected attenuated projection during the reconstruction. We conducted a validation of our methods on some examples of myocardial perfusion SPECT imaging simulating the breast attenuation and some examples of real patient studies including: breast attenuation, anterior myocardial infarction, inferior myocardial infarction, anterior myocardial ischemia and inferior myocardial ischemia. The obtained results are encouraging. At this step, it is interesting in the near future to conduct a validation study in patients versus a gold standard (angiography, coroscan).Key words: SPECT, tomographic reconstruction, breast attenuation, Iterative reconstruction, attenuation correction, myocardial perfusion imaging, nuclear medicine
APA, Harvard, Vancouver, ISO, and other styles
50

Landon, Jr George V. "Innovative Techniques for Digitizing and Restoring Deteriorated Historical Documents." UKnowledge, 2008. http://uknowledge.uky.edu/gradschool_diss/599.

Full text
Abstract:
Recent large-scale document digitization initiatives have created new modes of access to modern library collections with the development of new hardware and software technologies. Most commonly, these digitization projects focus on accurately scanning bound texts, some reaching an efficiency of more than one million volumes per year. While vast digital collections are changing the way users access texts, current scanning paradigms can not handle many non-standard materials. Documentation forms such as manuscripts, scrolls, codices, deteriorated film, epigraphy, and rock art all hold a wealth of human knowledge in physical forms not accessible by standard book scanning technologies. This great omission motivates the development of new technology, presented by this thesis, that is not-only effective with deteriorated bound works, damaged manuscripts, and disintegrating photonegatives but also easily utilized by non-technical staff. First, a novel point light source calibration technique is presented that can be performed by library staff. Then, a photometric correction technique which uses known illumination and surface properties to remove shading distortions in deteriorated document images can be automatically applied. To complete the restoration process, a geometric correction is applied. Also unique to this work is the development of an image-based uncalibrated document scanner that utilizes the transmissivity of document substrates. This scanner extracts intrinsic document color information from one or both sides of a document. Simultaneously, the document shape is estimated to obtain distortion information. Lastly, this thesis provides a restoration framework for damaged photographic negatives that corrects photometric and geometric distortions. Current restoration techniques for the discussed form of negatives require physical manipulation to the photograph. The novel acquisition and restoration system presented here provides the first known solution to digitize and restore deteriorated photographic negatives without damaging the original negative in any way. This thesis work develops new methods of document scanning and restoration suitable for wide-scale deployment. By creating easy to access technologies, library staff can implement their own scanning initiatives and large-scale scanning projects can expand their current document-sets.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography