To see the other types of publications on this topic, follow the link: Reconstructions 2D et 3D.

Dissertations / Theses on the topic 'Reconstructions 2D et 3D'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Reconstructions 2D et 3D.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Rolland, Franck Montanvert Annick. "Représentation tridimensionnelle et reconstruction 3D à partir de coupes 2D." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00339648.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Rolland, Franck. "Représentation tridimensionnelle et reconstruction 3D à partir de coupes 2D." Phd thesis, Grenoble 1, 1991. http://tel.archives-ouvertes.fr/tel-00339648.

Full text
Abstract:
L'objectif des travaux présentés dans ce mémoire est la représentation de formes tridimensionnelles ainsi que la reconstruction tridimensionnelle a partir de coupes sériées. Après avoir défini le cadre exact de la reconstruction tridimensionnelle a partir de coupes sériées, le premier chapitre analyse les différentes étapes et les méthodes généralement employées pour effectuer cette reconstruction. Les chapitre 2 et 3 s'attachent a la description et a la représentation de formes tant bidimensionnelles que tridimensionnelles. Le chapitre 3 developpe ainsi une methode de squelettisation tridimensionnelle permettant d'obtenir un squelette filaire. Le chapitre 4 est consacre a la description de deux méthodes de reconstruction tridimensionnelle opérant par inférence de formes. La methode utilisant l'inférence structurelle de graphes de la ligne médiane est ensuite développée. Elle passe par une nécessaire étape, chapitre 5, de mise en correspondance de graphes de la ligne médiane. Différentes méthodes de mise en correspondance sont présentées, finalement la methode procédant par recherche de cliques dans un graphe est développée. La construction du graphe de mise en correspondance est tout d'abord présentée, ensuite la recherche de cliques est abordée a l'aide de méthodes heuristiques de parcours (recuit simule et algorithmes génétiques). Le chapitre 6 développe le processus d'inférence de graphes de la ligne médiane mis en œuvre, il permet d'inférer des coupes intermediaires qui sont empilées pour finalement donner le volume tridimensionnel recherche. Le chapitre 7 est consacre a la présentation des divers résultats et de leurs conséquences, il présenté aussi d'autres applications possibles des différentes techniques developpees
APA, Harvard, Vancouver, ISO, and other styles
3

MIGEON, BRUNO. "Reconstruction 2d et 3d d'os longs des membres par traitement d'images echographiques." Orléans, 1993. http://www.theses.fr/1993ORLE2025.

Full text
Abstract:
L'objet de cette these est la reconstruction 3d des os longs des membres a partir de coupes paralleles successives reconstruites par tomographie ultrasonore. L'originalite du travail au niveau de la reconstruction 2d reside dans le developpement de methodes de tomographie ultrasonore en mode reflexion par traitement d'images radiales (acquises avec des sondes echographiques classiques). Pour cela un systeme d'acquisition permettant d'obtenir plusieurs images radiales par plan de coupe et pour plusieurs plans de coupes paralleles successifs a ete realise. Le traitement des images permet la segmentation des structures recherchees et l'extraction de leurs contours, moyennant la resolution d'un certain nombre de problemes et de cas particuliers. La reconstruction 3d consiste a donner un sens a la scene volumique obtenue en etablissant des liens de connexion entre les differents contours extraits, afin de comprendre la scene comme un ensemble d'objets distincts. Il est ensuite possible de faire une representation 3d par facettes planes via une etape de triangulation, et meme par listes de voxels grace a une methode originale d'interpolation de contours. La visualisation 3d permet ensuite de representer les structures sous n'importe quel angle de vue par des techniques classiques, avec rendu realiste grace a l'utilisation d'un modele d'ombrage
APA, Harvard, Vancouver, ISO, and other styles
4

Triki-Bchir, Olfa. "Modélisation, reconstruction et animation de personnages virtuels 3D à partir de dessins manuels 2D." Phd thesis, Université René Descartes - Paris V, 2005. http://tel.archives-ouvertes.fr/tel-00273248.

Full text
Abstract:
La production de dessins animés 2D, qui suit actuellement un schéma mis en place dans les années 1920, fait intervenir un très nombre de compétences humaines et de métiers différents. Par opposition à ce mode de travail traditionnel, la production de films de synthèse 3D, en exploitant les technologies et outils les plus récents de modélisation et d'animation 3D, s'affranchit pour une bonne part de cette composante artisanale et vient concurrencer l'industrie du dessin animé tradtionnel en termes de délais et de coûts de fabrication.

Les défis à relever par l'industrie du dessin animé 2D se formulent donc en termes de:

1. Réutilisation des contenus selon le paradigme Create once, render many,
2. Facilité d'échange et de transmission des contenus, ce qui nécessite de disposer d'un unique format de représentation,
3. Production efficace et économique des contenus, requérant une animation automatisée par ordinateur.

Dans ce contexte compétitif, ce travail de thèse, réalisé dans le cadre du projet industriel TOON financé par la société Quadraxis avec le support de l' Agence Nationale de Valorisation de la Recherche (Oséo-ANVAR), a pour objectif de contribuer au développement d'une plate-forme de reconstruction, déformation et animation de modèles 3D pour les dessins animés 2D.

Un état de l'art des méthodes et outils contribuant à la reconstruction de modèles 3D et à leur animation est présenté et discuté au regard des contraintes spécifiques des règles de création des dessins animés 2D et de la chaîne de fabrication traditionnelle. Ayant identifié les verrous technologiques à lever, nos contributions ont porté sur :

* l'élaboration d'une méthode de reconstruction de personnages virtuels 3D à partir de dessins 2D,
* la mise au point d'une procédure de reconstruction surfacique par NURBS dotée d'une capacité de déformation interactive 2D/3D,
* la conception d'un module de modélisation 3D pour surfaces maillées, compatible avec le standard d'animation MPEG-4/AFX.

Les développements réalisés, intégrés dans un prototype de la plate-forme TOON, montrent un gain en temps de 20% sur l'ensemble de la chaîne de production tout en garantissant une complète interopérabilité des applications via le standard MPEG-4.
APA, Harvard, Vancouver, ISO, and other styles
5

Horna, Sébastien. "Reconstruction géométrique et topologique de complexes architecturaux 3D à partir de plans numériques 2D." Poitiers, 2008. http://theses.edel.univ-poitiers.fr/theses/2008/Horna-Sebastien/2008-Horna-Sebastien-These.pdf.

Full text
Abstract:
L’intérieur des bâtiments est souvent modélisé en 3D pour diverses applications de modélisation ou de simulation. Par exemple, plusieurs méthodes permettent d’étudier l’éclairage, les transferts de chaleur, la propagation d’ondes. Ces applications nécessitent dans la plupart des cas une représentation volumique de l’environnement avec des relations d’adjacence et d’incidence entre les éléments. Malheureusement, les données correspondant au bâtiment sont en général seulement disponibles en 2D et les besoins des applications 3D varient d’une utilisation à l’autre. Pour résoudre ce problème, nous proposons une description formelle d’un ensemble de contraintes de cohérence dédiées à la modélisation d’intérieur de bâtiments. Dans cette thèse nous montrons comment cette représentation est utilisée pour : (i) reconstruire un modèle 3D à partir de plans d’architecte numériques 2D ; (ii) détecter automatiquement les incohérences géométriques, topologiques et sémantiques ; (iii) développer des opérations automatiques et semi-automatiques pour corriger les plans 2D. Toutes les contraintes de cohérence sont définies en 2D et 3D et reposent sur le modèle topologique des cartes généralisées. Ces opérations sont utilisées pour éditer les scènes 2D et 3D afin d’affiner ou de modifier les modèles. Enfin, nous expliquons comment ce modèle est utilisé pour une application de visualisation par lancé de rayons
Virtual architectural (indoor) scenes are often modelled in 3D for various types of simulation systems. For instance, some authors propose methods dedicated to lighting, heat transfer, acoustic or radio wave propagation simulations. These methods rely in most cases on a volumetric representation of the environment, with adjacency and incidence relationships. Unfortunately, many buildings data are only given by 2D plans and the 3D needs varies from one application to another. To solve these problems, we propose a formal representation of consistency constraints dedicated to building interiors and associated with a topological model. We show that such a representation can be used for : (i) reconstructing a 3D model from 2D architectural plans ; (ii) detecting automatically geometrical, topological and semantical inconsistencies ; (iii) designing automatic and semi-automatic operations to correct and enrich a 2D plan. All our constraints are homogeneously defined in 2D and 3D, implemented with generalized maps and used in modeling operations. We explain how this model can be successfully used with various ray-tracing methods
APA, Harvard, Vancouver, ISO, and other styles
6

Triki, Bchir Olfa. "Modélisation, reconstruction et animation de personnages virtuels 3D à partir de dessins manuels 2D." Paris 5, 2005. http://www.theses.fr/2005PA05S015.

Full text
Abstract:
La production de dessins animés 2D qui suit actuellement un schéma mis en place dans les années 1920 fait intervenir un très grand nombre de compétences humaines. Par opposition à ce mode de travail traditionnel, la production de films 3D, en exploitant les technologies et outils les plus récents de modélisation et d'animation 3D, s'affranchit en bonne partie de cette composante artisanale et vient concurrencer l'industrie du dessin animé 2D en termes de temps et coûts de fabrication. Les enjeux à relever par l'industrie du dessin animé 2D se posent donc en termes de : 1. Réutilisation des contenus selon le célèbre paradigme du “Create once, render many”, 2. Facilité d'échange et transmission des contenus ce qui nécessite de disposer d'un unique format de représentation, 3. Production efficace et économique des contenus requérant alors une animation automatisée par ordinateur. Dans ce contexte compétitif, cette thèse, réalisée dans le cadre du projet industriel TOON financé par la société Quadraxis avec le support de l'Agence Nationale pour la Valorisation de la Recherche (ANVAR), a pour objectif de contribuer au développement d'une plate-forme de reconstruction, déformation et animation de modèles 3D pour les dessins animés 2D. Un état de l'art des méthodes et outils contribuant à la reconstruction de modèles 3D et à leur animation est présenté et discuté au regard des contraintes spécifiques des règles de création des dessins animés 2D et de la chaîne de fabrication 2D. Ayant identifié les verrous technologiques à lever, nos contributions ont porté sur : – L'élaboration d'une de reconstruction des personnages virtuels 3D àpartir de dessins 2D, – La mise au point d'une méthode de modélisation 3D par surfaces maillées, compatible avec le standard MPEG-4/AFX, Les développements réalisés, intégrés dans un premier prototype de la plate-forme TOON, montrent un gain en temps de 20% dans la chaîne de production et une complète interopérabilité des applications via le standard MPEG-4.
APA, Harvard, Vancouver, ISO, and other styles
7

Rekik, Wafa. "Fusion de données temporelles, ou 2D+t, et spatiales, ou 3D, pour la reconstruction de scènes 3D+t et traitement d'images sphériques : applications à la biologie cellulaire." Paris 6, 2007. http://www.theses.fr/2007PA066655.

Full text
Abstract:
Dans certaines applications en vision, nous disposons de données volumiques (3D) et des séquences planaires (2D+t). Les données 3D définissent la géométrie en trois dimensions de la scène observée. Elles comportent donc des informations purement spatiales. Les séquences 2D+t sont porteuses d'informations temporelles et partiellement spatiales puisqu'elles décrivent en deux dimensions la dynamique des objets en mouvement. La fusion de ces données permet de restituer une séquence volumique (3D+t) de la scène filmée. Ces travaux s'articulent en deux volets. Le premier volet concerne une étude méthodologique de la reconstruction 3D+t par compensation du mouvent. Nous proposons deux familles d'approches : avec ou sans modèle a priori sur les structures observées dans les données. Le modèle a priori étudiée concernent des objets de géométrie sphérique. Le second volet décrit le traitement d'image multi-dimensionnels (2D, 3D, 2D+t, 3D+t) toujours dans le contexte de forme sphérique. Nous proposons alors diverses applications comme le suivi temporel sur les séquences 2D+t, la visualisation, la segmentation des données 2D ou 3D,. . . Une application possible est donnée en imagerie biologique dans le cadre de la simulation de parois cellulaires, contexte dans lequel nous observons dans diverses modalités des objets sphéroïdes.
APA, Harvard, Vancouver, ISO, and other styles
8

Lopez-Hernandez, Juan. "Imagerie Cardiaque Multimodalités 2D et 3D :application à la Coronarographie/Tomoscintigraphie/TEP-CT." Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2006. http://tel.archives-ouvertes.fr/tel-00118991.

Full text
Abstract:
La coronarographie et la tomoscintigraphie (SPECT, de l'anglais "Single Photon Emission Computed
Tomography") sont deux techniques d'imagerie utilisées couramment pour diagnostiquer les maladies
cardiovasculaires. La première modalité est constituée de séquences d'images à rayon X visualisant chacune,
dans un même plan, les artères coronaires situées sur la face avant et la face arrière du coeur. Les images à
rayons X fournissent des informations anatomiques liées à l'arbre artériel et mettent en évidence d'éventuels
rétrécissements des artères (sténoses). La modalité SPECT (imagerie nucléaire) fournit une représentation 3D
de la perfusion du volume myocardique. Cette information fonctionnelle permet la visualisation de régions
myocardiques souffrant de défauts d'irrigations. Le but du travail présenté est de superposer, en 3D, les
informations fonctionnelles et anatomiques pour établir un lien visuel entre des lésions artérielles et leurs
conséquences en termes de défauts d'irrigation. Dans la représentation 3D choisie pour faciliter le diagnostic, la
structure d'un arbre artériel schématique, comprenant les sténoses, est placée sur le volume de perfusion. Les
données initiales sont constituées d'une liste de points représentatifs de l'arbre artériel (points d'arrivée et de
départs de segments d'artères, bifurcations, sténoses, etc.) marqués par le coronarographiste dans les images à
rayons X des différentes incidences. Le volume de perfusion est ensuite projeté sous les incidences des images
de coronarographie. Un algorithme de recalage superposant les images à rayons X et les projections SPECT
correspondantes fournit les paramètres des transformations géométriques ramenant les points marqués dans les
images à rayons X dans une position équivalente dans les images SPECT. Un algorithme de reconstruction 3D
permet ensuite de placer les points artériels et les sténoses sur le volume de perfusion et de former un arbre
schématique servant de repère au clinicien. Une base de données formée de 28 patients a été utilisée pour
effectuer 40 superpositions 3D de données anatomo-fonctionnelles. Ces reconstructions ont montré que la
représentation 3D est suffisamment précise pour permettre d'établir visuellement un lien entre sténoses et
défauts de perfusions. Nos algorithmes de superpositions 3D ont ensuite été complétés pour remplacer la
modalité SPECT par les données de l'examen bimodal TEP/CT (Tomographie par Emission de
Positons/Tomodensitométrie). Les données d'un cas clinique trimodal TEP/CT/coronarographie ont été utilisées
pour vérifier l'adéquation de nos algorithmes à la nouvelle modalité d'imagerie.
APA, Harvard, Vancouver, ISO, and other styles
9

Garnero, Line. "Reconstruction d'images tomographiques à partir d'un ensemble limite de projections." Paris 11, 1987. http://www.theses.fr/1987PA112012.

Full text
Abstract:
Nous proposons dans cette thèse deux méthodes de reconstitution d'images tomographiques à partir d'un nombre limité de projections couvrant un angle de vue limité. Ces circonstances se rencontrent aussi bien en Imagerie Médicale, que dans d'autres domaines comme la microscopie électronique. Ces méthodes utilisent des informations a priori sur l'objet afin de retrouver les données manquantes. Nous avons appliqué une de ces méthodes aussi bien à reconstructions bidimensionnelles, que directement tridimensionnelles, et nous l'avons aussi utilisée dans deux cas concrets relevant du domaine des contrôles non destructifs et de la microimagerie plasma laser. Nous présentons aussi une étude des artéfacts paraissant sur les images tomographiques de Médecine Nucléaire à la suite de mauvaises conditions d'acquisition.
APA, Harvard, Vancouver, ISO, and other styles
10

Merabet, Lucas. "Etude d’algorithmes de reconstruction ultrasonore dans le domaine de Fourier pour l’imagerie rapide 2D et 3D en contrôle non- destructif." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLET060.

Full text
Abstract:
Ce travail de thèse s’intéresse à l’imagerie ultrasonore multi-éléments pour le Contrôle Non-Destructif (CND), et vise à accélérer l’imagerie échographique en 2D et 3D. Les méthodes étudiées s’inspirent des algorithmes de reconstruction dans le domaine de Fourier (f-k) en imagerie sismique. La littérature montre que ces méthodes offrent un avantage numérique par rapport à celles dans le domaine temporel basées sur un principe de focalisation en émission/réception. D’autre part, l’essor des traducteurs multi-éléments a permis d’explorer de nouveaux modes d’émission, comme les ondes planes en imagerie médicale ultra-rapide. Dans cette thèse, on se propose de combiner les algorithmes rapides du domaine f-k avec des émissions planes pour calculer des images aussi rapidement que possible. Ces algorithmes sont adaptés pour traiter des configurations d’inspection usuelles en CND. Une analyse des complexités algorithmiques, des temps de calcul et de la qualité des reconstructions est menée en 2D. La comparaison avec la méthode temporelle Plane Wave Imaging (PWI) démontre un avantage certain pour l’imagerie f-k. Ces avantages sont confirmés en 3D où l’on démontre que cette dernière améliore la qualité d’image tout en réduisant le temps de calcul d’un facteur allant jusqu’à 300 par rapport à PWI. Enfin, la méthode f-k est généralisée à l’imagerie multimodale pour la caractérisation de fissures. La théorie est d’abord présentée, puis on montre qu’il est possible d’améliorer la qualité des reconstructions grâce à un fenêtrage des fréquences spatiales de l’image. Ce filtre spectral élimine des artéfacts d’imagerie liés à des échos de géométrie, améliorant ainsi le contraste des images
This research work deals with ultrasound imaging with transducer arrays for Non Destructive Testing (NDT), and aims at speeding up the formation of 2D and 3D images. The methods studied in this manuscript are inspired from reconstruction algorithms in the Fourier frequency-wavenumber (f-k) domain introduced in seismic imaging in the 70’s. The literature shows that f-k methods offer a numerical advantage over the more conventional time-domain focusing algorithms. On the other hand, the rise of transducer arrays has allowed for the exploration of new emission modes, such as plane wave emissions in ultra-fast medical imaging. In this thesis, we propose to combine fast f-k algorithms with plane wave emissions to form 2D and 3D images as fast as possible. These algorithms are adapted to deal with realistic NDT inspection configurations. Analyses of algorithmic complexities, computation times, and image qualities are carried out in 2D, and a comparison with the time-domain Plane Wave Imaging (PWI) shows a clear advantage for f-k methods. This is confirmed in 3D, where we show that Fourier domain algorithms improve image quality while reducing computation times by a factor up to 300 compared to PWI. Finally, the f-k methods are generalized to multi-modal imaging to characterize cracks. The theory, which accounts for mode conversions and reflections at the specimen interfaces, is first presented, and we then demonstrate that it is possible to improve the reconstruction quality thanks to spectral windowing in the image frequency-domain. This spectral filter cancels undesired artifacts caused by interface echoes, and improves the image contrast
APA, Harvard, Vancouver, ISO, and other styles
11

Jibrini, Hassan. "Reconstruction automatique des bâtiments en modèles polyédriques 3D à partir de données cadastrales vectorisées 2D et d'un couple d'images aériennes à haute résolution /." Paris : École nationale supérieure des télécommunications, 2002. http://catalogue.bnf.fr/ark:/12148/cb389477741.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Humbert, Ludovic. "Contribution à l'automatisation du traitement des radiographies du système ostéoarticulaire pour la modélisation géométrique et l'analyse clinique." Phd thesis, Paris, ENSAM, 2008. http://pastel.archives-ouvertes.fr/pastel-00004241.

Full text
Abstract:
Pour comprendre et diagnostiquer des pathologies telles que la scoliose qui affectent l'organisation spatiale de notre squelette, il est essentiel d'aborder ces problématiques en trois dimensions. Dans le cadre de leur collaboration franco-canadienne, le Laboratoire de Biomécanique et le Laboratoire de recherche en Imagerie et Orthopédie ont développé des méthodes de reconstruction 3D du squelette à partir de radiographies biplanes, notamment à partir du système de radiographie base dose EOS (Biospace Med, Paris). Ces techniques permettent une analyse clinique globale du patient, en position debout et avec très peu d'irradiations. Néanmoins, le temps de reconstruction reste contraignant pour une utilisation en routine clinique. L'objectif de cette thèse est donc de progresser dans l'automatisation des méthodes de reconstruction 3D à partir de radiographies biplanes. Les méthodes développées seront appliquées au rachis thoracique et lombaire, dans le contexte spécifique de l'étude de la scoliose. Une méthode de reconstruction s'appuyant sur une description paramétrée du rachis et sur des inférences statistiques longitudinales et transversales a été proposée et évaluée. Cette méthode permet, à partir de la saisie opérateur de quelques repères anatomiques dans les radiographies, d'obtenir très rapidement (2min 30s) une reconstruction 3D pré-personnalisée du rachis ainsi que des paramètres cliniques dédiés au diagnostic de la scoliose. Une reconstruction 3D plus précise peut être obtenue en un temps relativement réduit (10min) à partir d'ajustement opérateurs du modèle, qui s'auto-améliore par inférences au fur et à mesure des retouches. Afin de poursuivre la semi-automatisation de cette méthode, des techniques de recalage 2D/3D par traitement d'image, basées sur la segmentation des radiographies mais également sur des mesures de similarités entre des radiographies simulées et les clichés réels ont été proposées. Ces algorithmes s'appuient sur des modèles pseudo-volumiques de vertèbres, plus réalistes que les modèles surfaciques couramment utilisés. Les techniques de recalage ont été intégrées dans le protocole de reconstruction utilisant une description paramétrée du rachis et des inférences, pour proposer et évaluer une nouvelle méthode de reconstruction. Ce travail de thèse ouvre des perspectives concrètes en termes d'utilisation de telles méthodes en routine clinique et permet de poser des bases importantes pour automatiser les méthodes de reconstruction 3D à partir de radiographies biplanes de l'ensemble du squelette.
APA, Harvard, Vancouver, ISO, and other styles
13

Merad, Djamel. "Reconnaissance 2D/2D et 2D/3D d'objets à partir de leurs squelettes." Evry-Val d'Essonne, 2004. http://www.theses.fr/2004EVRY0029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Attali, Dominique. "Squelettes et graphes de Voronoï 2D et 3D." Phd thesis, Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00346066.

Full text
Abstract:
Notre travail concerne l'étude, le calcul et la simplification des squelettes d'objets 2D et 3D. Le squelette d'un objet est une figure mince, centrée dans la forme et qui en résume l'aspect. Il est utile pour la description et la reconnaissance de formes, la quantification, la mise en correspondance, etc. Dans un premier temps, nous recensons les différentes techniques de calcul du squelette. La très grande majorité d'entre elles travaille sur des images binaires avec des outils de la géométrie discrète. Or, dernièrement, une nouvelle famille de méthodes, appelées méthodes continues a vu le jour. Le squelette est approché à l'aide du graphe de Voronoï d'un échantillonnage de la frontière, et se calcule par des moyens propres à la géométrie algorithmique. Notre intérêt s'est porté sur cette nouvelle approche et les problèmes qui s'y rattache. Pour commencer, nous proposons une formulation des méthodes continues à l'aide du squelette d'une union finie de sphères. En effet, nous montrons que le squelette d'une union finie de sphères se construit de façon exacte à l'aide d'éléments très simples comme des segments de droite en 2D et des polygones en 3D. La construction du squelette nécessite de pouvoir interpoler par des facettes triangulaires un ensemble de points localisés sur la frontière d'un objet. Nous proposons une méthode, fondée sur le calcul du graphe de Delaunay et dont nous montrons la convergence en 2D. Enfin, des méthodes de simplification du squelette sont présentées. Elles permettent de sélectionner les branches correspondant à des renflements significatifs de la forme et conduisent en 3D soit à des squelettes surfaciques, soit à des squelettes filiformes selon les besoins de l'utilisateur. Pour finir, nous décrivons une application qui valide notre approche, et l'illustre sur des données biologiques
APA, Harvard, Vancouver, ISO, and other styles
15

Attali, Dominique Montanvert Annick. "Squelettes et graphes de Voronoï 2D et 3D." S.l. : Université Grenoble 1, 2008. http://tel.archives-ouvertes.fr/tel-00346066.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Brishoual, Morgan. "Reconstruction de données : Application à la dosimétrie des radiotéléphones." Phd thesis, INSA de Rennes, 2001. http://tel.archives-ouvertes.fr/tel-00001750.

Full text
Abstract:
Dans le cadre de la vérification de la conformité aux normes des personnes exposées aux champs électromagnétiques des radiotéléphones, une méthodologie a été développée permettant d'évaluer les champs électriques qui ne sont pas accessibles par la mesure.

Des études ont montré qu'une large partie de la puissance absorbée est concentrée dans les tissus proches de l'antenne du radiotéléphone. Ces tissus englobant la région de l'oreille sont les plus exposés aux champs électromagnétiques. A l'interface peau - mobile, les valeurs de champs électriques sont donc importantes et décroissent rapidement à mesure que l'on s'éloigne de l'antenne du radiotéléphone et que l'on se rapproche du centre de la tête. Etant donné que dans la certification des radiotéléphones, on s'intéresse à la puissance maximale absorbée, la région proche de l'antenne est donc primordiale à caractériser.

De par la sonde de mesure du champ électrique utilisée, le point de mesure est placé à quelques millimètres du bout de la sonde et ce décalage ainsi que la fragilité de la sonde ne permettent pas d'effectuer des mesures proches des bords du fantôme utilisé pour modéliser soit une tête d'un utilisateur, soit un rat. Ainsi un schéma d'extrapolation doit être défini. De plus pour accélérer le processus d'acquisition des mesures, ces dernières sont effectuées suivant un échantillonnage grossier et un schéma d'interpolation doit être également défini pour obtenir ces mesures suivant un échantillonnage plus fin.

Cette thèse présente les ondelettes, dans le but de les utiliser dans les schémas d'extrapolation et d'interpolation. Ainsi une méthode à base d'ondelettes, habituellement utilisée en traitement d'image, a été développée dans le cas de la reconstruction de signaux unidimensionnels et étendue à des données tridimensionnelles. Une extension de cette méthode à des fonctions de base interpolatrices et non-interpolatrices a également été réalisée. Il s'est avéré qu'une meilleure précision de reconstruction est obtenue lorsque la fonction de base est une fonction de base interpolatrice de type triangle. Dans chacun des cas, cette méthode a été comparée à d'autres techniques de reconstruction de données échantillonnées, telles que polynomiales, splines, fonctions radiales, réseaux de neurones et krigeage.

Pour la reconstruction des données issues de la dosimétrie des radiotéléphones, les volumes à reconstruire sont volumineux et les techniques nommées précédemment ont un temps de calcul et/ou un coût mémoire non négligeable(s). Si bien qu'une nouvelle méthode pour interpoler et extrapoler les mesures dans un volume a été développée. Cette nouvelle méthode de reconstruction, nommée technique 2D_1D_2D, qui peut être utilisée pour de nombreuses autres applications, est très rapide et peu coûteuse en stockage mémoire. Elle sert de référence dans la norme CENELEC (Comité Européen de Normalisation ELECtrotechnique) ENV50361. Une partie des travaux de cette thèse ont donné naissance à un logiciel sous Matlab.
APA, Harvard, Vancouver, ISO, and other styles
17

Boulinguez, David. "Reconnaissance 2D et 3D d'objets sous-marins enfouis." Brest, 2000. http://www.theses.fr/2000BRES2019.

Full text
Abstract:
L’investigation du milieu marin est un domaine qui fait l'objet de travaux de recherche importants. Dans la plupart des secteurs d'applications (ingénierie offshore, secteur de la pêche, archéologie, océanographie, lutte anti sous-marine), l'un des problèmes majeurs concerne la classification des objets sous-marins, c'est-a-dire la différenciation des cibles immergées ou enfouies dans le sédiment. L’objectif de ce rapport est de proposer, grâce aux techniques de traitement du signal et des images, une méthode générale pour la reconnaissance des objets sous-marins. Une part essentielle du travail consiste à rechercher des paramètres pertinents capables de distinguer différents types d'objets. La première démarche proposée étudie la séparation des objets sous-marins en deux catégories : objets naturels et manufacturés. Différentes techniques d'amélioration de la résolution temporelle sont développées afin de séparer les deux échos dûs à la présence d'une coque pour les cibles manufacturées : l'algorithme music, l'analyse spectrale a l'ordre 3 et l'algorithme wrelax. Nous montrons que ce dernier répond le mieux au problème en termes de pouvoir de séparation et de robustesse au bruit. Nous nous intéressons ensuite à l'identification de la forme des objets à partir de l'information acoustique 2D et 3D. Cette partie traite de la recherche de paramètres capables de caractériser les formes. Trois méthodes fournissant des jeux de paramètres discriminants sont comparées. Pour caractériser la forme 2D : les descripteurs de Fourier, puis les descripteurs de Fourier améliorés par fusion floue. Pour caractériser la forme 3D : les invariants 3D. Une structure de classification supervisée, fondée sur un classifieur non-paramétrique et mise en place sur données synthétiques et réelles, permet de comparer les performances des différents paramètres proposés. Les résultats montrent la supériorité des invariants 3D en termes de pouvoir discriminant et de robustesse au bruit.
APA, Harvard, Vancouver, ISO, and other styles
18

Phan, Hong Phuong. "Conception d'antennes 2D et 3D sur des matériaux flexibles." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT106/document.

Full text
Abstract:
Le travail de thèse a été réalisée dans le cadre du projet ANR «Stick’It» visant à développer de nouvelles technologies peu coûteuses et innovantes dédiées à la conception de composants radiofréquences (RF) 2D, 2,5D et 3D, notamment des antennes imprimées sur des matériaux conformes. Les applications ciblées sont principalement des appareils de réseaux domestique, tels que les décodeurs, dont les formes et les dimensions sont très variées. Par conséquent, il est nécessaire de concevoir des antennes sur des substrats souples.Selon nos besoins pour un matériau de substrat flexible, peu coûteux, avec de bonnes propriétés RF, la capacité de recyclage et en particulier la capacité à fabriquer des structures 3D, après avoir étudié différents matériaux diélectriques pour l’électronique flexible, le papier s'est trouvé le plus adapté.Les travaux de cette thèse se sont déroulés en trois phases.Dans la première phase, c'était l'étude des méthodes de caractérisation des matériaux pour obtenir leurs propriétés électromagnétiques. Après l'analyse, la méthode de perturbation utilisant une cavité cylindrique a été choisie pour la caractérisation du papier. Les premiers résultats de ce processus ont été vérifiés en réalisant et en testant des antennes simples telles que des monopoles alimentés par CPW sur du papier et du PET. Ensuite, la mesure du papier E4D a été effectuée avec 50 échantillons découpés dans différentes feuilles de papier E4D de trois épaisseurs différentes, 104 m, 210 m et 387 m. Les résultats ont été analysés statistiquement et ont donné r = 3.184, tan = 0.092. Les dispersions des résultats mesurés à 2,5 GHz sont 0.25% pour r et 0.26% pour tan. Ces résultats ont été utilisés pour la phase suivante.Au cours de la deuxième phase, les antennes différentes ont été conçues sur le papier E4D d'épaisseur 0,104 mm et 0,21 mm, notamment des IFA, des antennes SIW et des antennes monopoles alimentées par une ligne microruban. Les prototypes ont été réalisés à l'aide d'une technique de sérigraphie et testés pour déterminer les propriétés de l'adaptation et les diagrammes de rayonnement.Dans la troisième phase, les antennes proposées ont été étudiées dans des conditions d'emballage réalistes, où un boîtier décodeur était en plastique ABS avec différentes dimensions. Le premier cas concernait deux antennes MIMO placées orthogonalement dans des boîtiers ABS différents, avec un espace suffisant pour que les deux puissent rester plats. Le second cas était une boîte à hauteur limitée, de sorte qu’au moins une des antennes doit être pliée.Ainsi, une étude de l'effet de flexion a été réalisée, tout d'abord avec un simple dipôle droit et un monopole droit sur le papier E4D, puis avec une antenne à large bande proposée dans la seconde phase. L’étude a montré que la flexion n’affecte pas beaucoup l’adaptation de l’antenne sur une large bande de fréquences. Cependant, ses diagrammes de rayonnement tournent dans le plan E avec un angle de rotation dépendant de la position de pliage et de l'angle de flexion.Ensuite, le système MIMO de deux antennes placé orthogonalement dans un boîtier ABS de hauteur limitée, de sorte qu’une antenne doit être pliée et une autre reste plate. Dans tous les cas de système d'antenne MIMO, nous avons obtenu une bonne isolation (> 20 dB) et un coefficient de corrélation (ECC) inférieur à 0,05
The thesis was carried out within the ANR project « Stick’It » that aimed at developing new, low-cost and innovative technologies devoted to the design of 2D, 2,5D and 3D radiofrequency (RF) components including antennas printed on conformable materials. The targeted applications are primarily home-networking devices such as set-top boxes where their forms and dimensions are widely varied. Therefore, it is necessary to design antennas on flexible substrates.According to our needs for a substrate material that is flexible, low cost, with good RF properties, recycling ability, and especially ability to make 3D structures, after considering various dielectric materials for flexible electronics, paper substrate appeared to be the most suitable for our purpose.The work of this thesis conducted in three phases.In the first phase, it was the study of methods for characterization of materials to obtain their electromagnetic properties. After analysis, the method of perturbation using a cylindrical cavity was chosen for characterization of paper. The first results of this process were verified by realization and testing of simple antennas such as CPW-fed monopoles on paper and PET. Then, the measurement of E4D paper substrate was performed with 50 samples cut from various E4D paper sheets of three different thicknesses, 104 m, 210 m and 387 m. The results were analyzed statistically and gave r = 3.184, tan = 0.092.The dispersions of the results measured at 2.5 GHz are 0.25% for r and 0.26% for tan. These results were used for the next phase.In the second phase, different antennas were designed on 0.104-mm and 0.21-mm thick E4D paper including IFAs, SIW cavity-back antenna and microstrip-fed wideband monopole antennas. The prototypes were realized using screen printing technique and tested for matching property and radiation patterns.In the third phase the proposed antennas were studied in realistic package conditions, where a set-top box was made of ABS plastic with different dimensions. The first case was with two MIMO antennas orthogonally located in different ABS boxes with sufficient space, so that both of them can remain flat. The second case was a box with a restricted height, so that at least one of the antennas needs to be bent.Thus, a study of bending effect was carried out, first of all, with a simple straight dipole and a straight monopole on E4D paper, then with a wideband antenna proposed in the second phase. The study showed, that bending does not much affect the matching of the antenna over a wide frequency band. However, its radiation patterns rotate in the E-plane with a rotation angle depending on the bending location and bending angle.Then, the MIMO system of two antennas placed orthogonally in an ABS box with restricted height so that one antenna needed to be bent and another remained flat. In all cases of MIMO antenna system, we obtained good isolation (>20 dB) and Envelope Correlation Coefficient (ECC) less than 0.05
APA, Harvard, Vancouver, ISO, and other styles
19

Wang, Fan. "Imagerie nanométrique 2D et 3D ultrarapide par diffraction cohérente." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112226/document.

Full text
Abstract:
La diffraction cohérente est une technique étonnante par sa simplicité expérimentale : une source XUV cohérente illumine un échantillon unique, isolé, et la figure de diffraction de l’objet est enregistrée sur une caméra CCD. Une inversion de la figure de diffraction à une image dans l’espace réel est possible grâce à une approche basée sur des algorithmes itératifs. Les techniques d’holographie par transformée de Fourier, pour lesquelles une référence est placée à proximité de l’objet que l’on veut imager, permettent-elles la reconstruction directe de l’image, même lorsque la qualité des données expérimentales est moindre. Nous disposons dans notre laboratoire d’une source compacte XUV suffisamment intense pour réaliser ce type d’expérience. Les impulsions XUV ultrabrèves (femtoseconde à attoseconde) sont produites en sélectionnant les harmoniques d’ordre élevé d’un laser infra-rouge femtoseconde focalisé dans une cellule de gaz rare. Nous avons récemment démontré la possibilité d’utiliser cette source pour l’imagerie par diffraction cohérente avec une résolution spatiale de 78 nm. De plus, nous avons démontré expérimentalement une technique d’holographie avec référence étendue, et obtenu une résolution de 110 nm en simple tir (soit un temps d’intégration de 20 femtosecondes). Une perception d’un objet en trois dimensions nous donne une meilleure compréhension de celui-ci. A l’échelle nanométrique, les techniques d’imagerie 3D sont issues de techniques tomographiques autour de la microscopie électronique. Cependant, les nombreuses prises de vue nécessaires (sous des angles différents) rendent ces techniques caduques lors de l’étude résolue en temps de phénomènes irréversibles sur des échantillons non reproductibles. Dans ce contexte, le but de ma thèse est d’étendre les techniques d’imagerie 2D à une perception 3D d’objets nanométriques (physiques, biologiques), tout en préservant l’aspect ultrarapide. Le développement d’une nouvelle technique d’imagerie cohérent 3D en seul vue, l’ankylographie, proposée par le professeur J. Miao de UCLA [Raines et al., Nature 2010] a été effectué. Cette technique permet de reconstruire l’image 3D d’un échantillon d’après une unique image de diffraction. Son principe basique est de retrouver la profondeur d’un objet 3D par l’interférence constructive longitudinale. Cependant, cette technique d’imagerie cohérent 3D est plus exigeante en termes de qualité de données expérimentales comme en moyen informatique d’analyse et d’inversion. L’autre idée en imagerie 3D est de mimer la vision humaine en utilisant deux faisceaux X cohérents arrivant simultanément sur l’échantillon mais avec un petit angle. Dans ce schéma, on utilise des références à coté de l’objet mire (holographie) pour améliorer le rapport signal sur bruit dans la figure de diffraction (soit hologramme). On recueille ensuite deux hologrammes sur le même détecteur. L’inversion Fourier de chacun des hologrammes forme deux images issues d’une vision différente de l’objet. La parallaxe est ainsi réalisée. La reconstruction stéréo de l’objet est effectuée numériquement. Enfin, des applications de démonstration seront envisagées après ma thèse. Il s’agit d’imager des objets biologiques (nanoplanktons déjà collectés et préparés au CEA). Et nous nous intéresserons également à l’étude du mouvement 3D d’objets nanométriques (azo-polymères) sur des temps ultracourts. Une autre application importante sera d’étudier la transition de phase ultra-rapide tel que le nano-domaine magnétique où des phénomnes de désaimantation induite par des impulsion femtoseconde ont lieu
Coherent diffraction is an amazing art by its experimental simplicity: a coherent XUV source illuminates a single, isolated sample, and the diffraction pattern of the object is recorded by a CCD camera. An inversion of the diffraction pattern to an image in real space is possible through an approach based on iterative algorithms. The techniques for Fourier transform holography, for which reference is placed near the object to be imaged, allow the direct reconstruction of the image, even when the quality of the experimental data is worse. We have a laboratory sufficiently intense compact XUV source for this type of experience. The ultrashort XUV pulses (from femtosecond to attosecond) are produced by selecting high order harmonics of a femtosecond infrared laser which is focused into a cell of rare gas. We recently demonstrated the feasibility of using this source for coherent diffraction imaging with a spatial resolution of 78 nm. Furthermore, we demonstrated experimentally a holographic technique with extended reference and obtained a resolution of 110 nm in single shot (i.e. an integration time of 20 femtoseconds). A perception of an object in three dimensions gives us a better understanding thereof. A nanoscale 3D imaging techniques are from tomographic techniques of electron microscopy. However, many shots required (from different angles) make these techniques obsolete during the study time-resolved irreversible phenomena on non-reproducible samples. In this context, the aim of my thesis is to extend the 2D imaging techniques for 3D perception of nanoscale (physical, biological ) objects, while preserving the ultrafast appearance. The development of a new technology of 3D coherent imaging in single view, named ‘ankylography’, proposed by Professor Miao J. UCLA [Raines et al., Nature 2010] was made in progress. This technique allows reconstructing a 3D image of the sample after a single diffraction image. Its basic principle is to find the depth of a 3D object by the longitudinal constructive interference. However, this technique is more requested in both the quality of experimental data and the computer hardware and analysis. The other idea for 3D imaging is to imitate human vision using two coherent beams X arriving simultaneously on the sample but with a small angle. In this scheme, we use references near the target object (i.e. holography) to improve the signal to noise ratio in the diffraction pattern (hologram). Two holograms are then collected on the same detector. The inverse Fourier of each hologram forms two images from different views of the object. Parallax is thus produced. The stereo reconstruction of the object is performed by computer. Finally, the demonstration of applications will be considered after my thesis. This imaging of biological objects (such as nanoplanktons already collected and prepared CEA). And we are also interested in the study of 3D nanoscale objects (azo-polymers) movement on ultrashort time. Furthermore, another important application will be to study the ultra-fast phase transition such as nano-magnetic field where demagnetization phenomena induced by femtosecond pulse occurs
APA, Harvard, Vancouver, ISO, and other styles
20

Gautier, Valérie. "Imagerie sismique 2D et 3D : Application aux ouvrages d'art." Paris 6, 1991. http://www.theses.fr/1991PA066496.

Full text
Abstract:
De nombreux problemes de reconnaissance en genie civil necessitent la construction d'images de milieux varies. Pour cela, une methode de tomographie sismique originale, appliquant une technique d'inversion geometrique, a ete mise au point par le laboratoire des ponts et chaussees. Elle presente l'avantage de pouvoir absorber facilement, en temps de calcul et en taille memoire, la quantite importante de donnees qu'exigent les methodes globales. Dans le cadre de cette these, une methodologie de mesure, en relation avec la diversite des cas de figure rencontres en genie civil, a ete developpee et automatisee. Du point de vue theorique, les principaux apports sont constitues par la possibilite de fournir au programme une connaissance a priori sur le milieu. Le fonctionnement des procedures de calcul est par ailleurs discute et differents tests leur sont appliques. Mais de nombreuses applications ne peuvent etre abordees convenablement par des methodes a 2d et necessitent une reconnaissance globale a 3d. Une nouvelle methode d'imagerie a donc ete developpee. Il fallait definir des algorithmes de reconstruction prevoyant une transposition a 3d des caracteristiques de la technique d'inversion a 2d. Les contraintes, d'une inversion a 3d, peuvent etre traitees par ce type de methode. Pour conserver ses performances, cette methode a ete dotee en plus d'un trace de rais analytiques qui simplifie le calcul de leur trajectoire dans l'espace. Pour la mise en uvre, une procedure experimentale destinee a la collecte des donnees a 3d est etudiee. Dans le domaine des ouvrages d'art, nous presentons plusieurs resultats obtenus a partir de ces techniques d'imagerie a 2d et 3d
APA, Harvard, Vancouver, ISO, and other styles
21

TALEB, ABDELHAFED. "Organisation en 2d et 3d de nanoparticules : synthese et proprietes specifiques." Paris 6, 1998. http://www.theses.fr/1998PA066632.

Full text
Abstract:
Dans ce travail, nous avons utilise les micelles inverses d'aot comme microreacteurs pour la synthese et le controle de taille des nanoparticules d'argent et de cobalt. Apres synthese, nous avons utilise des techniques d'extraction et de tri pour reduire la distribution en taille des particules jusqu'a environ 12%. Par microscopie electronique a transmission nous avons montre que les particules ainsi obtenues s'auto-organisent pour former des structures bidimensionnelles (2d) sous un reseau hexagonale et tridimensionnelles (3d) sous un reseau cubique faces centrees. Ces nanostructures montrent de nouvelles proprietes specifiques. Par spectroscopie uv-visible, nous avons etudie les proprietes optiques de structures 2d et 3d de nanoparticules d'argent. Les spectres de plasmon obtenus pour les structures 2d montrent clairement un elargissement et un deplacement de la bande de plasmon vers les faibles energies ce que nous avons explique par une modification de l'environnement dielectrique des particules. Dans le cas de structures 3d, la reponse optique est caracterisee par un affinement de la bande ce qui traduit une augmentation du libre parcours moyen des electrons de conduction sur plusieurs particules du reseau probablement par effet tunnel. La spectroscopie uv-visible, par reflexion pour differentes polarisations, nous a permis egalement de mettre en evidence une anisotropie optique dans une monocouche de nanoparticules d'argent. Ce que nous avons attribue a des interactions dipolaires ou a un transfert d'electrons entre particules ou particules support. Dans le cas de nanoparticules de cobalt une etude magnetique a ete menee pour la premiere fois sur une structure 2d. Les resultats ont permis de faire une comparaison par rapport a ceux de la particule isolee. Les mesures magnetiques de l'aimantation en fonction de la temperature (zfc/fc) ont montre un deplacement de 5k de la temperature de blocage des particules deposees sur support par rapport a celle des particules en solution. De meme le cycle d'hysteresis est sensiblement modifie, une augmentation de l'aimantation remanente ainsi qu'une saturation a des champs plus faibles a pu etre mis en evidence. Cet effet est due tres vraisemblablement aux effets collectifs dans l'organisation attribuee aux interactions entre particules.
APA, Harvard, Vancouver, ISO, and other styles
22

Poulain, Emmanuelle. "Recalage déformable entre angioscanner cardiaque 3D statique et angiographie coronaire dynamique 2D+t." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4068/document.

Full text
Abstract:
L’angioplastie coronarienne est une intervention guidée par rayons X et réalisée par voie endovasculaire qui restaure le diamètre des vaisseaux coronaires réduit par accumulation de corps gras au sein de leurs parois. Lors de cette procédure, un guide est introduit à partir d’une artère qui peut être située au poignet ou au niveau de l’aine. La technique consiste alors à amener dans le vaisseau pathologique un ballonnet gonflable dans la zone rétrécie, localisée grâce à l’injection préalable d’un produit de contraste. Le gonflement du ballonnet élargit l’artère et s’accompagne en général de la pose d’un stent, structure métallique capable de renforcer la paroi. Le geste clinique peut être facilité en intégrant aux images le détail de la nature de la paroi, information disponible avec un scanner 3D. Le but de cette thèse est de proposer une méthode de recalage déformable pour superposer cette information 3D à des images angiographiques 2D per-opératoire en déformant le modèle 3D afin qu’il suive la dynamique cardiaque capturée dans les images angiographiques. Nous introduisons un algorithme de segmentation capable de segmenter automatiquement les vaisseaux principaux dans ces images angiographiques. Ensuite, nous présentons une approche de suivi du vaisseau 3D pathologique dans une séquence 2D+t combinant appariements et déformation d’une courbe spline. Enfin, nous décrivons l’extension au suivi d'un arbre vasculaire 3D, représenté par un arbre dont les arcs sont des courbes splines, dans une séquence 2D+t. Nous avons privilégié les approches applicables avec une seule projection angiographique, bien adapté au déroulement usuel des procédures cliniques. La performance des algorithmes a fait l’objet d’évaluations quantitatives sur des données réelles incluant 30 images pour la segmentation et 23 séquences pour le recalage
Coronary angioplasty is an X-ray guided intervention, which aims at recovering the diameter of coronary vessels when the accumulation of fat in the vessel wall reduced it. During this procedure, a guide-wire is inserted in the blood vessel located at the wrist or groin. This guide-wire brings into the pathologic vessel a balloon at the level of the fat accumulation, thanks to a previous contrast injection which highlights the lesion. The balloon is inflated and very frequently a thin mesh tube of metallic wires (stent), which is wrapped around the balloon, is then expanded during the balloon inflation. The procedure could benefit from additional information on the nature of the inner wall, available on 3D CT scan. The aim of the thesis is to propose a dynamic registration to superimpose this 3D information onto the intraoperative 2D angiographic sequence, by deforming the 3D model so that it can follow the cardiac motion captured thanks to the angiographic images. We introduce a segmentation algorithm able to automatically segment the main vessels of the angiographic images. Then, we present a tracking approach of the 3D pathologic vessel in a 2D+t sequence combining pairings and the deformation of a spline curve. Finally, we describe the extension to the 3D vascular tree tracking represented by a tree, whose edges are spline curves, in a 2D+t sequence. We favored approaches that are applicable to a single angiographic projection, which is well adapted to the usual process of clinical procedures. All the proposed methods have been tested on real data, consisting of 30 angiographic images for the segmentation algorithm and 23 angiographic sequences for the registration algorithms
APA, Harvard, Vancouver, ISO, and other styles
23

Gaudeau, Yann. "Contributions en compression d'images médicales 3D et d'images naturelles 2D." Phd thesis, Université Henri Poincaré - Nancy I, 2006. http://tel.archives-ouvertes.fr/tel-00121338.

Full text
Abstract:
L'imagerie médicale moderne génère des données considérables pouvant rapidement saturer les systèmes de transmission et de stockage. La nécessité de compresser les images apparaît donc aujourd'hui incontournable. Actuellement, la seule compression tolérée par les médecins est celle sans pertes. Cependant ce type de compression n'offre que des gains limités. Dans ce contexte, la compression "avec pertes" maîtrisées peut être la réponse la plus appropriée.
Ainsi, nous proposons une méthode de compression avec pertes basée sur une transformée en ondelettes 3D suivie d'une Quantification Vectorielle Algébrique avec Zone Morte 3D (QVAZM 3D) pour les images radiologiques. La principale contribution de ce travail réside dans la conception d'une zone morte multidimensionnelle qui permet de prendre en compte les corrélations entre les voxels voisins. Les résultats sur une base d'IRM et scanner couramment utilisés montrent une supériorité visuelle et numérique de notre méthode par rapport à plusieurs des meilleurs codeurs. Ces résultats visuels prometteurs sont confirmés sur des scanners ORL à travers une évaluation de deux spécialistes du domaine.
La seconde contribution de cette thèse concerne l'évaluation de l'impact d'une compression avec pertes sur les performances d'un CAD (outil d'aide à la décision) performant pour la détection automatique de nodules pulmonaires. Ce travail original sur une population significative de 120 scanners de poumons a montré que la détection n'était pas détériorée par la compression jusqu'à un niveau de compression de 48 : 1 et restait robuste jusqu'à 96 : 1.
La dernière contribution de cette thèse traite de la réduction de la complexité de notre schéma de compression. Nous proposons deux méthodes d'allocations de débits pour les images naturelles et médicales. La première allocation consacrée à la QVAZM 2D s'appuie sur un ajustement précis des courbes débit-distorsion (R-D) en les approximant par un simple modèle exponentiel. La seconde allocation proposée pour les images naturelles 2D et médicales 3D utilise des modèles statistiques par blocs pour modéliser les courbes R-D. Ces modèles R-D s'appuient sur une modélisation de la distribution conjointe des vecteurs de coefficients d'ondelettes par un mélange de gaussiennes généralisées (multidimensionnelles).
APA, Harvard, Vancouver, ISO, and other styles
24

El, Rhabi Youssef. "Alignement de données 2D, 3D et applications en réalité augmentée." Doctoral thesis, Universitat Autònoma de Barcelona, 2017. http://hdl.handle.net/10803/405363.

Full text
Abstract:
Aquesta tesi s’emmarca en el context de la realitat augmentada. La problemàtica més gran consisteix en l’estimació de la posició de la càmera en temps real. Aquesta estimació s’ha de fer seguint tres criteris principals: precisió, robustesa i eficiència computacional. En el marc d’aquesta tesi, establim alguns mètodes que permetin un millor ús de les primitives de les imatges. En el nostre cas, les primitives de les imatges són els punts característics. Per aconseguir aquest objectiu, ens basem en la textura d’aquesta imatge. Primerament, establim una arquitectura que faciliti una estimació de la posició més ràpida, sense pèrdua de precisió o robustesa. Aquesta arquitectura es basa en la utilització de la informació recollida durant una fase offline, en la qual reconstruïm l’escena en 3D. Utilitzem tota aquesta informació per a construir un graf de veïnatge dins de les imatges de la base de dades. Aquest graf de veïnatge ens permet seleccionar les imatges més rellevants per tal de calcular la posició de la càmera de manera més eficaç. En tant que els processos de descripció i matching no són prou ràpids, s’han optimitzat els càlculs, la qual cosa ens ha portat a proposar el nostre propi descriptor. Amb aquesta finalitat, hem construït un esquema genèric basat en la teoria de la informació la qual engloba una bona part dels descriptors binaris, inclòs el recent descriptor anomenat BOLD. El nostre objectiu ha estat, com per a BOLD, incrementar l’estabilitat dels descriptors produïts en els canvis d’orientació. Per aconseguir-ho, hem dissenyat un nou esquema de selecció offline que s’adapta millor al procés de matching online, que ens permet integrar les millores al descriptor que hem construït. Tot això ens permet millorar les actuacions del descriptor especialment en termes de rapidesa en comparació amb els descriptors de l’estat de l’art. En aquesta tesi descrivim diversos mètodes utilitzats per a estimar la posició de la càmera més eficientment. Dels resultats del treball n’han sorgit dues publicacions (una nacional i una altra internacional) així com una sol·licitud de patent. Realitat augmentada: SFM,SLAM, estimació de la posició a temps real, descriptors basats en punts característics, aprenentatge, enregistrament 2D/3D
Cette thèse s’inscrit dans le contexte de la réalité augmentée (RA). La problématique majeure consiste à calculer la pose d’une caméra en temps réel. Ce calcul doit être effectué en respectant trois critères principaux : précision, robustesse et rapidité. Dans le cadre de cette thèse, nous introduisons certaines méthodes permettant d’exploiter au mieux les primitives des images. Dans notre cas, les primitives sont des points que nous allons détecter puis décrire dans une image. Pour ce faire, nous nous basons sur la texture de cette image. Nous avons dans un premier temps mis en place une architecture favorisant le calcul rapide de la pose, sans perdre en précision ni en robustesse. Nous avons pour cela exploité une phase hors ligne, où nous reconstruisons la scène en 3D. Nous exploitons les informations que nous obtenons lors de cette phase hors ligne afin de construire un arbre de voisinage. Cet arbre lie les images de la base de données entre elles. Disposer de cet arbre nous permet de calculer la pose de la caméra plus efficacement en choisissant les images de la base de données jugées les plus pertinentes. Nous rendant compte que la phase de description et de comparaison des primitives n’est pas suffisamment rapide, nous en avons optimisé les calculs. Cela nous a mené jusqu’à proposer notre propre descripteur. Pour cela, nous avons dressé un schéma générique basé sur la théorie de l’information qui englobe une bonne part des descripteurs binaires, y compris un descripteur récent nommé BOLD [BTM15]. Notre objectif a été, comme pour BOLD, d’augmenter la stabilité aux changements d’orientation du descripteur produit. Afin de réaliser cela, nous avons construit un nouveau schéma de sélection hors ligne plus adapté à la procédure de mise en correspondance en ligne. Cela permet d’intégrer ces améliorations dans le descripteur que nous construisons. Procéder ainsi permet d’améliorer les performances du descripteur notamment en terme de rapidité en comparaison avec les descripteurs de l’état de l’art. Nous détaillons dans cette thèse les différentes méthodes que nous avons mises en place afin d’optimiser l’estimation de la pose d’une caméra. Nos travaux ont fait l’objet de 2 publications (1 nationale et 1 internationale) et d’un dépôt de brevet. Réalité augmentée: SFM,SLAM, estimation de pose temps réel, description, apprentissage, recalage 2D/3D
This thesis belongs within the context of augmented reality. The main issue resides in estimating a camera pose in real-time. This estimation should be done following three main criteria: precision, robustness and computation efficiency. In the frame of this thesis we established methods enabling better use of image primitives. As far as we are concerned, we limit ourselves to keypoint primitives. We first set an architecture enabling faster pose estimation without loss of precision or robustness. This architecture is based on using data collected during an offline phase. This offline phase is used to construct a 3D point cloud of the scene. We use those data in order to build a neighbourhood graph within the images in the database. This neighbourhood graph enables us to select the most relevant images in order to compute the camera pose more efficiently. Since the description and matching processes are not fast enough with SIFT descriptor, we decided to optimise the bottleneck parts of the whole pipeline. It led us to propose our own descriptor. Towards this aim, we built a framework encompassing most recent binary descriptors including a recent state-of-the-art one named BOLD. We pursue a similar goal to BOLD, namely to increase the stability of the produced descriptors with respect to rotations. To achieve this goal, we have designed a novel offline selection criterion which is better adapted to the online matching procedure introduced in BOLD. In this thesis we introduce several methods used to estimate camera poses more efficiently. Our work has been distinguished by two publications (a national and an international one) as well as with a patent application. Augmented Reality: SFM, SLAM, real time pose computation, keypoint description, Machine learning, 2D/3D registration
APA, Harvard, Vancouver, ISO, and other styles
25

Gaudeau, Yann Moureaux Jean-Marie. "Contributions en compression d'images médicales 3D et d'images naturelles 2D." [S.l.] : [s.n.], 2006. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2006_0158_GAUDEAU.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Gaudeau, Yann. "Contributions en compression d’images médicales 3D et d’images naturelles 2D." Nancy 1, 2006. http://docnum.univ-lorraine.fr/public/SCD_T_2006_0158_GAUDEAU.pdf.

Full text
Abstract:
Dans ce manuscrit nous proposons une méthode de compression avec pertes basée sur une transformée en ondelettes 3D suivie d’une Quantification Vectorielle Algébrique avec Zone Morte 3D (QVAZM 3D) pour les images radiologiques. La principale contribution de ce travail réside dans la conception d'une zone morte multidimensionnelle qui permet de prendre en compte les corrélations entre les voxels voisins. Les résultats sur des images couramment utilisées montrent une supériorité visuelle et numérique de notre méthode par rapport à plusieurs des meilleurs codeurs. Ces résultats visuels sont confirmés sur des scanners ORL à travers une évaluation de deux spécialistes du domaine. La seconde contribution de cette thèse concerne l’évaluation de l'impact d'une compression avec pertes sur les performances d'un CAD performant pour la détection automatique de nodules pulmonaires. Ce travail original sur une population significative de 120 scanners de poumons a montré que la détection n'était pas détériorée par la compression jusqu'à un niveau de compression de 48 : 1. La dernière contribution de cette thèse traite de la réduction de la complexité de notre schéma de compression. Nous proposons deux méthodes d’allocations de débits. La première allocation consacrée à la QVAZM 2D s'appuie sur un ajustement des courbes débit-distorsion (R-D) en les approximant par un modèle exponentiel. La seconde allocation proposée pour les images naturelles 2D et médicales 3D utilise des modèles statistiques par blocs pour modéliser les courbes R-D. Ces modèles R-D s’appuient sur une modélisation de la distribution conjointe des vecteurs de coefficients d'ondelettes par un modèle MMGG
In this thesis, we propose a new lossy coding scheme based on 3D Wavelet Transform and Dead Zone Lattice Vector Quantization 3D (DZLVQ) for medical images. Our algorithm has been evaluated on several CT an MR image volumes. The main contribution of this work is the design of a multidimensional dead zone which enables to take into account correlations between neighbor voxels. At high compression ratios, we show that it can outperform visually and numerically the best existing methods. These promising results are confirmed on head CT by two medical patriciansThe second contribution of this document assesses the effect lossy image compression on CAD (Computered-Aided Decision) detection performance of solid lung nodules. This work on 120 significant lungs MTCDT shows that detection did not suffer until 48:1 compression and still was robust at 96:1. The last contribution consists in the complexity reduction of our compression scheme. The first allocation dedicated to 2D DZLVQ uses an exponential of the rate-distortion (R-D) functions. The second allocation for 2D and 3D medical images is based on block statistical model to estimate the R-D curves. These R-D models are based on the joint distribution of wavelet vectors using a multidimensional mixture of generalized Gaussian (MMGG) densities
APA, Harvard, Vancouver, ISO, and other styles
27

Bertin, Etienne. "Diagrammes de Voronoï 2D et 3D : applications en analyse d'images." Grenoble 1, 1994. http://tel.archives-ouvertes.fr/tel-00005078.

Full text
Abstract:
Cette thèse est axée sur la coopération entre l'analyse d'images et la géométrie algorithmique sur la base des diagrammes de Voronoi et de Delaunay. Le propos de l'analyse d'images est la description du contenu d'une image, en vue de son interprétation et d'une prise de décision. La géométrie algorithmique quant à elle consiste à trouver des algorithmes efficaces en vue de résoudre des problèmes a caractère géométrique. Nous nous intéresserons ici au problème de représentation des images par des partitionnements plus ou moins complexes, adaptes ou non au contenu informatif des images. Parmi ces partitionnements, nous développerons plus particulièrement celui en régions de Voronoi. Nous aborderons ensuite le problème du codage de formes tridimensionnelles par leur squelette qui est lié aux diagramme de Voronoi généralisé 3D. Nous montrerons enfin comment utiliser les partitionnements en région de Voronoi dans un contexte pyramidal contrôlé par un réseau de Hopfield en vue de la segmentation, et dans un contexte markovien en vue de trouver un partitionnement répondant a une certaine optimalité
APA, Harvard, Vancouver, ISO, and other styles
28

Turuban, Régis. "Études numérique et expérimentales du mélange en milieux poreux 2D et 3D." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S051/document.

Full text
Abstract:
Le mélange de solutés par les écoulements en milieux poreux contrôle les réactions chimiques dans un grand nombre d'applications souterraines, dont le transport et la remédiation des contaminants, le stockage et l'extraction souterrains d'énergie, et la séquestration du CO2. Nous étudions les mécanismes du mélange à l'échelle du pore et plus précisément comment la topologie de l'écoulement est reliée à la dynamique du mélange d'espèces conservatives; en particulier, l'émergence d'un mélange chaotique est-elle possible dans un milieu poreux tridimensionnel (3D) ? Nous calculons donc numériquement ou mesurons expérimentalement les vitesses d'écoulement et l'évolution temporelle des champs de concentration afin de caractériser la déformation et le mélange à l'échelle du pore. Une première étude, expérimentale, permet de caractériser le mélange dans un fluide s’écoulant à travers un milieu poreux bidimensionnel (2D). Nous mesurons les vitesses par suivi de microparticules solides (''PTV''). L’évolution temporelle de la distance séparant deux particules permet de caractériser la dynamique de la déformation lagrangienne. Des mesures de transport conservatif dans le même milieu fournissent l'évolution temporelle du gradient de concentration moyen (une mesure du mélange). À partir de ces résultats expérimentaux nous proposons la première validation expérimentale à l'échelle du pore de la théorie lamellaire du mélange, reliant les propriétés de la déformation du fluide à la dynamique du mélange. Dans une deuxième étude nous examinons les conditions d'apparition du mélange chaotique dans l’écoulement dans des milieux poreux 3D granulaires ordonnés. Nous effectuons des calculs numériques hautement résolus de d'écoulement de Stokes entre des sphères empilées selon une structure cristalline (cubique simple ou cubique centrée), périodique. La déformation lagrangienne, obtenue à partir des champs de vitesse à l'aide d'outils numériques développés spécifiquement, met en lumière une large variété de dynamiques de la déformation dans ces milieux 3D, selon l'orientation de l'écoulement. Quand la direction de l'écoulement n'est pas normale à l'un des plans de symétrie de réflection du cristal, l'évolution temporelle de la déformation est exponentielle, traduisant une advection chaotique. L’émergence (ou non) du chaos est contrôlée par un mécanisme similaire à la ''transformation du boulanger'': les particules fluides se déplaçant autour d'un grain solide se retrouvent séparées par une surface virtuelle (appelée “variété”) qui émerge de la surface du grain. De multiples variétés existent dans l’écoulement, et la façon dont elles s'intersectent contrôle la nature - chaotique ou non - du mélange, et l'intensité du chaos. En particulier, l'exposant de Lyapunov (une mesure du chaos), est contrôlé par la fréquence spatiale des intersections appropriées à la génération du chaos, nommées ''connections hétéroclinines'' entre variétés. L'image conventionnelle, 2D, des mécanismes du mélange, impose des contraintes topologiques qui ne permettent pas le développement de ces mécanismes 3D. Elle pourrait donc être inadaptée aux milieux poreux naturels. La troisième étude a deux objectifs: (i) fournir une preuve expérimentale de la nature chaotique de l'advection, par la visualisation des variétés et par l'obtention d'une mesure de l'exposant de Lyapunov; et (ii), évaluer si nos résultats numériques obtenus pour des milieux granulaires ordonnés peuvent être généralisés à des milieux désordonnés, plus proches des milieux naturels. L’expérience est fondée sur un empilement désordonné de sphères rendu transparent par l'ajustement optique du liquide avec les sphères. La fluorescence induite par laser (''LIF'') permet de détecter les variétés au sein de l'écoulement, et des techniques PTV de mesurer les vitesses d'écoulement et quantifier l'exposant de Lyapunov. Les premiers résultats expérimentaux sont prometteurs
Solute mixing in porous media flows plays a central role in driving chemical reactions in a number of subsurface applications, including contaminant transport and remediation, subsurface energy storage and extraction, and CO2 sequestration. We study the mechanisms of solute mixing, in particular how the pore scale flow topology is related to the mixing dynamics of conservative solutes, with a particular emphasis on the possible emergence of chaotic mixing processes in three-dimensional (3D) porous media. To do so, we perform numerical computations or experimental measurements of the flow velocities and temporal evolution of the concentration fields, and characterize fluid deformation and mixing at the pore scale. This PhD work consists of three main studies. In the first study, we experimentally characterize mixing in a fluid flowing through a two-dimensional (2D) porous medium built by lithography. We measure the velocity distributions from Particle Tracking Velocimetry (PTV). The time evolution of the separation distance between two particles is analyzed to characterize the Lagrangian deformation dynamics. In parallel we perform conservative transport experiments with the same porous media, and quantify the temporal evolution of the mean concentration gradient, which is a measure of the mixing rate. From these experimental results we obtain the first experimental pore scale validation of the lamella mixing theory, which relates the fluid deformation properties to the mixing dynamics. In the second study, we investigate the conditions of emergence of chaotic mixing in the flow through 3D ordered granular porous media. In these periodic cubic crystalline packings (Simple Cubic - SC - and Body-Centered Cubic - BCC) of spheres, we are able to perform highly resolved computations of the 3D Stokes flow. Using custom-developed numerical tools to measure the Lagrangian deformation from the computed velocity fields, we uncover the existence of a rich array of Lagrangian deformation dynamics in these 3D media, depending on the flow orientation. When the flow direction is not normal to one of the reflection symmetry planes of the crystalline lattice, we find that the Lagrangian deformation dynamics follow an exponential law, which indicates chaotic advection. This chaotic behavior is controlled by a mechanism akin to the baker's transformation: fluid particles traveling around a solid grain along different paths end up either separated by, or on the same side of, a virtual surface projecting from the grain surface and called a manifold. Multiple such manifolds exist within the flow, and the way they intersect controls the nature of mixing (that is, either non-chaotic or chaotic), and the strength of chaos. We show in particular that the magnitude of the Lyapunov exponent (a measure of the vigor of chaos) is controlled by the spatial frequency of transverse connections between the manifolds (called heteroclinic intersections). We thus demonstrate that the conventional 2D picture of the mechanisms of mixing may not be adapted for natural porous media because that picture imposes topological constraints which cannot account for these important 3D mechanisms. The third study has two objectives: (i) provide experimental evidence of the chaotic nature of pore scale advection/mixing, both by visualizing the manifolds and by obtaining a quantitative estimate of the Lyapunov exponent; and (ii) assess if the results obtained numerically in ordered packings of spheres extend to random packings, which are closer to natural porous media. The experiment features a random packing of glass beads rendered transparent by optical index-matching between the fluid and solid grains. We use Laser Induced Fluorescence (LIF) to detect the manifolds, and PTV techniques to measure flow velocities and subsequently quantify Lyapunov exponent. The first experimental results are promising
APA, Harvard, Vancouver, ISO, and other styles
29

Boui, Marouane. "Détection et suivi de personnes par vision omnidirectionnelle : approche 2D et 3D." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLE009/document.

Full text
Abstract:
Dans cette thèse, nous traiterons du problème de la détection et du suivi 3D de personnes dans des séquences d'images omnidirectionnelles, dans le but de réaliser des applications permettant l'estimation de pose 3D. Ceci nécessite, la mise en place d'un suivi stable et précis de la personne dans un environnement réel. Dans le cadre de cette étude, on utilisera une caméra catadioptrique composée d'un miroir sphérique et d'une caméra perspective. Ce type de capteur est couramment utilisé dans la vision par ordinateur et la robotique. Son principal avantage est son large champ de vision qui lui permet d'acquérir une vue à 360 degrés de la scène avec un seul capteur et en une seule image. Cependant, ce capteur va engendrer des distorsions importantes dans les images, ne permettant pas une application directe des méthodes classiquement utilisées en vision perspective. Cette thèse traite de deux approches de suivi développées durant cette thèse, qui permettent de tenir compte de ces distorsions. Elles illustrent le cheminement suivi par nos travaux, nous permettant de passer de la détection de personne à l'estimation 3D de sa pose. La première étape de nos travaux a consisté à mettre en place un algorithme de détection de personnes dans les images omnidirectionnelles. Nous avons proposé d'étendre l'approche conventionnelle pour la détection humaine en image perspective, basée sur l'Histogramme Orientés du Gradient (HOG), pour l'adapter à des images sphériques. Notre approche utilise les variétés riemanniennes afin d'adapter le calcul du gradient dans le cas des images omnidirectionnelles. Elle utilise aussi le gradient sphérique pour le cas les images sphériques afin de générer notre descripteur d'image omnidirectionnelle. Par la suite, nous nous sommes concentrés sur la mise en place d'un système de suivi 3D de personnes avec des caméras omnidirectionnelles. Nous avons fait le choix de faire du suivi 3D basé sur un modèle de la personne avec 30 degrés de liberté car nous nous sommes imposés comme contrainte l'utilisation d'une seule caméra catadioptrique
In this thesis we will handle the problem of 3D people detection and tracking in omnidirectional images sequences, in order to realize applications allowing3D pose estimation, we investigate the problem of 3D people detection and tracking in omnidirectional images sequences. This requires a stable and accurate monitoring of the person in a real environment. In order to achieve this, we will use a catadioptric camera composed of a spherical mirror and a perspective camera. This type of sensor is commonly used in computer vision and robotics. Its main advantage is its wide field of vision, which allows it to acquire a 360-degree view of the scene with a single sensor and in a single image. However, this kind of sensor generally generates significant distortions in the images, not allowing a direct application of the methods conventionally used in perspective vision. Our thesis contains a description of two monitoring approaches that take into account these distortions. These methods show the progress of our work during these three years, allowing us to move from person detection to the 3Destimation of its pose. The first step of this work consisted in setting up a person detection algorithm in the omnidirectional images. We proposed to extend the conventional approach for human detection in perspective image, based on the Gradient-Oriented Histogram (HOG), in order to adjust it to spherical images. Our approach uses the Riemannian varieties to adapt the gradient calculation for omnidirectional images as well as the spherical gradient for spherical images to generate our omnidirectional image descriptor
APA, Harvard, Vancouver, ISO, and other styles
30

Damiand, Guillaume. "Définition et étude d'un modèle topologique minimal de représentation d'images 2d et 3d." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2001. http://tel.archives-ouvertes.fr/tel-00211340.

Full text
Abstract:
Dans cette thèse, nous définissons et étudions un modèle topologique de représentation d'images segmentées en 2 et 3 dimensions : la carte topologique. La définition d'un tel modèle est primordiale afin de définir des algorithmes de segmentation efficaces. Ce problème a été beaucoup étudié en dimension 2, mais les solutions proposées sont difficilement extensibles en dimension 3.

Pour répondre à ce problème, nous définissons d'abord la carte topologique en dimension 2 en ayant comme préoccupation principale son extension en dimension supérieure. Nous introduisons une notion de niveau de simplification qui permet une définition progressive, chaque niveau s'obtenant simplement à partir du niveau précédent par application d'un type particulier de fusion. Cette notion permet de simplifier la définition de la carte topologique qui correspond au dernier niveau. Ces niveaux de simplification s'étendent sans difficulté majeure en dimension 3, et en dimension n. Ils facilitent également l'étude de la carte topologique et la preuve de ses propriétés. Ce modèle est en effet minimal, complet, invariant par rotation, translation et homothétie, et unique.

Nous présentons des algorithmes d'extraction permettant de construire ce modèle à partir d'images segmentées. Un premier algorithme << naïf >> effectue plusieurs passes sur l'image et n'est pas linéaire en dimension 3. Nous étudions ensuite un algorithme optimal d'extraction, basé sur la notion de précode, effectuant un seul balayage de l'image et un nombre minimal d'opérations. Les niveaux de simplification permettent de regrouper les nombreux cas à traiter, en étudiant pour chaque niveau les cas supplémentaires par rapport au niveau précédent.
APA, Harvard, Vancouver, ISO, and other styles
31

Mille, Julien. "Modèle déformables pour la segmentation et le suivi en imagerie 2D et 3D." Tours, 2007. http://www.theses.fr/2007TOUR4051.

Full text
Abstract:
Les modèles déformables tels que les contours actifs sont des outils généraux et puissants pour la segmentation, en permettant notamment l'adjonction de contraintes et de connaissances a priori sur les objets à segmenter. Un modèle déformable est une structure géométrique déformée à l'aide d'une méthode d'évolution afin de s'ajuster aux frontières des objets recherchés. La segmentation est formulée comme un problèpmme d'optimisation, le but étant de déterminer la courbe ou la surface minimisant une fonction objectif (une énergie) composée de termes internes relatifs à la régularité géométrique du modèle et de termes externes qui mettent en relation le modèlle et l'image. Dans cette thèse, nous développons un modèle de contour actif pour la segmentation 2D et un modèle de surface active pour la segmentation 3D, ces deux modèles étant basés sur un formalisme unifié. Nous généralisons également le modèle de surface au problème de segmentation et suivi 3D+T. Nous proposons un ensemble d'amélioration de l'algorithme glouton, une méthode de minimisation numérique de la fonctionnelle d'énergie. Nous développons un nouveau terme externe basé région, que nous appelons énergie de région en bande étroite. Ce terme combine des caractéristiques locales et globales des structures d'intérêts et présente des avantages tant au niveau calculatoire qu'au niveau de la cohérence par rapport aux données
Deformabe models such as active contours are general and powerful tools for image segmentation, enabling to add constraints and prior knowledge about the objects to be segmented. Deformable models are geometrical structures deformed by an evolution method in order to fit the object boundaries. Segmentation is expressed as an optimization problem, which purpose is to determine the curbe of the surface minimizing an objective function (an energy), made up of internal terms related to to model's geometrical smoothness and external terms attaching the model to the image data. In this thesis, we develop an active contour model for 2D segmentation and an active surface model for 3D segmentation, both being based on a unified framework. We also extend the surface model to 3D+T segmentation and tracking. We propose several improvements on the greedy algorithm, a numerical method minimizing the objective function. We also develop an original region-based external term, referring it to as narroy band region energy. It combines local and global features about structures of interest and offers advantages relative to the computational cost and consistency with respect to data
APA, Harvard, Vancouver, ISO, and other styles
32

FLIFLA, MOHAMED. "Contribution au recalage d'images 2d et 3d. Applications en biologie et en medecine." Rennes 1, 1991. http://www.theses.fr/1991REN10031.

Full text
Abstract:
L'objectif du recalage est la mise en correspondance d'informations issues de plusieurs modalites ou provenant d'une meme modalite mais separees dans le temps. Deux nouvelles approches sont developpees. La premiere, le recalage a partir des silhouettes, repond a un triple objectif: elle recale des images 2d/2d, 3d/3d et une image 3d par rapport a ses projections. La deuxieme approche realise le recalage de deux images 3d a partir des surfaces extraites. La surface de l'objet reference est approchee par une representation tetraedrique, et l'objet a recaler est decrit par un ensemble de points de la surface. Le recalage est alors effectue en minimisant les distances points-tetraedres. Les deux derniers chapitres de cette these sont consacres aux applications dans les domaines biologique et medical. L'application en biologie vise d'une part a mettre en evidence, apres recalage, une symetrie d'ordre 4 dans les images d'une molecule de ferritine et d'autre part a determiner l'ultrastructure de la macromolecule d'alpha 2-macroglobuline. Un modele pour cette structure est finalement proposee. Une etude comparative des methodes introduites sur le plan theorique est realisee a partir de points caracteristiques, de moments et sur la base des approches par approximation de surface et silhouettes. Cette validation est effectuee sur des structures anatomiques osseuses imagees par scanner x
APA, Harvard, Vancouver, ISO, and other styles
33

Duong, An-Ninh. "Spécification, analyse, et résolution des problèmes géométriques 2D et 3D modélisés par contraintes." Châtenay-Malabry, Ecole centrale de Paris, 2003. http://www.theses.fr/2003ECAP0930.

Full text
Abstract:
Le développement d'un solveur de contraintes géométriques est un sujet de recherche très intéressant et très actif durant ces dernières années, surtout avec le développement croissant des logiciels CAO. L'approche retenue afin d'étudier les différentes configurations possibles induites par des contraintes dimensionnelles ou topologiques sur des objets géométriques, est basée sur une modélisation vectorielle. Les solveurs existants ont traité séparément les problèmes 2D et 3D. Ils ont défini des méthodes appropriées pour chaque espace. Ce modèle vectoriel permet d'intégrer complètement les espaces 2D et 3D en proposant un processus de résolution, comprenant la modélisation, l'analyse, la mise en équation, la résolution et la mise à jour qui peut traiter indifféremment les problèmes 2D et 3D. L'objectif de cette thèse est de développer un solveur de contraintes géométriques dans lequel l'analyse a un rôle primordial. L'analyse apparaît dans toutes les phases de résolution.
APA, Harvard, Vancouver, ISO, and other styles
34

Marin, Philippe. "Contrôles des calculs de structures 2D et 3D élastiques incompressibles et quasi incompressibles." Paris 6, 1991. http://www.theses.fr/1991PA066228.

Full text
Abstract:
Le contrôle des erreurs dues à une discrétisation e. F. Et le choix d'un maillage sont deux questions très importantes pour les calculs de structures, spécialement pour celles tridimensionnelles pour lesquelles les calculs demeurent très coûteux. Ce problème est traité ici pour des structures élastiques incompressibles ou quasi incompressibles, à la fois en 2D et en 3D. La démarche utilisée est une extension d'une méthode basée sur le concept d'erreur en relation de comportement et sur des techniques explicites de construction d'un couple déplacement-contrainte vérifiant rigoureusement les contraintes cinématiques et les équations d'équilibre. Par rapport aux études précédentes, deux nouvelles difficultés ont été résolues: 1) l'application de la méthode à une première formulation mixte, celle d'Herrman formulation adaptée aux matériaux incompressibles. Il est à noter que dans le cas incompressible, la solution adoptée conduit à construire de façon locale et à partir de la solution E. F. , un champ de déplacement rigoureusement admissible; 2) l'extension des techniques de construction de champs admissibles aux éléments 3D les plus courants. Un post-processeur de calcul d'erreur a été développé au cours de cette étude et différents résultats 2D et 3D sont présentés dans ce mémoire
APA, Harvard, Vancouver, ISO, and other styles
35

Giannakis, Mélina. "Construction et représentation spatiale de l'interactivité numérique par manipulation d'informations 2D et 3D." Master's thesis, Université Laval, 2001. http://hdl.handle.net/20.500.11794/34436.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Bilodeau, Guillaume-Alexandre. "Segmentation en parties d'objets 3D provenant d'images 2D réelles et complexes." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape8/PQDD_0011/MQ41855.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Diarra, Bakary. "Étude et optimisation de sondes matricielles 2D pour l'imagerie ultrasonore 3D." Phd thesis, Université Claude Bernard - Lyon I, 2013. http://tel.archives-ouvertes.fr/tel-00933152.

Full text
Abstract:
L'imagerie échographique en trois dimensions (3D) est une modalité d'imagerie médicale en plein développement. En plus de ses nombreux avantages (faible cout, absence de rayonnement ionisant, portabilité) elle permet de représenter les structures anatomiques dans leur forme réelle qui est toujours 3D. Les sondes à balayage mécaniques, relativement lentes, tendent à être remplacées par des sondes bidimensionnelles ou matricielles qui sont un prolongement dans les deux directions, latérale et azimutale, de la sonde classique 1D. Cet agencement 2D permet un dépointage du faisceau ultrasonore et donc un balayage 3D de l'espace. Habituellement, les éléments piézoélectriques d'une sonde 2D sont alignés sur une grille et régulièrement espacés d'une distance (en anglais le " pitch ") soumise à la loi de l'échantillonnage spatial (distance inter-élément inférieure à la demi-longueur d'onde) pour limiter l'impact des lobes de réseau. Cette contrainte physique conduit à une multitude d'éléments de petite taille. L'équivalent en 2D d'une sonde 1D de 128 éléments contient 128x128=16 384 éléments. La connexion d'un nombre d'éléments aussi élevé constitue un véritable défi technique puisque le nombre de canaux dans un échographe actuel n'excède que rarement les 256. Les solutions proposées pour contrôler ce type de sonde mettent en oeuvre du multiplexage ou des techniques de réduction du nombre d'éléments, généralement basées sur une sélection aléatoire de ces éléments (" sparse array "). Ces méthodes souffrent du faible rapport signal à bruit du à la perte d'énergie qui leur est inhérente. Pour limiter ces pertes de performances, l'optimisation reste la solution la plus adaptée. La première contribution de cette thèse est une extension du " sparse array " combinée avec une méthode d'optimisation basée sur l'algorithme de recuit simulé. Cette optimisation permet de réduire le nombre nécessaire d'éléments à connecter en fonction des caractéristiques attendues du faisceau ultrasonore et de limiter la perte d'énergie comparée à la sonde complète de base. La deuxième contribution est une approche complètement nouvelle consistant à adopter un positionnement hors grille des éléments de la sonde matricielle permettant de supprimer les lobes de réseau et de s'affranchir de la condition d'échantillonnage spatial. Cette nouvelle stratégie permet d'utiliser des éléments de taille plus grande conduisant ainsi à un nombre d'éléments nécessaires beaucoup plus faible pour une même surface de sonde. La surface active de la sonde est maximisée, ce qui se traduit par une énergie plus importante et donc une meilleure sensibilité. Elle permet également de balayer un angle de vue plus important, les lobes de réseau étant très faibles par rapport au lobe principal. Le choix aléatoire de la position des éléments et de leur apodization (ou pondération) reste optimisé par le recuit simulé. Les méthodes proposées sont systématiquement comparées avec la sonde complète dans le cadre de simulations numériques dans des conditions réalistes. Ces simulations démontrent un réel potentiel pour l'imagerie 3D des techniques développées. Une sonde 2D de 8x24=192 éléments a été construite par Vermon (Vermon SA, Tours France) pour tester les méthodes de sélection des éléments développées dans un cadre expérimental. La comparaison entre les simulations et les résultats expérimentaux permettent de valider les méthodes proposées et de prouver leur faisabilité.
APA, Harvard, Vancouver, ISO, and other styles
38

Leclercq, Jean François. "Imagerie microonde active pour applications biomédicales : systèmes 2D et 3D monochromatiques." Paris 11, 1985. http://www.theses.fr/1985PA112285.

Full text
Abstract:
Cette thèse présente une étude de systèmes d'imagerie microonde active, fondés sur la méthode de tomographies par diffraction. Cette forme d'imagerie a pour but d'obtenir des renseignements complémentaires aux autres systèmes d'imagerie existant par ailleurs, en particulier sur les caractéristiques diélectriques des corps, et sur tout facteur physique infuençant ceux-ci comme par exemple la température. Le principe en est le suivant l'objet sous investigation est illuminé par une onde plane centimétrique, ce qui crée à l'intérieur de l'objet des courants équivalents induits, qui vont à leur tour générer un champ diffracté dans tout l'espace. A partir de la mesure de ce champ diffracté, on peut obtenir les courants équivalents qui lui ont donné naissance. Ce travail concerne les algorithmes de reconstruction, à deux et trois dimensions pour des systèmes multivues monochromatiques, l'amélioration de la résolution et la réduction du temps d'obtention d'une image, ainsi que les vérifications numériques et expérimentales des résultats théoriques. La méthode employée est celle du spectre d'ondes planes qui permet d'obtenir une relation simple entre les transformées de Fourier du champ diffracte et des courants équivalents. Du point de vue expérimental tridimensionnel, un prototype unique de caméra microonde, qui mesure le champ électrique sur une surface plane grâce à la méthode de diffusion modulée, a été mise à notre disposition et cette étude a également concerné la caractérisation de cette caméra. Nous présentons ici les premiers résultats que nous avons pu obtenir sur des fantômes
This work concerns microwave imaging systems, based upon the method of diffraction tomography. We can obtain informations about dielectric properties and physical parameters influencing them as, for instance, the temperature. The principle can be described in this way the abject under investigation is illuminated by a plane wave, with a wave length of about one centimeter. This creates inside the abject equivalent currents, which generate a diffracted field in the whole space. From the measure of the diffracted field, we can obtain the equivalent currents. We have studied the reconstruction algorithms, in two and three dimensions for multiview monochromatic systems, the improving of the resolution, and the decreasing of the total time for the obtention of an image, and also the numerical and experimental checkings of the theoretical results. We employ the spectrum of plane waves method which gives an easy relation between the Fourier transforms of the diffracted field and of the equivalent currents. Experimentally in three dimensions, we measured the electric field on a plane area with a microwave camera, using the modulated scattering technique. We have caracterised this camera and we present here the first results obtained with phantoms
APA, Harvard, Vancouver, ISO, and other styles
39

Sebbahi, Ali. "Segmentation 2D et 3D par modèles déformables en imagerie cardio-vasculaire." Paris 12, 1995. http://www.theses.fr/1995PA120040.

Full text
Abstract:
Nous placons notre etude dans le cadre de la segmentation 2d et 3d en imagerie cardio-vasculaire d'une structure bien definie: une cavite sanguine entouree par une paroi musculaire. Si d'un point de vue theorique, les deux milieux, sang et paroi, sont consideres comme quasi-homogenes, il en est rarement ainsi. Toutes les modalites d'imagerie (scanner x, irm, imagerie ultrasonore) rencontrent ces deux problemes, qui sont differemment caracterises selon l'agent physique employe. Nous etablissons un modele 3d de deformation de surface pour reconstruire le volume cardiaque, a partir de coupes d'images 2d, ou analyser dynamiquement les sequences d'images 2d. Afin de mieux prendre en compte les problemes lies a l'estimation de l'interface entre la cavite et la paroi, la segmentation est realisee a un niveau local, regional et global. Cette procedure se decompose en deux processus d'equilibre complementaires et sequentiels. D'une part, un processus de deformation discret deplace un point, independamment des autres points du maillage, vers un minimum local du champ externe et, d'autre part, un processus de stabilisation continu, par une interpolation spline bicubique, evalue si le point deplace correspond a un minimum regional du champ externe (seuil de distance de chanfrein). La convergence du processus de segmentation est obtenue par stabilisation de morceaux de contours dans le cas 2d et par stabilisation de surfaces elementaires en 3d. Le compromis entre la forme et la nature de l'objet depend des poids relatifs entre les differents termes d'energie. Ceux-ci sont controles de maniere adaptative, par un critere de concavite lie a la geometrie du systeme cardio-vasculaire. Une validation 2d et des resultats 3d sur differents volumes cardio-vasculaires, ont permis d'obtenir des resultats satisfaisants pour lesquels la variation des parametres est relativement faible et rend par consequent le processus de segmentation robuste
APA, Harvard, Vancouver, ISO, and other styles
40

Baudour, Alexis. "Détection de filaments dans des images 2D et 3D : modélisation, étude mathématique et algorithmes." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00507520.

Full text
Abstract:
Cette thèse aborde le problème de la modélisation et de la détection des filaments dans des images 3D. Nous avons développé des méthodes variationnelles pour quatre applications spécifiques : l'extraction de routes où nous avons introduit la notion de courbure totale pour conserver les réseaux réguliers en tolérant les discontinuités de direction ; la détection et la complétion de filaments fortement bruités et présentant des occultations. Nous avons utilisé la magnétostatique et la théorie de Ginzburg-Landau pour représenter les filaments comme ensemble de singularités d'un champ vectoriel ; la détection de filaments dans des images biologiques acquises en microscopie confocale. On modélise les filaments en tenant compte des spécificités de cette dernière. Les filaments sont alors obtenus par une méthode de maximum à posteriori ; la détection de cibles dans des séquences d'images infrarouges. Dans cette application, on cherche des trajectoires optimisant la différence de luminosité moyenne entre la trajectoire et son voisinage en tenant compte des capteurs utilisés. Par ailleurs, nous avons démontré des résultats théoriques portant sur la courbure totale et la convergence de la méthode d'Alouges associée aux systèmes de Ginzburg-Landau. Ce travail réunit à la fois modélisation, résultats théoriques et recherche d'algorithmes numériques performants permettant de traiter de réelles applications.
APA, Harvard, Vancouver, ISO, and other styles
41

Driss, Khodja Kouider. "Etude expérimentale et modélisation de la fonction diélectrique des milieux inhomogènes 2D et 3D." Rouen, 1989. http://www.theses.fr/1989ROUES018.

Full text
Abstract:
Pour prendre en compte la structure réelle des milieux inhomogènes, nous avons proposé une théorie de milieu effectif à 2D et 3D basée sur une procédure de renormalisation dans l'espace réel. Ces modèles utilisent la technique des blocs de Kadanoff. Dans un premier temps cette approche a été appliquée à des réseaux carrés générés par ordinateur dont les sites sont occupés aléatoirement pour une concentration donnée. Dans une deuxième étape nous avons appliqué cette procédure à des images réelles constituées de micrographies de microscopie électronique par transmission digitalisées puis binarisées de systèmes 2D et 3D. On présente également une interprétation des similarités et des différences entre la théorie et l'expérience. Les résultats obtenus sur des réseaux simulés rendent compte à la fois de l'anomalie diélectrique et de la percolation optique. Notre approche est ainsi l'une des rares théories à modéliser la transition métal-non métal. Nous avons montré que la fonction diélectrique effective obéit à des lois d'échelle avec des exposants critiques S3D et S2D pour la polarisation et T3D et T2D pour la conduction, valeurs proches des estimations théoriques. Les fonctions diélectriques obtenues par l'application de ces modèles à des micrographies de microscopie électronique par transmission digitalisées puis binarisées sont en bon accord avec la plupart des résultats expérimentaux
APA, Harvard, Vancouver, ISO, and other styles
42

Kotronis, Panagiotis. "Cisaillement dynamique de murs en béton armé : modèles simplifiés 2D et 3D." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2000. http://tel.archives-ouvertes.fr/tel-00074469.

Full text
Abstract:
Les travaux effectués dans le cadre de cette thèse portent sur une stratégie de modélisation simplifiée des structures en béton armé soumises à des chargements de type dynamique et s'inscrivent dans le programme Européen ICONS - TMR. La modélisation de la maquette CAMUS III du programme est premièrement effectuée en utilisant des éléments 2D poutres multicouches et des lois uniaxiales locales. Une nouvelle stratégie de modélisation simplifiée 2D pour des voiles soumis à des cisaillements dynamiques est ensuite présentée. Le concept du Béton Armé Equivalent (BAE) est fondé sur une équivalence milieu continu milieu discontinu en treillis. Des lois locales uniaxiales sont utilisées pour le béton et les armatures. Le BAE est validé avec les résultats expérimentaux des maquettes T5 et T12 du programme SAFE et la maquette du programme NUPEC. Les problèmes 3D sont finalement abordés avec le développement d'un élément fini poutre multifibre Timoshenko valable pour des sections quelconques (hétérogènes et sans symétrie). La solution adoptée est celle d'un élément fini à deux nœuds avec des fonctions de forme de degré supérieur pour les déplacements et les rotations. L'élément est présenté en détail ainsi que sa validation à partir des résultats expérimentaux (poteaux sous chargement cyclique, murs en U du programme ICONS).
APA, Harvard, Vancouver, ISO, and other styles
43

Kotronis, Panagiotis. "Cisaillement dynamique de murs en béton armé : modèles simplifiés 2D et 3D /." Cachan : Laboratoire de mécanique et technologie, 2000. http://catalogue.bnf.fr/ark:/12148/cb372206164.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Bouchetob, Ahmed Lazhar Fodhil. "Contribution à la modélisation en 2D et 3D du phénomène de discage." Lille 1, 1994. http://www.theses.fr/1994LIL10198.

Full text
Abstract:
L'un des problemes essentiel en mecanique des roches appliquee est la recuperation de carottes intactes lors du forage de puits petroliers pour les analyses d'identification des echantillons au laboratoire. Le theme de notre recherche est la contribution a la modelisation de l'initialisation de la rupture des carottes par une approche en bi et tridimensionnelle. Ce phenomene de rupture appele discage depend essentiellement des parametres geomecaniques de la roche, des parametres geometriques de la couronne du carottier, de la pression de boue et des contraintes geostatiques. Une modelisation par elements finis permet de mener une etude parametrique dans le but d'ameliorer la technique de carottage. Dans un premier temps, nous avons procede a l'etude du phenomene de discage par une approche en symetrie de revolution. Le principe consiste a la determination d'un domaine de non discage dans le but d'obtenir des carottes intactes a partir des conditions de forage en profondeur variable. L'objectif recherche est d'etudier l'influence des differents parametres sur les contraintes de discage. Un mailleur automatique du domaine de fond de puits permet la generation de plusieurs formes de saignee en un minimum de temps. Dans la seconde phase, l'analyse du discage est effectuee selon une approche tridimensionnelle. Cette approche permet de tenir compte d'un etat de contraintes anisotropes, pour des puits verticaux et devies. En outre, cela permet d'etudier l'influence des efforts d'interaction outil-roche, a savoir ; le couple et le poids sur l'outil. En ce sens, il a ete developpe un mailleur automatique tridimensionnel avec la possibilite d'effectuer des loupes sur la zone a haute probabilite de rupture. D'autre part, un modele theorique pour l'estimation des efforts d'interaction a ete mis au point theorique pour l'estimation des efforts d'interaction a ete mis au point.
APA, Harvard, Vancouver, ISO, and other styles
45

De, Gracia Lux Caroline. "Amphiphiles semi-fluorés non-polaires : synthèse-nanostructuration d’espaces à 2D et 3D." Strasbourg, 2010. http://www.theses.fr/2010STRA6097.

Full text
Abstract:
Ce travail de thèse s'inscrit dans le domaine des molécules amphiphiles semi-fluorées et s'étend de la synthèse de nouvelles architectures à l'investigation de leurs propriétés d'auto-assemblage à 2D et à 3D. Il s'articule principalement autour de l'élaboration et de l'étude de films fins obtenus par auto-assemblage d'amphiphiles semi-fluorés, avec pour objectif de créer des surfaces décorées par des nanodomaines de tailles et formes contrôlées. La première partie de ce travail analyse la compression de nano-objets auto-assemblés constitués de diblocs FnHm(F(CF2)n(CH2)mH), conduisant à la formation de films composites à plusieurs niveaux de structuration à l'échelle nanométrique (développement d'une bicouche (F8H20) ou d'inflorescences (Fl0H16) au dessus du tapis de micelles). La deuxième partie est consacrée à la synthèse et à l'étude du comportement d'une nouvelle famille de tétrablocs semi-fluorés (CnF2n+1CH2)(Cm-2H2m3)CH-CH(CnF2n+1CH2)(Cm-2H2m-3), « di(FnHm) ». Ils présentent une transition réversible du 1er ordre avant la fusion entre une phase modulée ruban et une phase lamellaire de type hexatique B. L'imagerie de la surface (à l'échelle du nanomètre par AFM), sur films transférés (ou obtenus par spin-coating) révèle qu'ils s'auto-assemblent en micelles de surface dont la compression engendre la formation d'une seconde couche superposée, elle-même composée de micelles de surface. Dans une dernière partie, une nouvelle famille d'amphiphiles triaffines FnHmEOx (Fn = CnF2n+1;Hm = CmH2m+1;EOx = CH3(OC2H4)xO) récemment synthétisée au sein de l'équipe, a fait l'objet d'une étude de leur aptitude à la nanostructuration à l'interface eau/air (2D) et dans l'eau (3D)
This work deals with semifluorinated amphiphiles, from the synthesis of new architectures to the investigation of their self-assembly in 2D and 3D. It is principally based on the elaboration and study of thin films obtained by self-assembly of semifluorinated alkanes in order to create surfaces decorated with nanodomains weIl defined in size and shape. The first part of this work analyses the compression of self assembled nanometric objects constituted by FnHm diblocks (F(CF2)n(CH2)mH), leading to hitherto unknown organized nanometric composite arrangements (bilayer (FBH20) or crystalline like-inflorescences (Fl0H16) in coexistence with the initial monolayer of micelles). The second part is dedicated to the synthesis and the study of the behavior of a new familly of semifluorinated tetrablocks, « di(FnHm)» (CnF2n+1CH2)(Cm-2H2m-3)CH-CH(CnF2n+1CH2)(Cm-2H2m-3). They present a reversible first order transition before melting, between a modulated smectic phase and a lamellar hexatic B arrangement. As assessed by AFM, transferred or spin-coated films consist of two sublayers of dis crete surface micelles. In the last part, the nanostructuration at the air /water interface and in water of a new triaffine architecture FnHmEOx (Fn = CnF2n+1;Hm = CmH2m+1;EOx= CH3(OC2H4)xO) was investigated
APA, Harvard, Vancouver, ISO, and other styles
46

Lecrosnier, Louis. "Estimation de pose multimodale- Approche robuste par les droites 2D et 3D." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR089.

Full text
Abstract:
Avec la complexification des tâches confiées aux robots, la perception de l’environnement, aussi appelée perception de scène, doit se faire de manière plus complète. L’emploi simultané de différents types de capteurs, ou multimodalité, est l’un des leviers employés à cet effet. L’exploitation de données issues de modalités différentes nécessite généralement de connaître la pose, c’est-à-dire l’orientation et la position, de chaque capteur relativement aux autres. Les travaux présentés dans cette thèse se concentrent sur la problématique d’estimation de pose robuste dans le cas d’une multimodalité incluant des capteurs de type caméra et LiDAR. Deux contributions majeures sont présentées dans ce manuscrit. On présente dans un premier temps un algorithme d’estimation de pose original s’appuyant sur la correspondances entre droites 2D et 3D, ainsi qu’une connaissance a priori de la direction verticale. Dans l’optique d’améliorer la robustesse de cet algorithme, une deuxième contribution repose sur un algorithme d’appariement de droites et de rejet de paires aberrantes basé RANSAC. Cette méthode fonctionne à l’aide de deux ou d’une seule paire de droites, diminuant le coût en calcul du problème. Les résultats obtenus sur des jeux de données simulées et réelles démontrent une amélioration des performances en comparaison avec les méthodes de l’état de l’art
Camera pose estimation consists in determining the position and the orientation of a camera with respect to a reference frame. In the context of mobile robotics, multimodality, i.e. the use of various sensor types, is often a requirement to solve complex tasks. However, knowing the orientation and position, i.e. the pose, of each sensor regarding a common frame is generally necessary to benefit multimodality. In this context, we present two major contributions with this PhD thesis. First, we introduce a pose estimation algorithm relying on 2D and 3D line and a known vertical direction. Secondly, we present two outliers rejection and line pairing methods based on the well known RANSAC algorithm. Our methods make use of the vertical direction to reduce the number of lines required to 2 and 1, i.e. RANSAC2 and RANSAC1. A robustness evaluation of our contributions is performed on simulated and real data. We show state of the art results
APA, Harvard, Vancouver, ISO, and other styles
47

Oudinet, Ghislain. "Analyse d'images et modélisation 2D/3D de la microstructure du combustible MOX." Saint-Etienne, 2003. http://www.theses.fr/2003STET4011.

Full text
Abstract:
La microstructure du combustible nucléaire MOX, élaboré à partir de UO2 et de PuO2, détermine son comportement en réacteur. Le CEA et la COGEMA portent un intérêt grandissant à sa caractérisation par imagerie, objet du présent travail. Les algorithmes de segmentation qui sont développés ici s'appuient sur des images issues d'une microsonde et d'un MEB, pour analyser la répartition du plutonium et des porosités dans les pastilles de combustible. Ils sont novateurs, automatisés et assez robustes pour être utilisés sur un faible nombre de données. Ils ont été testés avec succès sur différents combustibles, avant et après irradiation. Des informations tridimensionnelles ont été calculées à l'aide d'un algorithme génétique. Les distributions en taille d'objet 3D obtenues ont permis de modéliser en volume différents combustibles industriels et de recherche. La reconstruction 3D est fiable et stable, et ouvre de nombreuses perspectives, dont l'étude du comportement sous irradiation du MOX
The microstructure of the MOX fuel, made with UO2 and PuO2, determines his " in pile " behavior. The french companies CEA and COGEMA are highly interested in its description by image analysis, which is the object of the present work. The segmentation algorithms described here use pictures issued from a microprobe and a SEM, to analyse the plutonium and porosity distribution in the fuel pellets. They are innovating, automated and robust enough to be used with a small data set. They have been successfully tested on different fuels, before and after irradation. Three-dimensional informations have been computed with a genetic algorithm. The obtained 3D object size distributions allowed the modeling of many different industrial and research fuels. 3D reconstruction is accurate and stable, and provides a basis for different studies among which the study of the MOX fuel " in pile " behavior
APA, Harvard, Vancouver, ISO, and other styles
48

Bauda, Marie-Anne. "Compréhension de scènes urbaines par combinaison d'information 2D/3D." Phd thesis, Toulouse, INPT, 2016. http://oatao.univ-toulouse.fr/16483/1/BAUDA_MarieAnne.pdf.

Full text
Abstract:
Cette thèse traite du problème de segmentation sémantique d'une séquence d'images calibrées acquises dans un environnement urbain. Ce problème consiste, plus précisément, à partitionner chaque image en régions représentant les objets de la scène (façades, routes, etc.). Ainsi, à chaque région est associée une étiquette sémantique. Dans notre approche, l'étiquetage s'opère via des primitives visuelles de niveau intermédiaire appelés super-pixels, lesquels regroupent des pixels similaires au sens de différents critères proposés dans la littérature, qu'ils soient photométriques (s'appuyant sur les couleurs) ou géométriques (limitant la taille des super-pixels formés). Contrairement à l'état de l'art, où les travaux récents traitant le même problème s'appuient en entrée sur une sur-segmentation initiale sans la remettre en cause, notre idée est de proposer, dans un contexte multi-vues, une nouvelle approche de constructeur de superpixels s'appuyant sur une analyse tridimensionnelle de la scène et, en particulier, de ses structures planes. Pour construire de «meilleurs» superpixels, une mesure de planéité locale, qui quantifie à quel point la zone traitée de l'image correspond à une surface plane de la scène, est introduite. Cette mesure est évaluée à partir d'une rectification homographique entre deux images proches, induites par un plan candidat au support des points 3D associés à la zone traitée. Nous analysons l'apport de la mesure UQI (Universal Quality Image) et montrons qu'elle se compare favorablement aux autres métriques qui ont le potentiel de détecter des structures planes. On introduit ensuite un nouvel algorithme de construction de super-pixels, fondé sur l'algorithme SLIC (Simple Linear Iterative Clustering) dont le principe est de regrouper les plus proches voisins au sens d'une distance fusionnant similarités en couleur et en distance, et qui intègre cette mesure de planéité. Ainsi la sur-segmentation obtenue, couplée à la cohérence interimages provenant de la validation de la contrainte de planéité locale de la scène, permet d'attribuer une étiquette à chaque entité et d'obtenir ainsi une segmentation sémantique qui partitionne l'image en objets plans.
APA, Harvard, Vancouver, ISO, and other styles
49

Marre, Guilhem. "Développement de la photogrammétrie et d'analyses d'images pour l'étude et le suivi d'habitats marins." Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTG012.

Full text
Abstract:
Dans un contexte de changement climatique et d’érosion de la biodiversité marine, la surveillance écologique des habitats marins les plus sensibles est primordiale et nécessite des méthodes opérationnelles de suivi permettant aux décideurs et gestionnaires d’établir des mesures de conservation pertinentes et d’évaluer leur efficacité. TEMPO et RECOR sont deux réseaux de surveillance centrés sur les herbiers de posidonie et les récifs coralligènes, les deux habitats les plus riches et sensibles de Méditerranée. L’objectif de cette thèse est de répondre aux besoins de la surveillance des habitats marins par le développement de méthodes d’évaluation de leur état de santé, basées sur deux techniques d’analyses d’images clés : les réseaux de neurones convolutifs et la photogrammétrie. Les résultats montrent que les réseaux de neurones convolutifs sont capables de reconnaître les principales espèces des assemblages coralligènes sur des photos sous-marines issues de RECOR, avec une précision semblable à celle d’un expert taxonomiste. Par ailleurs, nous avons montré que la photogrammétrie permettait de reproduire en 3D un habitat marin avec une grande précision, suffisante pour un suivi de la structure de l’habitat et de la distribution d’espèces à fine échelle. À partir de ces reconstructions, nous avons mis au point une méthode de cartographie automatique des herbiers de posidonie, permettant de réaliser un suivi temporel de la qualité écologique de cet habitat sensible. Enfin, nous avons caractérisé la structure 3D des récifs coralligènes à partir de leurs reconstructions photogrammétriques et étudié les liens avec la structuration des assemblages qui les composent. Ce travail de thèse a permis de développer des méthodes opérationnelles, aujourd’hui intégrées aux réseaux de surveillance TEMPO et RECOR, et ouvre la voie à de futures recherches, notamment la caractérisation de l’activité biologique des récifs coralligènes grâce au couplage entre photogrammétrie, réseaux de neurones et acoustique sous-marine
In a context of climate change and the erosion of marine biodiversity, ecological monitoring of the most sensitive marine habitats is of paramount importance. In particular, there is a need for operational methods that enable decision-makers and managers to establish relevant conservation measures and to evaluate their effectiveness. TEMPO and RECOR are two monitoring networks focusing on Posidonia meadows and coralligenous reefs, the two richest and most sensitive habitats in the Mediterranean. The objective of this thesis is to meet the needs of effective monitoring of marine habitats by developing methods for assessing their health, based on two key image analysis methods: convolutional neural networks and photogrammetry. The results show that convolutional neural networks are capable of recognizing the main species of coralligenous assemblages in underwater photographs from RECOR, with a precision similar to that of an expert taxonomist. Furthermore, we have shown that photogrammetry can reproduce a marine habitat in three dimensions with a high degree of accuracy, sufficient for monitoring habitat structure and species distribution at a fine scale. Based on these reconstructions, we have developed a method for automatic mapping of Posidonia meadows, enabling temporal monitoring of the ecological quality of this sensitive habitat. Finally, we characterized the three-dimensional structure of coralligenous reefs based on their photogrammetric reconstructions and studied the links with the structuring of the assemblages that make them up. This PhD work has led to the development of operational methods that are now integrated into the TEMPO and RECOR monitoring networks. Results of this work paves the way for future research, in particular concerning characterization of the biological activity of coralligenous reefs thanks to the coupling of photogrammetry, neural networks and underwater acoustics
APA, Harvard, Vancouver, ISO, and other styles
50

Jacques, Isabelle. "Aspects combinatoires en modélisation 2D et 3D et application à l'énumération des cartes et des solides." Mulhouse, 1991. http://www.theses.fr/1991MULH0185.

Full text
Abstract:
Après les travaux de W. T. Tutte sur le comptage de diverses familles de cartes planaires, le point de vue adopté ici est celui de la définition de transformations topologiques sur les cartes à partir desquelles on déduit des équations sur leurs séries génératrices. Un premier résultat concerne l'énumération des cartes sur le tore en fonction du nombre d'arêtes et du degré d'une face distinguée. Une nouvelle équation sur la série génératrice est obtenue après une étude détaillée d'une transformation topologique consistant à contracter une face distinguée. Un second résultat concerne l'étude d'un problème d'évolution linéaire sur un multigraphe muni d'une valuation formelle. La résolution de ce problème conduit à une équation nouvelle attachée à tout graphe. Cette équation, appliquée dans le cas particulier de l'arbre infini naturellement associé à la famille des cartes planaires, conduit à une équation nouvelle pour la série génératrice de ces cartes planaires, exprimant celle-ci en fonction de la série génératrice des mots de Dyck. Le troisième résultat concerne une généralisation à trois dimensions au niveau des solides topologiques, des notions classiques sur les cartes. La notion de solide est introduite en termes de sommets, arêtes, faces et en y ajoutant une composante supplémentaire : celle de volume. Une propriété importante mise en évidence est celle d'effeuillabilité, celle-ci permettant de généraliser en 3D la notion d'arbre par celle de solide effeuillable. On donne alors l'énumération d'une classe particulière de tels solides effeuillables : les solides-arbres par la suite de Schröder-Etherington
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography