To see the other types of publications on this topic, follow the link: Imagerie hyperspectrale – Analyse informatique.

Dissertations / Theses on the topic 'Imagerie hyperspectrale – Analyse informatique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Imagerie hyperspectrale – Analyse informatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Pelletier, Bruno. "Traitement neuronal de l'information hyperspectrale." Toulouse, ENSAE, 2002. http://www.theses.fr/2002ESAE0014.

Full text
Abstract:
L'étude porte sur les méthodes neuronales dédiées au problème de la couleur de l'eau, consistant à estimer les concentrations d'un certain nombre de composés océaniques, comme le phytoplancton par exemple, à partir de mesures satellitaires de réflectances à différentes longueurs d'ondes. Bien que l'aptitude des réseaux neuronaux à résoudre des problèmes d'approximation de fonctions, de classification ou d'estimation ait été démontrée à plusieurs reprises, les résultats expérimentaux montrent que ces modèles ne permettent pas de résoudre le problème avec une précision suffisante. Dans ce travail, une méthode statistique d'estimation de la concentration en phytoplancton, utilisant la propriété du problème de la couleur de l'eau d'être un continuum de problèmes inverses, est proposée sous la forme d'un continuum d'estimateurs régressifs, appelés estimateurs locaux. Ces estimateurs locaux, dont l'optimalité statistique est démontrée sous quelques hypothèses non restrictives, sont intégrés en un estimateur global pour le problème par une application interpolante à valeurs dans une famille non convexe de densités de probabilité. Le modèle global résultant est un réseau de neurones à fonctions à base radiales normalisées dont les paramètres sont des fonctions continues de plusieurs variables. Ces modèles, construits à partir de données simulées, ont ensuite été utilisés pour estimer la concentration en phytoplancton à partir de données réelles de l'instrument spectro-imageur Sea WiFS.
APA, Harvard, Vancouver, ISO, and other styles
2

Lefévre, Soizic. "Caractérisation de la qualité des raisins par imagerie." Electronic Thesis or Diss., Reims, 2023. http://www.theses.fr/2023REIMS017.

Full text
Abstract:
L’identification des états sanitaires du raisin au moment de la vendange est un enjeu majeur afin de produire des vins de qualité. Pour répondre à cet enjeu, des données sont acquises par spectrométrie, imagerie hyperspectrale et imagerie RGB sur des échantillons de raisin au cours des vendanges.Plusieurs prétraitements adaptés à chaque type de données sont appliqués tels que la normalisation, la réduction, l’extraction de vecteurs de caractéristiques et la segmentation de zones utiles. D’un point de vue imagerie, la reconstitution en fausses couleurs des images hyperspectrales, éloignée de la réalité, ne permet pas d’étiqueter toute la diversité intra-classe. En revanche, la qualité visuelle de l’imagerie RGB favorise l’étiquetage des classes avec précision. A partir de cet étiquetage, des classifieurs tels que les machines à vecteurs de support, les forêts aléatoires, l’estimation du maximum de vraisemblance, la mise en correspondance spectrale, les k-moyennes sont testés et entrainés sur les bases étiquetées. En fonction de la nature des données, le plus performant est appliqué sur les images entières de grappes ou caisses de raisins de plusieurs cépages provenant de différentes parcelles.Les indices de qualité obtenus à partir du traitement des images RGB sont très proches des estimations effectuées par les experts du domaine
Identifying the health conditions of the grapes at harvest time is a major issue in order to produce quality wines. To meet this issue, data are acquired by spectrometry, hyperspectral imaging and RGB imaging on grape samples during harvest.Several pre-treatments adapted to each type of data are applied such as normalization, reduction, extraction of characteristic vectors, and segmentation of useful areas. From an imaging point of view, the reconstruction in false colors of hyperspectral images, far from reality, doesn’t allow to label all the intra-class diversity. On the other hand, the visual quality of RGB imaging enables accurate class labelling. From this labelling, classifiers such as support vector machines, random forests, maximum likelihood estimation, spectral mapping, k-means are tested and trained on labelled bases. Depending on the nature of the data, the most effective is applied to whole images of grape clusters or crates of grapes of several grape varieties from different parcels.The quality indices obtained from RGB image processing are very close to the estimates made by experts in the field
APA, Harvard, Vancouver, ISO, and other styles
3

Faivre, Adrien. "Analyse d'image hyperspectrale." Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCD075/document.

Full text
Abstract:
Les travaux de thèse effectués dans le cadre de la convention Cifre conclue entrele laboratoire de mathématiques de Besançon et Digital Surf, entreprise éditrice dulogiciel d’analyse métrologique Mountains, portent sur les techniques d’analyse hyperspectrale.Sujet en plein essor, ces méthodes permettent d’exploiter des imagesissues de micro-spectroscopie, et en particulier de spectroscopie Raman. Digital Surfambitionne aujourd’hui de concevoir des solutions logicielles adaptées aux imagesproduites par ces appareils. Ces dernières se présentent sous forme de cubes de valeurs,où chaque pixel correspond à un spectre. La taille importante de ces données,appelées images hyperspectrales en raison du nombre important de mesures disponiblespour chaque spectre, obligent à repenser certains des algorithmes classiquesd’analyse d’image.Nous commençons par nous intéresser aux techniques de partitionnement de données.L’idée est de regrouper dans des classes homogènes les différents spectres correspondantà des matériaux similaires. La classification est une des techniques courammentutilisée en traitement des données. Cette tâche fait pourtant partie d’unensemble de problèmes réputés trop complexes pour une résolution pratique : les problèmesNP-durs. L’efficacité des différentes heuristiques utilisées en pratique était jusqu’àrécemment mal comprise. Nous proposons des argument théoriques permettantde donner des garanties de succès quand les groupes à séparer présentent certainespropriétés statistiques.Nous abordons ensuite les techniques de dé-mélange. Cette fois, il ne s’agit plus dedéterminer un ensemble de pixels semblables dans l’image, mais de proposer une interprétationde chaque pixel comme un mélange linéaire de différentes signatures spectrales,sensées émaner de matériaux purs. Cette déconstruction de spectres compositesse traduit mathématiquement comme un problème de factorisation en matrices positives.Ce problème est NP-dur lui aussi. Nous envisageons donc certaines relaxations,malencontreusement peu convaincantes en pratique. Contrairement au problème declassification, il semble très difficile de donner de bonnes garanties théoriques sur laqualité des résultats proposés. Nous adoptons donc une approche plus pragmatique,et proposons de régulariser cette factorisation en imposant des contraintes sur lavariation totale de chaque facteur.Finalement, nous donnons un aperçu d’autres problèmes d’analyse hyperspectralerencontrés lors de cette thèse, problèmes parmi lesquels figurent l’analyse en composantesindépendantes, la réduction non-linéaire de la dimension et la décompositiond’une image par rapport à une librairie regroupant un nombre important de spectresde référence
This dissertation addresses hyperspectral image analysis, a set of techniques enabling exploitation of micro-spectroscopy images. Images produced by these sensors constitute cubic arrays, meaning that every pixel in the image is actually a spectrum.The size of these images, which is often quite large, calls for an upgrade for classical image analysis algorithms.We start out our investigation with clustering techniques. The main idea is to regroup every spectrum contained in a hyperspectralimage into homogeneous clusters. Spectrums taken across the image can indeed be generated by similar materials, and hence display spectral signatures resembling each other. Clustering is a commonly used method in data analysis. It belongs nonetheless to a class of particularly hard problems to solve, named NP-hard problems. The efficiency of a few heuristics used in practicewere poorly understood until recently. We give theoretical arguments guaranteeing success when the groups studied displaysome statistical property.We then study unmixing techniques. The objective is no longer to decide to which class a pixel belongs, but to understandeach pixel as a mix of basic signatures supposed to arise from pure materials. The mathematical underlying problem is again NP-hard.After studying its complexity, and suggesting two lengthy relaxations, we describe a more practical way to constrain the problemas to obtain regularized solutions.We finally give an overview of other hyperspectral image analysis methods encountered during this thesis, amongst whomare independent component analysis, non-linear dimension reduction, and regression against a spectrum library
APA, Harvard, Vancouver, ISO, and other styles
4

Fasquelle, François. "L'identification d'explosifs par imagerie hyperspectrale : spectromètre par transformation de Fourier aéroporté." Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/24097/24097.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Khoder, Jihan. "Nouvel Algorithme pour la Réduction de la Dimensionnalité en Imagerie Hyperspectrale." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2013. http://tel.archives-ouvertes.fr/tel-00939018.

Full text
Abstract:
En Imagerie hyperspectrale, les volumes de données acquises atteignent souvent le gigaoctet pour une seule et même scène observée. De ce fait, l'analyse de ces données au contenu physique complexe passe obligatoirement par une étape préliminaire de réduction de la dimensionnalité. Cette réduction a un double objectif, le premier consiste à réduire la redondance et le second permet de faciliter les traitements postérieurs (extraction, classification et reconnaissance de formes) et donc l'interprétation des données. La classification automatique est une étape importante du processus d'extraction de connaissances à partir des données. Elle vise à découvrir la structure intrinsèque d'un ensemble d'objets en formant des regroupements qui partagent des caractéristiques similaires. Dans cette thèse, nous nous intéressons à la réduction de dimension dans le cadre de la classification non supervisée des bandes spectrales. Différentes approches existent, comme celles basées sur la projection (linéaire ou non-linéaire) des données de grandes dimensions sur des sous-espaces de représentation bien choisis ou sur les techniques de sélection de bandes spectrales exploitant des critères de complémentarité-redondance d'information qui ne permettent pas de préserver toute la richesse de l'information apportée par ce type de données. 1 - Nous avons accompli une étude comparative, sur la stabilité et la similarité des algorithmes des méthodes non paramétriques et non supervisée de la projection et aussi de la sélection des bandes utilisées dans la réduction de la dimensionnalité à différents niveaux de bruit déterminés. Les tests sont effectués sur des images hyperspectrales, en classant ces derniers en trois catégories selon leur degré de performance de préserver la quantité d'informations. 2 - Nous avons introduit une nouvelle approche de critère basée sur la di-similarité des attributs spectraux et utilisée dans un espace local sur des matrices de données ; L'approche a servi pour définir un taux de préservation d'un évènement rare dans une transformation mathématique donnée. Cependant, nous avons limitée son application au contexte de la thèse liée à la réduction de la taille des données dans une image hyperspectrale. 3 - Les études comparatives ont permis une première proposition d'approche hybride pour la reduction de la taille d'une image hyperspectrale permettant une meilleure stabilité : BandClustering avec Multidimensional Scaling (MDS). Des exemples sont donnés pour démontrer l'originalité et la pertinence de l'hybridation (BandClust / MDS) de l'analyse effectuée. 4 - La tendance de l'hybridation a été généralisée par la suite en présentant un algorithme hybride adaptatif non supervisé basé sur la logique flou (Fuzzy C means), une méthode de projection comme l'analyse en composante principale (ACP) et un indice de validité d'une classification. Les classifications effectuées par Fuzzy C means permettent d'affecter chaque pixel d'une image hyperspectrale à toutes les classes avec des degrés d'appartenance variant entre 0 et 1. Cette propriété rend la méthode FCM intéressante pour la mise en évidence soit des transitions progressives entre les différentes bandes spectrales ou des hétérogénéités spectrales. Grâce à des méthodes conventionnelles appelées indices de validité de classes, nous avons déterminé le nombre optimal de classes de FCM ainsi que le paramètre de flou. Nous montrons que cette hybridation conduit à un taux de réduction pertinent dans l'imagerie hyperspectrale. Par conséquent, Cet algorithme appliqué à différents échantillons de données hyperspectrales, permet une imagerie spectrale beaucoup plus informative, notamment au niveau de l'hétérogénéité spectrale.
APA, Harvard, Vancouver, ISO, and other styles
6

Noyel, Guillaume. "Filtrage, réduction de dimension, classification et segmentation morphologique hyperspectrale." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004473.

Full text
Abstract:
Le traitement d'images hyperspectrales est la généralisation de l'analyse des images couleurs, à trois composantes rouge, vert et bleu, aux images multivariées à plusieurs dizaines ou plusieurs centaines de composantes. Dans un sens général, les images hyperspectrales ne sont pas uniquement acquises dans le domaine des longueurs d'ondes mais correspondent à une description d'un pixel par un ensemble de valeurs : c'est à dire un vecteur. Chacune des composantes d'une image hyperspectrale constitue un canal spectral, et le vecteur associé à chaque pixel est appelé spectre. Pour valider la généralité de nos méthodes de traitement, nous les avons appliquées à plusieurs types d'imagerie correspondant aux images hyperspectrales les plus variées : des photos avec quelques dizaines de composantes acquises dans le domaine des longueurs d'ondes, des images satellites de télédétection, des séries temporelles d'imagerie par résonance dynamique (DCE-MRI) et des séries temporelles d'imagerie thermique. Durant cette thèse, nous avons développé une chaîne complète de segmentation automatique des images hyperspectrales par des techniques morphologiques. Pour ce faire, nous avons mis au point une méthode efficace de débruitage spectral, par Analyse Factorielle des Correspondances (AFC), qui permet de conserver les contours spatiaux des objets, ce qui est très utile pour la segmentation morphologique. Puis nous avons fait de la réduction de dimension, par des méthodes d'analyse de données ou par modélisation des spectres, afin d'obtenir un autre représentation de l'image avec un nombre restreint de canaux. A partir de cette image de plus faible dimension, nous avons effectué une classification (supervisée ou non) pour grouper les pixels en classes spectralement homogènes. Cependant, les classes obtenues n'étant pas homogènes spatialement, i.e. connexes, une étape de segmentation s'est donc avérée nécessaire. Nous avons démontré que la méthode récente de la Ligne de Partage des Eaux Probabiliste était particulièrement adaptée à la segmentation des images hyperspectrales. Elle utilise différentes réalisations de marqueurs aléatoires, conditionnés par la classification spectrale, pour obtenir des réalisations de contours par Ligne de Partage des Eaux (LPE). Ces réalisations de contours permettent d'estimer une fonction de densité de probabilité de contours (pdf) qui est très facile à segmenter par une LPE classique. En définitive, la LPE probabiliste est conditionnée par la classification spectrale et produit donc des segmentations spatio-spectrales dont les contours sont très lisses. Cette chaîne de traitement à été mise en œuvre sur des séquences d'imagerie par résonance magnétique dynamique (DCE-MRI) et a permis d'établir une méthode automatique d'aide au diagnostic pour la détection de tumeurs cancéreuses. En outre, d'autres techniques de segmentation spatio-spectrales ont été développées pour les images hyperspectrales : les régions η-bornées et les boules µ-géodésiques. Grâce à l'introduction d'information régionale, elles améliorent les segmentations par zones quasi-plates qui n'utilisent quant à elles que de l'information locale. Enfin, nous avons mis au point une méthode très efficace de calcul de toutes les paires de distances géodésiques d'une image, puisqu'elle permet de réduire jusqu'à 50 % le nombre d'opérations par rapport à une approche naïve et jusqu'à 30 % par rapport aux autres méthodes. Le calcul efficace de ce tableau de distances offre des perspectives très prometteuses pour la réduction de dimension spatio-spectrale.
APA, Harvard, Vancouver, ISO, and other styles
7

Delcourt, Jonathan. "Un système intégré d'acquisition 3D multispectral : acquisition, codage et compression des données." Phd thesis, Université de Bourgogne, 2010. http://tel.archives-ouvertes.fr/tel-00578448.

Full text
Abstract:
Nous avons développé un système intégré permettant l'acquisition simultanée de la forme 3D ainsi que de la réflectance des surfaces des objets scannés. Nous appelons ce système un scanner 3D multispectral du fait qu'il combine, dans un couple stéréoscopique, une caméra multispectrale et un système projecteur de lumière structurée. Nous voyons plusieurs possibilités d'application pour un tel système mais nous mettons en avant des applications dans le domaine de l'archivage et la diffusion numériques des objets du patrimoine. Dans le manuscrit, nous présentons d'abord ce système ainsi que tous les calibrages et traitements nécessaires à sa mise en oeuvre. Ensuite, une fois que le système est fonctionnel, les données qui en sont générées sont riches d'informations, hétérogènes (maillage + réflectances, etc.) et surtout occupent beaucoup de place. Ce fait rend problématiques le stockage et la transmission, notamment pour des applications en ligne de type musée virtuel. Pour cette raison, nous étudions les différentes possibilités de représentation et de codage des données acquises par ce système pour en adopter la plus pertinente. Puis nous examinons les stratégies les plus appropriées à la compression de telles données, sans toutefois perdre la généralité sur d'autres données (type satellitaire). Nous réalisons un benchmark des stratégies de compression en proposant un cadre d'évaluation et des améliorations sur les stratégies classiques existantes. Cette première étude nous permettra de proposer une approche adaptative qui se révélera plus efficace pour la compression et notamment dans le cadre de la stratégie que nous appelons Full-3D.
APA, Harvard, Vancouver, ISO, and other styles
8

Vohl, Dany. "Algorithmes de compression d'images hyperspectrales astrophysiques." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/30110/30110.pdf.

Full text
Abstract:
SpIOMM, le Spectromètre imageur à transformée de Fourier de l’Observatoire du Mont-Mégantic génère des fichiers de taille imposante, de l’ordre de 700 Mo et SITELLE, son successeur génèrera des fichiers de l’ordre du Go. Puisque plusieurs fichiers peuvent être générés durant une nuit d’observation et que les astronomes ne sont pas toujours sur place pour effectuer leurs observations, ces fichiers apportent à la fois des besoins de stockage et de transfert de données. Afin de minimiser l’espace nécessaire à son stockage et de minimiser la bande passante et le temps de transfert nécessaire pour obtenir le fichier à distance, trois techniques de compression sont abordées. Les deux premières sont des techniques de compression sans perte et la troisième en est une avec perte. Les deux premières permettent d’obtenir de meilleurs taux de compression que les algorithmes génériques que sont zip et gzip2, avec des taux de compression de l’ordre de 1; 19 : 1 à 1; 22 : 1. La troisième permet des taux de compression allant jusqu’à un ratio de 64 : 1. Les effets des perte sont étudiés pour évaluer l’effet de la compression sur les mesures de photométrie et les analyses basées sur les spectres.
SpIOMM, the Imaging Fourier Transform Spectrometer of the Observatoire du Mont-Mégantic generates huge files of about 700 MB per file on average, and SITELLE, its successor will generate files of a few GB. Since several files can be generated during an observation night and the astronomers are not always on-site, there is an increasing need for both storage and transmission. To minimize storage space, bandwidth use and transmission time, three data compression techniques are presented. The first two techniques are lossless data compression and the third one is lossy. The lossless techniques give better results than generic techniques that are zip and gzip2, with compression ratios varying from 1:19 : 1 to 1:22 : 1. The lossy technique compresses files up to a 64 : 1 ratio. The effect of the lossy process on the photometric measurements and the spectra analysis is also studied.
APA, Harvard, Vancouver, ISO, and other styles
9

Lagrange, Adrien. "From representation learning to thematic classification - Application to hierarchical analysis of hyperspectral images." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0095.

Full text
Abstract:
De nombreuses approches ont été développées pour analyser la quantité croissante de donnée image disponible. Parmi ces méthodes, la classification supervisée a fait l'objet d'une attention particulière, ce qui a conduit à la mise au point de méthodes de classification efficaces. Ces méthodes visent à déduire la classe de chaque observation en se basant sur une nomenclature de classes prédéfinie et en exploitant un ensemble d'observations étiquetées par des experts. Grâce aux importants efforts de recherche de la communauté, les méthodes de classification sont devenues très précises. Néanmoins, les résultats d'une classification restent une interprétation haut-niveau de la scène observée puisque toutes les informations contenues dans une observation sont résumées en une unique classe. Contrairement aux méthodes de classification, les méthodes d'apprentissage de représentation sont fondées sur une modélisation des données et conçues spécialement pour traiter des données de grande dimension afin d'en extraire des variables latentes pertinentes. En utilisant une modélisation basée sur la physique des observations, ces méthodes permettent à l'utilisateur d'extraire des variables très riches de sens et d'obtenir une interprétation très fine de l'image considérée. L'objectif principal de cette thèse est de développer un cadre unifié pour l'apprentissage de représentation et la classification. Au vu de la complémentarité des deux méthodes, le problème est envisagé à travers une modélisation hiérarchique. L'approche par apprentissage de représentation est utilisée pour construire un modèle bas-niveau des données alors que la classification, qui peut être considérée comme une interprétation haut-niveau des données, est utilisée pour incorporer les informations supervisées. Deux paradigmes différents sont explorés pour mettre en place ce modèle hiérarchique, à savoir une modélisation bayésienne et la construction d'un problème d'optimisation. Les modèles proposés sont ensuite testés dans le contexte particulier de l'imagerie hyperspectrale où la tâche d'apprentissage de représentation est spécifiée sous la forme d'un problème de démélange spectral
Numerous frameworks have been developed in order to analyze the increasing amount of available image data. Among those methods, supervised classification has received considerable attention leading to the development of state-of-the-art classification methods. These methods aim at inferring the class of each observation given a specific class nomenclature by exploiting a set of labeled observations. Thanks to extensive research efforts of the community, classification methods have become very efficient. Nevertheless, the results of a classification remains a highlevel interpretation of the scene since it only gives a single class to summarize all information in a given pixel. Contrary to classification methods, representation learning methods are model-based approaches designed especially to handle high-dimensional data and extract meaningful latent variables. By using physic-based models, these methods allow the user to extract very meaningful variables and get a very detailed interpretation of the considered image. The main objective of this thesis is to develop a unified framework for classification and representation learning. These two methods provide complementary approaches allowing to address the problem using a hierarchical modeling approach. The representation learning approach is used to build a low-level model of the data whereas classification is used to incorporate supervised information and may be seen as a high-level interpretation of the data. Two different paradigms, namely Bayesian models and optimization approaches, are explored to set up this hierarchical model. The proposed models are then tested in the specific context of hyperspectral imaging where the representation learning task is specified as a spectral unmixing problem
APA, Harvard, Vancouver, ISO, and other styles
10

Méteau, Jérémy. "Instrumentation optique pour la caractérisation des tissus : analyse de la complémentarité et des limites techniques de fluorescence hyperspectrale et de Tomographie Optique Cohérente en vue de leur intégration multimodale." Thesis, Besançon, 2014. http://www.theses.fr/2014BESA2041/document.

Full text
Abstract:
L'objectif de ce travail de recherche est le développement d'un système fibré d'imagerie point par point d'auto fluorescence multi-excitation, de tissus biologiques en utilisant la technique de fluorescence hyperspectrale et l'étude d'un système de tomographie optique cohérente comme possible modalité supplémentaire. La première partie de ce rapport présente les propriétés optique des tissus biologiques et les fluorophores pertinents pour la détection de tumeurs cancéreuses. La deuxième partie présente l'instrumentation du système d'imagerie de fluorescence et l'analyse hyperspectrale des résultats obtenus in vitro.Il est démontré la pertinence de ce type d'analyse qui permet de déterminer la concentration de certains fluorophores. La troisième partie présente le système de tomographie optique cohérente appelé "scan free" OCT car il permet de réaliser des images sans déplacement d'éléments optiques. Ce système est caractérisé et présente des fonctionnalités intéressantes comme la compensation de la dispersion dépendante de la profondeur. Les divers résultats obtenus montrent que ces deux techniques sont complémentaires car elles apportent des informations de nature différentes. La première technique donne de se informations sur la composition biochimique des tissus, la seconde donne des information sur la structure
The aim of this activity is the development of a mono point imaging fiber system which uses hyperspectral multi-excitation auto fluorescence technique for biological tissues and the study of an Optical Coherence Tomography system like another modality. At first, this report presents the optical properties of biological tissues and the relevant fluorophores for cancerous tumors detection. Secondly, the fluorescence imaging system instrumentation and hyperspectral analysis are presented with in vitro results. The third part presents the "scan free" optical coherence tomography system which is able to image without optical displacement. It's characterized and have interesting functionality like depth dependant dispersion compensation. These both techniques are complementary because they get different kind of information. The information of the first one is about biochemical composition of the tissues and the information of the second one is about the stucture
APA, Harvard, Vancouver, ISO, and other styles
11

Zullo, Anthony. "Analyse de données fonctionnelles en télédétection hyperspectrale : application à l'étude des paysages agri-forestiers." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30135/document.

Full text
Abstract:
En imagerie hyperspectrale, chaque pixel est associé à un spectre provenant de la réflectance observée en d points de mesure (i.e., longueurs d'onde). On se retrouve souvent dans une situation où la taille d'échantillon n est relativement faible devant le nombre d de variables. Ce phénomène appelé "fléau de la dimension" est bien connu en statistique multivariée. Plus d augmente devant n, plus les performances des méthodologies statistiques standard se dégradent. Les spectres de réflectance intègrent dans leur dimension spectrale un continuum qui leur confère une nature fonctionnelle. Un hyperspectre peut être modélisé par une fonction univariée de la longueur d'onde, sa représentation produisant une courbe. L'utilisation de méthodes fonctionnelles sur de telles données permet de prendre en compte des aspects fonctionnels tels que la continuité, l'ordre des bandes spectrales, et de s'affranchir des fortes corrélations liées à la finesse de la grille de discrétisation. L'objectif principal de cette thèse est d'évaluer la pertinence de l'approche fonctionnelle dans le domaine de la télédétection hyperspectrale lors de l'analyse statistique. Nous nous sommes focalisés sur le modèle non-paramétrique de régression fonctionnelle, couvrant la classification supervisée. Dans un premier temps, l'approche fonctionnelle a été comparée avec des méthodes multivariées usuellement employées en télédétection. L'approche fonctionnelle surpasse les méthodes multivariées dans des situations délicates où l'on dispose d'une petite taille d'échantillon d'apprentissage combinée à des classes relativement homogènes (c'est-à-dire difficiles à discriminer). Dans un second temps, une alternative à l'approche fonctionnelle pour s'affranchir du fléau de la dimension a été développée à l'aide d'un modèle parcimonieux. Ce dernier permet, à travers la sélection d'un petit nombre de points de mesure, de réduire la dimensionnalité du problème tout en augmentant l'interprétabilité des résultats. Dans un troisième temps, nous nous sommes intéressés à la situation pratique quasi-systématique où l'on dispose de données fonctionnelles contaminées. Nous avons démontré que pour une taille d'échantillon fixée, plus la discrétisation est fine, meilleure sera la prédiction. Autrement dit, plus d est grand devant n, plus la méthode statistique fonctionnelle développée est performante
In hyperspectral imaging, each pixel is associated with a spectrum derived from observed reflectance in d measurement points (i.e., wavelengths). We are often facing a situation where the sample size n is relatively low compared to the number d of variables. This phenomenon called "curse of dimensionality" is well known in multivariate statistics. The mored increases with respect to n, the more standard statistical methodologies performances are degraded. Reflectance spectra incorporate in their spectral dimension a continuum that gives them a functional nature. A hyperspectrum can be modelised by an univariate function of wavelength and his representation produces a curve. The use of functional methods allows to take into account functional aspects such as continuity, spectral bands order, and to overcome strong correlations coming from the discretization grid fineness. The main aim of this thesis is to assess the relevance of the functional approach in the field of hyperspectral remote sensing for statistical analysis. We focused on the nonparametric fonctional regression model, including supervised classification. Firstly, the functional approach has been compared with multivariate methods usually involved in remote sensing. The functional approach outperforms multivariate methods in critical situations where one has a small training sample size combined with relatively homogeneous classes (that is to say, hard to discriminate). Secondly, an alternative to the functional approach to overcome the curse of dimensionality has been proposed using parsimonious models. This latter allows, through the selection of few measurement points, to reduce problem dimensionality while increasing results interpretability. Finally, we were interested in the almost systematic situation where one has contaminated functional data. We proved that for a fixed sample size, the finer the discretization, the better the prediction. In other words, the larger dis compared to n, the more effective the functional statistical methodis
APA, Harvard, Vancouver, ISO, and other styles
12

Chavanne, Clarisse. "Les couleurs de la Tapisserie de Bayeux." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS527.

Full text
Abstract:
La Tapisserie de Bayeux, déposée par l'État français au Musée de Bayeux, est un chef d’œuvre unique du XIème siècle inscrit au Patrimoine du Monde de l’Unesco depuis 2007. Elle relate la conquête de l’Angleterre en 1066 par Guillaume le Conquérant, Duc de Normandie, sur une toile de près de 70 m de long. Cette œuvre d’art, appelée à tort Tapisserie, est en fait une broderie de fils de laine teints sur toile de lin. Bien qu’elle soit un sujet d’étude extrêmement étudié par les historiens et historiens de l’art, peu de recherches relatives à l’analyse scientifique de cette œuvre, en tant qu’objet textile, ont été effectuées. Les colorants naturels ont été identifiés comme provenant de quatre plantes (la garance, la gaude, le pastel et une non identifiée produisant du marron) grâce à des analyses invasives en 1982. L’objectif de cette thèse était donc d’obtenir une information plus complète sur les colorants utilisés, leur dégradation mais aussi sur les méthodes de teinture de l’époque médiévale, grâce à des méthodes non invasives. En effet, aucun prélèvement ni méthode destructive ne sont envisageables actuellement pour les œuvres de grande importance. Grâce à l'imagerie hyperspectrale, nous avons tout d’abord développé une méthode scientifique non invasive permettant l'identification des colorants présents sur la Tapisserie de Bayeux. Pour cela, nous avons créé une base de données de spectres de réflectance de laines teintes puis dégradées au laboratoire, que nous avons comparée aux spectres de la Tapisserie. De plus, en combinant les données des images de l'envers avec le regroupement numérique des fils teints du recto de la Tapisserie à l'aide des données d'imagerie hyperspectrale, il a été possible de retrouver visuellement les couleurs d'origine de la Tapisserie. Les résultats obtenus modifient la perception visuelle et la réception de la Tapisserie de Bayeux en améliorant la compréhension des goûts et des pratiques médiévales. Ces données permettront aux restaurateurs d’appréhender plus sereinement sa restauration en 2026, et soutiendront de nouvelles recherches sur le sujet
The Bayeux Tapestry, deposited by the French State in the Bayeux Museum, is a unique 11th century masterpiece listed as a UNESCO World Heritage since 2007. It relates the conquest of England in 1066 by Guillaume the Conqueror, Duke of Normandy, on a canvas almost 70 m long. This work of art, wrongly called tapestry, is actually an embroidery of dyed wool threads on linen. Although it is a subject of study extremely studied by historians and art historians, few researches relating to the scientific analysis of this work, as a textile object, have been carried out. Natural dyes were identified as coming from four plants (madder, weld, woad and an unidentified one producing brown) thanks to invasive analysis in 1982. The objective of this PhD was therefore to obtain more complete information on the dyes used, their degradation but also on the dyeing methods of medieval times, thanks to non-invasive methods. Indeed, no sampling or destructive method is currently possible for works of great importance. Thanks to hyperspectral imaging, we first developed a non-invasive scientific method allowing the identification of the dyes present on the Bayeux Tapestry. For this, we created a database of reflectance spectra of wool dyed then degraded in the laboratory, which we compared to the spectra of the Tapestry. Moreover, by combining the data from the images of the reverse side of the Tapestry with the digital grouping of the dyed threads of the front using the hyperspectral imaging data, it was possible to visually recover the original colours of the Tapestry. The results obtained modify the visual perception and reception of the Bayeux Tapestry by improving the understanding of medieval tastes and practices. These data will allow restaurateurs to apprehend better its restoration in 2026, and will support new researches on the subject
APA, Harvard, Vancouver, ISO, and other styles
13

Ghasemzadeh-Barvarz, Massoud. "Quality control of complex polymer materials using hyperspectral imaging associated with multivariate statistical analysis." Doctoral thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26025.

Full text
Abstract:
Dans la première étape de ce travail, des composites formulés à partir d'anhydride maléique greffé polyéthylène (MAPE) et de différentes charges de fibres de chanvre (entre 0 et 60%) ont été produits et analysés par imagerie NIR. Trois méthodes chimiométriques ont été utilisées puis comparées pour la prédiction des propriétés mécaniques, cartographier la distribution des constituants et détecter les défauts physiques des matériaux: la calibration multivariée traditionnelle basée sur la régression PLS, la résolution multivariée de courbes (MCR) et l’analyse d’images et la régression sur les images multivariées (MIA/MIR). Dans la deuxième partie de ce projet, une série de films multicouches complexes (échantillons industriels) ont été étudiés par imagerie NIR combinée à l’analyse d’images multivariée. Le potentiel et l'efficacité de la méthode proposée pour détecter les défauts causés par la (les) couche(s) manquant(es) ont été étudiés pour des films non imprimés et imprimés. Dans la dernière partie, les composites hybrides polypropylène (PP) / fibre de verre / fibre de lin ont été étudiés. L'effet de la teneur en fibres (0 à 40% en volume) et de la composition sur les propriétés mécaniques ont été investigués, ainsi que l’effet de l’exposition à l’eau et la dégradation thermique et aux rayons UV (vieillissement accéléré des matériaux). Les images de microscopie électronique à balayage (MEB) des composites non vieillis ont été analysées en combinant des méthodes d’analyse de texture et des méthodes multivariées. Enfin, l'imagerie NIR a été mise en œuvre sur des composites non vieillis et vieillis afin de prédire leurs propriétés finales ainsi que pour modéliser les variations de composition chimique et celles dues au vieillissement accéléré. En résumé, les résultats montrent que la combinaison de l'imagerie hyperspectrale et des méthodes statistiques multivariées est un outil puissant pour le contrôle de la qualité des composites polymères complexes. De plus, la méthode proposée est rapide et non destructive, elle peut être mise en œuvre en ligne, pour le contrôle de la qualité des matériaux composites. D'autre part, il a été démontré que l'analyse de la texture des images peut être appliquée à la quantification de la dispersion et du degré d’homogénéité de la distribution des charges dans des matériaux composites.
In the first step of this work, maleic anhydride grafted polyethylene (MAPE)/hemp fiber composites with different filler concentration between 0 to 60% were analyzed by NIR imaging. Three chemometrics methods including Partial Least Squares (PLS), Multivariate Curve Resolution (MCR) and Multivariate Image Analysis/Multivariate Image Regression (MIA/MIR) were implemented and compared for predicting mechanical properties as well as mapping chemical compositions and material physical variations. In the second part of this project, a series of complex multilayer films (industrial samples) were investigated using NIR hyperspectral imaging and Multivariate Image Analysis (MIA). The potential and effectiveness of the proposed method for detecting defects caused by missing layer(s) were studied for unprinted and printed films. In the final part, polypropylene (PP)/glass/flax hybrid composites were studied. The effect of composition (fiber content between 0 and 40 vol%), as well as water, thermal and UV aging on mechanical properties was investigated. Then, Scanning Electron Microscopy (SEM) images of unaged hybrid composites were analyzed using texture analysis and multivariate methods. Finally, NIR imaging was implemented on unaged and aged composites to predict their final properties as well as to capture chemical composition and aging variations. In summary, the results show that combining hyperspectral imaging and multivariate statistical methods is a powerful tool for quality control of complex polymer composites. Since the proposed method is rapid and nondestructive, one can implement it for on-line quality control of finished plastic products. On the other hand, texture analysis and multivariate methods can be applied for quantifying the mixing aspects of composites.
APA, Harvard, Vancouver, ISO, and other styles
14

Dary, Christophe. "Analyse géométrique d'image : application à la segmentation multi-échelle des images médicales." Nantes, 1992. http://www.theses.fr/1992NANT07VS.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Chen, Jie. "Indentification de système sous la contrainte de non-négativité - Applications dans filtrage adaptatif et analyse dimage hyperspectrale." Phd thesis, Université de Technologie de Troyes, 2013. http://tel.archives-ouvertes.fr/tel-00953563.

Full text
Abstract:
Dans de nombreux phénomènes de la vie réelle en raison des caractéristiques physiques inhérentes des systèmes, la non-négativité est une contrainte désirée et éventuellement imposée sur les paramètres à estimer. L'objectif de cette thèse est d'étudier les théories et algorithmes pour l'identification de système sous contraintes, en particulier la contrainte de non-négativité et celle de somme-à-un sur le vecteur de paramètres. La première partie de la thèse traite le problème de système d'identification en-ligne soumis la non-négativité. L'algorithme Non-negative Least-Mean-Square (NNLMS) et ses variantes sont proposés. Les comportements stochastiques de ces algorithmes dans des environnements non-stationnaires sont étudiés analytiquement. Enfin, l'extension de ces algorithmes nous permet de dériver un algorithme de type LMS avec la régularisation de norme L1 La deuxième partie de la thèse porte sur un problème d'identification système spécifique - démélange non-linéaire de spectres, avec la contrainte de non-négativité et celle de somme-à-un. Nous formulons un nouveau paradigme avec noyaux sous l'hypothèse que le mélange peut être décrite par un mélange linéaire de composantes spectrales, avec des fluctuations additives non-linéaires définies dans un espace de Hilbert à noyau reproduisant. Un algorithme basé sur l'apprentissage des noyaux, est proposé afin de déterminer les abondances de matériels purs sous les contraintes. Enfin, la corrélation spatiale entre pixels est utilisée comme information a priori pour améliorer la performance.
APA, Harvard, Vancouver, ISO, and other styles
16

Fontanilles, Guillaume. "Caractérisation des propriétés optiques infrarouges et de la température par désagrégation de mesures directionnelles et spectrales." Toulouse, ISAE, 2009. http://www.theses.fr/2009ESAE0008.

Full text
Abstract:
La compréhension de notre environnement nécessite l'étude de phénomènes radiatifs à l'interface surface - atmosphère. Ces échanges d'énergie sont analysés à différents niveaux d'échelle suivant la résolution spatiale du capteur. Cette thèse traite du domaine spectral infrarouge (3-14pm) et s'intéresse aux milieux urbains caractérisés par une forte variabilité spatiale. L'objectif est de caractériser les propriétés optiques (réflectance et émissivité) et les températures de surface à partir de mesures directionnelles et spectrales. Pour cela, une première étape a consisté à modéliser le signal en décrivant chacune de ses composantes radiatives. Un modèle de transfert radiatif, TITAN, a donc été développé. Ce modèle permet également de quantifier les effets directionnels de chacune des composantes du signal. Il a été validé par intercomparaison avec d'autres codes de transfert radiatifs. La suite des travaux s'est portée sur l'analyse de l'agrégation lors d'un changement d'échelle spatiale afin de relier les paramètres de surface définis localement aux valeurs équivalentes déduites des mesures capteurs. Une analyse phénoménologique du modèle d'agrégation a été réalisée à l'aide de plans d'expérience afin d'étudier l'influence de chaque facteur d'entrée du modèle sur les paramètres équivalents. Enfin, la dernière étape s'est attachée à inverser le modèle d'agrégation, i. E. à désagréger, dans le but de retrouver les paramètres intrinsèques des surfaces à partir de données hyperspectrales multi-angulaires. Du fait de la non linéarité de nos équations d'agrégation, notre méthode de désagrégation est basée sur la méthode des moindres carrés optimisée par l'algorithme de Gauss-Newton. Une analyse de sensibilité a permis de fixer les contraintes et les conditions d'applications de notre méthode, comme par exemple la nécessité de connaître la répartition des surfaces avec une précision de 1m. Ainsi, les résultats de ces travaux pourront être utilisés dans les études des îlots de chaleur urbains pour une meilleure estimation des températures de surface.
APA, Harvard, Vancouver, ISO, and other styles
17

Amirabadi, Seyedshahabaldin. "Characterization of PLA-Talc films using NIR chemical imaging and multivariate image analysis techniques." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/29853.

Full text
Abstract:
L’emballage joue un rôle important dans l’industrie alimentaire afin de maintenir la qualité des produits le plus longtemps possible. Les films de polymère sont largement utilisés dans l’emballage alimentaire et sont attrayants pour leurs propriétés exceptionnelles. Puisque les polymères à base de pétrole apportent des préoccupations environnementales, les polymères biodégradables tel que le PLA sont étudiés plus intensivement depuis quelques années considérant leurs propriétés écologiques. L’application de films renforcés permet, comparativement aux films simples, d’atteindre des fonctions spécifiques et d’améliorer leurs propriétés tel que l’étanchéité aux gaz. Toutefois, puisque la structure de ces films est plus complexe, le contrôle de qualité de ces derniers est plus difficile. Dans l’industrie, des méthodes hors-ligne sont très souvent utilisées pour effectuer le contrôle de qualité des films produits. Le contrôle est nécessaire puisque la variabilité de la matière première ainsi que le changement des conditions opératoires amènent des modifications qui changent considérablement les propriétés du film. Par conséquent, une inspection en temps réel ainsi qu’un contrôle des films de polymère est nécessaire sur la ligne de production afin d’obtenir un contrôle de qualité s’approchant de l’analyse en temps réel. Un système d’imagerie proche infrarouge (NIR) rapide et non-destructif est proposé pour caractériser les films biodégradables d’acide polylactique contenant du talc produits par extrusion-soufflage et utilisés pour l’emballage. Le but ultime est d’utiliser le système pour faire un contrôle de qualité sur la ligne d’extrusion ainsi qu’après le post-traitement termique, soit le recuit. Un ensemble d’échantillon de film de PLA contenant différentes concentrations en talc ont été fabriqués. Ces derniers ont ensuite été soumis à différentes conditions de recuit. Des images NIR ont été collectées avant la caractérisation des propriétés physiques et mécaniques ainsi que l’étanchéité aux gaz. Des techniques d’imagerie multivariées ont été appliquées aux images hyperspectrales. Celles-ci ont montré que la quantité de talc peut être déterminée et que l’information du spectre NIR permet de prédire les propriétés du film. Dans tous les cas, la méthode proposée permet de déterminer les variations dans les propriétés du film avec une bonne précision.
Food packaging plays a great role in the food industry to maintain food products quality as long as possible. Polymer films are widely used in food packaging and also attract attention because of their outstanding advantages. Since petroleum-based polymers are known to cause environmental concerns, biodegradable polymers like PLA were studied more intensively in recent years due to their environmentally friendly properties. The application of reinforced films exceeds simple ones in achieving specific functions and enhancing their properties such as barrier properties. Since the films structures are more complex, quality control is more challenging. In industry, off-line methods are vastly used for quality control of the produced films while variability in raw materials and processing conditions substantially change the film specifications. Consequently, real-time inspection and monitoring of polymer films is needed on the production line to achieve a real-time quality control of the films. A fast and non-invasive near-infrared (NIR) imaging system is proposed to characterize biodegradable polylactic acid (PLA) films containing talc, and produced by extrusion film-blowing for packaging applications. The ultimate goal is to use the system for quality control on the extrusion line, and after a post-processing via thermal treatment (annealing). A set of PLA-talc films with varying talc contents were produced and submitted to annealing under different conditions. NIR images of the films were collected after which the samples were characterized for their physical, mechanical, and gas barrier properties. Multivariate imaging techniques were then applied to the hyperspectral images. It is shown that various talc loadings can be distinguished, and the information contained in the NIR spectra allows predicting the film properties. In all cases, the proposed approach was able to track the variation in film properties with good accuracy
APA, Harvard, Vancouver, ISO, and other styles
18

Boiret, Mathieu. "Towards chemometric methodologies on hyperspectral imaging for low dose compound detection : application on Raman microscopy." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS291.

Full text
Abstract:
L’imagerie hyperspectrale est désormais considérée comme un outil analytique à part entière dans l’industrie pharmaceutique, aussi bien au cours du développement pour assurer la qualité d’un produit que pour résoudre des problématiques de production après la mise sur le marché du médicament. Dans ces travaux, la microscopie Raman est utilisée pour étudier la distribution en principes actifs et excipients au sein d’une forme pharmaceutique solide, en se focalisant tout particulièrement sur l’identification d’un composé faiblement dosé. Ce dernier est défini comme étant un produit ayant de faibles contributions spatiale et spectrale, signifiant qu’il est distribué dans quelques pixels de l’image avec une information spectrale peu présente dans un spectre de mélange. Alors que la plupart des algorithmes chimiométriques se basent sur la décomposition de moments statistiques, nécessitant une variation suffisante entre les échantillons (les pixels d’une image), les limites de ces outils pour résoudre ce cas spécifique sont rapidement atteintes.La première partie de la thèse met en évidence les difficultés de détection d’un composé faiblement dosé en utilisant l’analyse en composantes indépendantes et la résolution multivariée de courbes. Des méthodologies de travail sont proposées pour contourner ces limitations. Pour les deux techniques, les étapes de réduction de dimensions apparaissent comme des paramètres critiques de la méthode. La seconde partie de la thèse se focalise sur l’espace des signaux pour déterminer des cartes d’absence/présence de constituants ou pour détecter des constituants dans une formulation inconnue, en se basant sur des espaces spectraux portant une information relative aux constituants de la formulation. Les techniques proposées sont parfaitement adaptées à la détection d’un composé faiblement dosé et ces méthodes pourraient être adaptées à d’autres techniques de mesure ou d’autres domaines d’application
Hyperspectral imaging is now considered as a powerful analytical tool in the pharmaceutical environment, both during development to ensure the drug product quality and to solve production issues on commercialized products.In this thesis, Raman microscopy is used to study the distribution of actives and excipients in a pharmaceutical drug product, by especially focusing on the identification of a low dose compound. This latter product is defined as a compound which has low spatial and spectra contributions, meaning that it is scattered in a few pixels of the image and that its spectral response is mixed with the other compounds of the formulation. While most chemometric tools are based on the decomposition of statistical moments (requiring sufficient variations between samples or image pixels), some limitations have been rapidly reached. The first part of this thesis highlights the difficulty to detect a low dose compound in a product by using independent component analysis or multivariate curve resolution. Different methodologies are proposed to circumvent these limitations. For both techniques, reduction of dimensions and filtering steps appears as critical parameters of the method. The second part of the thesis focusses on the signal space to determine absence/presence compound maps or to detect the compounds in an unknown formulation. The proposed methods are only based on the spectral space of each formulation compound. There are perfectly suitable to a low dose compound and should be well-adapted to other analytical techniques or to other environments
APA, Harvard, Vancouver, ISO, and other styles
19

Guignard, Léo. "Analyse quantitative de la morphogenèse animale : de l'imagerie laser haut-débit à l'embryon virtuel chez les ascidies." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS048/document.

Full text
Abstract:
Les embryons d'ascidies se développent avec un lignage cellulaire stéréotypé et évolutionairement conservé pour produire en quelques heures ou jours un têtard comportant un petit nombre de cellules. De ce fait, ils fournissent un cadre intéressant pour décrire avec une résolution cellulaire le programme de développement d’un organisme complet. Pendant mon doctorat, j’ai développé une approche quantitative pour décrire l’évolution morphologique embryonnaire pendant le développement de Phallusia mammillata. J’ai ensuite utilisé cette approche pour systématiquement caractériser en détail les logiques des événements de spécifications de destin cellulaire.Pour caractériser quantitativement les comportements cellulaires pendant l’embryogenèse, nous avons utilisé de la microscopie à feuille de lumière multi-angles pour imager des embryons entiers à haute résolution spatio-temporelle. Les membranes plasmiques étaient marquées pour permettre l’identification des cellules. Pour extraire les informations biologiques de ce jeu de donnés, j’ai développé une nouvelle méthode pour segmenter les cellules en 4D, ASTEC. Une fois appliquée aux embryons de Phallusia mammillata imagés pendant 6 heures entre le stade 64 cellules et le début des stades bourgeon caudal, cette méthode a permis de récupérer la forme et de suivre 1030 cellules pendant 640 divisions. L’embryon digital 4D résultant peut être formalisé par un graphe dynamique, dans lequel les cellules sont représentées par des sommets reliés par des arrêtes représentant au sein d’un point de temps leur voisinage spatial, et entre différents points de temps leur lignage cellulaire.Basé sur cette représentation digitale et quantitative, nous avons systématiquement identifié les événements de spécification cellulaire jusqu’au dernier stade de la gastrulation. Des simulations informatiques ont révélé que des règles remarquablement simples intégrant les aires de contacts cellulaires et les expressions spatio-temporelles booléennes de signaux moléculaires extracellulaires sont suffisantes pour expliquer les inductions cellulaires au cours du développement précoce. Ce travail suggère que pour les embryons établissant des contacts stéréotypés et précis entre cellules voisines, les contraintes génomiques sont relâchées, ce qui permet une évolution plus rapide du génome
Ascidian embryos develop with stereotyped and evolutionarily conserved invariant cell lineages to produce in a few hours or days tadpole larvae with a small number of cells. They thus provide an attractive framework to describe with cellular resolution the developmental program of a whole organism. During my PhD, I developed a quantitative approach to describe the evolution of embryonic morphologies during the development of the ascidian Phallusia mammillata. I then used this approach to systematically characterize in detail the logic of cell fate induction events. To quantitatively characterize cell behaviors during embryogenesis, we used multi-angle light-sheet microscopy to image with high spatio-temporal resolution entire live embryos with fluorescently labeled plasma membranes. To extract biological information from this imaging dataset, I then developed a conceptually novel automated method for 4D cell segmentation, ASTEC. Applied to a Phallusia mammillata embryo imaged for 6 hours between the 64-cell and the initial tailbud stages, this method allows the accurate tracking and shape analysis of 1030 cells across 640 cell divisions. The resulting 4D digital embryo can be formalized as a dynamic graph, in which cells are represented by nodes, linked within a time point by edges that represent their spatial neighborhood, and between time points by temporal edges describing cell lineages.Based on this quantitative digital representation, we systematically identified cell fate specification events up to the late gastrula stage. Computational simulations revealed that remarkably simple rules integrating measured cell-cell contact areas with boolean spatio-temporal expression data for extracellular signalling molecules are sufficient to explain most early cell inductions. This work suggests that in embryos establishing precise stereotyped contacts between neighboring cells, the genomic constraints for precise gene expression levels are relaxed, thereby allowing rapid genome evolution
APA, Harvard, Vancouver, ISO, and other styles
20

Rolland, Yan. "Elements de perception , de modelisation et d'analyse de texture (doctorat : biologie et sciences de la sante)." Rennes 1, 1997. http://www.theses.fr/1997REN1B022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Juliachs, Manuel. "Rendu volumique parallèle hybride de maillages non structurés." Versailles-St Quentin en Yvelines, 2008. http://www.theses.fr/2008VERS0016.

Full text
Abstract:
Durant ces dernières années, les performances et fonctionnalités des processeurs graphiques programmables ont très fortement progressé, permettant ainsi le développement de nouveaux algorithmes de rendu volumique de maillages non structurés pour la visualisation scientifique. Nous présentons dans cette thèse nos contributions à ce domaine. Après quelques rappels sur les différents aspects des rendus graphiques parallèle et temps réel, nous exposons un aperçu bibliographique du rendu volumique de maillages non structurés sur processeur graphique programmable. Ensuite, nous décrivons un algorithme de rendu volumique de maillages tétraédriques par élément texturé sur processeur graphique, réduisant la quantité d'informations transmises par tétraèdre rendu afin d'obtenir de bonnes performances. Puis, nous présentons une architecture de rendu volumique parallèle de maillages tétraédriques. Elle repartit les traitements entre processeur central et processeur graphique, suivant l'espace dans lequel ils sont effectués (espace-objet ou -image), ce qui permet d'augmenter arbitrairement le nombre d'unités de rendu utilisées en parallèle. Enfin, nous étudions comment nos deux contributions, rendu volumique par élément texturé et rendu parallèle hybride, pourront s'adapter aux futures architectures matérielles afin d'en augmenter la vitesse et la qualité de rendu
In recent years, performance and functionalities of graphics processing units (or GPUs) have tremendously increased, allowing the development of novel algorithms in the field of unstructured meshes volume rendering for scientific visualization. In this thesis report, we present our contributions to this particular domain. First, after reviewing parallel graphics rendering as well as the real-time graphics pipeline, we conduct a bibliographical survey of the previous work regarding unstructured meshes volume rendering on the GPU. Following this, we present a GPU point-sprite based tetrahedral meshes volume rendering algorithm. It minimizes the amount of data transmitted to the GPU for each tetrahedron rendered, resulting in a lower bandwidth and a higher performance. Afterwards, we present a hybrid parallel tetrahedral meshes volume rendering architecture. It partitions its work between the CPU and the GPU, according to the space (object or image) into which each work subset is done, allowing to arbitrarily scale the number of nodes used. Finally, we discuss how our two main contributions, namely point-sprite based and hybrid parallel volume rendering, might be adapted to future hardware architectures in order to improve both their performance and rendering quality
APA, Harvard, Vancouver, ISO, and other styles
22

Foucher, Christophe. "Analyse et amélioration d'algorithmes neuronaux et non neuronaux de quantification vectorielle pour la compression d'images." Rennes 1, 2002. http://www.theses.fr/2002REN10120.

Full text
Abstract:
Dans le contexte de l'imagerie satellite, nous avons travaillé sur la quantification vectorielle (QV) qui permet un meilleur compromis qualité/compression avec un codage à longueur fixe, plus robuste. Pour guider le choix d'un algorithme, nous avons en analysé plusieurs selon leurs caractéristiques de fonctionnement et leurs performances. Certains ont été simulés sur des images réelles. Un point faible de la QV est la complexité algorithmique du codage. Les évaluations ont confirmé l'intérêt des techniques de QV avec contrainte pour la réduire mais au détriment de la qualité. C'est pourquoi nous avons proposé deux techniques d'accélération sans contrainte. La première utilise les corrélations intra-blocs pour accélérer la recherche par distorsion partielle grâce à une concentration préalable de la variance. La seconde utilise les corrélations inter-blocs grâce à l'organisation topologique d'un dictionnaire construit par carte auto-organisée.
APA, Harvard, Vancouver, ISO, and other styles
23

Rousseau, Batiste. "Étude de la composition et des propriétés physiques de surface de la comète 67P/Churyumov-Gerasimenko : interprétation des données VIRTIS/Rosetta etmesure en réflectance d’analogues cométaires." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEO018/document.

Full text
Abstract:
Lors de leur formation il y a 4,6 milliards d’années, les comètes ont intégré des matériaux transformés selon les conditions physiques et dynamiques du disque d’accrétion mais aussi une part de composés issus du milieu interstellaire. Parce qu’elles ont préservé leurs propriétés, étudier les comètes permet de mieux comprendre les conditions régnant dans le disque proto-planétaire entourant le jeune Soleil à une époque qui nous est inaccessible. Cela permet également de comprendre les différentes populations de comètes, leur processus de formation, leurs évolutions dynamiques, leur activité lorsqu’elles s’approchent du Soleil ou encore leur structure.La sonde européenne Rosetta a accompagné la comète 67P/Churyumov-Gerasimenko pendant deux ans. À son bord, une dizaine d’instruments ont permis d’étudier l’évolution de son activité, les gaz, la morphologie de surface ou les poussières parmi d’autres objectifs. VIRTIS est le spectromètre visible-infrarouge de Rosetta. Sa composante d’imagerie spectrale, VIRTIS-M, permet d’avoir accès à la dimension spatiale tout en bénéficiant d’une résolution spectrale modérée tandis que VIRTIS-H est un spectromètre ponctuel bénéficiant d’une plus grande résolution spectrale. Mon travail a reposé sur le traitement et l’analyse des données de ces instruments et se découpe en deux parties concentrées sur l’étude de la surface du noyau.La première est une analyse des paramètres spectraux et photométriques : albédo, pente spectrale, direction principale de la diffusion de la lumière par les particules, rugosité macroscopique. Dans une étude globale, j’ai mis en évidence les variations spatiales de certains de ces paramètres ; comparé les résultats issus de différents modèles ainsi que des deux instruments. J’ai ensuite déterminé localement ces paramètres, soulignant des différences selon le type de terrains ciblé. Ces études permettent de mieux comprendre les mécanismes liés à l’activité (dépôt/soulèvement de poussières, altération spatiale, variations de la teneur en glace) ou aux variations des propriétés de la surface (composition, texture).Le deuxième enjeu de cette thèse était de reproduire en laboratoire les observations réalisées par VIRTIS, et ce afin d’apporter des contraintes sur la composition et la texture de la surface. En collaboration avec l’IPAG de Grenoble j’ai donc mené des expériences consistant à produire des poudres très fines constituées de matériaux similaires à ceux que l’on suspecte d’être présents sur le noyau de 67P : matière organique (imitée par un charbon), silicates (olivine) et sulfures de fer (pyrite et pyrrhotite) sont ainsi tous observés dans les comètes ou leurs analogues. Je les ai ici broyés à des échelles micrométriques à nanométriques puis j’ai réalisé des mesures en réflectance dans la même gamme spectrale que VIRTIS. J’ai pu ainsi étudier les effets provoqués par les variations de la taille des grains, de la composition ou de la texture du mélange, mettant en avant des combinaisons reproduisant le spectre moyen de la comète. De manière générale, cette étude permet de mieux comprendre l’influence de matériaux rarement étudiés comme les sulfures de fer ainsi que le comportement spectral de poudres dont la taille des grains atteint un ordre de grandeur proche de celle de la longueur d’onde, ce qui est primordial dans l’étude des surfaces cométaires
During the Solar System formation, 4.6 billion years ago, comets accreted materials which have been transformed according to the physical and dynamical conditions of the accretion disk but also a part of components coming from the interstellar medium. By preserving a primordial composition, the study of comets allows us to better understand the conditions of the proto-planetary disk surrounding the young Sun of an epoch which is now inaccessible. Moreover, it consists also to understand the various comets populations, their formation process, dynamical and activity evolution as they inward and outward the Sun or their structure.The ESA/Rosetta mission followed the comet 67P/Churyumov-Gerasimenko during two years. A ten of instruments has been dedicated to the study of the evolution of its activity, gas release, surface morphology, dust and other objectives. VIRTIS is a visible/infrared spectrometer instrument. It is composed of VIRTIS-M, an imaging spectrometer which gives access to spatial information with moderate spectral resolution and VIRTIS-H, a point spectrometer with a higher spectral resolution. This study is based on the data analysis of VIRTIS instruments and is divided into two parts focused on the study of the nucleus surface.The first part is an analysis of the spectral and photometric parameters: albedo, spectral slope, the main direction of the light diffusion by particles, macroscopic roughness. In a global study, I highlighted the spatial variations of albedo and spectral slope; compared results derived from different models as well as from both instruments. Then, I determined these parameters locally, revealing differences between two types of terrains. This approach allows to better understand the mechanisms linked to the activity (dust drop-off/uprising, space weathering, ice content variation) and also to the surface properties (composition, texture).The second goal of the thesis is to reproduce in the laboratory the observations realized by VIRTIS to give constraints on the composition and texture of the surface. In collaboration with IPAG (Grenoble, France) I led experiments consisting of the production of very fine powders made of materials which look like those we suspect to be present on the nucleus of 67P: organic matter (mimicked by a coal), silicates (olivine) and iron sulfides (pyrite and pyrrhotite) are all observed on comets or their analogues. I ground them to micrometric to nanometric scales and I realized reflectance measurements in the same spectral range than VIRTIS. Then, I have been able to observe effects caused by the variations of the grain size, composition or texture of the mixture and to highlight combinations reproducing the mean comet VIRTIS spectrum. Finally, this work enables us understanding the influence of material poorly studied such as iron sulfides as well as the spectral behaviour of powders composed of grain sizes reaching an order of magnitude close to the wavelengths, which is essential in the study of cometary surfaces
APA, Harvard, Vancouver, ISO, and other styles
24

Abou, Fadel Maya. "Apports de la chimiométrie à la spectroscopie de Résonance Paramagnétique Electronique : nouvelles perspectives de traitement de données spectrales à dimensions spatiales (imagerie) et/ou temporelles." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10130/document.

Full text
Abstract:
La spectroscopie de Résonance Paramagnétique Electronique (RPE) est incontestablement devenue une technique de choix pour la caractérisation des matériaux complexes quand ceux-ci possèdent des électrons non appariés (ions de transitions, terres rares, défauts, radicaux organiques…). A l’instar de la résonnance magnétique nucléaire, la RPE génère des données spectrales multidimensionnelles (2D, 3D…) et depuis peu une imagerie spatiale mais aussi spectrale/spatiale. Il est ainsi étonnant de voir que malgré la grande quantité de données spectrales à explorer et la complexité des signaux RPE, il n’existe quasiment pas au niveau international d’exploitation des méthodes de traitements de données multivariées, méthodes largement proposées en chimiométrie. L’objectif de cette thèse est ainsi de développer de nouveaux outils pour le traitement de ces données spectrales RPE, d’établir de nouvelles méthodologies d’analyse et d’en évaluer leurs performances. Les deux axes principalement étudiés seront l’imagerie spectroscopique et la spectroscopie résolue en temps. Nous démontrerons dans ce travail que la mise en œuvre de méthodes dites de «résolutions multivariées de courbes» permet d’extraire simultanément et sans a priori toutes les cartographies chimiques et les spectres associés des composés purs présents dans l’échantillon étudié. Cette méthodologie sera aussi exploitée afin d’extraire les spectres RPE d’espèces intermédiaires lors d’un suivi cinétique
Electron Paramagnetic Resonance (EPR) Spectroscopy has undoubtedly become the first-choice technique for the characterization of complex materials containing some unpaired electrons (transition metal ions, rare earth ions, defects, organic radicals ...). Similarly to nuclear magnetic resonance spectroscopy, EPR generates multidimensional (2D, 3D…) spectral and recently also spatial (imaging) data as well as spectral/spatial ones. It is thus, surprising that despite the large amount of spectral data to be explored and complexity of the EPR signals, there hardly exist at the international level of exploitation the multivariate data processing methods that are widely available in chemometrics. The objective of this thesis is thus, to develop new tools for the treatment of these EPR spectral data, to establish new analytical methodologies and to evaluate their performance. The two main areas that will be studied are spectroscopic imaging and time-resolved spectroscopy. In this work, we will show that the implementation of the methods known as "multivariate curve resolutions" can extract, simultaneously, and without a priori all chemical maps and their corresponding spectra of pure compounds present in the studied sample. This methodology will also be exploited to extract the EPR spectra of intermediate species during a kinetic monitoring
APA, Harvard, Vancouver, ISO, and other styles
25

Laguitton, Soizic. "Suivi spatio-temporel des artères coronaires en imagerie scanner multidétecteur." Rennes 1, 2008. http://www.theses.fr/2008REN1S003.

Full text
Abstract:
Ce travail se situe dans le contexte du planning d'intervention endovasculaire guidée par l'image. L'objectif est de déterminer la trajectoire optimale du cathéter par analyse de scènes vue de l'intérieur de structures déformables en mouvement. La stratégie adoptée procède par suivi temporel des coronaires sur des séquences scanner 3D+T. Elle consiste à rechercher le déplacement d'un point situé dans la lumière du vaisseau dans le temps. L'espace est exploité dans un objectif de recherche grossière puis de raffinement de la position dans le temps. La mise en correspondance spatio-temporelle est réalisée au moyen d'une mesure de similarité basée sur une distance norme L2 entre descripteurs locaux. La précision et la robustesse des algorithmes ont été évaluées sur des mouvements linéaires et non linéaires simulés. Nous les avons ensuite appliqués pour extraire les courbes de déplacement moyen des segments coronaires sur un cycle cardiaque
The application we are dealing with concerns the image guided endovascular surgery. Our aim is to assess the optimal catheter trajectory, by analysing the surroundings from the inside of the deformable structures in motion. The strategy is to track the coronary in 3D+T MSCT sequences. It researches the displacement of a point located on the vessel during a cardiac cycle. A coarse research is first performed and then refined. The point selection criterion uses Euclidean distance between local descriptors of the vessel. The accuracy and robustness of the developed methods are measured on sequences containing simulated linear and non linear movements. We applied the methods to extract trajectories of coronary segments during one cardiac cycle
APA, Harvard, Vancouver, ISO, and other styles
26

Jocelyne, Fayn. "L'Analyse séquentielle des électrocardiogrammes." Lyon, INSA, 1990. http://www.theses.fr/1990ISAL0007.

Full text
Abstract:
Nous exposons dans notre mémoire une nouvelle méthodologie pour l'analyse séquentielle des électrocardiogrammes. Contrairement aux systèmes existants, dont la démarche consiste à confronter les résultats de l'analyse d'un tracé ECG donné à ceux d'un tracé plus ancien, notre approche repose sur une comparaison optimale des signaux ECG provenant d'un même patient. L'objectif était d'élaborer des mesures de quantification optimale du degré d'évolution entre deux tracés, et ceci le plus indépendamment possible de la variabilité l'origine extra-cardiaque des paramètres usuels. Afin de s'affranchir des variations des conditions d'enregistrement lors du recueil des signaux, on procède tout d'abord à une représentation tri-dimensionnelle des ECGs dans un espace lié à l'inertie de la boucle décrypte par le vecteur champ électrique cardiaque. Ces images filaires spatio-temporelles des tracés ECG d'un même patient sont ensuite superposées deux à deux de manière optimale par rotation, translation, homothétie et resynchronisation temporelle. L'optimisation est réalisée selon un algorithme de type itératif, basé sur des solutions analytiques obtenues par des techniques de calcul différentiel, et piloté par des heuristiques permettant la superposition des boucles de façon globale ou par parties homologues. Le critère d' optimisation est la minimisation de l'écart quadratique entre les tracés dans une fenêtre temporelle donnée. Les paramètres d'évolution résultant de 1'ensemble de notre méthodologie ont été évalués de façon descriptive et multivariée sur différents types de populations actives ou cardiopathies. Une stratégie de décision se situant dans la perspective d'un système de diagnostic séquentiel a été élaborée et appliquée au dépistage des infarctus péri-opératoires. La mise en œuvre de nos algorithmes a abouti à la réalisation du logiciel C. A. V. I. A. R. Implanté en routine hospitalière.
APA, Harvard, Vancouver, ISO, and other styles
27

Mangin, Franck. "Amélioration de la détection de contours en imagerie artificielle par un modèle coopératif multi-résolution." Nice, 1994. http://www.theses.fr/1994NICE4715.

Full text
Abstract:
L'étude psychophysiologique des systèmes visuels biologiques a mis en évidence l'existence du phénomène d'organisation perceptuelle. Cette étape, préattentive et ne faisant pas intervenir de connaissances de haut niveau, est cruciale pour l'analyse de scène. Le présent travail vise à appliquer les règles du groupement perceptuel aux discontinuités de l'intensité lumineuse dans les images digitales. Il propose pour cela un modèle multirésolution qui génère des hypothèses de contour, et évalue leur pertinence selon des critères perceptuels de bonne qualité intrinsèque, de prolongement et de parallélisme. L'algorithme utilise est massivement parallèle et est mis en œuvre sur une connection machine, ce qui conduit à des temps de traitement très faibles. Le modèle s'applique à des images complexes de scènes réelles, et de nombreux résultats obtenus avec des images satellitaires sont présentes. Le groupement perceptuel de contour n'est qu'une étape de l'analyse de scène, et un exemple d'application au suivi de contour est présenté : il permet d'obtenir des résultats concluants en détection du réseau sur des images satellitaires sans intervention de connaissance spécifique
APA, Harvard, Vancouver, ISO, and other styles
28

Debon, Renaud. "Analyse d'images échographiques de loesophage, reconstruction 3D et interprétation." Rennes 1, 2005. http://www.theses.fr/2005REN1S196.

Full text
Abstract:
Ce travail concerne l'évaluation des approches orientées « système à base de connaissances » pour l'interprétation des images médicales, en application à l'échoendoscopie oesophagienne et le développement d'un système d'aide au « staging » des tumeurs. Il est montré comment les approches intelligentes (systèmes experts et fusion d'information) peuvent permettre de rationaliser l'utilisation de l'ensemble de connaissances à priori. L'extraction pertinente de structures anatomiques, dans notre cas, la structure oesophagienne, devient une application naturelle de l'ingénierie des connaissances. Cette extraction s'appuie sur une segmentation des images. La robustesse requise pour ces algorithmes impose le développement d'architectures avancées de traitement permettant de compenser le faible contenu numérique de ces images. Trois exemples concrets sont détaillés : l'extraction 2D de l'interface oesophagienne interne, l'extraction 3D des interfaces oesophagiennes et , le suivi spatial avec la reconstruction 3D de l'artère aorte. Les connaissances sont représentées par des modèles statiques ou dynamiques (modèles flous, géométriques ou évidentiels). Nous avons examiné une approche qui exploite la complémentarité des probabilités et de la logique floue pour obtenir une représentation « fidèle » des connaissances à priori. Modèles flous et réalité statistique sont mis en adéquation dans une base d'apprentissage. Il est montré comment toutes ces composantes peuvent être intégrées dans une architecture cohérente et hiérarchiquement organisée
This work concerns the approach evaluations, which are oriented « knowledge based system » for medical images interpretation applied to esophagus echoendoscopy and the development of aid system for tumor staging. It's shown how the intelligent approaches (expert system and information fusion) can allow rationalizing the using of a priori knowledge. The pertinent extraction of anatomic structures, in our case, esophagus structure, becomes a natural application in the knowledge engineering. This extraction is based on the image segmentation. The required robustness for these algorithms impose the advanced architectures development allowing the compensation of low numerical content of these images. Three concrete examples are detailed : 2D extraction of the esophagus' interface, 3D extraction of the esophagus' interfaces and spatial following with 3D reconstruction of the aorta. Knowledge is represented by static or dynamical model (fuzzy, geometric or evidential models). The approach using the complementarities of probabilities and fuzzy logic to obtain presentation « exact » of knowledge a priori. Fuzzy models and statistic reality are synchronized by a knowledge base. It's shown that all components can be integrated in a coherent architecture hierarchically organized
APA, Harvard, Vancouver, ISO, and other styles
29

Samir, Chafik. "Analyse des déformations des visages 3D utilisant les chemins géodésiques dans l'espace des surfaces faciales." Evry, Institut national des télécommunications, 2006. http://www.theses.fr/2007TELE0016.

Full text
Abstract:
L'analyse de la forme des surfaces faciales a un intérêt de plus en plus croissant et trouve ses applications dans différents domaines tels que la chirurgie faciale, les communications vidéos, l'animation 3D, les interfaces homme-machine et la biométrie. Nous proposons dans cette thèse une nouvelle approche issue de la géométrie Riemannienne. Elle basée sur la représentation des surfaces faciales par une famille de lignes de niveau dites courbes faciales (2D ou 3D). Dans la première partie de la thèse, nous proposons de comparer deux surfaces faciales à travers les formes planes des courbes faciales. En utilisant la géométrie Riemannienne de l’espace des courbes 2D, nous définissons la notion de chemin géodésique et la distance entre deux surfaces faciales. Les résultats expérimentaux sur la base publique (FRGC V1. 0) démontrent l'efficacité de notre approche pour la reconnaissance de visages 3D. En effet, la courbe ROC montre que l’on peut atteindre un taux de reconnaissance de 97% si on accepte un taux de faux positif de 1%. Dans la deuxième partie de la thèse nous avons défini l’espace des surfaces faciales comme une variété non-linéaire de dimension infinie. Dans cet espace les déformations sont modélisées par des chemins entre deux surfaces faciales. Nous avons, tout d’abord, analysé les surfaces faciales comme étant des points de cette variété. Ensuite, nous avons déterminé les déformations optimales entre deux points de cet espace, comme étant le chemin géodésique qui les relie. La longueur de ce chemin géodésique est une distance "naturelle" entre les surfaces faciales. Enfin, nous avons défini des notions statistiques telles que la variance et la moyenne de Karcher. Les résultats expérimentaux montrent tout l'intérêt de notre approche
[non communiqué]
APA, Harvard, Vancouver, ISO, and other styles
30

Parra-Denis, Estelle. "Analyse morphologique 3D de particules de formes complexes : application aux intermétalliques dans les alliages d'aluminium." Saint-Etienne, 2007. http://www.theses.fr/2007STET4001.

Full text
Abstract:
Le matériau étudié dans cette thèse est un alliage d'aluminium 5182 contenant des particules intermétalliques de 2 types : Alx (Fe, Mn) et Mg2Si. Au cours du laminage industriel, les particules sont brisées et redistribuées dans le volume de la tôle. Or, les particules intermétalliques contrôlent à la fois l'aspect de surface et la formabilité de la tôle finale. Le travail présenté dans la thèse s'articule autour de 2 problématiques : mettre ne évidence la distribution volumique des particules intermétalliques dans le volume de la tôle, et caractériser leur forme tridimensionnelle complexe au cours du laminage. Ainsi, des échantillons prélevés à différentes étapes du laminage sont observés par microtomographie aux rayons X (réalisée à l'ESRF). Les images tridimensionnelles obtenues sont segmentées par la méthode de segmentation multi classe. Elle permet d'extraire chaque type de particule de l'alliage. Une base de données contenant chaque particule individualisée est créée. Elle permet de reconstruire l'image binaire du matériau et de travailler particule à particule. La dispersion des particules est mise en évidence par l'étude du graphe des distances et de la covariance. Puis l'analyse de l'érosion linéaire et de la covariance permet de modéliser le matériau par un modèle probabbiliste de type schéma Booléen à grains primaires sphériques. Une batterie de parmètres morphologiques caractérise la forme tridimensionnelle complexe des particules. Une analyse en composantes principales est ensuite réalisée pour synthétiser l'information. Dans l'espace obtenu, les particules sont classées en 5 familles de forme. Enfin, leur évolution au cours du laminage est étudiée
In this PhD-thesis, the studied material is an aluminium alloys 5182 containing 2 particles types : Alx(Fe, Mn) and Mg2Si. During industrial rolling, particles are broken up, and redistributed in the volume of the sheet. As particles controls surface aspect and formability of the final sheet, the work presented is based on 2 issues : to highlight volume distribution of intermetallic particles, and to characterize their three-dimensional shapes during the rolling process. Thus, samples extracted to different steps of the rolling process are been scanned by X ray microtomography (performed at the ESRF). The obtained three dimensional images are segmented by a multi class thresholding method. Extraction of each particle type is allowed. A data basis containing each individualized particles is created. It ensures to reconstruct the materail binary image and also to work particle by particle. The particles dispersion is highlight by the graph of distances and the covariance study. The analysis of linear erosion and covariance allows to model the material by a probabilistic Boolean model with spherical primary grains. A set of morphological parameters characterizes the intermetallic particles three dimensional complex shapes. A principal components analysis is performed to sum up the information. In the obtained subspace, particles are classified into 5 families of shapes. Their evolution is followed during the rolling process
APA, Harvard, Vancouver, ISO, and other styles
31

Boulais, Axel. "Méthodes de séparation aveugle de sources et application à l'imagerie hyperspectrale en astrophysique." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30318/document.

Full text
Abstract:
Ces travaux de thèse concernent le développement de nouvelles méthodes de séparation aveugle de mélanges linéaires instantanés pour des applications à des données hyperspectrales en astrophysique. Nous avons proposé trois approches pour effectuer la séparation des données. Une première contribution est fondée sur l'hybridation de deux méthodes existantes de séparation aveugle de source (SAS) : la méthode SpaceCORR nécessitant une hypothèse de parcimonie et une méthode de factorisation en matrices non négatives (NMF). Nous montrons que l'utilisation des résultats de SpaceCORR pour initialiser la NMF permet d'améliorer les performances des méthodes utilisées seules. Nous avons ensuite proposé une première méthode originale permettant de relâcher la contrainte de parcimonie de SpaceCORR. La méthode MASS (pour \textit{Maximum Angle Source Separation}) est une méthode géométrique basée sur l'extraction de pixels mono-sources pour réaliser la séparation des données. Nous avons également étudié l'hybridation de MASS avec la NMF. Enfin, nous avons proposé une seconde approche permettant de relâcher la contrainte de parcimonie de SpaceCORR. La méthode originale SIBIS (pour \textit{Subspace-Intersection Blind Identification and Separation}) est une méthode géométrique basée sur l'identification de l'intersection de sous-espaces engendrés par des régions de l'image hyperspectrale. Ces intersections permettent, sous une hypothèse faible de parcimonie, de réaliser la séparation des données. L'ensemble des approches proposées dans ces travaux ont été validées par des tests sur données simulées puis appliquées sur données réelles. Les résultats obtenus sur ces données sont très encourageants et sont comparés à ceux obtenus par des méthodes de la littérature
This thesis deals with the development of new blind separation methods for linear instantaneous mixtures applicable to astrophysical hyperspectral data sets. We propose three approaches to perform data separation. A first contribution is based on hybridization of two existing blind source separation (BSS) methods: the SpaceCORR method, requiring a sparsity assumption, and a non-negative matrix factorization (NMF) method. We show that using SpaceCORR results to initialize the NMF improves the performance of the methods used alone. We then proposed a first original method to relax the sparsity constraint of SpaceCORR. The method called MASS (Maximum Angle Source Separation) is a geometric method based on the extraction of single-source pixels to achieve the separation of data. We also studied the hybridization of MASS with the NMF. Finally, we proposed an approach to relax the sparsity constraint of SpaceCORR. The original method called SIBIS (Subspace-Intersection Blind Identification and Separation) is a geometric method based on the identification of intersections of subspaces generated by regions of the hyperspectral image. Under a sparsity assumption, these intersections allow one to achieve the separation of the data. The approaches proposed in this manuscript have been validated by experimentations on simulated data and then applied to real data. The results obtained on our data are very encouraging and are compared with those obtained by methods from the literature
APA, Harvard, Vancouver, ISO, and other styles
32

Boukarri, Bachir. "Reconstruction 3D récursive de scènes structurées au moyen d'une caméra mobile : application à la robotique." Paris 11, 1989. http://www.theses.fr/1989PA112290.

Full text
Abstract:
Cette thèse est consacrée à la perception d'environnement structuré, et décrit une méthode originale de reconstruction tridimensionnelle d'une zone d'intérêt au moyen d'une caméra mobile. Ce mémoire se décompose en trois points essentiels, de l'aspect bidimensionnel des images à l'aspect tridimensionnel de l'environnement, pour conclure finalement sur la validation des concepts énoncés. Dans la premiere partie, nous proposons une méthode qui produit une représentation topologique et géometrique de l'image à partir d'entités de type segment et jonction. Ensuite, nous étudions un procédé basé sur la prédiction et vérification d'hypothèses pour la mise en correspondance de ces entités issues de deux images successives. La seconde partie concerne la reconstruction tridimensionnelle de la scène. Elle met en évidence notre concept original d'estimation-construction-fusion utilisant une technique de triangulation. Un tel concept permet non seulement une représentation tridimensionnelle quasi complète et précise, mais aussi une estimation constante de la position du capteur vis-a-vis de la scène modélisée. L'efficacité d'une telle méthode est obtenue par l'édification d'une stratégie de remise a jour, et surtout par l'emploi d'un outil unique et puissant: filtrage de Kalman. Dans la dernière partie, nous exposons des résultats expérimentaux issus d'images réelles et simulées, et nous concluons sur l'efficacité de notre méthode
APA, Harvard, Vancouver, ISO, and other styles
33

Hatt, Mathieu. "Analyse et traitement d'images multi modales en oncologie." Habilitation à diriger des recherches, Université de Bretagne occidentale - Brest, 2012. http://tel.archives-ouvertes.fr/tel-00721743.

Full text
Abstract:
Avec une formation initiale en sciences de l'informatique et une spécialisation image, mes activités de recherche actuelles concernent le traitement et l'analyse de l'information et de l'image pour des applications en médecine, plus particulièrement l'oncologie et la radiothérapie. Plus spécifiquement, je m'intéresse à la segmentation et la classification automatique pour la définition des contours d'organes et de tumeurs, au filtrage du bruit et à la déconvolution pour l'amélioration qualitative et quantitative, et plus récemment, aux modèles multi observation pour la prise en compte des images multi modales, et la fusion d'informations pour l'aide à la décision dans la prise en charge des patients. Je poursuis ces thématiques spécifiquement dans le cadre de l'utilisation de l'imagerie TEP/TDM (Tomographie par Emission de Positons et scanner X) en oncologie et radiothérapie. Mes activités de recherche ont pris place dans le contexte de l'équipe " imagerie multi modale quantitative pour le diagnostic et la thérapie " du laboratoire INSERM U650 de traitement de l'information médicale (LaTIM). Ce contexte a garantit un travail l'équipe pluridisciplinaire, en collaboration notamment avec des radiothérapeutes, des médecins nucléaires, des physiciens, des ingénieurs, des mathématiciens et des informaticiens. En tant que doctorant, ma principale contribution a été le développement d'une méthode originale de segmentation d'image adaptée à la définition des volumes fonctionnels des tumeurs sur les images TEP. Lors de mon post-doctorat, j'ai poursuivi la validation de la précision, de la robustesse et de la reproductibilité de cette approche dans le cadre d'un projet ANR pour lequel j'ai reçu un financement de deux ans et demi. J'ai également étudié au cours de ces deux dernières années l'impact d'une telle méthode dans de nombreuses applications, telles que la dosimétrie en planification de traitement en radiothérapie, et la prise en charge des patients en oncologie. Au cours de ces six dernières années, j'ai été de plus en plus impliqué dans des travaux de recherche connexes menés par d'autres doctorants et post-doctorants. Ces travaux incluent la fusion d'images TEP pour le suivi temporel quantitatif, les simulations réalistes et l'évaluation dosimétrique, la caractérisation de l'hétérogénéité intra tumorale des traceurs TEP par analyse de texture, et la réduction des effets de volume partiel et du bruit en imagerie d'émission. J'ai assumé la responsabilité de co-encadrant de plusieurs stagiaires et doctorants de l'équipe sous la direction du directeur de recherche D. Visvikis. Cette responsabilité inclus des réunions hebdomadaires et des discussions régulières avec les étudiants, l'aide à la mise en place des expériences et protocoles de validation, à l'analyse des résultats, la correction de rapports de stage, d'articles et de manuscrits de thèse, ainsi que réfléchir à des solutions aux problèmes tant théoriques que techniques. Je travaille actuellement en tant que chercheur associé au département de recherche en imagerie et radiothérapie de Maastricht (MAASTRO) aux Pays-bas. Au cours des prochaines années, mon projet de recherche sera dédié au développement d'un contexte flexible et robuste permettant la modélisation et l'analyse semi-automatique d'ensemble d'images médicales multi modales, multi résolutions et multi temporelles, telles que TEP/TDM, TEMP/TDM, TEP/IRM, multi IRM ou TEP avec différents traceurs, ainsi que des acquisitions dynamiques. Ce développement permettra de déduire de nouveaux modèles prédictifs et des outils de décision adaptés à diverses applications cliniques tels que les cancers de l'oesophage, rectal, pulmonaire ou ORL, par la fusion de toute l'information disponible (imagerie, génétique, phéntypes et rapports cliniques). Ce projet se construira en partie sur les travaux préliminaires réalisés avec des doctorants venant de soutenir et en passe de terminer leur thèse, et sur les thèses de deux nouvelles doctorantes que j'encadrerai à partir d'octobre 2011 et courant 2012, recrutées sur des financements que j'ai contribué à obtenir en 2010-2011.
APA, Harvard, Vancouver, ISO, and other styles
34

Hanafi, Maher. "Analyse du mouvement humain par vison artificielle pour consoles de jeux vidéos." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/28483/28483.pdf.

Full text
Abstract:
Ce Mémoire s’intéresse au suivi (Tracking) sans marqueurs et à la reconstruction tridimensionnelle de mouvements humains articulés à partir de séquences vidéo acquises avec une caméra de type 3D (stéréo ou infrarouge). Ce domaine de recherche est très actif de nos jours et comporte un champ d’applications assez large qui touche des domaines tels que la capture du mouvement sans cibles pour l’animation et la réalité virtuelle, les interactions homme-machines, la télésurveillance ou bien sûr les jeux vidéos. Au cours de ce manuscrit, nous proposons une méthode pour déterminer la pose d’une personne en 3D. La technique, sans marqueurs, repose sur un alignement d’un squelette et d’un modèle humain 3D sur la silhouette vue par la caméra en s’appuyant sur un ajustement progressif, débutant par la tête et se poursuivant par le torse et les différents membres. La technique prend en considération l’aspect articulé de l’anatomie humaine et permet en particulier de régler certains problèmes d’occlusions et de chevauchement. Cela dit, la complexité de la structure du corps humains, de ses contraintes physiques ainsi que la grande variabilité dans les observations des images, font que la détermination d’une solution à ce problème soit difficile. L’objectif de cette mémoire est donc de développer une méthode assez robuste capable de faire face à ces différentes difficultés imposées par le choix de la technologie et le contexte général d’utilisation pour les consoles de jeux vidéo de salon. Pour aborder cette étude, nous proposons un modèle humain 3D qui tient compte des contraintes physiques et qui permet une intégration cohérente des différentes informations visuelles comme le visage, les contours et les silhouettes.
This report is interested in the markerless motion tracking and the three-dimensional reconstruction of articulated human movements from video sequences acquired with a 3D camera (stereo or infrared). Nowadays, this research field is very active and contains a wide field of applications which deals with areas such as motion capture for animations and virtual reality without using any kind of markers, human-machine interaction (HMI), remote monitoring and of course video games. In this manuscript, we propose a novel method to estimate the 3D human pose. This markerless technique is based on an alignment of a skeleton and a 3D human model over the silhouette seen by the camera by leaning on a progressive adjustment, starting from the head and continuing to the trunk and the various members. The technique considers the articulated aspect of the human body and allows, in particular, solving some problems of occlusions and overlapping. Besides, the complexity of the human body structure, of its physical constraints as well as the big variability in the images’ observations, makes that the solution determination for this problem is difficult. The objective of this memory thus is to develop a strong and robust method capable of facing these various difficulties imposed by the technology choice and the general context of use for home video games consoles. To approach this study, we propose a 3D human model which takes into account physical and kinematic constraints and which allows a coherent integration of various visual information such as face detection, edges and silhouettes. The combined system allows 3D human motion tracking using only one 3D camera.
APA, Harvard, Vancouver, ISO, and other styles
35

Baguet, Jean-Philippe. "Analyse structurale et fonctionnelle de la paroi carotidienne par échographie assistée par ordinateur : reconstruction 3D de l'artère carotide." Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE19010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Banga, Mbom Calvin David. "L'approche bootstrap en analyse des images : application à la restitution de la cinétique de la fuite dans la choriorétinopathie séreuse centrale." Rennes 1, 1995. http://www.theses.fr/1995REN10016.

Full text
Abstract:
Ce mémoire est une contribution à l'analyse des images médicales par des méthodes de reconnaissance des formes statistique. Ces méthodes conduisent à des techniques de classification et de segmentation multidimensionnelle qui présentent un grand intérêt pour la description qualitative ou quantitative des tissus sains ou des lésions en imagerie médicale. Cependant, la complexité des algorithmes utilisés induit une lourdeur en temps de calcul qui est néfaste pour l'analyse des séquences d'images. Pour résoudre ce problème, nous proposons une approche bootstrap pour l'analyse des images bidimensionnelles. Elle est basée sur des tirages aléatoires de blocs d'observations. L'information de corrélation de l'image est ainsi conservée à l'intérieur d'un bloc, alors que les différents blocs tirés sont indépendants. Les paramètres statistiques de l'image sont estimés sur un échantillon de taille petite et optimal au sens d'un critère de représentativité préalablement défini. Le modèle proposé permet ainsi d'améliorer l'estimation en réduisant le temps de calcul. Le problème de la restitution de la cinétique de la fuite en choriorétinopathie séreuse centrale justifie la nécessité d'un tel modèle au niveau de l'application. Sa résolution passe par la double contrainte d'effectuer plusieurs segmentations des séquences d'images du fond de l'œil pendant la durée limitée d'une séance d'angiographie. L'activité de la fuite est alors évaluée par le tracé d'une courbe donnant sa surface en fonction du temps d'injection du produit de contraste pour l'aide au diagnostic de cette pathologie. Le modèle proposé ouvre une perspective pour l'utilisation de l'approche bootstrap en reconnaissance des formes, notamment en segmentation multidimensionnelle, en classification des textures et en analyse invariante
This work concerns the medical image analysis using statistical pattern recognition methods. These methods usually lead to classification and multivariage segmentation approaches that are more and more used in medical imaging for qualitative or quantitative analysis of tissue. However, statistical pattern reconigtion methods are well known to need high computing time. This assumption is not suitable for image sequences analysis. To get rid of this important problem, we suggest a bootstrap approach for two-dimensional image analysis. This model is based on the random sampling of blocks of observations in the original image. The correlation relationships are maintained in a given block, while the selected blocks are each other independent. Given an original image, we randomly select a small representative set of observations for image statistical parameters estimation. In this way, the bootstrap model improves the estimation and reduces the computing time due to the complexity of estimation algorithms used in statistical pattern recognition. The problem of the quantification of the serum leak kinetic in the Central Serous Choroiditis pathology is and important application in wich the bootstrap model we propose is fro a great need. The serum leak surface is mesures from the eye's fundus images sequence after an unsupervised segmentation sept using the bootstrap random sampling model wich we have proposed. Both a high-quality segmentation and a great reduction of etimation time are required for this application. A graph showing the serum leak surface versus the Fluorecein inection time is then plotted for helping the decision in ophtalmology. The bootstrap model wich we propose for image analysis shows the way to use the bootstrap approach for statistical parameters estimation in pattern recognition, notably in image analysis by invariance methods, in texture analysis and multivariate segmentation
APA, Harvard, Vancouver, ISO, and other styles
37

Pottier, Fabien. "Etude des matières picturales du Codex Borbonicus – Apport des spectroscopies non-invasives à la codicologie." Thesis, Cergy-Pontoise, 2017. http://www.theses.fr/2017CERG0908/document.

Full text
Abstract:
Le contenu et l’état de conservation exceptionnel du Codex Borbonicus en font un témoin précieux de la culture du bassin de Mexico-Tenochtitlan à l’époque de l’arrivée des conquistadors. Pour certains historiens il s’agit d’un document assurément précolombien, tandis que pour d’autres, une partie de son contenu graphique dénote une influence culturelle Européenne. Afin d’explorer les savoir-faire mis en œuvre lors de sa production et d’apporter de nouvelles données à ce débat, la nature et le mode de préparation des constituants du manuscrit sont étudiés, dans les limites offertes par les instrumentations transportables et non-invasives (spectroscopies de fluorescence de rayons X, de réflexion, d’émission et Raman). Une première interprétation des données analytiques enregistrées sur le manuscrit se base sur les connaissances issues des sources historiques et du corpus de manuscrits mésoaméricains déjà étudiés. Une analyse plus fine des données est apportée par des calculs de combinaisons spectrales et par l’étude expérimentale de certains colorants, qui permettent une compréhension plus avancée des techniques de production picturale employées. Afin de généraliser les conclusions tirées des mesures localisées, la distribution des constituants sur la totalité du document est également abordée. L’imagerie hyperspectrale, par l’application d’outils statistiques et le développement de cartographies de motifs spectraux spécifiques, apporte ainsi une nouvelle perspective aux résultats des analyses. L’utilisation exclusive de colorants organiques d’origine animale (Dactylopius coccus) ou végétale (Indigofera suffruticosa, Comellina coelestis, Justicia spicigera) dans le Codex Borbonicus, seuls ou en mélanges, correspond aux traditions précolombiennes. L’hypothèse d’une influence européenne ne peut donc s’appuyer sur la nature des constituants du document. Les données présentées viennent par ailleurs enrichir les connaissances sur les techniques de production de manuscrits Mésoaméricains
The Codex Borbonicus is a great source of knowledge regarding different aspects of the culture of the basin of Mexico-Tenochtitlan at the time of the Spanish conquest. For some historians, the manuscript is definitely Precolumbian while for others, parts of its graphical contents reveal a European cultural influence. In order to investigate the technological knowledge that was involved for its creation, and to bring fresh data to the debate, the manuscript material constituents are studied with transportable, non-invasive analytical techniques (X-Ray fluorescence, reflexion, emission and Raman spectroscopies). A first interpretation of the analytical data recorded on the document is based on the historical records and the corpus of Mesoamerican manuscripts that have already been studied. A finer analysis of the data is done through the calculation of spectral combinations as well as the experimental studies of certain coloring materials, that allow a better understanding of the paint preparation techniques. In order to generalize the conclusion based on localized analyses, the spatial distribution of the constituent on the whole document is also explored. Hyperspectral imaging, with the aid of statistical tools and the mapping of specific spectral features, brings new insights to the first results. The exclusive use of organic colorants extracted from animal (Dactylopius coccus) or vegetable sources (Indigofera suffruticosa, Comellina coelestis, Justicia spicigera) in the Codex Borbonicus, alone or in mixtures, fits what is known of Precolumbian traditions. Therefore, the hypothesis of a European influence can’t be supported by the nature of the manuscript constituents. Moreover, these new data enrich the current knowledge on Mesoamerican manuscript production techniques
APA, Harvard, Vancouver, ISO, and other styles
38

Riyanto. "Simulation, optimisation, et analyse de performances pour les systèmes industriels d'acquisition d'images." Toulouse, INPT, 1997. http://www.theses.fr/1997INPT107H.

Full text
Abstract:
Le systeme d'acquisition d'images est un element crucial dans un systeme de vision par ordinateur. Meilleures seront les images obtenues, meilleurs seront les resultats des algorithmes de traitement d'images. Ce memoire presente une etude approfondie sur les systemes d'acquisition d'images utilises dans un contexte industriel dans le but d'evaluer leur performance et de proposer des voies d'amelioration. L'etude est divisee en trois parties : la premiere partie realise une etude theorique de ces systemes. Une modelisation complete du processus de la formation d'images est proposee. La deuxieme partie propose l'utilisation de ce modele sous forme d'un simulateur. La mesure de performance d'un systeme d'acquisition en terme de la qualite de l'eclairage et des images obtenues est introduite. Utilisant la methode de monte carlo pour simuler les perturbations aleatoires des parametres de ce systeme, les parametres critiques peuvent ainsi etre determines. La troisieme partie propose un outil d'optimisation des parametres d'eclairage par une approche semi-automatique. Il est base sur la resolution de problemes d'optimisation non lineaires avec contraintes utilisant la methode sqp (sequential quadratic programming).
APA, Harvard, Vancouver, ISO, and other styles
39

Landry, David. "Data-driven covariance estimation for the iterative closest point algorithm." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/34734.

Full text
Abstract:
Les nuages de points en trois dimensions sont un format de données très commun en robotique mobile. Ils sont souvent produits par des capteurs spécialisés de type lidar. Les nuages de points générés par ces capteurs sont utilisés dans des tâches impliquant de l’estimation d’état, telles que la cartographie ou la localisation. Les algorithmes de recalage de nuages de points, notamment l’algorithme ICP (Iterative Closest Point), nous permettent de prendre des mesures d’égo-motion nécessaires à ces tâches. La fusion des recalages dans des chaînes existantes d’estimation d’état dépend d’une évaluation précise de leur incertitude. Cependant, les méthodes existantes d’estimation de l’incertitude se prêtent mal aux données en trois dimensions. Ce mémoire vise à estimer l’incertitude de recalages 3D issus d’Iterative Closest Point (ICP). Premièrement, il pose des fondations théoriques desquelles nous pouvons articuler une estimation de la covariance. Notamment, il révise l’algorithme ICP, avec une attention spéciale sur les parties qui sont importantes pour l’estimation de la covariance. Ensuite, un article scientifique inséré présente CELLO-3D, notre algorithme d’estimation de la covariance d’ICP. L’article inséré contient une validation expérimentale complète du nouvel algorithme. Il montre que notre algorithme performe mieux que les méthodes existantes dans une grande variété d’environnements. Finalement, ce mémoire est conclu par des expérimentations supplémentaires, qui sont complémentaires à l’article.
Three-dimensional point clouds are an ubiquitous data format in robotics. They are produced by specialized sensors such as lidars or depth cameras. The point clouds generated by those sensors are used for state estimation tasks like mapping and localization. Point cloud registration algorithms, such as Iterative Closest Point (ICP), allow us to make ego-motion measurements necessary to those tasks. The fusion of ICP registrations in existing state estimation frameworks relies on an accurate estimation of their uncertainty. Unfortunately, existing covariance estimation methods often scale poorly to the 3D case. This thesis aims to estimate the uncertainty of ICP registrations for 3D point clouds. First, it poses theoretical foundations from which we can articulate a covariance estimation method. It reviews the ICP algorithm, with a special focus on the parts of it that are pertinent to covariance estimation. Then, an inserted article introduces CELLO-3D, our data-driven covariance estimation method for ICP. The article contains a thorough experimental validation of the new algorithm. The latter is shown to perform better than existing covariance estimation techniques in a wide variety of environments. Finally, this thesis comprises supplementary experiments, which complement the article.
APA, Harvard, Vancouver, ISO, and other styles
40

Reis, Philippe. "Vision monoculaire pour la navigation d'un robot mobile dans un univers partiellement modelisé." Clermont-Ferrand 2, 1991. http://www.theses.fr/1991CLF21297.

Full text
Abstract:
Le travail présenté dans ce mémoire concerne la localisation d'un système de vision monoculaire dans des scènes, a partir de la connaissance de leur modèle géométrique, même partiel, et d'une séquence d'images de luminance. La procédure générale adoptée consiste d'abord en une mise en correspondance automatique des arêtes rectilignes du modèle et des segments de droite extraits des images des scènes observées, et ensuite en une interprétation tridimensionnelle des appariements ainsi sélectionnés. La première partie du mémoire est constituée d'un chapitre consacré a une étude bibliographique sur la psychologie et la perception visuelle chez l'homme. Elle présente des notions utiles pour la conception de systèmes de vision artificielle. La seconde partie comprend quatre chapitres qui exposent dans le détail les prétraitements effectués sur les images, les méthodes algébriques ou algorithmiques d'interprétation tridimensionnelle d'indices visuels (n-uplets de droites, ellipses), les outils développés pour les mises en correspondance automatique, et le filtrage des appariements potentiels. Les procédures de localisation permettent de calculer le point de prise de vue dans les cas de faibles ou de forts déplacements de la caméra entre deux prises d'image. Deux exemples de localisation pour la navigation ou la poursuite (tracking) sont inclus dans ce chapitre. Les points forts et les faiblesses actuelles du logiciel Ulysse de simulation, conçu et construit pour une application a la navigation par localisation visuelle d'un robot mobile dans une centrale nucléaire, sont discutes dans la conclusion de ce mémoire.
APA, Harvard, Vancouver, ISO, and other styles
41

Ferté, Morgan. "Étude et analyse de couches minces par techniques multi-spectroscopiques pour une application sur une ligne de galvanisation." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0206/document.

Full text
Abstract:
Avec l’émergence des nouveaux aciers chargés en éléments réactifs, la caractérisation des états de surface a pris une nouvelle dimension. En effet, différentes familles d’oxyde sont dommageables pour la qualité de surface de l’acier et peuvent nuire à l’application de revêtements annexes. Aussi, afin d’assurer une bonne qualité aux produits finis, le besoin de caractériser, en ligne, la surface de l’acier sur toute sa largeur est de plus en plus nécessaire. L’imagerie hyperspectrale est une technologie en plein essor qui permet à la fois la caractérisation spatiale et spectrale d’une surface. Elle n’avait cependant encore jamais été employée pour la caractérisation de couche mince dans l’industrie sidérurgique. Durant ma thèse, deux méthodologies ont ainsi été développées pour répondre à ce besoin: l’une via une mesure en réflexion spéculaire et l’autre via une mesure en émission. En complément d’un travail de synthèse d’échantillons de référence, un développement expérimental complet allant d’un banc de simulation aux traitements des données a été réalisé. Ce travail a permis de démontrer la capabilité de l’imagerie hyperspectrale pour la détection de couche mince d’oxyde sur un acier parfois à plusieurs centaines de degrés Celsius. Ces résultats encourageants ont conduit à réaliser la première implantation industrielle de cette technologie. Ce travail de thèse a permis d’étudier théoriquement et expérimentalement les phénomènes mis en jeu et de passer du concept répondant à un besoin industriel à l’implémentation en ligne d’un capteur dédié à la caractérisation d’une couche mince d’oxyde sur une surface en défilement dans des conditions industrielles
With the emergence of new steel loaded in reactive elements, the characterization of the physico-chemical properties of the surface states has taken a new dimension. Indeed, the thin films of oxide formed are damaging for the surface quality of the steel and may adversely affect the application of varied coatings. Also, to ensure a good quality on finished products, the need to characterize, online, the steel surface over its entire width is increasingly necessary. The hyperspectral imaging is an emerging technology that allows both spatial and spectral characterization of a surface. It had never been used to characterize thin layers in the steel industry. During my PhD, both methodologies have been developed to meet this need: one via a measurement in specular reflection and the other via a measurement in emission. In addition to a synthesis of reference samples, a full experimental development ranging from a simulation bench to the data processing was performed. This work has demonstrated the capability of the hyperspectral imaging to detect thin surface oxide layers on a steel surface, sometimes at several hundred degrees Celsius. These encouraging results led to the first industrial implementation of this technology. This thesis made it possible to study theoretically and experimentally the phenomena involved and to move from the concept that meets an industrial need to the implementation of an online sensor dedicated to the characterization of a thin oxide layer on a moving surface in industrial conditions
APA, Harvard, Vancouver, ISO, and other styles
42

Triquet, Frédéric Chaillou Christophe Meseure Philippe. "Habillage de modèles mécaniques facettisation temps réel de surfaces implicites /." [S.l.] : [s.n.], 2001. http://www.univ-lille1.fr/bustl-grisemine/pdf/extheses/50376-2001-255-256.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Gevaux, Lou. "3D-hyperspectral imaging and optical analysis of skin for the human face." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSES035.

Full text
Abstract:
L’imagerie hyperspectrale (HSI), une méthode non invasive permettant de mesurer in vivo la réflectance spectrale, a démontré son fort potentiel pour l’analyse des propriétés optiques de la peau pour des zones planes et de petite taille : l’association d’un modèle optique de peau, d’une modélisation de ses interactions avec la lumière et d’une méthode d’optimisation permet d’analyser l’image hyperspectrale en chaque pixel et d’estimer des cartographies de concentrations en chromophores, comme la mélanine et le sang. Le but de ce travail est l’extension de la méthode pour la mesure et l’analyse de surfaces larges et non planes, et en particulier du visage humain. Les mesures d’objets complexes comme le visage sont affectées par des variations spatiales d’éclairement, que l’on appelle dérives d’éclairement. A moins d’être prises en compte dans le modèle, celles-ci créent des erreurs dans l’analyse des images.Nous proposons en 1ère partie de ce travail une caméra HSI grand-champ (acquisition de bandes spectrales de 10 nm de largeur entre 400 et 700 nm), combinée avec un système d’acquisition de la géométrie 3D par projection de franges. Une acquisition courte étant cruciale in vivo, un compromis entre résolution et vitesse d’acquisition permet un temps d’acquisition inférieur à 5 secondes.La caméra HSI a été associée avec un scanner 3D afin de corriger les dérives d’éclairement en utilisant la géométrie 3D et des principes de radiométrie. L’éclairement reçu par le visage est calculé en chaque pixel puis utilisé pour supprimer les dérives d’éclairement dans l’image hyperspectrale, un prétraitement à appliquer avant l’analyse. Cependant, cette méthode n’est pas satisfaisante sur les zones du visage pratiquement perpendiculaires à l’axe optique de la caméra, comme les côtés du nez, et a été rejetée en faveur d’un algorithme d’optimisation robuste aux dérives d’éclairement dans la méthode d’analyse.L’analyse de la peau à partir des images hyperspectrales est basée sur l’utilisation de modèles optiques. La peau est modélisée par un matériau translucide à deux couches dont les propriétés d’absorption dépendent de sa composition en chromophores. Les interactions lumière-peau sont modélisées à l’aide d’une approche à deux flux. La résolution d’un problème inverse par optimisation permet d’estimer la composition en chromophores à partir de la réflectance spectrale mesurée. Les modèles optiques choisis sont un bon compromis entre une description fidèle de la peau et un temps de calcul acceptable, qui augmente de manière exponentielle avec le nombre de paramètres du modèle. Les cartes de chromophores estimées peuvent être affichées sous forme 3D grâce à l’information mesurée par la caméra HSI-3D.Un point faible de la méthode est le manque d’information sur les propriétés de diffusion de la peau, considérées identiques d’une personne à l’autre et d’une partie du corps à l’autre. Dans la 2nd partie de ce travail, nous utilisons le projecteur de franges initialement dédié à l’acquisition 3D, pour mesurer la fonction de transfert de modulation (FTM) de la peau, qui fournit de l’information sur l’absorption et la diffusion. La FTM est mesurée par imagerie dans le domaine fréquentiel spatial (SFDI) et analysée avec l’équation de la diffusion pour estimer le coefficient de diffusion de la peau. Sur des objets non-plats, l’extraction d’information indépendamment des dérives d’éclairement est un défi important. L’originalité de la méthode proposée repose sur l’association de la HSI et SFDI dans le but d’estimer des cartes de coefficient de diffusion sur le visage indépendamment de sa forme.Nous insistons sur l’importance d’une acquisition courte pour des mesures in vivo, cependant, l’analyse par optimisation demande plusieurs heures de calcul. L’utilisation des réseaux de neurones comme alternative à l’optimisation nous semble prometteur, des premiers résultats ayant montré une forte réduction du temps de calcul, d’environ 1 heure à 1 seconde
Hyperspectral imaging (HSI), a non-invasive, in vivo imaging method that can be applied to measure skin spectral reflectance, has shown great potential for the analysis of skin optical properties on small, flat areas: by combining a skin model, a model of light-skin interaction and an optimization algorithm, an estimation of skin chromophore concentration in each pixel of the image can be obtained, corresponding to quantities such as melanin and blood. The purpose of this work is to extend this method to large, non-flat areas, in particular the human face. The accurate measurement of complex objects such as the face must account for variances of illumination that result from the 3D geometry of an object, which we call irradiance drifts. Unless they are accounted for, irradiance drifts will lead to errors in the hyperspectral image analysis.In the first part of the work, we propose a measurement setup comprising a wide field HSI camera (with an acquisition range of 400 - 700 nm, in 10 nm width wavebands) and a 3D measurement system using fringe projection. As short acquisition time is crucial for in vivo measurement, a trade-off between resolution and speed has been made so that the acquisition time remains under 5 seconds.To account for irradiance drifts, a correction method using the surface 3D geometry and radiometry principles is proposed. The irradiance received on the face is computed for each pixel of the image, and the resulting data used to suppress the irradiance drifts in the measured hyperspectral image. This acts as a pre-processing step to be applied before image analysis. This method, however, failed to yield satisfactory results on those parts of the face almost perpendicular to the optical axis of the camera, such as the sides of the nose, and was therefore discarded in favor of using an optimization algorithm robust to irradiance drifts in the analysis method.Skin analysis from the measured hyperspectral image is performed using optical models and an optimization method. Skin is modeled as a two-layer translucent material whose absorption and scattering properties are determined by its composition in chromophores. Light-skin interactions are modeled using a two-flux method. An inverse problem is solved by optimization to retrieve information about skin composition from the measured reflectance. The chosen optical models represent a trade-off between accuracy and acceptable computation time, which increases exponentially with the number of parameters in the model. The resulting chromophore maps can be added to the 3D mesh measured using the 3D-HSI camera for display purposes.In the spectral reflectance analysis method, skin scattering properties are assumed to be the same for everyone and on every part of the body, which represents a shortcoming. In the second part of this work, the fringe projector originally intended for measuring 3D geometry is used to acquire skin modulation transfer function (MTF), a quantity that yields information about both skin absorption and scattering coefficients. The MTF is measured using spatial frequency domain imaging (SFDI) and analyzed by an optical model relying on the diffusion equation to estimate skin scattering coefficients. On non-flat objects, retrieving such information independently from irradiance drifts is a significant challenge. The novelty of the proposed method is that it combines HSI and SFDI to obtain skin scattering coefficient maps of the face independently from its shape.We emphasize throughout this dissertation the importance of short acquisition time for in vivo measurement. The HSI analysis method, however, is extremely time-consuming, preventing real time image analysis. A preliminary attempt to address this shortcoming is presented, using neural networks to replace optimization-based analysis. Initial results of the method have been promising, and could drastically reduce calculation time from around an hour to a second
APA, Harvard, Vancouver, ISO, and other styles
44

Al, Hayek Marianne. "Modélisation optique de signatures spectrales et polarimétriques d'objets pour augmenter les performances d'un système de reconnaissance." Electronic Thesis or Diss., Brest, 2023. http://www.theses.fr/2023BRES0101.

Full text
Abstract:
L’imagerie conventionnelle, qui se limite aux formes et couleurs des objets, montre ses limites en matière de reconnaissance. Pour améliorer les performances des systèmes d’imagerie, l’imagerie hyperspectrale et polarimétrique apporte une richesse d’informations, notamment des grandeurs physiques difficiles à obtenir autrement. Cela permet d’améliorer la détection, la caractérisation quantitative et la classification des objets. Cependant, le traitement des données complexes de ces modalités reste un défi. L’objectif de ce travail est de proposer une méthodologie générique pour analyser les signaux optiques, en se concentrant sur l’imagerie hyperspectrale (HSI) en premier terme. Une classification originale des modèles hyperspectraux inversibles basés sur la physique est présentée, avec description des modèles variés les plus récents pour des applications diverses : MPBOM pour le biofilm d’algues et de bactéries, MARMIT pour le sol, PROSPECT pour les feuilles de plantes, Farrell pour les tissus biologiques turbides, Schmitt pour la peau humaine et Hapke pour les objets du système solaire. Une convergence entre les modèles PROSPECT et Farrell pour des objets intermédiaires (pomme verte et poireau) ouvrant la voie au développement d’une nouvelle modélisation générique et complète. Notamment dans le domaine de la biologie, par une collaboration avec le laboratoire de l’ANSES, nous avons procédé à une détection précoce suivie d’une quantification du biofilm qui se forme dans les bassins d’élevage de poissons en utilisant l’imagerie hyperspectrale et polarimétrique du fait que sa détection actuelle est visuelle et n’est pas assez efficace pour prévenir son accumulation et pour mettre en place des procédures de nettoyage et de désinfection. Ainsi une première version d’une modélisation physique propre nommée "DNA-HSI" a été mise en place
Conventional imaging, limited to object shapes and colors, faces limitations in object recognition. To enhance imaging system performance, hyperspectral and polarimetric imaging provides a wealth of information, includingchallenging-to-obtain physical parameters. This facilitates improved object detection, quantitative characterization, and classification. However, the processing of complex data from these modalities remains a challenge. The aim of this work is to propose a generic methodology for the analysis of optical signals, with a primary focus on hyperspectral imaging (HSI). An original classification of invertible physics-based hyperspectral models is presented, along with descriptions of recent diverse models for various applications: MPBOM for algae and bacteria biofilm, MARMIT for soil, PROSPECT for plant leaves, Farrell for turbid biological tissues, Schmitt for human skin, and Hapke for objects in the solar system. A convergence between the PROSPECT and Farrell models for intermediate objects (green apple and leek) paves the way for the development of a new generic and comprehensive modeling approach.Particularly in the field of biology, in collaboration with the ANSES laboratory, we conducted early detection ollowed by quantification of biofilms forming in fish farming basins using hyperspectral and polarimetric imaging. This is crucial as the current visual detection method is not efficient in preventing biofilm accumulation and implementingcleaning and disinfection procedures. Hence, an initial version of a dedicated physical modeling approach called "DNA-HSI" has been established
APA, Harvard, Vancouver, ISO, and other styles
45

Feydy, Jean. "Analyse de données géométriques, au delà des convolutions." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN017.

Full text
Abstract:
Analyse de données géométriques, au delà des convolutionsPour modéliser des interactions entre points, une méthode simple est de se reposer sur des sommes pondérées communément appelées "convolutions". Au cours de la dernière décennie, cette opération est devenue la brique de construction essentielle à la révolution du "deep learning". Le produit de convolution est, toutefois, loin d'être l'alpha et l'oméga des mathématiques appliquées.Pour permettre aux chercheurs d'explorer de nouvelles directions, nous présentons des implémentations robustes et efficaces de trois opérations souvent sous-estimées:1. Les manipulations de tenseurs semi-symboliques, comme les matrices de distances ou de noyaux.2. Le transport optimal, qui généralise la notion de "tri" aux espaces de dimension D > 1.3. Le tir géodésique sur une variété Riemannienne, qui se substitue à l'interpolation linéaire sur des espaces de données où aucune structure vectorielle ne peut être correctement définie.Nos routines PyTorch/NumPy sont compatibles avec la différentiation automatique, et s'exécutent en quelques secondes sur des nuages de plusieurs millions de points. Elle sont de 10 à 1,000 fois plus performantes que des implémentations GPU standards et conservent une empreinte mémoire linéaire. Ces nouveaux outils sont empaquetés dans les bibliothèques "KeOps" et "GeomLoss", avec des applications qui vont de l'apprentissage automatique à l'imagerie médicale. Notre documentation est accessible aux adresses www.kernel-operations.io/keops et /geomloss
Geometric data analysis, beyond convolutionsTo model interactions between points, a simple option is to rely on weighted sums known as convolutions. Over the last decade, this operation has become a building block for deep learning architectures with an impact on many applied fields. We should not forget, however, that the convolution product is far from being the be-all and end-all of computational mathematics.To let researchers explore new directions, we present robust, efficient and principled implementations of three underrated operations: 1. Generic manipulations of distance-like matrices, including kernel matrix-vector products and nearest-neighbor searches.2. Optimal transport, which generalizes sorting to spaces of dimension D > 1.3. Hamiltonian geodesic shooting, which replaces linear interpolation when no relevant algebraic structure can be defined on a metric space of features.Our PyTorch/NumPy routines fully support automatic differentiation and scale up to millions of samples in seconds. They generally outperform baseline GPU implementations with x10 to x1,000 speed-ups and keep linear instead of quadratic memory footprints. These new tools are packaged in the KeOps (kernel methods) and GeomLoss (optimal transport) libraries, with applications that range from machine learning to medical imaging. Documentation is available at: www.kernel-operations.io/keops and /geomloss
APA, Harvard, Vancouver, ISO, and other styles
46

Dubé, Julie. "Analyse de la reconstruction 3D par stéréo multivue dans l'optique des défis de l'appariement." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26248/26248.pdf.

Full text
Abstract:
Le sujet de la reconstruction 3D par stéréo multivue a été tant étudié, tellement de méthodes ont été développées qu'il n'est pas toujours facile de s'y retrouver. Qu'est-ce qui fait qu'un algorithme est plus efficace qu'un autre? Pour répondre à cette question, il faut être en mesure de reconnaître les caractéristiques fondamentalement intéressantes d'un algorithme. Dans le but d'acquérir ce savoir, nous allons décortiquer les différentes étapes de la reconstruction d'un objet, en partant par la base de la stéréo: l'appariement. Trouver des positions dans différentes images qui correspondent au même point de la surface comprend plusieurs défis: la visibilité (quel point est vu dans quelle image?), l'ambiguïté (quel ensemble de pixels correspond à un point de la surface?), la variation d'apparence angulaire (la couleur d'un point de la surface peut changer selon le point de vue) et la discrétisation de l'apparence (une image est un échantillonnage de l'apparence d'une partie de la surface). Apparier implique de pouvoir évaluer que la variation de couleur angulaire d'un point est cohérente avec le modèle de réflectance de l'objet. Pour évaluer la photo-cohérence, un critère de comparaison, des contraintes sur la surface et une façon d'emmagasiner les données sont nécessaires. Compte tenu des problèmes d'appariement, la photo-cohérence n'est pas suffisante pour trouver la surface. Pour trouver les meilleurs appariements, les algorithmes de reconstruction intègrent donc les façons d'évaluer la photo-cohérence aux autres hypothèses sur la surface (ex: lisse, cohérente aux silhouettes).
APA, Harvard, Vancouver, ISO, and other styles
47

Eskandar, Fadi. "Informatique et Imagerie Médicale. Rôle de l’INRIA des années 1970 à nos jours. Exemple de l’équipe-projet EPIDAURE/ASCLEPIOS." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUL143.

Full text
Abstract:
Aujourd’hui, l’imagerie médicale est une composante majeure du développement de la médecine : l’analyse d’image et son déploiement sont un axe de recherche central à l’INRIA (Institut national de la recherche en Informatique et automatique), pionnier du domaine en France et à l’international. Cependant, réalisée sur le long terme, l’importance de cette recherche fondamentale est difficile à évaluer. En outre, fondée sur le principe de la coopération, le rôle de l’INRIA peut être sous-estimé au profit de ses partenaires. L’objectif historique de cette thèse est de montrer l’importance du rôle de l’INRIA en analyse d’imagerie médicale via l’exemple de son équipe-projet EPIDAURE/ASCLEPIOS, première en ce domaine. Cette investigation est adossée à trois paradigmes méthodologiques : une recherche bibliographique, une synthèse à partir des archives de l’INRIA-Rocquencourt (Île-de-France) et de dix entretiens semi-dirigés, réalisés par nos soins, auprès de chercheurs de l’INRIA directement impliqués dans l’analyse d’imagerie médicale. Les résultats montrent que dès les années 90 du XXe siècle, l’équipe-projet EPIDAURE/ASCLEPIOS a été fondatrice de ce domaine dans le monde. En outre, elle est à l’origine d’une nouvelle révolution du numérique, via la conception du « Patient numérique personnalisé » (PNP), proposée par son directeur Nicholas AYACHE dont le rôle central sur cet axe se traduit par l’excellence des résultats publiés et par la richesse et le dynamisme des collaborations établies, dans les domaines : académique, médical et industriel. Le soutien de la direction de l’INRIA à l’équipe-projet EPIDAURE/ASCLEPIOS est un atout de son succès, sur la scène internationale
Today, medical imaging is a major component of the medicine development: image analysis and its deployment are a central research area at INRIA (French Institute for Research in Computer Science and Automation), pioneer in this field, in France and abroad. However, it is difficult to evaluate this kind of fundamental research because of its long-term realization. Moreover, given that the research at INRIA is based on cooperation, its role may be underestimated for the benefit of its partners. The historical objective of this thesis is to show the importance of INRIA’s role in medical imaging analysis through the example of EPIDAURE / ASCLEPIOS, leading team in this field. This investigation is based on three methodological paradigms: a bibliographic search, a synthesis from the archives of INRIA-Rocquencourt (Ile-de-France) and ten semi-directed interviews, conducted by us, with INRIA researchers directly involved in Medical imaging the analysis. The results show that since the 90s of the 20th century, the EPIDAURE / ASCLEPIOS project-team has been the founder of this field in the world. Moreover, this team is the origin of a new digital revolution, through the design of the "Personalized Digital Patient", proposed by its director Nicholas AYACHE, whose central role in this line of research is reflected in the excellence of published results, the wealth and dynamism of established collaborations in the academic, medical and industrial fields. The support of INRIA’s management to the EPIDAURE / ASCLEPIOS project-team is an asset of its success on the international scene
APA, Harvard, Vancouver, ISO, and other styles
48

Lescoat, Thibault. "Geometric operators for 3D modeling using dictionary-based shape representations." Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAT005.

Full text
Abstract:
Dans cette thèse, nous étudions les représentations haut-niveau de formes 3D et nous développons les primitives algorithmiques nécessaires à la manipulation d'objets représentés par composition d'éléments. Nous commençons par une revue de l'état de l'art, des représentations bas-niveau usuelles jusqu'à celles haut-niveau, utilisant des dictionnaires. En particulier, nous nous intéressons à la représentation de formes via la composition discrète d'atomes tirés d'un dictionnaire de formes.Nous observons qu'il n'existe aucune méthode permettant de fusionner des atomes (placés sans intersection) de manière plausible ; en effet, la plupart des méthodes requiert des intersections ou alors ne préservent pas les détails grossiers. De plus, très peu de techniques garantissent la préservation de l'entrée, une propriété importante lors du traitement de formes créées par des artistes. Nous proposons donc un opérateur de composition qui propage les détails grossiers tout en conservant l'entrée dans le résultat.Dans le but de permettre une édition interactive, nous cherchons à prévisualiser la composition d'objets lourds. Pour cela, nous proposons de simplifier les atomes avant de les composer. Nous introduisons donc une méthode de simplification de maillage qui préserve les détails grossiers. Bien que notre méthode soit plus contrainte que les approches précédentes qui ne produisent pas de maillage, elle résulte en des formes simplifiées fidèles aux formes détaillées
In this thesis, we study high-level 3D shape representations and developed the algorithm primitives necessary to manipulate shapes represented as a composition of several parts. We first review existing representations, starting with the usual low-level ones and then expanding on a high-level family of shape representations, based on dictionaries. Notably, we focus on representing shapes via a discrete composition of atoms from a dictionary of parts.We observe that there was no method to smoothly blend non-overlapping atoms while still looking plausible. Indeed, most methods either required overlapping parts or do not preserve large-scale details. Moreover, very few methods guaranteed the exact preservation of the input, which is very important when dealing with artist-authored meshes to avoid destroying the artist's work. We address this challenge by proposing a composition operator that is guaranteed to exactly keep the input while also propagating large-scale details.To improve the speed of our composition operator and allow interactive edition, we propose to simplify the input parts prior to completing them. This allow us to interactively previsualize the composition of large meshes. For this, we introduce a method to simplify a detailed mesh to a coarse one by preserving the large details. While more constrained than related approaches that do not produce a mesh, our method still yields faithful outputs
APA, Harvard, Vancouver, ISO, and other styles
49

Petit, Tristan. "Caractérisation des fonds marins et estimation bathymétrique par inversion de modèle de transfert radiatif : application à l'imagerie hyperspectrale en milieu coralien." Thesis, Brest, 2017. http://www.theses.fr/2017BRES0023/document.

Full text
Abstract:
L’imagerie hyperspectrale aéroportée constitue un candidat potentiel pour la cartographie et le suivi des récifs coralliens à large échelle et à forte résolution spatiale. Dans cette thèse, nous présentons tout d’abord les traitements à appliquer au signal hyperspectral afin d’en extraire des informations sur la nature du fond marin, la bathymétrie et les propriétés optiques de l’eau, et nous les mettons en perspectives devant deux principaux verrous : (i) le faible rapport signal sur bruit du signal mesuré, (ii) le nombre et la variabilité des interactions onde-matière ayant lieu entre l’entrée des rayons lumineux dans l’atmosphère et leur mesure par le capteur hyperspectral. En considérant ces limitations, nous examinons les performances d’une des méthodes existantes de traitement de la colonne d’eau : l’inversion de modèle semi-analytique par optimisation. Nous évaluons d’abord la robustesse des estimations des types de fond et de la bathymétrie pour six paramétrisations du schéma d’inversion. Les résultats sur des images hyperspectrales acquises à l’île de La Réunion en 2009 montrent que la paramétrisation de l’inversion joue un rôle crucial sur la qualité des estimations et que la paramétrisation la plus communément utilisée ne présente pas toujours les meilleures performances. Nous évaluons par la suite l’importance de la précision de la paramétrisation du modèle semi-analytique direct à travers une analyse de sensibilité réalisée sur des données hyperspectrales synthétiques puis sur des données réelles que nous avons acquises en 2015 à La Réunion. L’analyse est en outre effectuée pour toutes les paramétrisations de l’inversion précédemment étudiées. Cette étude montre qu’en milieu récifal l’importance de la précision de la paramétrisation du modèle direct est faible devant le choix de la paramétrisation de l’inversion. Nous montrons en outre qu’il n’est pas possible d’identifier le(s) paramètre(s) du modèle direct le(s) plus influent(s) car cela dépend des concentrations relatives de chacun des éléments optiquement actifs de l’eau
Airborne hyperspectral imaging is a potential candidate for mapping and monitoring coral reefs at large scale and with high spatial resolution. In this thesis, we first present the processing steps to be applied to hyperspectral signals for extracting information about seabed types, bathymetry and water optical properties, and we discuss their efficiency with respect to two main confounding factors: (i) low signal to noise ratio of the measured signals, and (ii) large number and variability of physical interactions occurring between the entrance of sunlight into the atmosphere and its measurement by the hyperspectral sensor. Considering these limitations, we examine the performance of an already existing water column processing method: semi-analytical model inversion by optimization. We first evaluate the robustness of seabed type and bathymetry estimation for six different inversion setups. The results on hyperspectral images acquired over Réunion Island reefs in 2009 show that the choice of the inversion setup plays an important role on the quality of the estimations and that the most widely used inversion setup does not always produce the best results. We then evaluate the importance of the accuracy of the parameterization of the direct semi-analytical model. This is done through a sensitivity analysis performed on both simulated and real hyperspectral data acquired in Réunion Island in 2015. The analysis is performed for each inversion setup previously studied. This study shows that in coral reef context the accuracy of the parameterization of the direct model is less important than the choice of the inversion setup. We also demonstrate that it is not possible to identify the most influent parameters of the direct model because it depends on the relative concentration of each optically active constituent
APA, Harvard, Vancouver, ISO, and other styles
50

Triquet, Frédéric. "Habillage de modèles mécaniques : facettisation temps réel de surfaces implicites." Lille 1, 2001. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2001/50376-2001-255-256.pdf.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre des simulateurs chirurgicaux pédagogiques développés au LIFL. Ces simulateurs nécessitent l'animation temps réel de corps basée sur la physique. C'est l'objet de notre bibliothèque SPORE qui permet entre autres de construire un objet géométrique détaillé autour d'un modèle mécanique généralement trop grossier pour être affiché directement. Cette opération s'appelle l'habillage. Mon travail de thèse s'est intéressé à ce procédé géométrique. En particulier, les surfaces implicites à squelette forment une possibilité intéressante pour fournir un habillage puisqu'elles permettent, grâce à l'opération de mélange appelée blending, d'obtenir des formes complexes à partir de quelques points mécaniques. Cependant, ces surfaces nécessitent des algorithmes spécifiques pour leur affichage. Je me suis basé sur l'algorithme des Marching Cubes, réputé lent, mais en l'enrichissant de plusieurs améliorations combinées à des structures de données efficaces et des algorithmes optimisés. Ces améliorations ne se bornent pas qu'à des accélérations : j'apporte également aux problèmes de facettisations ambigues une solution compatible avec nos contraintes de temps-réel. De plus, grâce à une méthode originale mon implantation peut controler le blending en permettant à l'utilisateur de spécifier là où les fonctions de mélange des surfaces implicites doivent s'appliquer. Mon implantation en C++, sous forme de librairie, permet de facettiser en temps réel des surfaces composées de plusieurs centaines de primitives sur un ordinateur de gamme moyenne. Nous l'utilisons dans un simulateur.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography