Literatura académica sobre el tema "Imagerie hyperspectrale – Analyse informatique"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte las listas temáticas de artículos, libros, tesis, actas de conferencias y otras fuentes académicas sobre el tema "Imagerie hyperspectrale – Analyse informatique".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Artículos de revistas sobre el tema "Imagerie hyperspectrale – Analyse informatique"

1

Spiller, D., L. Ansalone, S. Amici, A. Piscini y P. P. Mathieu. "ANALYSIS AND DETECTION OF WILDFIRES BY USING PRISMA HYPERSPECTRAL IMAGERY". International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLIII-B3-2021 (28 de junio de 2021): 215–22. http://dx.doi.org/10.5194/isprs-archives-xliii-b3-2021-215-2021.

Texto completo
Resumen
Abstract. This paper deals with the analysis and detection of wildfires by using PRISMA imagery. Precursore IperSpettrale della Mis­sione Applicativa (Hyperspectral Precursor of the Application Mission, PRISMA) is a new hyperspectral mission by ASI (Agenzia Spaziale Italiana, Italian Space Agency) launched in 2019. This mission provides hyperspectral images with a spectral range of 0.4–2.5 µm and an average spectral resolution less than 10 nm. In this work, we used the PRISMA hypercube acquired during the Australian bushfires of December 2019 in New South Wales. The analysis of the image is presented considering the unique amount of information contained in the continuous spectral signature of the hypercube. The Carbon dioxide Continuum-Interpolated Band Ratio (CO2 CIBR), Hyperspectral Fire Detection Index (HFDI), and Normalized Burn Index (NBR) will be used to analyze the informative content of the image, along with the analysis of some specific visible, near-infrared and shortwave-infrared bands. A multiclass classification is presented by using a I-dimensional convolutional neural network (CNN), and the results will be com­pared with the ones given by a support vector machine classifier reported in literature. Finally, some preliminary results related to wildfire temperature estimation are presented.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Nyandue Ompola, José. "La cartographie numérique et son apport dans l’organisation du recensement en République Démocratique du Congo". Revue Congolaise des Sciences & Technologies 01, n.º 02 (20 de noviembre de 2022): 110–18. http://dx.doi.org/10.59228/rcst.022.v1.i2.14.

Texto completo
Resumen
La cartographie assisté par l’ordinateur (CAO) repose sur l’utilisation des systèmes d’information géographique, des images à haute résolution ainsi que des récepteurs GPS (systèmes de positionnement universel) pour le levé des coordonnées géographiques x et y. Ce qui conduit à une analyse spatiale à partir des images acquises et à l’utilisation des technologies géo-spatiales, ceux-ci entrainent la production des cartes, pour qu’elles soient produites par des moyens informatisés, il faut disposer des couches des données standards tels que le shape file de limite administrative, des routes, des villes, des territoires et des hydrographies qui constituent la base des activités de cartographie de recensement et de collecte des données. Le traitement automatique des données issues des activités en amont de cartographie de recensement présente à la fois deux avantages, le premier est lié à l’efficacité, qui se traduit par la quantité de résultats pouvant être obtenus par unité d’intrants, cela montre que l’on peut en faire plus en moindre coût, d’une part, l’avantage lié à l’utilité se traduit par des effets des programmes qui bénéficient d’informations améliorées, d’autre part. La cartographie numérique de recensement est ainsi une cartographie assistée par ordinateur, elle fait appel à une technologie informatique et en tire parti des nouvelles technologies géo-spatiales pour réaliser plus rapidement de meilleures cartes et améliorer la qualité globale des données de recensement que sa mise à jour. Mots clés: Télédétection, analyse spatiale, imagerie satellite et aérienne
Los estilos APA, Harvard, Vancouver, ISO, etc.

Tesis sobre el tema "Imagerie hyperspectrale – Analyse informatique"

1

Pelletier, Bruno. "Traitement neuronal de l'information hyperspectrale". Toulouse, ENSAE, 2002. http://www.theses.fr/2002ESAE0014.

Texto completo
Resumen
L'étude porte sur les méthodes neuronales dédiées au problème de la couleur de l'eau, consistant à estimer les concentrations d'un certain nombre de composés océaniques, comme le phytoplancton par exemple, à partir de mesures satellitaires de réflectances à différentes longueurs d'ondes. Bien que l'aptitude des réseaux neuronaux à résoudre des problèmes d'approximation de fonctions, de classification ou d'estimation ait été démontrée à plusieurs reprises, les résultats expérimentaux montrent que ces modèles ne permettent pas de résoudre le problème avec une précision suffisante. Dans ce travail, une méthode statistique d'estimation de la concentration en phytoplancton, utilisant la propriété du problème de la couleur de l'eau d'être un continuum de problèmes inverses, est proposée sous la forme d'un continuum d'estimateurs régressifs, appelés estimateurs locaux. Ces estimateurs locaux, dont l'optimalité statistique est démontrée sous quelques hypothèses non restrictives, sont intégrés en un estimateur global pour le problème par une application interpolante à valeurs dans une famille non convexe de densités de probabilité. Le modèle global résultant est un réseau de neurones à fonctions à base radiales normalisées dont les paramètres sont des fonctions continues de plusieurs variables. Ces modèles, construits à partir de données simulées, ont ensuite été utilisés pour estimer la concentration en phytoplancton à partir de données réelles de l'instrument spectro-imageur Sea WiFS.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Lefévre, Soizic. "Caractérisation de la qualité des raisins par imagerie". Electronic Thesis or Diss., Reims, 2023. http://www.theses.fr/2023REIMS017.

Texto completo
Resumen
L’identification des états sanitaires du raisin au moment de la vendange est un enjeu majeur afin de produire des vins de qualité. Pour répondre à cet enjeu, des données sont acquises par spectrométrie, imagerie hyperspectrale et imagerie RGB sur des échantillons de raisin au cours des vendanges.Plusieurs prétraitements adaptés à chaque type de données sont appliqués tels que la normalisation, la réduction, l’extraction de vecteurs de caractéristiques et la segmentation de zones utiles. D’un point de vue imagerie, la reconstitution en fausses couleurs des images hyperspectrales, éloignée de la réalité, ne permet pas d’étiqueter toute la diversité intra-classe. En revanche, la qualité visuelle de l’imagerie RGB favorise l’étiquetage des classes avec précision. A partir de cet étiquetage, des classifieurs tels que les machines à vecteurs de support, les forêts aléatoires, l’estimation du maximum de vraisemblance, la mise en correspondance spectrale, les k-moyennes sont testés et entrainés sur les bases étiquetées. En fonction de la nature des données, le plus performant est appliqué sur les images entières de grappes ou caisses de raisins de plusieurs cépages provenant de différentes parcelles.Les indices de qualité obtenus à partir du traitement des images RGB sont très proches des estimations effectuées par les experts du domaine
Identifying the health conditions of the grapes at harvest time is a major issue in order to produce quality wines. To meet this issue, data are acquired by spectrometry, hyperspectral imaging and RGB imaging on grape samples during harvest.Several pre-treatments adapted to each type of data are applied such as normalization, reduction, extraction of characteristic vectors, and segmentation of useful areas. From an imaging point of view, the reconstruction in false colors of hyperspectral images, far from reality, doesn’t allow to label all the intra-class diversity. On the other hand, the visual quality of RGB imaging enables accurate class labelling. From this labelling, classifiers such as support vector machines, random forests, maximum likelihood estimation, spectral mapping, k-means are tested and trained on labelled bases. Depending on the nature of the data, the most effective is applied to whole images of grape clusters or crates of grapes of several grape varieties from different parcels.The quality indices obtained from RGB image processing are very close to the estimates made by experts in the field
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Faivre, Adrien. "Analyse d'image hyperspectrale". Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCD075/document.

Texto completo
Resumen
Les travaux de thèse effectués dans le cadre de la convention Cifre conclue entrele laboratoire de mathématiques de Besançon et Digital Surf, entreprise éditrice dulogiciel d’analyse métrologique Mountains, portent sur les techniques d’analyse hyperspectrale.Sujet en plein essor, ces méthodes permettent d’exploiter des imagesissues de micro-spectroscopie, et en particulier de spectroscopie Raman. Digital Surfambitionne aujourd’hui de concevoir des solutions logicielles adaptées aux imagesproduites par ces appareils. Ces dernières se présentent sous forme de cubes de valeurs,où chaque pixel correspond à un spectre. La taille importante de ces données,appelées images hyperspectrales en raison du nombre important de mesures disponiblespour chaque spectre, obligent à repenser certains des algorithmes classiquesd’analyse d’image.Nous commençons par nous intéresser aux techniques de partitionnement de données.L’idée est de regrouper dans des classes homogènes les différents spectres correspondantà des matériaux similaires. La classification est une des techniques courammentutilisée en traitement des données. Cette tâche fait pourtant partie d’unensemble de problèmes réputés trop complexes pour une résolution pratique : les problèmesNP-durs. L’efficacité des différentes heuristiques utilisées en pratique était jusqu’àrécemment mal comprise. Nous proposons des argument théoriques permettantde donner des garanties de succès quand les groupes à séparer présentent certainespropriétés statistiques.Nous abordons ensuite les techniques de dé-mélange. Cette fois, il ne s’agit plus dedéterminer un ensemble de pixels semblables dans l’image, mais de proposer une interprétationde chaque pixel comme un mélange linéaire de différentes signatures spectrales,sensées émaner de matériaux purs. Cette déconstruction de spectres compositesse traduit mathématiquement comme un problème de factorisation en matrices positives.Ce problème est NP-dur lui aussi. Nous envisageons donc certaines relaxations,malencontreusement peu convaincantes en pratique. Contrairement au problème declassification, il semble très difficile de donner de bonnes garanties théoriques sur laqualité des résultats proposés. Nous adoptons donc une approche plus pragmatique,et proposons de régulariser cette factorisation en imposant des contraintes sur lavariation totale de chaque facteur.Finalement, nous donnons un aperçu d’autres problèmes d’analyse hyperspectralerencontrés lors de cette thèse, problèmes parmi lesquels figurent l’analyse en composantesindépendantes, la réduction non-linéaire de la dimension et la décompositiond’une image par rapport à une librairie regroupant un nombre important de spectresde référence
This dissertation addresses hyperspectral image analysis, a set of techniques enabling exploitation of micro-spectroscopy images. Images produced by these sensors constitute cubic arrays, meaning that every pixel in the image is actually a spectrum.The size of these images, which is often quite large, calls for an upgrade for classical image analysis algorithms.We start out our investigation with clustering techniques. The main idea is to regroup every spectrum contained in a hyperspectralimage into homogeneous clusters. Spectrums taken across the image can indeed be generated by similar materials, and hence display spectral signatures resembling each other. Clustering is a commonly used method in data analysis. It belongs nonetheless to a class of particularly hard problems to solve, named NP-hard problems. The efficiency of a few heuristics used in practicewere poorly understood until recently. We give theoretical arguments guaranteeing success when the groups studied displaysome statistical property.We then study unmixing techniques. The objective is no longer to decide to which class a pixel belongs, but to understandeach pixel as a mix of basic signatures supposed to arise from pure materials. The mathematical underlying problem is again NP-hard.After studying its complexity, and suggesting two lengthy relaxations, we describe a more practical way to constrain the problemas to obtain regularized solutions.We finally give an overview of other hyperspectral image analysis methods encountered during this thesis, amongst whomare independent component analysis, non-linear dimension reduction, and regression against a spectrum library
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Fasquelle, François. "L'identification d'explosifs par imagerie hyperspectrale : spectromètre par transformation de Fourier aéroporté". Thesis, Université Laval, 2006. http://www.theses.ulaval.ca/2006/24097/24097.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Khoder, Jihan. "Nouvel Algorithme pour la Réduction de la Dimensionnalité en Imagerie Hyperspectrale". Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2013. http://tel.archives-ouvertes.fr/tel-00939018.

Texto completo
Resumen
En Imagerie hyperspectrale, les volumes de données acquises atteignent souvent le gigaoctet pour une seule et même scène observée. De ce fait, l'analyse de ces données au contenu physique complexe passe obligatoirement par une étape préliminaire de réduction de la dimensionnalité. Cette réduction a un double objectif, le premier consiste à réduire la redondance et le second permet de faciliter les traitements postérieurs (extraction, classification et reconnaissance de formes) et donc l'interprétation des données. La classification automatique est une étape importante du processus d'extraction de connaissances à partir des données. Elle vise à découvrir la structure intrinsèque d'un ensemble d'objets en formant des regroupements qui partagent des caractéristiques similaires. Dans cette thèse, nous nous intéressons à la réduction de dimension dans le cadre de la classification non supervisée des bandes spectrales. Différentes approches existent, comme celles basées sur la projection (linéaire ou non-linéaire) des données de grandes dimensions sur des sous-espaces de représentation bien choisis ou sur les techniques de sélection de bandes spectrales exploitant des critères de complémentarité-redondance d'information qui ne permettent pas de préserver toute la richesse de l'information apportée par ce type de données. 1 - Nous avons accompli une étude comparative, sur la stabilité et la similarité des algorithmes des méthodes non paramétriques et non supervisée de la projection et aussi de la sélection des bandes utilisées dans la réduction de la dimensionnalité à différents niveaux de bruit déterminés. Les tests sont effectués sur des images hyperspectrales, en classant ces derniers en trois catégories selon leur degré de performance de préserver la quantité d'informations. 2 - Nous avons introduit une nouvelle approche de critère basée sur la di-similarité des attributs spectraux et utilisée dans un espace local sur des matrices de données ; L'approche a servi pour définir un taux de préservation d'un évènement rare dans une transformation mathématique donnée. Cependant, nous avons limitée son application au contexte de la thèse liée à la réduction de la taille des données dans une image hyperspectrale. 3 - Les études comparatives ont permis une première proposition d'approche hybride pour la reduction de la taille d'une image hyperspectrale permettant une meilleure stabilité : BandClustering avec Multidimensional Scaling (MDS). Des exemples sont donnés pour démontrer l'originalité et la pertinence de l'hybridation (BandClust / MDS) de l'analyse effectuée. 4 - La tendance de l'hybridation a été généralisée par la suite en présentant un algorithme hybride adaptatif non supervisé basé sur la logique flou (Fuzzy C means), une méthode de projection comme l'analyse en composante principale (ACP) et un indice de validité d'une classification. Les classifications effectuées par Fuzzy C means permettent d'affecter chaque pixel d'une image hyperspectrale à toutes les classes avec des degrés d'appartenance variant entre 0 et 1. Cette propriété rend la méthode FCM intéressante pour la mise en évidence soit des transitions progressives entre les différentes bandes spectrales ou des hétérogénéités spectrales. Grâce à des méthodes conventionnelles appelées indices de validité de classes, nous avons déterminé le nombre optimal de classes de FCM ainsi que le paramètre de flou. Nous montrons que cette hybridation conduit à un taux de réduction pertinent dans l'imagerie hyperspectrale. Par conséquent, Cet algorithme appliqué à différents échantillons de données hyperspectrales, permet une imagerie spectrale beaucoup plus informative, notamment au niveau de l'hétérogénéité spectrale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Noyel, Guillaume. "Filtrage, réduction de dimension, classification et segmentation morphologique hyperspectrale". Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004473.

Texto completo
Resumen
Le traitement d'images hyperspectrales est la généralisation de l'analyse des images couleurs, à trois composantes rouge, vert et bleu, aux images multivariées à plusieurs dizaines ou plusieurs centaines de composantes. Dans un sens général, les images hyperspectrales ne sont pas uniquement acquises dans le domaine des longueurs d'ondes mais correspondent à une description d'un pixel par un ensemble de valeurs : c'est à dire un vecteur. Chacune des composantes d'une image hyperspectrale constitue un canal spectral, et le vecteur associé à chaque pixel est appelé spectre. Pour valider la généralité de nos méthodes de traitement, nous les avons appliquées à plusieurs types d'imagerie correspondant aux images hyperspectrales les plus variées : des photos avec quelques dizaines de composantes acquises dans le domaine des longueurs d'ondes, des images satellites de télédétection, des séries temporelles d'imagerie par résonance dynamique (DCE-MRI) et des séries temporelles d'imagerie thermique. Durant cette thèse, nous avons développé une chaîne complète de segmentation automatique des images hyperspectrales par des techniques morphologiques. Pour ce faire, nous avons mis au point une méthode efficace de débruitage spectral, par Analyse Factorielle des Correspondances (AFC), qui permet de conserver les contours spatiaux des objets, ce qui est très utile pour la segmentation morphologique. Puis nous avons fait de la réduction de dimension, par des méthodes d'analyse de données ou par modélisation des spectres, afin d'obtenir un autre représentation de l'image avec un nombre restreint de canaux. A partir de cette image de plus faible dimension, nous avons effectué une classification (supervisée ou non) pour grouper les pixels en classes spectralement homogènes. Cependant, les classes obtenues n'étant pas homogènes spatialement, i.e. connexes, une étape de segmentation s'est donc avérée nécessaire. Nous avons démontré que la méthode récente de la Ligne de Partage des Eaux Probabiliste était particulièrement adaptée à la segmentation des images hyperspectrales. Elle utilise différentes réalisations de marqueurs aléatoires, conditionnés par la classification spectrale, pour obtenir des réalisations de contours par Ligne de Partage des Eaux (LPE). Ces réalisations de contours permettent d'estimer une fonction de densité de probabilité de contours (pdf) qui est très facile à segmenter par une LPE classique. En définitive, la LPE probabiliste est conditionnée par la classification spectrale et produit donc des segmentations spatio-spectrales dont les contours sont très lisses. Cette chaîne de traitement à été mise en œuvre sur des séquences d'imagerie par résonance magnétique dynamique (DCE-MRI) et a permis d'établir une méthode automatique d'aide au diagnostic pour la détection de tumeurs cancéreuses. En outre, d'autres techniques de segmentation spatio-spectrales ont été développées pour les images hyperspectrales : les régions η-bornées et les boules µ-géodésiques. Grâce à l'introduction d'information régionale, elles améliorent les segmentations par zones quasi-plates qui n'utilisent quant à elles que de l'information locale. Enfin, nous avons mis au point une méthode très efficace de calcul de toutes les paires de distances géodésiques d'une image, puisqu'elle permet de réduire jusqu'à 50 % le nombre d'opérations par rapport à une approche naïve et jusqu'à 30 % par rapport aux autres méthodes. Le calcul efficace de ce tableau de distances offre des perspectives très prometteuses pour la réduction de dimension spatio-spectrale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Delcourt, Jonathan. "Un système intégré d'acquisition 3D multispectral : acquisition, codage et compression des données". Phd thesis, Université de Bourgogne, 2010. http://tel.archives-ouvertes.fr/tel-00578448.

Texto completo
Resumen
Nous avons développé un système intégré permettant l'acquisition simultanée de la forme 3D ainsi que de la réflectance des surfaces des objets scannés. Nous appelons ce système un scanner 3D multispectral du fait qu'il combine, dans un couple stéréoscopique, une caméra multispectrale et un système projecteur de lumière structurée. Nous voyons plusieurs possibilités d'application pour un tel système mais nous mettons en avant des applications dans le domaine de l'archivage et la diffusion numériques des objets du patrimoine. Dans le manuscrit, nous présentons d'abord ce système ainsi que tous les calibrages et traitements nécessaires à sa mise en oeuvre. Ensuite, une fois que le système est fonctionnel, les données qui en sont générées sont riches d'informations, hétérogènes (maillage + réflectances, etc.) et surtout occupent beaucoup de place. Ce fait rend problématiques le stockage et la transmission, notamment pour des applications en ligne de type musée virtuel. Pour cette raison, nous étudions les différentes possibilités de représentation et de codage des données acquises par ce système pour en adopter la plus pertinente. Puis nous examinons les stratégies les plus appropriées à la compression de telles données, sans toutefois perdre la généralité sur d'autres données (type satellitaire). Nous réalisons un benchmark des stratégies de compression en proposant un cadre d'évaluation et des améliorations sur les stratégies classiques existantes. Cette première étude nous permettra de proposer une approche adaptative qui se révélera plus efficace pour la compression et notamment dans le cadre de la stratégie que nous appelons Full-3D.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Vohl, Dany. "Algorithmes de compression d'images hyperspectrales astrophysiques". Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/30110/30110.pdf.

Texto completo
Resumen
SpIOMM, le Spectromètre imageur à transformée de Fourier de l’Observatoire du Mont-Mégantic génère des fichiers de taille imposante, de l’ordre de 700 Mo et SITELLE, son successeur génèrera des fichiers de l’ordre du Go. Puisque plusieurs fichiers peuvent être générés durant une nuit d’observation et que les astronomes ne sont pas toujours sur place pour effectuer leurs observations, ces fichiers apportent à la fois des besoins de stockage et de transfert de données. Afin de minimiser l’espace nécessaire à son stockage et de minimiser la bande passante et le temps de transfert nécessaire pour obtenir le fichier à distance, trois techniques de compression sont abordées. Les deux premières sont des techniques de compression sans perte et la troisième en est une avec perte. Les deux premières permettent d’obtenir de meilleurs taux de compression que les algorithmes génériques que sont zip et gzip2, avec des taux de compression de l’ordre de 1; 19 : 1 à 1; 22 : 1. La troisième permet des taux de compression allant jusqu’à un ratio de 64 : 1. Les effets des perte sont étudiés pour évaluer l’effet de la compression sur les mesures de photométrie et les analyses basées sur les spectres.
SpIOMM, the Imaging Fourier Transform Spectrometer of the Observatoire du Mont-Mégantic generates huge files of about 700 MB per file on average, and SITELLE, its successor will generate files of a few GB. Since several files can be generated during an observation night and the astronomers are not always on-site, there is an increasing need for both storage and transmission. To minimize storage space, bandwidth use and transmission time, three data compression techniques are presented. The first two techniques are lossless data compression and the third one is lossy. The lossless techniques give better results than generic techniques that are zip and gzip2, with compression ratios varying from 1:19 : 1 to 1:22 : 1. The lossy technique compresses files up to a 64 : 1 ratio. The effect of the lossy process on the photometric measurements and the spectra analysis is also studied.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Lagrange, Adrien. "From representation learning to thematic classification - Application to hierarchical analysis of hyperspectral images". Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0095.

Texto completo
Resumen
De nombreuses approches ont été développées pour analyser la quantité croissante de donnée image disponible. Parmi ces méthodes, la classification supervisée a fait l'objet d'une attention particulière, ce qui a conduit à la mise au point de méthodes de classification efficaces. Ces méthodes visent à déduire la classe de chaque observation en se basant sur une nomenclature de classes prédéfinie et en exploitant un ensemble d'observations étiquetées par des experts. Grâce aux importants efforts de recherche de la communauté, les méthodes de classification sont devenues très précises. Néanmoins, les résultats d'une classification restent une interprétation haut-niveau de la scène observée puisque toutes les informations contenues dans une observation sont résumées en une unique classe. Contrairement aux méthodes de classification, les méthodes d'apprentissage de représentation sont fondées sur une modélisation des données et conçues spécialement pour traiter des données de grande dimension afin d'en extraire des variables latentes pertinentes. En utilisant une modélisation basée sur la physique des observations, ces méthodes permettent à l'utilisateur d'extraire des variables très riches de sens et d'obtenir une interprétation très fine de l'image considérée. L'objectif principal de cette thèse est de développer un cadre unifié pour l'apprentissage de représentation et la classification. Au vu de la complémentarité des deux méthodes, le problème est envisagé à travers une modélisation hiérarchique. L'approche par apprentissage de représentation est utilisée pour construire un modèle bas-niveau des données alors que la classification, qui peut être considérée comme une interprétation haut-niveau des données, est utilisée pour incorporer les informations supervisées. Deux paradigmes différents sont explorés pour mettre en place ce modèle hiérarchique, à savoir une modélisation bayésienne et la construction d'un problème d'optimisation. Les modèles proposés sont ensuite testés dans le contexte particulier de l'imagerie hyperspectrale où la tâche d'apprentissage de représentation est spécifiée sous la forme d'un problème de démélange spectral
Numerous frameworks have been developed in order to analyze the increasing amount of available image data. Among those methods, supervised classification has received considerable attention leading to the development of state-of-the-art classification methods. These methods aim at inferring the class of each observation given a specific class nomenclature by exploiting a set of labeled observations. Thanks to extensive research efforts of the community, classification methods have become very efficient. Nevertheless, the results of a classification remains a highlevel interpretation of the scene since it only gives a single class to summarize all information in a given pixel. Contrary to classification methods, representation learning methods are model-based approaches designed especially to handle high-dimensional data and extract meaningful latent variables. By using physic-based models, these methods allow the user to extract very meaningful variables and get a very detailed interpretation of the considered image. The main objective of this thesis is to develop a unified framework for classification and representation learning. These two methods provide complementary approaches allowing to address the problem using a hierarchical modeling approach. The representation learning approach is used to build a low-level model of the data whereas classification is used to incorporate supervised information and may be seen as a high-level interpretation of the data. Two different paradigms, namely Bayesian models and optimization approaches, are explored to set up this hierarchical model. The proposed models are then tested in the specific context of hyperspectral imaging where the representation learning task is specified as a spectral unmixing problem
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Méteau, Jérémy. "Instrumentation optique pour la caractérisation des tissus : analyse de la complémentarité et des limites techniques de fluorescence hyperspectrale et de Tomographie Optique Cohérente en vue de leur intégration multimodale". Thesis, Besançon, 2014. http://www.theses.fr/2014BESA2041/document.

Texto completo
Resumen
L'objectif de ce travail de recherche est le développement d'un système fibré d'imagerie point par point d'auto fluorescence multi-excitation, de tissus biologiques en utilisant la technique de fluorescence hyperspectrale et l'étude d'un système de tomographie optique cohérente comme possible modalité supplémentaire. La première partie de ce rapport présente les propriétés optique des tissus biologiques et les fluorophores pertinents pour la détection de tumeurs cancéreuses. La deuxième partie présente l'instrumentation du système d'imagerie de fluorescence et l'analyse hyperspectrale des résultats obtenus in vitro.Il est démontré la pertinence de ce type d'analyse qui permet de déterminer la concentration de certains fluorophores. La troisième partie présente le système de tomographie optique cohérente appelé "scan free" OCT car il permet de réaliser des images sans déplacement d'éléments optiques. Ce système est caractérisé et présente des fonctionnalités intéressantes comme la compensation de la dispersion dépendante de la profondeur. Les divers résultats obtenus montrent que ces deux techniques sont complémentaires car elles apportent des informations de nature différentes. La première technique donne de se informations sur la composition biochimique des tissus, la seconde donne des information sur la structure
The aim of this activity is the development of a mono point imaging fiber system which uses hyperspectral multi-excitation auto fluorescence technique for biological tissues and the study of an Optical Coherence Tomography system like another modality. At first, this report presents the optical properties of biological tissues and the relevant fluorophores for cancerous tumors detection. Secondly, the fluorescence imaging system instrumentation and hyperspectral analysis are presented with in vitro results. The third part presents the "scan free" optical coherence tomography system which is able to image without optical displacement. It's characterized and have interesting functionality like depth dependant dispersion compensation. These both techniques are complementary because they get different kind of information. The information of the first one is about biochemical composition of the tissues and the information of the second one is about the stucture
Los estilos APA, Harvard, Vancouver, ISO, etc.

Libros sobre el tema "Imagerie hyperspectrale – Analyse informatique"

1

Capture, Canada Image Generation and. Report of Working Group 2, Medical Imaging Technology Roadmap. Ottawa, Ont: Industry Canada, 2001.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Canada, Canada Industry, ed. Image generation and capture: Report of working group 2 : medical imaging technology roadmap. Ottawa: Industry Canada, 2001.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Berry, Elizabeth. A practical approach to medical image processing. New York: Taylor & Francis, 2008.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Xiong, Wei, Rodrigo Rojas Moraleda, Nektarios A. Valous y Niels Halama. Computational Topology for Biomedical Image and Data Analysis: Theory and Applications. Taylor & Francis Group, 2019.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Xiong, Wei, Rodrigo Rojas Moraleda, Niels Halama y Nektarios Valous. Computational Topology for Biomedical Image and Data Analysis. Taylor & Francis Group, 2021.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Computational Topology for Biomedical Image and Data Analysis: Theory and Applications. Taylor & Francis Group, 2019.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Xiong, Wei, Rodrigo Rojas Moraleda, Nektarios A. Valous y Niels Halama. Computational Topology for Biomedical Image and Data Analysis: Theory and Applications. Taylor & Francis Group, 2019.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Sonka, Milan y Gary E. Christensen. Information Processing in Medical Imaging: 19th International Conference, IPMI 2005, Glenwood Springs, CO, USA, July 10-15, 2005, Proceedings. Springer London, Limited, 2005.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

(Editor), Gary E. Christensen y Milan Sonka (Editor), eds. Information Processing in Medical Imaging: 19th International Conference, IPMI 2005, Glenwood Springs, CO, USA, July 10-15, 2005, Proceedings (Lecture Notes in Computer Science). Springer, 2005.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Hemanth, D. Jude, Utku Kose y Omer Deperlioglu. Deep Learning for Biomedical Applications. Taylor & Francis Group, 2021.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía