Siga este enlace para ver otros tipos de publicaciones sobre el tema: Traitement morphologique des images.

Tesis sobre el tema "Traitement morphologique des images"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Traitement morphologique des images".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Mottini, d'Oliveira Alejandro Ricardo. "Analyse de la morphologie axonale : du traitement des images à la modélisation". Thesis, Nice, 2014. http://www.theses.fr/2014NICE4066/document.

Texto completo
Resumen
L'analyse de la morphologie axonale est un problème important en neuroscience. Diverses études ont montré que les caractéristiques morphologiques de ces structures donnent des informations sur son fonctionnement et permettent la caractérisation d'états pathologiques. En conséquence, il est important de développer des méthodes pour étudier leurs formes et quantifier leurs différences structurelles.Dans cette thèse on propose une méthode pour la comparaison des arbres axonaux qui inclue des informations topologiques et géométriques. La méthode est fondée sur la théorie des formes élastiques. Avec cette approche, nous pouvons exhiber le chemin géodésique entre deux formes et la forme moyenne d'un ensemble d'échantillons. En outre, nous proposons un schéma de classification à partir de cette métrique que nous comparons à l'état de l'art. Finalement, nous proposons un modèle stochastique pour la simulation de la croissance axonale défini par une chaîne de Markov. Il considère 2 processus principaux qui modélisent l'élongation et forme de l'axone et la génération des branches. Le processus de croissance dépend de différentes variables, dont un champ externe d'attraction généré par certaines molécules dans l'environnement. Les deux techniques proposées ont été validées sur une base d'images de microscopie confocale de neurones chez la Drosophile. Des neurones normaux et modifiés génétiquement ont été considérés. Les résultats montrent que la méthode de comparaison proposée fournit de meilleurs résultats que les méthodes décrites dans la littérature. De plus, les paramètres du modèle donnent des informations sur le processus de croissance de chaque population d'axones
The morphological analysis of axonal trees is an important problem in neuroscience. It has been shown that the morphological characteristics of thesestructures provide information on their functioning and allows the characterization of pathological states. Therefore, it is of great importance to develop methods to analyze their shape and to quantify differences between structures. In this thesis we propose a method for the comparison of axonal trees that takes into account both topological and geometrical information. Using this method, which is based on the Elastic Shape Analysis Framework, we can compute the geodesic path between two axons and the mean shape of a population of trees. In addition, we derive a classfication scheme based on this metric and compare it with state of the art approaches. Finally, we propose a 2D discrete stochastic model for the simulation of axonal biogenesis. The model is defined by a third order Markov Chain and considers two main processes: the growth process that models the elongation and shape of the neurites and the bifurcation process that models the generation of branches. The growth process depends, among other variables, on an external attraction field. Both techniques were validated on a database of real fluorescent confocal microscopy images of neurons within Drosophila fly brains. Both normal neurons and neurons in which certain genes were inactivated have been considered. Results show that the proposed comparison method obtains better results that other methods found in the literature, and that the model parameter values provide information about the growth properties of the populations
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Laveau, Nicolas. "Mouvement et vidéo : estimation, compression et filtrage morphologique". Phd thesis, École Nationale Supérieure des Mines de Paris, 2005. http://pastel.archives-ouvertes.fr/pastel-00003299.

Texto completo
Resumen
Le travail de thèse développé dans ce mémoire porte sur le traitement des séquences vidéos. Ceci inclut la compression pour une grande partie de la thèse, mais également le filtrage spatio-temporel et la segmentation vidéo. Un des outils d'analyse récurrent dans chacune de ces applications est la mesure du mouvement, c'est-à-dire la description de la cohérence temporelle d'une séquence vidéo. Un système de compression vidéo comprend généralement les trois composantes suivantes : estimation du mouvement, transformations temporelle et spatiale, quantification et codage des coefficients. Nous nous intéressons successivement à chacune de ces composantes. Dans un premier temps, nous essayons d'adapter une méthode d'estimation par projection du flot optique sur une base d'ondelettes à valeur complexe à la compression vidéo. Le champ obtenu étant dense et sensible au bruit, nous introduisons dans la résolution un élément de régularisation afin de diminuer son coût de codage. En dépit d'une nette amélioration apportée par nos modifications, la technique d'estimation par projection sur une base d'ondelettes n'est pas compétitive face au block-matching qui constitue l'algorithme de référence pour la compression vidéo. Cela illustre bien le fait que le choix et la conception d'une méthode sont étroitement liés à l'usage qui en est fait : des mé- thodes d'estimation de mouvement optimisées pour des applications aussi diverses que la compression vidéo, le filtrage et la segmentation, ou encore l'analyse de scènes 3D ont peu de chances d'être les mêmes. Dans ces expériences, nous avons utilisé une méthode visant à satisfaire un critère qui est équivalent à un critère d'appariement optimal pour la compression sous des conditions théoriques qui ne sont en général pas vérifiées. Une telle approche est donc visiblement sous-optimale. Forts de cette observation, nous avons ensuite développé une méthode de mesure de mouvement qui repose sur une paramétrisation du champ bilinéaire par morceaux, et qui minimise cette fois directement l'erreur quadratique moyenne qui est notre critère d'évaluation. Nous montrons qu'il est possible d'obtenir de bons résultats quand les paramètres du champ sont épars. Un codage vidéo avec une prédiction temporelle suppose de coder des données aussi hétérogènes que des champs de mouvement ou des images d'erreur. Nous avons travaillé sur l'allocation de débit entre images d'erreur et de manière moins approfondie entre image d'erreur et champ de mouvement. Nous avons adapté un modèle de planification de débit introduit par Mallat et Falzon qui a été initialement conçu pour des images statiques et qui est actuellement utilisé pour la compression au ot d'images satellitales. Cette approche se révèle meilleure que des approches plus classiquement utilisées en compression vidéo. Pour pouvoir effectuer un codage par transformée du champ et des images d'erreur, nous avons cherché à concevoir de nouvelles transformations en sous-bandes non-linéaires. Pour cela, nous avons utilisé le schéma de lifting, qui garantit l'inversibilité formelle des transformations qu'il peut réaliser, que celles-ci soient linéaires ou non. Nous avons construit deux nouvelles décompositions non-linéaires. La première vise à réduire un artéfact communément appelé e et de Gibbs. Cette première décomposition consiste à utiliser un prédicteur de Deslauriers-Dubuc modifié de manière à réduire ces artéfacts. La modification introduite permet effectivement de réduire les oscillations autour de discontinuités en échange d'un surcoût modeste en terme d'efficacité de représentation dans les sections régulières du signal représenté. La formulation évite le mécanisme de transition d'un filtre à l'autre relativement habituel dans ce genre d'approche en recourant à des opérateurs continus de type min et max, qui permettent de garantir la continuité de la transformation et donc sa stabilité après quantification. L'autre se propose d'améliorer la décomposition en ondelettes du champ de mouvement en utilisant l'information qu'apporte chacune de ses composantes sur l'autre. En effet, l'intuition nous incite à penser que les discontinuités sont présentes au même endroit dans chacune des composantes du mouvement. Nous nous servons de cette co-occurrence des discontinuités pour choisir le filltre de prédiction. Dans les deux cas, les méthodes mises au point donnent des résultats positifs sur des signaux de synthèse mais perdent en efficacité sur des signaux réels. Une des grandes difficultés est de mettre au point un étage de mise-à-jour dans le schéma de lifting. Par ailleurs, le schéma linéaire le plus efficace est un schéma à 4 étages pour lequel il est difficile de concevoir un concurrent non-linéaire dans la mesure où ses propriétés sont difficilement lisibles sur les étages individuels du schéma de lifting. Nfin transposé des idées rencontrées en compression vidéo pour dé nir des opérations de filtrage morphologique vidéo intégrant la mesure du mouvement, utilisant des éléments structurants qui suivent le mouvement. L'application de ces idées donne des résultants probants en filltrage et en segmentation, en particulier grâce à une forte cohérence spatio-temporelle introduite dans les voisinages : cette approche donne des résultats de segmentation plus stables puisqu'elle impose une cohérence temporelle beaucoup plus forte aux frontières des régions que les méthodes itératives en temps. Nous discutons ensuite des possibilités d'utilisation de champs de mouvement à précision sous-pixellique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Garcia, Arnaud. "Analyse statistique et morphologique des images multivaluées : développements logiciels pour les applications cliniques". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2008. http://tel.archives-ouvertes.fr/tel-00422589.

Texto completo
Resumen
La détection et la segmentation de formes dans les images à partir d'un échantillon nécessitent de combiner une analyse statistique des données à une analyse morphologique de l'image. L'analyse statique a pour objectif un calcul local de la similarité de l'image au modèle ; l'analyse morphologique vient compléter ce dispositif en permettant la prise en compte de l'information géométrique pour finaliser les étapes de détection et de segmentation. Les images étudiées sont des images multivaluées : images couleur, images multimodalité ou pile d'images émergeant d'une analyse multiéchelle d'une image scalaire... Le passage de l'image scalaire à l'image multivaluée pose des difficultés fondamentales, notamment pour l'analyse morphologique qui requiert de disposer d'un ordre total sur les valeurs manipulées. Contrairement aux scalaires, deux vecteurs ne sont pas comparables. La plupart des opérateurs définis dans le cas scalaire ne trouvent pas d'équivalent immédiat dans le cas vectoriel. Travailler à partir d'un échantillon permet de déverrouiller la situation, chaque élément de l'image multivaluée pouvant être ordonné selon sa similarité à l'échantillon. Sous réserve d'une relation univoque entre les vecteurs et leur rang dans l'espace des similarités, tous les opérateurs définis pour les images scalaires peuvent alors êtres étendus aux images vectorielles. Des applications sur les images couleur et sur des images médicales sont présentées. Une librairie "Open Source" (vmorph) a été réalisée afin détendre les opérateurs de morphologie mathématique aux vecteurs sur la base de nos travaux.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Hernández, Londoño Jorge Eduardo. "Analyse morphologique d'images pour la modélisation d'environnements urbains". Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://pastel.archives-ouvertes.fr/pastel-00005974.

Texto completo
Resumen
La modélisation d'environnements urbains permet le développement de nombreuses applications telles que la navigation 3D, la planification de l'aménagement urbain ou la création de scenarii pour le cinéma. L'enjeu technologique est de réduire le temps nécessaire pour une modélisation réaliste et fidèle à la réalité. Cette thèse s'inscrit dans le cadre du projet TerraNumerica dont l'objectif est de développer une plateforme de production et d'exploitation d'environnements synthétiques urbains. Dans ce contexte, nous sommes confrontés à des problèmes de segmentation de scènes urbaines. Dans une première partie, nous montrons l'intérêt de l'opérateur d'ouverture ultime en tant qu'opérateur de segmentation générique. Ensuite nous avons proposé plusieurs améliorations qui le rendent plus robuste à des problèmes de masquage et d'images floues. L'efficacité de ces améliorations est démontrée dans le contexte de l'étude mais aussi pour la segmentation de texte enfoui et de cellules. La deuxième partie est consacrée à l'analyse de façades. Leur modélisation est réalisée à l'échelle du bâtiment. Néanmoins, lors de l'acquisition, plusieurs bâtiments apparaissent dans une même image. Nous proposons une méthode capable de séparer automatiquement les différentes façades contenues dans l'image. Ensuite, nous détectons les étages, les travées, les fenêtres... afin d'alimenter un modèle de bâtiment fidèle à la réalité. La troisième partie de cette thèse est consacrée à l'analyse des données tridimensionnelles. Pour une modélisation de la scène, il est nécessaire d'introduire des éléments du mobilier urbain ainsi que le trottoir. Nous présentons des outils pour la détection et la classification d'artefacts. Ces outils permettent 1- le filtrage de données facilitant la modélisation et 2- la réintroduction d‘éléments tels que les lampadaires, améliorant le réalisme de la scène modélisée. Nous proposons également une méthode automatique pour la segmentation du trottoir.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Noyel, Guillaume. "Filtrage, réduction de dimension, classification et segmentation morphologique hyperspectrale". Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004473.

Texto completo
Resumen
Le traitement d'images hyperspectrales est la généralisation de l'analyse des images couleurs, à trois composantes rouge, vert et bleu, aux images multivariées à plusieurs dizaines ou plusieurs centaines de composantes. Dans un sens général, les images hyperspectrales ne sont pas uniquement acquises dans le domaine des longueurs d'ondes mais correspondent à une description d'un pixel par un ensemble de valeurs : c'est à dire un vecteur. Chacune des composantes d'une image hyperspectrale constitue un canal spectral, et le vecteur associé à chaque pixel est appelé spectre. Pour valider la généralité de nos méthodes de traitement, nous les avons appliquées à plusieurs types d'imagerie correspondant aux images hyperspectrales les plus variées : des photos avec quelques dizaines de composantes acquises dans le domaine des longueurs d'ondes, des images satellites de télédétection, des séries temporelles d'imagerie par résonance dynamique (DCE-MRI) et des séries temporelles d'imagerie thermique. Durant cette thèse, nous avons développé une chaîne complète de segmentation automatique des images hyperspectrales par des techniques morphologiques. Pour ce faire, nous avons mis au point une méthode efficace de débruitage spectral, par Analyse Factorielle des Correspondances (AFC), qui permet de conserver les contours spatiaux des objets, ce qui est très utile pour la segmentation morphologique. Puis nous avons fait de la réduction de dimension, par des méthodes d'analyse de données ou par modélisation des spectres, afin d'obtenir un autre représentation de l'image avec un nombre restreint de canaux. A partir de cette image de plus faible dimension, nous avons effectué une classification (supervisée ou non) pour grouper les pixels en classes spectralement homogènes. Cependant, les classes obtenues n'étant pas homogènes spatialement, i.e. connexes, une étape de segmentation s'est donc avérée nécessaire. Nous avons démontré que la méthode récente de la Ligne de Partage des Eaux Probabiliste était particulièrement adaptée à la segmentation des images hyperspectrales. Elle utilise différentes réalisations de marqueurs aléatoires, conditionnés par la classification spectrale, pour obtenir des réalisations de contours par Ligne de Partage des Eaux (LPE). Ces réalisations de contours permettent d'estimer une fonction de densité de probabilité de contours (pdf) qui est très facile à segmenter par une LPE classique. En définitive, la LPE probabiliste est conditionnée par la classification spectrale et produit donc des segmentations spatio-spectrales dont les contours sont très lisses. Cette chaîne de traitement à été mise en œuvre sur des séquences d'imagerie par résonance magnétique dynamique (DCE-MRI) et a permis d'établir une méthode automatique d'aide au diagnostic pour la détection de tumeurs cancéreuses. En outre, d'autres techniques de segmentation spatio-spectrales ont été développées pour les images hyperspectrales : les régions η-bornées et les boules µ-géodésiques. Grâce à l'introduction d'information régionale, elles améliorent les segmentations par zones quasi-plates qui n'utilisent quant à elles que de l'information locale. Enfin, nous avons mis au point une méthode très efficace de calcul de toutes les paires de distances géodésiques d'une image, puisqu'elle permet de réduire jusqu'à 50 % le nombre d'opérations par rapport à une approche naïve et jusqu'à 30 % par rapport aux autres méthodes. Le calcul efficace de ce tableau de distances offre des perspectives très prometteuses pour la réduction de dimension spatio-spectrale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Najman, Laurent. "Morphologie mathématique, systèmes dynamiques et applications au traitement des images". Habilitation à diriger des recherches, Université de Marne la Vallée, 2006. http://tel.archives-ouvertes.fr/tel-00715406.

Texto completo
Resumen
Ce mémoire résume une quinzaine d'années de recherche dans le monde industriel et universitaire. Il est divisé en trois parties, traitant respectivement de la théorie de la morphologie mathématique, des systèmes dynamiques et enfin des applications au traitement des images. En morphologie mathématique, nos travaux ont porté principalement sur le filtrage et la segmentation d'images. En ce qui concerne le filtrage, nous avons proposé un algorithme quasi-linéaire pour calculer l'arbre des composantes, une des structures d'organisation naturelles des ensembles de niveaux d'une image. En segmentation, nous nous sommes principalement intéressé à la ligne de partage des eaux. Nous en avons proposé une définition continue. En nous servant du formalisme récemment introduit par Gilles Bertrand, nous avons comparé les propriétés de plusieurs définitions discrètes et nous avons proposé un algorithme quasi-linéaire permettant de calculer la ligne de partage des eaux topologique. Notre algorithme repose en partie sur celui de l'arbre des composantes. Enfin, nous avons proposé des schémas hiérarchiques pour utiliser la ligne de partage des eaux, et en particulier, nous avons proposé de valuer les contours produits par un critère de saillance donnant l'importance du contour dans la hiérarchie. Ces études nous ont conduit à proposer des classes de graphes adaptés pour la fusion de région, mettant en particulier en évidence l'équivalence existant entre une de ces classes de graphes et la classe des graphes pour lesquels toute ligne de partage des eaux binaire est mince. En ce qui concerne les systèmes dynamiques, nous avons utilisé les outils issus du cadre de l'analyse multivoque et de la théorie de la viabilité pour proposer un algorithme (dit des "Montagnes Russes") qui permet de converger vers le minimum global d'une fonction dont on connaît l'infimum. L'association du cadre algébrique des treillis complets, de l'algèbre et de la théorie des inclusions différentielles nous a permis de donner des propriétés algébriques et de continuité d'applications agissant sur des ensembles fermés, comme l'ensemble atteignable ou le noyau de viabilité. Nous avons utilisé le cadre des équations mutationnelles, permettant de dériver des tubes de déformations de formes dans des espaces métriques, pour prouver de manière rigoureuse et sans hypothèse de régularité sur la forme, l'intuition selon laquelle la dilatation transforme la forme dans la direction des normales à celle-ci en chacun de ses points. Nous avons adapté au cadre des équations mutationnelles le théorème d'Euler, qui permet d'approcher une solution à une équation mutationnelle par une s'equence de points dans un espace métrique. Enfin, nous avons proposé une approche générique de simulation, fondée sur les systèmes de particules, qui a prouvé son efficacité par sa mise en œuvre en milieu industriel, en particulier, pour la simulation de foules, pour la synthèse d'images, ou encore pour la simulation du déploiement d'airbags. Nous pensons que de bonnes études théoriques aident à réaliser des applications de qualité. Inversement, de bons problèmes théoriques peuvent trouver une source dans de bons problèmes applicatifs. On trouvera dans ce mémoire le résumé d'un certain nombre de travaux dont l'intérêt industriel a été prouvé par des brevets ou des logiciels. Citons par exemple un outil de segmentation 4D (3D+temps) en imagerie cardiaque utilisé par des médecins dans le cadre de leur pratique. Nous avons travaillé pendant plusieurs années dans le domaine du traitement d'images de documents. Nous avons proposé un outil basé sur la morphologie mathématique permettant d'estimer l'angle d'inclinaison d'un document scanné. Plus particulièrement, nous avons étudié des problèmes liés à l'indexation et à la reconnaissance de dessins techniques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Barat, Cécile. "Palpage virtuel : une nouvelle approche morphologique pour la mise en correspondance d’objets (Pattern Matching) dans les images à niveaux de gris". Saint-Etienne, 2004. http://www.theses.fr/2004STET4018.

Texto completo
Resumen
Ce travail de thèse propose en approche originale au problème de la mise en correspondance d’objets à niveaux de gris fondée su r un nouveau concept : le double palpage virtuel d’image (VDIP). Grâce à ce concept, plusieurs contributions au domaine sont apportées : - Une nouvelle transformée de mise en correspondance d’objets à niveaux de gris est présentée, offrant les propriétés théoriques suivantes : invariance par translation, invariance aux changements d’illumination ou de contraste, sélectivité, robustesse au bruit impulsionnel et facilité d’implémentation. Plusieurs déclinaisons de cette transformée sont proposées, adaptées à la détection de toutes les instances d’un même motif ou bien à celles de différents motifs simultanément. – L’intérêt des notions topologiques pour la comparaison d’images, outre la notion classique de métrique, est montré. La notion de voisinage est particulièrement mise en avant. Celle de jauge est introduite en traitement d’image. – Des liens entre différentes solutions mathématiques du traitement d’image au problème de mise en correspondance, relevant des domaines de la topologie et de la morphologie mathématique, sont mis en évidence. – VDIP est posé comme un cadre unificateur des ces méthodes existantes. – A partir de VDIP, une métrique morphologique (SVDIP) est définie. Des relations entre SVDIP, la métrique de Hausdorff et celle de la convergence uniforme sont établies. – Les opérateurs VDIP sont illustrés et comparés avec différentes méthodes sur plusieurs applications de domaines variés. Le formalisme développé est très général et ne se restreint pas à un type d’images particulier. Il peut être généralisé à des objets de dimension quelconque
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Saryazdi, Saeid. "Etude de schémas de codage intra-image basés sur le sous-échantillonnage morphologique non uniforme". Université de Rennes 1, 1997. http://www.theses.fr/1997REN10134.

Texto completo
Resumen
Ce memoire de these est consacre a l'etude de schemas de codage des images fixes bases sur le sous-echantillonnage morphologique. Dans la premiere partie de ce memoire, est presentee une amelioration du schema de decomposition morphologique multi-tailles integrant l'operation d'erosion a recouvrement partiel proposee par r. Jeannot. Une nouvelle generalisation au cas des images multi-niveaux, plus efficace que l'algorithme original, est proposee. Differents pretraitements de simplification sont etudies et le probleme du choix des parametres de l'algorithme est aborde. Les resultats experimentaux montrent que malgre les ameliorations effectuees, cette methode n'est pas suffisamment performante pour une application en codage a bas debit. Dans la seconde partie, une nouvelle methode d'echantillonnage morphologique non uniforme optimal vis a vis du critere d'erreur absolue minimale, est developpee. La methode proposee est iterative, un nouvel echantillon etant selectionne a chaque iteration, de facon a rendre l'erreur absolue moyenne minimale. Un schema complet de codage intra-image, base sur cette nouvelle methode d'echantillonnage est elabore. Les resultats experimentaux confirment la superiorite de l'algorithme propose par rapport aux autres methodes de codage basees sur un sous-echantillonnage morphologique telles que le squelette minimal ou l'erosion a recouvrement partiel. Il est egalement demontre que pour les taux de compression assez eleves, le schema propose fournit des images reconstruites de meilleure qualite visuelle qu'un codeur au standard jpeg.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Durand, Marie-Ange. "Caracterisation morphologique du contexte dans les images de teledetection : utilisation de connaissances externes pour la reconstruction de structures". Toulouse 3, 1986. http://www.theses.fr/1986TOU30180.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Gousseau, Yann. "Distribution de formes dans les images naturelles". Paris 9, 2000. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2000PA090081.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Tessadro, Ana y Jacques Jean Silvy. "Caractérisation morphologique des fibres par analyse d'images". Grenoble INPG, 1994. http://www.theses.fr/1994INPG0073.

Texto completo
Resumen
Notre travail s'inscrit dans le cadre de la mesure automatique des caracteristiques morphologiques des fibres: masse lineique, longueur, largeur et courbure par l'analyse d'images. La mesure automatique de ces caracteristiques est d'essentielle importance pour l'industrie papetiere vu son influence sur les proprietes des pates et des papiers. La principale difficulte de la mesure automatique des fibres est d'obtenir un echantillon de fibres individuelles, ou dans le cas contraire d'identifier et separer les fibres entrelacees dans l'image. Vu les resultats non satisfaisants des travaux essayant de resoudre ce probleme nous proposons une approche originale: mesurer les caracteristiques morphologiques des fibres d'un reseau fibreux sans identifier les fibres que le composent. A partir de ce choix nous avons etudie deux types de methodes permettant d'acceder aux parametres recherches: celles qui utilisent un modele mathematique du reseau fibreux, et celles basees sur la transformation de squelettisation. Les methodes proposees pour mesurer la masse lineique, la longueur, la largeur et la courbure des fibres ont ete testees et validees sur des reseaux fibreux simules. Ensuite nous avons effectue les mesures avec des fibres synthetiques et avec des fibres vegetales des differentes pates papetieres. Les resultats obtenus montrent que les principales caracteristiques morphologiques des fibres peuvent etre obtenues par analyse d'images. Nous presentons egalement le dispositif mis au point permettant d'obtenir des images nettes d'une suspension fibreuse en mouvement, ainsi que les algorithmes utilises pour rendre ces images exploitables avec les methodes de mesure proposees
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Chevallier, Emmanuel. "Morphologie, Géométrie et Statistiques en imagerie non-standard". Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0082/document.

Texto completo
Resumen
Le traitement d'images numériques a suivi l'évolution de l'électronique et de l'informatique. Il est maintenant courant de manipuler des images à valeur non pas dans {0,1}, mais dans des variétés ou des distributions de probabilités. C'est le cas par exemple des images couleurs où de l'imagerie du tenseur de diffusion (DTI). Chaque type d'image possède ses propres structures algébriques, topologiques et géométriques. Ainsi, les techniques existantes de traitement d'image doivent être adaptés lorsqu'elles sont appliquées à de nouvelles modalités d'imagerie. Lorsque l'on manipule de nouveaux types d'espaces de valeurs, les précédents opérateurs peuvent rarement être utilisés tel quel. Même si les notions sous-jacentes ont encore un sens, un travail doit être mené afin de les exprimer dans le nouveau contexte. Cette thèse est composée de deux parties indépendantes. La première, « Morphologie mathématiques pour les images non standards », concerne l'extension de la morphologie mathématique à des cas particuliers où l'espace des valeurs de l'image ne possède pas de structure d'ordre canonique. Le chapitre 2 formalise et démontre le problème de l'irrégularité des ordres totaux dans les espaces métriques. Le résultat principal de ce chapitre montre qu'étant donné un ordre total dans un espace vectoriel multidimensionnel, il existe toujours des images à valeur dans cet espace tel que les dilatations et les érosions morphologiques soient irrégulières et incohérentes. Le chapitre 3 est une tentative d'extension de la morphologie mathématique aux images à valeur dans un ensemble de labels non ordonnés.La deuxième partie de la thèse, « Estimation de densités de probabilités dans les espaces de Riemann » concerne l'adaptation des techniques classiques d'estimation de densités non paramétriques à certaines variétés Riemanniennes. Le chapitre 5 est un travail sur les histogrammes d'images couleurs dans le cadre de métriques perceptuelles. L'idée principale de ce chapitre consiste à calculer les histogrammes suivant une approximation euclidienne local de la métrique perceptuelle, et non une approximation globale comme dans les espaces perceptuels standards. Le chapitre 6 est une étude sur l'estimation de densité lorsque les données sont des lois Gaussiennes. Différentes techniques y sont analysées. Le résultat principal est l'expression de noyaux pour la métrique de Wasserstein
Digital image processing has followed the evolution of electronic and computer science. It is now current to deal with images valued not in {0,1} or in gray-scale, but in manifolds or probability distributions. This is for instance the case for color images or in diffusion tensor imaging (DTI). Each kind of images has its own algebraic, topological and geometric properties. Thus, existing image processing techniques have to be adapted when applied to new imaging modalities. When dealing with new kind of value spaces, former operators can rarely be used as they are. Even if the underlying notion has still a meaning, a work must be carried out in order to express it in the new context.The thesis is composed of two independent parts. The first one, "Mathematical morphology on non-standard images", concerns the extension of mathematical morphology to specific cases where the value space of the image does not have a canonical order structure. Chapter 2 formalizes and demonstrates the irregularity issue of total orders in metric spaces. The main results states that for any total order in a multidimensional vector space, there are images for which the morphological dilations and erosions are irregular and inconsistent. Chapter 3 is an attempt to generalize morphology to images valued in a set of unordered labels.The second part "Probability density estimation on Riemannian spaces" concerns the adaptation of standard density estimation techniques to specific Riemannian manifolds. Chapter 5 is a work on color image histograms under perceptual metrics. The main idea of this chapter consists in computing histograms using local Euclidean approximations of the perceptual metric, and not a global Euclidean approximation as in standard perceptual color spaces. Chapter 6 addresses the problem of non parametric density estimation when data lay in spaces of Gaussian laws. Different techniques are studied, an expression of kernels is provided for the Wasserstein metric
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Blanchard, Cédric. "Etude morphologique et métrologique des sinus de Valsalva par traitement d'images tomographiques". Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00825485.

Texto completo
Resumen
L'objectif de cette thèse est l'élaboration et l'application de traitements d'images pour permettre une étude objective et fiable des sinus de Valsalva, importantes cavités de la base de l'aorte. Les méthodes proposées s'appliquent aux séquences ciné-IRM et aux examens de scanner sans qu'il n'y ait à modifier le paramétrage entre deux examens. Pour cela, nous avons d'abord étudié la morphologie de cette zone anatomique puis détaillé les différentes propriétés communes à toutes les images de sinus. Ceux-ci font en l'occurrence partie des principaux organes clairs et peu mobiles. Nous avons donc développé un algorithme qui détecte ces éléments et caractérise chacun d'entre eux par une trajectoire unique. Divers outils de morphologie mathématique ont été utilisés à cette occasion, tout comme pour l'extraction du contour des sinus dans chaque image. L'étape de segmentation repose elle sur la reconstruction géodésique, qui s'avère plus efficace et surtout plus robuste que l'usage de contours actifs usuels. L'intérieur des sinus forme un domaine simplement connexe et étoilé. Grâce à ce postulat, nous avons conçu une nouvelle reconstruction, nommée transformée en aurore, qui limite la propagation des intensités aux supports radiaux et présente les résultats dans un repère polaire pour une meilleure lecture des contours.Les points caractéristiques des sinus ont également été détectés, par étude de rayons et détermination de points dominants. Ces points fournissent les éléments nécessaires à une mesure automatique des sinus, mesure cohérente avec les mesures actuellement réalisées manuellement et les variations intra et inter-observateurs de celles-ci. D'autres outils sont enfin esquissés pour modéliser le contour par coniques, classer les images d'examens cinétiques en fonction du moment du cycle et suivre le mouvement des valves dans ces mêmes examens.L'ensemble de ces travaux ont amené à la réalisation d'un logiciel d'aide au diagnostic qui intègre nos méthodes et dont l'interface est également présentée dans le présent mémoire.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Dillenseger, Jean-Louis. "Imagerie Tridimensionnelle Morphologique et Fonctionnelle en Multimodalité". Phd thesis, Université François Rabelais - Tours, 1992. http://tel.archives-ouvertes.fr/tel-00133646.

Texto completo
Resumen
Ce mémoire est centré sur la visualisation et l'analyse tridimensionnelle de données morphologiques, la fusion d'informations provenant de modalités identiques mais dont l'acquisition est effectuée à des instant différents et de la mise en correspondance de signaux fonctionnels avec des données morphologiques.
Le premier chapitre est consacré à une étude bibliographique traitant de l'acquisition et de la modélisation de primitives tridimensionnelles en imagerie médicale. Le propos du second chapitre concerne une revue des techniques de représentation de primitives et de fonctions multi-variables.
Le troisième chapitre traite de la représentation et de l'analyse d'images morphologiques tridimensionnelles. Un nouveau concept, le lancer de rayons multi-fonctions, a été introduit afin d'intégrer sur le rayon une partie des traitements tels que l'interpolation, la détection, le filtrage tout en préservant les fonctionnalités de base (dissection, manipulation par exemple) de l'imagerie médicale tridimensionnelle. Une technique d'accélération du processus de synthèse d'images basée sur la cohérence inter-images est également proposée.
Le suivi d'une pathologie ou l'évaluation d'une thérapie nécessitent la confrontation d'images acquises par une même source mais à des instants distincts. Le quatrième chapitre porte sur l'étude et la mise au point d'une technique de recalage 3D en rotation de volumes basée sur une formalisation utilisant les quaternions.
Le dernier chapitre est consacré à la reconstitution et à la description (la visualisation) dans l'espace anatomique cérébral des champs de potentiels électriques ou magnétiques (EEG et MEG).
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Barré, Frédérique. "Contribution de l'analyse d'images à la caractérisation morphologique des surfaces industrielles". Saint-Etienne, 1997. http://www.theses.fr/1997STET4011.

Texto completo
Resumen
Notre principal résultat est l'introduction d'une méthode de détermination de motifs 3D applicable a tout type de surface industrielle. Nous utilisons une adaptation de l'algorithme de détermination de lignes de partage des eaux par immersion de L. Vincent, basée sur une définition précise de la notion de motif 3D en termes de bassins versants. Notre méthode associe les motifs non significatifs de façon indirecte, en remplissant jusqu'à leur point de débordement ceux dont la surface à ce niveau est inférieure à une surface seuil avant de déterminer les lignes de partage des eaux. Cette méthode permet d'effectuer une analyse multirésolution des surface industrielles intégrant notamment le calcul de paramètres statistiques sur les motifs 3D. Nous nous sommes par ailleurs intéressés à la caractérisation de l'anisotropie d'une surface. Deux méthodes originales sont présentées, dans lesquelles une rose des directions est construite, soit à partir des segments constituant les limites des motifs, soit à partir des lignes de niveaux associées à une altitude de coupe particulière. Sont également introduits des taux d'anisotropie permettant de quantifier l'anisotropie et d'évaluer les contributions des différentes orientations dans le cas de surfaces multidirectionnelles. Deux autres méthodes originales sont présentées, qui utilisent la notion de motif 3D définie précédemment pour résoudre des problèmes de caractérisation spécifiques. La première est destinée aux surfaces présentant des rayures courbes et la seconde permet de caractériser les surfaces à plateau, qui présentent une distribution des hauteurs asymétrique, très effilée vers le bas et dont le maximum est atteint pour une altitude élevée
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Darbon, Jérôme. "Composants logiciels et algorithmes de minimisation exacte d'énergies dédiées au traitement des images /". Paris : École nationale supérieure des télécommunications, 2006. http://catalogue.bnf.fr/ark:/12148/cb40185908r.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Darbon, Jérôme. "Composants logiciels et algorithmes de minimisation exacte d'énergies dédiés au traitement des images". Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001680.

Texto completo
Resumen
Cette thèse traite principalement de l'optimisation exacte et rapide d'énergies utilisées pour résoudre des problèmes de traitement des images ou de vision par ordinateur. En fonction du type d'énergies considérées, différentes approches sont retenues. Le calcul de coupures minimales, vu comme technique d'optimisation, est la souche commune aux méthodes d'optimisation proposées dans ce manuscrit. Nous présentons tout d'abord un algorithme de minimisation exacte de la variation totale avec une attache aux données modélisée par une fonction convexe. L'idée de notre approche consiste à reformuler cette énergie avec des champs de Markov binaires associés à chaque ensemble de niveaux d'une image. Nous généralisons ensuite cette approche aux cas des énergies dites "nivellées". Une seconde généralisation, différente de la précédente, considère le cas où les termes de régularisation sont convexes. Nous présentons ensuite un algorithme original et rapide pour le cas des modèles dont les attaches aux données et les termes de régularisation sont des fonctions convexes. Le cas particulier de la variation totale avec une attache aux données de type $L^1$ est étudié en détail. Nous montrons en particulier que sa minimisation conduit à un filtre invariant par changement de contraste. Cette invariance est une propriété fondamentale des filtres morphologiques. Ce modèle est alors utilisé pour définir un filtre morphologique vectoriel auto-dual.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Darbon, Jérôme. "Composants logiciels et algorithmes de minimisation exacte d'énergies dédiées au traitement des images". Paris, ENST, 2005. http://www.theses.fr/2005ENST0050.

Texto completo
Resumen
Cette thèse traite principalement de l'optimisation exacte et rapide d'énergies utilisées pour résoudre des problèmes de traitement des images ou de vision par ordinateur. En fonction du type d'énergies considérées, différentes approches sont retenues. Le calcul de coupures minimales, vu comme technique d'optimisation, est la souche commune aux méthodes d'optimisation proposées dans ce manuscrit. Nous présentons tout d'abord un algorithme de minimisation exacte de la variation totale avec une attache aux données modélisée par unefonction convexe. L'idée de notre approche consiste à reformuler cette énergie avec des champs de Markov binaires associés à chaque ensemble de niveaux d'une image. Nous généralisons ensuite cette approche aux cas des énergies dites "nivellées". Une seconde généralisation, différente de la précédente, considère le cas où les termes de régularisation sont convexes. Nous présentons ensuite un algorithme original et rapide pour le cas des modèles dont les attaches aux données et les termes de régularisation sont des fonctions convexes. Le cas particulier de la variation totale avec une attache aux données de type L^1 est étudié en détail. Nous montrons en particulier que sa minimisation conduit à un filtre invariant par changement de contraste. Cette invariance est une propriété fondamentale des filtres morphologiques. Ce modèle est alors utilisé pour définir un filtre morphologique vectoriel auto-dual
Résumé anglais :This thesis mainly concerns itself with fast and exact optimization of energies used in many image processing and computer vision problems. Several approaches are considered for different classes of energies. Minimum cuts are the common part of the optimization methods proposed in this thesis. First, we present an algorithm which computes a global minimizer for the Total Variation minimization problem with convex data fidelity terms. Our approach consists in reformulating this energy as binary Markov random fields associated with each level sets of an image. Then we generalize this approach to the case of "levelable" energies. A second generalization, different from the first one, deals with the case where priors are convex functions. Then, we present an efficient minimization algorithm for energies where both data fidelities and priors are convex functions. The special case of the Total Variation minimization with L^1 data fidelity is studied in detail. We show that its minimization yields a filter which is invariant with respect to any change of contrast. This invariance is the main property of morphological filters. This model is used to propose a morphological and auto-dual filter
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Wang, Haisheng. "Modélisation Morphologique et Propriétés de Transport d'Alumines Mésoporeuses". Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM045/document.

Texto completo
Resumen
Dans ce travail réalisé au Centre de Morphologie Mathématique and IFPEN, on s'intéresse à la microstructure et aux propriétés physiques d'alumines mésoporeuses. Il s'agit d'un supporte de catalyseur utilisés notamment dans les processus industriels de raffinage du pétrole. Fortement poreux, ce matériau est formé de ''plaquettes'' distribuées de manière désordonnée à l'échelle de la dizaine de nanomètres. Les propriétés de transport de masse du support de catalyseur sont fortement influencées par la morphologie de la microstructure poreuse. Ce travail porte sur la modélisation de la microstructure et des propriétés de transport des alumines mésoporeuses, à l'aide d'outils numériques et théoriques dérivés de l'analyse d'image et de la théorie des ensembles aléatoires. D'une part, on met en place des méthodes de caractérisation et de modélisation des microstructures, qui s'appuient sur, entre autre, des images obtenues par microscopie électronique en transmission (MET) et des courbes de porosimétrie azote. D'autre part, on utilise des méthodes d'homogénéisation numérique à champs complets par transformées de Fourier rapide (FFT).Dans un premier temps, le matériau est caractérisé expérimentalement par porosimétrie azote et résonance magnétique nucléaire à gradient de champ pulsé (RMN-GCP). Les images MET sont obtenus sur des échantillons d'épaisseur variable, filtrées et caractérisés par des fonctions de corrélation, notamment. Le bruit à haute fréquence issu de la membrane de carbone est identifié et pris en compte dans la modélisation de l'imagerie MET. À partir des images MET 2D, un modèle aléatoire à deux échelles est proposé pour représenter la microstructure 3D. Il prend en compte la forme des plaquettes d'alumines, leurs tailles, les effets d'alignement locaux et d'agrégation, qui sont identifiés numériquement. La procédure est validée à l'aide de comparaisons entre modèle et images expérimentales, en terme notamment de fonctions de corrélation et de surface spécifique, mesurées par porosimétrie azote.Dans un deuxième temps, une méthode de simulation des courbes d'isothermes de porosimétrie dans des milieux poreux périodiques ou aléatoires est développée. Basée sur des opérations morphologiques simples, elle étend un travail antérieur sur la porosimétrie au mercure. L'adsorption multicouche à basse pression est simulée à l'aide d'une dilatation tandis que les ménisques de l'interface vapeur-liquide intervenant pendant l'adsorption sont simulés à l'aide de fermetures de la phase solide par des éléments structurants sphériques. Pour simuler la désorption, une combinaison de fermetures et de bouchages de trou est utilisée. Le seuil de désorption est obtenu par une analyse de la percolation de la phase gazeuse. La méthode, d'abord validée sur des géométries simples, est comparée à des résultats antérieurs. Elle prédit une hystérésis et les distributions de pores associées à la porosimétrie. Nous l'appliquons aux modèles de microstructures 3D d'alumines mésoporeuses et proposons un modèle à trois échelles afin de rendre compte du seuil de pression pendant la désorption. En plus de la courbe de désorption, ce modèle reproduit les fonctions de corrélation mesurées sur les images MET.Dans un troisième temps, la diffusion de Fick, la perméabilité de Darcy, et les propriétés élastiques sont prédits à l'aide de calculs de champs complets par FFT sur des réalisations des modèles d'alumines mésoporeuses à deux et trois échelles. Les coefficients de diffusion effectifs et les facteurs de tortuosité sont prédits à partir de l'estimation du flux. Sont étudiés les effets de forme, d'alignement et d'agrégation des plaquettes sur les propriétés de diffusion à grande échelle. Les prédictions numériques sont validées au moyen des résultats expérimentaux obtenus par méthode RMN-GCP
In a work made at Centre de Morphologie Mathématique and IFPEN, we study the microstructure and physical properties of mesoporous alumina. This is a catalyst carrier used in the petroleum refining industry. Highly porous, it contains disordered ''platelets'' at the nanoscale. The mass transport properties of the catalyst carrier are strongly influenced by the morphology of the porous microstructure. We focus on the modeling of the microstructure and of transport properties of mesoporous alumina, using numerical and theoretical tools derived from image analysis and random sets models. On the one hand, methods are developed to characterize and model the microstructure, by extracting and combining information from transmission electron microscope (TEM) images and nitrogen porosimetry curves, among others. On the other hand, the numerical homogenization relies on full-field Fourier transform computations (FFT).The material is first characterized experimentally by nitrogen porosimetry and pulse-field gradient nuclear magnetic resonance (PFG-NMR). TEM images, obtained on samples of various thicknesses are filtered and measured in terms of correlation function. The high-frequency noise caused by carbon membrane support is identified and integrated in the TEM image model. Based on the 2D TEM images, a two-scale random set model of 3D microstructure is developed. It takes into account the platelet shape, platelet size, local alignments and aggregations effects which are numerically identified. The procedure is validated by comparing the model and experimental images in terms of correlation function and specific surface area estimated by nitrogen porosimetry.Next, a procedure is proposed to simulate porosimetry isotherms in general porous media, including random microstructures. Based on simple morphological operations, it extends an earlier approach of mercury porosimetry. Multilayer adsorption at low pressure is simulated by a dilation operation whereas the menisci of the vapor-liquid interface occurring during adsorption are simulated by closing the solid phase with spherical structuring elements. To simulate desorption, a combination of closing and hole-filling operations is used. The desorption threshold is obtained from a percolation analysis of the gaseous phase. The method, validated first on simple geometries, is compared to previous results of the literature, allowing us to predict the hysteresis and pore size distribution associated to porosimetry. It is applied on 3D microstructures of mesoporous alumina. To account for the pressure threshold during desorption, we propose a refined three-scale model for mesoporous alumina, that reproduces the correlation function and the desorption branch of porosimetry isotherms.Finally, Fick diffusion, Darcy permeability, and elastic moduli are numerically predicted using the FFT method and the two-scale and three-scale models of mesoporous alumina. The hindering effects in diffusion are estimated by the Renkin's equation. The effective diffusion coefficients and the tortuosity factors are estimated from the flux field, taking into account hindering effects. The effects of platelet shape, alignment and aggregation on the diffusion property are studied. The numerical estimation is validated from experimental PFG-NMR results
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Ghandour, Sarah. "Segmentation d'images couleurs par morphologie mathématique : application aux images microscopiques". Toulouse 3, 2010. http://thesesups.ups-tlse.fr/867.

Texto completo
Resumen
Dans ces travaux de thèse, nous avons proposé une nouvelle méthode de segmentation automatique et non supervisée basée sur la morphologie mathématique. D'abord, l'algorithme de segmentation développé a été appliqué sur une stratégie de segmentation marginale. Cette dernière consiste à segmenter les trois composantes rouge, vert et bleu indépendamment et à les fusionner pour obtenir l'image couleur finale traitée. Ensuite, l'analyse en composante principale (ACP) a été utilisée afin d'optimiser le temps de calcul de l'algorithme de segmentation. Une étape d'extraction d'attributs de formes et de couleurs est réalisée afin de tirer l'information sémantique contenue dans l'image. Les résultats montrent que notre méthode qui ne nécessite aucune connaissance a priori peut être adaptée à plusieurs types d'images de cytologie
Future architectures of communication systems will be more and more complex due to the need for reconfigurability in terms of frequency, emitted and received power, power consumption and reliability. One interesting and very promising technology comes under the name of RF-MEMS. In general MEMS component replaces and outperforms its counterparts. These structures will be yielded to electrostatic and/or electromagnetic strains that it is necessary to investigate and to understand the effects. Besides, power handling of those devices is one of the parameters that qualify its robustness. Since they have shown interesting functionalities for space applications, its sensitivity to radiation needs to be understood. The motivation of the thesis aims at analyzing the impact of those strains in the functional parameters (actuation voltages, switching times, insertion losses, isolation), using an appropriate reliability bench test. Clever analyses of the failure mechanisms that occur after stresses such as DC stress, ESD discharge, RF power qualification and radiation, have been performed. The stresses will be applied on various structures with various architectures and designs, in order to determine the robustness and the reliability of each technology. Finally, the validation and the new findings of these works present one design integrating ESD protection and an accelerated stress test circuit is also proposed. This thesis was being part of the framework of the European Network of Excellence AMICOM on RF Micro-systems where reliability has been defined to be a major challenge to its integration and its commercialization
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Lauffer, Mathieu. "Reconnaissance d'organismes aquatiques envahissants par traitement d'image et imagerie de fluorescence". Thesis, CentraleSupélec, 2015. http://www.theses.fr/2015SUPL0024.

Texto completo
Resumen
Le phytoplancton joue un rôle fondamental dans le monde du vivant. C’est un générateur de dioxygène et le plus important fixateur de dioxyde de carbone sur Terre. Cependant, sous certaines conditions, son développement peut devenir envahissant et il peut être néfaste pour la santé des autres végétaux et animaux aquatiques. Il s’agit du phénomène d’hyper eutrophisation. Ce phénomène peut mener à des conséquences dramatiques pour l’environnement, car il limite les échanges de gaz et le processus de photosynthèse des autres espèces végétales. Dans un cas extrême, ce processus peut causer la mort de tout l’écosystème aquatique. Il apparait donc essentiel de renforcer la vigilance et le contrôle de la prolifération du phytoplancton et notamment de leur toxicité. Dans une première approche la reconnaissance et l’identification des organismes aquatiques, nécessaires pour la surveillance, sont réalisés par des systématiciens par observations microscopiques. Néanmoins, dans certaines circonstances, il peut être utile d’avoir un système automatique de reconnaissance pour améliorer la surveillance et optimiser l’intervention de l’homme. Le développement d’un tel système de reconnaissance des organismes aquatiques est de plus en plus envisagé.Dans l’objectif d’identifier les organismes aquatiques, un système microscopique original a été développé au cours de cette thèse dans lequel les faisceaux incident et émis sont filtrés par bande sélective de longueur d’onde. Ce double système de filtration permet l’acquisition d’images microscopiques classiques et d’images de fluorescence de la matière organique végétale sous différente illumination. Ensuite, les différentes images obtenues sont analysées et traitées par deux algorithmes de segmentation pour extraire des caractéristiques morphologiques et la composition des pigments, utilisées par la suite pour la reconnaissance automatique. Finalement, toutes les caractéristiques associant la morphologie et les données de fluorescence des espèces du phytoplancton, sont réunies dans une base de données permettant la reconnaissance optique et automatique du phytoplancton
Phytoplankton plays a fundamental role in the living world. It is a dioxygen generator and the most important carbon dioxide fixer on Earth. However, under certain conditions, its development may become so excessive that it could be harmful to other vegetal and animal aquatic life in the water ponds in which it grows: it is the “hyper eutrophication” phenomenon. Such a situation leads to dramatic consequences on environment due to the difficulties that arise for photosynthesis and gas exchanges of other plant species. At the extreme limit, this can cause the death of the whole aquatic ecosystem. It appears therefore essential to strengthen the vigilance on controlling the proliferation of plankton and toxins with the necessity of risk evaluation. In a first approach, the recognition and the identification of aquatic organisms, necessary for such a control, are usually performed only by specialists algologists from microscopic observations. Nevertheless, in certain circumstances, it may be useful to dispose of an automatic recognition system to improve the monitoring of high-risk water ponds and optimize human intervention of specialists algologists. The development of such an automatic system of recognition of aquatics organism is more and more considered.In order to identify aquatic organisms, an original optical microscopy set up was developed in which the incident and emitted light beams are filtered in wavelengths. Such a set up enables the acquisition of classical microscopic images and microscopic images of fluorescence emission of the vegetal material under different illumination. These different images are then analyzed and processed by two algorithms of segmentation to collect characteristics data of the vegetals morphology and pigments compositions useful thereafter for their automatic recognition. Finally, all these different characteristic parameters linked to morphology and fluorescence emission of the vegetal species are collected to build a database useful for automatic optical recognition
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Lopez-Ornelas, Erick de Jesus. "Segmentation d'images satellitaires à haute résolution et interaction avec l'information géographique : application à l'extraction de connaissances". Toulouse 3, 2005. http://www.theses.fr/2005TOU30021.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Risson, Valéry. "Application de la morphologie mathématique à l'analyse des conditions d'éclairage des images couleurs". Paris, ENMP, 2001. https://pastel.archives-ouvertes.fr/pastel-00003315.

Texto completo
Resumen
Cette thèse présente des outils d'analyse d'images couleur visant à extraire des informations pertinentes sur les conditions d'éclairage de l'image caractérisant sa composante lumineuse et nous révélant des indices sur son contexte sémantique. Cependant, ces informations ne sont pas directement disponibles à travers les données image. Nous identifions donc des objets sémantiques d'intérêt, dans le cadre de notre problématique, et nous développons les outils nécessaires pour les analyser. Nous nous appuyons sur des modèles physiques d'illumination pour décrire les phénomènes de réflexion lumineuse et comprendre comment ils modifient les données image. Premièrement, nous présentons une approche photométrique de l'analyse des conditions d'éclairage qui s'articule autour d'un outil de détection des ombres. Les ombres permettent de mesurer le contraste de luminance global sur l'image, ce qui donne une indication sur le rapport entre la lumière directe et la lumière ambiante. Pour affiner l'analyse, nous présentons aussi un outil de détection de ciel qui permet d'extraire les conditions météorologiques prévalant au moment de la prise de vue. Deuxièmement, nous présentons une méthode de détection de la chrominance de l'illuminant. La convergence observée sur les surfaces inhomogènes est utilisée pour identifier la chrominance de l'illuminant. L'emploi de la segmentation morphologique couleur permet d'effectuer un découpage de l'image en zones homogènes en couleur et en luminance; chaque région correspond à une réflectance spectrale uniforme. Ensuite, un filtrage élimine les régions qui ne vérifient pas les hypothèses sousjacentes au modèle de réflexion dichromatique. Enfin, à partir des convergences chromatiques calculées sur chaque région, on détermine le point de convergence le plus probable. C'est le point correspondant aux coordonnées chromatiques de la chrominance de l'illuminant.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Ruggieri, Vito Giovanni. "Analyse morphologique des bioprothèses valvulaires aortiques dégénérées par segmentation d'images TDM". Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00768495.

Texto completo
Resumen
Le but de cette étude est d'évaluer la faisabilité de l'analyse tomodensitométrique 3D des bioprothèses aortiques pour faciliter leur évaluation morphologique durant le suivi et d'aider à la sélection des cas et à l'amélioration de la planification d'une procédure valve-in-valve. Le principal défi concernait le rehaussement des feuillets valvulaires, en raison d'images très bruitées. Un scanner synchronisé était réalisé chez des patients porteurs d'une bioprotèse aortique dégénérée avant réintervention (images in-vivo). Différentes méthodes pour la réduction du bruit étaient proposées. La reconstruction tridimensionnelle des bioprothèses était réalisée en utilisant des méthodes de segmentation de régions par "sticks". Après ré-opération ces méthodes étaient appliquées aux images scanner des bioprothèses explantées (images ex-vivo) et utilisées comme référence. La réduction du bruit obtenue par le filtre stick modifié montrait de meilleurs résultats, en rapport signal/bruit, en comparaison aux filtres de diffusion anisotrope. Toutes les méthodes de segmentation ont permis une reconstruction 3D des feuillets. L'analyse qualitative a montré une bonne concordance entre les images obtenues in-vivo et les altérations des bioprothèses. Les résultats des différentes méthodes étaient comparés par critères volumétriques et discutés. Les images scanner des bioprothèses aortiques nécessitent un traitement de débruitage et de réduction des artéfacts de façon à permettre le rehaussement des feuillets prothétiques. La méthode de segmentation de régions par sticks semble représenter une approche pertinente pour caractériser morphologiquement la dégénérescence des bioprothèses.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Outal, Souhail. "Quantification par analyse d'images de la granulométrie des roches fragmentées : amélioration de l'extraction morphologique des surfaces, amélioration de la reconstruction stéréologique". Paris, ENMP, 2006. http://www.theses.fr/2006ENMP1355.

Texto completo
Resumen
Cette recherche s'inscrit dans le cadre général du contrôle de qualité des processus utilisés en production minière, tels que le tir à l'explosif, le broyage et le concassage. Elle s'intéresse plus particulièrement à la quantification par traitement d'images de la granulométrie des roches fragmentées. Globalement, les développements menés portent sur l'amélioration des deux étapes les plus déterminantes de la mesure : l'extraction des contours des fragments de roches dans l'image (2D) et la reconstruction de la courbe granulométrique en volume (étape de stéréologie, 3D). Actuellement, le tamisage (ou plus exactement le criblage) est le moyen le plus utilisé pour la mesure de la granulométrie des roches fragmentées. Il constitue la référence actuelle de la mesure. En conséquence, toute mesure établie par traitement d'images sera validée sur la base des résultats du tamisage. En ce qui concerne l'étape d'extraction les contours de fragments, le problème majeur qui se pose est celui du filtrage correct du bruit présent dans l'image. Dans un premier temps, de nouveaux outils de filtrage, basés sur les transformations morphologiques résiduelles, assez puissants et adaptés au cas des images de fragments de roches sont introduits et évalués. Dans un second temps, les surfaces des fragments sont extraites grâce à une segmentation de l'image, basée sur une ligne de partage des eaux contrôlées par les marqueurs extraits des filtrages. La robustesse et l'automatisation de la démarche sont validées sur plusieurs cas d'images de fragments de roches. Le second problème abordé dans cette recherche est celui de la reconstruction de la courbe granulométrique en volume à partir des surfaces extraites par traitement d'images. Afin d'éviter l'occurrence de nombreux biais liés à cette étape, nous proposons un découpage en deux sous-problèmes et ce en fonction de la disposition des matériaux analysés (tas abattu, camion, convoyeur à bande). Enfin les résultats obtenus dans cette recherche pour les fragments en vrac mais aussi pour d'autres types d'images d'éléments granulaires, nous ont permis d'envisager d'ores et déjà une valorisation aussi bien auprès de l'industrie minérale et aussi dans d'autres domaines tels que l'agralimentaire, pharmaceutiques, cimenteries….
This research deals with a more general context of the quality control for some important operations in minig production, predominantly blasting, crushing and grinding. It is interested more in the granulometry quantification of the fragmented rocks by using image processing. In general, the developement work is mainly related to the improvment of two most important stages of measurement : the contours extraction of the fragments at the image (2D) and the rebuilding of the 3D size-distribution-curve ( stage of stereology,3D). Nowadays, screening ( or more general the sifting)is the most used and important process for measuring the granulometry of the fragmented rocks. It is therfore considered as the current reference of measurement. Consequently, any measurement established by image processing will then be valited on the basis of screening's result. With regard to the stage of contours extraction of fragments, the major problem is how to determine the correct filtering of the noise at the image. First of all, new tools for filtering, based on the residual morphological transformations and rather powerful and adapted to the case of fragment images of rocks, are introduced and evaluated. The study undertaken on grey level images, approaches the various aspects of the noise problems from a topographic point of view. Surfaces of fragments are then extracted carefully with the help of a segmentation of the image. The extraction process is principally based on the construction of a watershed controlled by the markers, which are extracted by filtering. The robustness and the automation of the step are afterward validated for sevarl case of images of rocks fragments. The second problem carried out in this rsearch is the rebuilding of 2D size-distribution-curve starting from the surfaces extracted by image processing. In order to avoid the interference of many skews related to this stage, we recommand to separate the problem into two subproblems according to the origin of analysed materials (cut down heap, truck, belt conveyor). Finally, the results obtained in this research for the case of the fragments of rocks as well as for oher type of images of granaular elements, enable us presently to consider a valorisation not only for mineral industry but also for other fields such as the agro industry, the pharmaceutical industry and cement factories
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Ye, Haixiong. "Impact des transformations algorithmiques sur la synthèse de haut niveau : application au traitement du signal et des images". Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-01061200.

Texto completo
Resumen
La thèse porte sur l'impact d'optimisations algorithmiques pour la synthèse automatique HLS pour ASIC. Ces optimisations algorithmiques sont des transformations de haut niveau, qui de part leur nature intrinsèque restent hors de porter des compilateurs modernes, même les plus optimisants. Le but est d'analyser l'impact des optimisations et transformations de haut niveau sur la surface, la consommation énergétique et la vitesse du circuit ASIC. Les trois algorithmes évalués sont les filtres non récursifs, les filtres récursifs et un algorithme de détection de mouvement. Sur chaque exemple, des gains ont été possibles en vitesse et/ou en surface et/ou en consommation. Le gain le plus spectaculaire est un facteur x12.6 de réduction de l'énergie tout en maitrisant la surface de synthèse et en respectant la contrainte d'exécution temps réel. Afin de mettre en perspective les résultats (consommation et vitesse), un benchmark supplémentaire a été réalisé sur un microprocesseur ST XP70 avec extension VECx, un processeur ARM Cortex avec extension Neon et un processeur Intel Penryn avec extensions SSE.
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Luengo, Lydie. "Développement de méthodes d’analyse d’images dédiées à la caractérisation morphologique et nano structurale des noirs de carbone dans les matrices polymères". Thesis, Orléans, 2017. http://www.theses.fr/2017ORLE2038.

Texto completo
Resumen
Pour la confection des matériaux polymères à base de caoutchouc, le noir de carbone (NC) reste la charge renforçante la plus utilisée. Sa caractérisation morphologique et nano structurale est essentielle dans la maitrise des propriétés physico-chimiques qu’il confère aux matériaux auxquels il est mélangé. Les analyses classiques ne permettent d’accéder que de façon indirecte et incomplète à ces propriétés. Cette thèse propose une méthode de caractérisation innovante par le couplage d’un détecteur STEM (Scanning Transmission Electron Microscopy) et d’une chaine d’analyse d’images complètement automatique pour identifier les types de NC. Une étude statistique approfondie d’une centaine de caractéristiques morphologiques et structurales des NC a été réalisée sur les 6000 images STEM acquises. Cette étude a permis d’introduire 7 nouveaux descripteurs et de sélectionner les 37 descripteurs les plus discriminants pour la création du modèle d’identification. Pour rendre le processus le plus automatique possible, un algorithme de segmentation non supervisé a été développé et évalué. Cinq classifieurs ont ensuite été entraînés et comparés sur une base de près de 65000 agrégats. Le modèle le plus adapté s’avère les réseaux de neurones avec une identification des NC avoisinant les 100%. L’identification étant réalisée à partir de projections 2D des agrégats via les images STEM, une confrontation statistique valide la capacité des descripteurs 2D à caractériser la structure tridimensionnelle des NC observée par tomographies électroniques. L'approche complète proposée, depuis le protocole de préparation des échantillons et l'acquisition d'images STEM jusqu'à leur classification en passant par les étapes d'analyse d'images, offre une nouvelle méthode de caractérisation fiable des NC (à l’état natif ou au sein de mélanges élastomères) exploitable en routine
In the field of rubber material development, CB is the most commonly used reinforcing filler. The characterization of CB morphology and nanostructure is therefore crucial to understand the physicochemical properties induced by the introduction of CB in rubber materials. Classical analytical methods only allow indirect and incomplete access to these properties. This PhD offers an innovative method that allows the automatic identification of CB grades by coupling Scanning Transmission Electron Microscopy (STEM) detector and image processing chain. A thorough statistical investigation over a hundred of morphological and structural characteristics of CB was performed on a set of 6000 STEM images. This study has introduced 7 new features and selected the 37 most discriminating descriptors to create the final model. An unsupervised segmentation algorithm has been developed and evaluated in order to build an automatic process as efficient as possible. Then, five classifiers were trained and compared on a base of nearly 65,000 aggregates. It appears that the most suitable descriptor is the Neuron networks as it gives a perfect recognition. As the recognition model is based on 2D projections of CB aggregates, it is necessary to verify that the chosen descriptors are indeed able to correctly characterize the three dimensional structure of CB. The statistical comparison of the 2D descriptors with 3D descriptors extracted from electronic tomography images has been successful, and therefore demonstrates the relevance of the model. The proposed approach, starting from the sample preparation and STEM acquisitions to their classification and through the image analysis steps, offers a new and innovative method for the reliable characterization of CB. This method can be used routinely on raw CB or CB extracted from vulcanizes rubbers
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Cros, Hervé. "Caractérisation morphologique des microstructures de matériaux cimentaires par analyse d'images". Toulouse 3, 1996. http://www.theses.fr/1996TOU30190.

Texto completo
Resumen
L'objectif de ce travail est d'etablir les bases d'une caracterisation morphologique quantitative de constituants de materiaux cimentaires. L'analyse d'images est l'outil approprie pour y parvenir. Parmi les methodes d'analyse d'images utilisees en science des materiaux, les plus adequates ont ete retenues et adaptees a trois themes d'application: ? les mesures granulometriques bidimensionnelles realisees a partir de l'operateur morphologique ouverture bidimensionnelle ont ete validees. Une methode de resolution matricielle basee sur l'ajustement par les moindres carres a permis, dans le cas d'ensembles de spheres, de passer de la granulometrie en projection ou en coupe a la granulometrie 3d. ? l'evaluation des teneurs a ete abordee par une double demarche: une methode originale de traitement d'echantillons de pate fraiche de ciment par cryosublimation, associee a une impregnation de resine a permis la realisation d'observations au meb. L'acquisition automatique de 2000 images et leur traitement approprie ont conduit a la caracterisation quantitative d'arrangements granulaires 2d tres interconnectes. Une simulation numerique 3d resultant de l'application d'un modele booleen de spheres molles s'interpenetrant a ete realisee. La granulometrie 2d d'une coupe de ce modele a ete comparee aux resultats experimentaux de la methode precedente. La correlation est bonne. Par ailleurs, l'application a l'etude du suivi de l'hydratation d'une pate de ciment a ete effectuee. Les resultats sont assez bien correles avec ceux des methodes classiques (eau liee, chaleur d'hydratation). ? la forme et la rugosite de surface d'elements de milieux pulverulents ont ete caracterisees. Une application relative a des cendres volantes est presentee
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Balbastre, Yaël. "Développement et validation d’outils pour l’analyse morphologique du cerveau de Macaque". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS333/document.

Texto completo
Resumen
La compréhension des mécanismes impliqués dans les maladies neurodégénératives ou développementales ainsi que la mise en place de nouvelles approches thérapeutiques reposent sur l’utilisation de modèles expérimentaux pertinents et de techniques d’imagerie adaptées. Dans ce contexte, l’IRM est un outil de choix pour l’exploration anatomique in vivo dans la mesure où elle permet d’effectuer un suivi longitudinal. Le succès translationnel des thérapies du laboratoire au patient repose sur une bonne caractérisation des modèles et une continuité des biomarqueurs utilisés. Or, si l'IRM est disponible en préclinique et en clinique, les outils d'analyse sont peu « génériques ». Au cours de cette thèse, en s'inspirant des travaux menés chez l'Homme, nous avons développé et validé des outils automatiques de segmentation des structures neuroanatomiques chez le Macaque. La méthode proposée repose sur la mise en registre avec l'IRM du sujet d'un atlas digital probabiliste suivi de l'optimisation d'un modèle statistique par mélanges de gaussiennes et champs aléatoires de Markov. Elle a été validée chez un ensemble de sujets sains adultes puis mise en application dans le contexte du développement néonatal normal du cerveau. Afin de poser les bases d'une évaluation permettant une comparaison des biomarqueurs IRM avec les biomarqueurs post mortem de référence, nous avons également mis au point une chaîne de traitement permettant la reconstruction 3D de volumes histologiques du cerveau de Macaque et l'avons appliqué à la caractérisation du contraste IRM au cours d'une greffe de cellules souches après lésion excitotoxique
Understanding the mechanisms involved in neurodegenerative or developmental diseases and designing new therapeutic approaches are based on the use of relevant experimental models as well as appropriate imaging techniques. In this context, MRI is a prominent tool for in vivo investigation as it allows for longitudinal follow-up. Successful translation from bench to bedside calls for well-characterized models as well as transferable biomarkers. Yet, despite the existence of both clinical and preclinical scanners, analysis tools are hardly translational. In this work, inspired by standards developed in Humans, we've built and validated tools for the automated segmentation of neuroanatomical structures in the Macaque. This method is based on the registration of a digital probabilistic atlas followed by the fitting of a statistical model consisting of a gaussian mixture and Markov random fields. It was first validated in healthy adults and then applied to the study of neonatal brain development. Furthermore, to pave the way for comparisons with gold standard post mortem biomarkers, we developed a pipeline for the automated 3D reconstruction of histological volumes that we applied to the characterization of MRI contrast in a stem-cell graft following an excitotoxic lesion
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Primot, Laurence. "Contribution de la morphologie mathématique à la reconnaissance automatique de circuits intégrés : application à des images de microscopie". Montpellier 2, 1989. http://www.theses.fr/1989MON20252.

Texto completo
Resumen
Cette these s'inscrit dans un contexte de test et de caracterisation de circuits integres. Elle propose une contribution au developpement d'un systeme d'inspection visuelle en microelectronique par le biais de la vision par ordinateur. L'auteur en decrit les outils et les methodes, et presente la morphologie mathematique en tant que technique d'analyse d'images. Cette etude porte sur la mise en uvre de methodes de reconnaissance d'un circuit integre a partir d'images de microscopie optique. Les concepts de la morphologie mathematique sont appliques a la segmentation du circuit en ses differentes composantes (niveaux de fabrication, interconnexions), puis a sa description geometrique (contours des pistes). Les algorithmes proposes contribuent a la detection de defauts de localisation et de caracterisation par comparaison a une base de connaissances a priori, et de defauts geometriques par reference a des dessins de masques de conception
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Ducottet, Christophe. "Ondelettes, analyse de singularités lissées et traitement d'hologrammes numériques de micro-particules". Habilitation à diriger des recherches, Université Jean Monnet - Saint-Etienne, 2003. http://tel.archives-ouvertes.fr/tel-00511234.

Texto completo
Resumen
Les travaux présentés dans ce mémoire se répartissent en deux principaux thèmes : l'analyse de singularités par ondelettes et le traitement numérique d'hologrammes. Pour effectuer des mesures sur les images il peut être utile de rechercher des formes particulières ou des primitives élémentaires telles que des points, des contours, les droites,... En pratique, de part la nature des images rencontrées dans les applications, ces primitives n'apparaissent pas nettement à cause de la présence de bruit ou de flou. Il convient alors de définir des opérateurs de détection adaptés capables d'obtenir de bonnes performances dans ces conditions. Nous montrons comment, à partir d'un modèle de singularités lissées, l'analyse en ondelettes permet de répondre à cette problématique. Deux opérateurs sont alors présentés : un opérateur de détection de points caractéristiques et un opérateur de détection de contours. Ces opérateurs sont capable d'estimer les caractéristiques locales de chaque point détecté (type, amplitude et degré de flou) en adaptant l'échelle de détection au degré de flou. Nous présenterons également des applications traitées dans le cadre de l'imagerie en mécanique des fluides et l'imagerie biomédicale. Pour obtenir des mesures tridimensionnelles en tous les points d'un volume de mesure, la technique de référence est l'holographie. Cette technique a été appliquée à l'analyse des écoulements dès les années 70, en utilisant des plaques photosensibles comme support de stockage de l'information. Depuis quelques années, grâce au développement des capteurs CCD et des techniques de traitement numérique, l'holographie numérique a pu être utilisée pour des mesures quantitatives tridimensionnelles. Le travail que nous présentons dans le deuxième thème, se place dans le contexte du traitement d'hologrammes numériques en vue de mesurer la position, la taille, ou la vitesse d'un ensemble de particules enregistrées sur cet hologramme. En faisant le lien avec les ondelettes et l'analyse de singularités lissées, nous proposons d'abord une fonction de restitution adaptée à la localisation axiale des particules. Nous déduisons ensuite une technique d'inter-corrélation permettant la mesure du champ de déplacement des particules.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Franchi, Gianni. "Machine learning spatial appliquée aux images multivariées et multimodales". Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM071/document.

Texto completo
Resumen
Cette thèse porte sur la statistique spatiale multivariée et l’apprentissage appliqués aux images hyperspectrales et multimodales. Les thèmes suivants sont abordés :Fusion d'images :Le microscope électronique à balayage (MEB) permet d'acquérir des images à partir d'un échantillon donné en utilisant différentes modalités. Le but de ces études est d'analyser l’intérêt de la fusion de l'information pour améliorer les images acquises par MEB. Nous avons mis en œuvre différentes techniques de fusion de l'information des images, basées en particulier sur la théorie de la régression spatiale. Ces solutions ont été testées sur quelques jeux de données réelles et simulées.Classification spatiale des pixels d’images multivariées :Nous avons proposé une nouvelle approche pour la classification de pixels d’images multi/hyper-spectrales. Le but de cette technique est de représenter et de décrire de façon efficace les caractéristiques spatiales / spectrales de ces images. Ces descripteurs multi-échelle profond visent à représenter le contenu de l'image tout en tenant compte des invariances liées à la texture et à ses transformations géométriques.Réduction spatiale de dimensionnalité :Nous proposons une technique pour extraire l'espace des fonctions en utilisant l'analyse en composante morphologiques. Ainsi, pour ajouter de l'information spatiale et structurelle, nous avons utilisé les opérateurs de morphologie mathématique
This thesis focuses on multivariate spatial statistics and machine learning applied to hyperspectral and multimodal and images in remote sensing and scanning electron microscopy (SEM). In this thesis the following topics are considered:Fusion of images:SEM allows us to acquire images from a given sample using different modalities. The purpose of these studies is to analyze the interest of fusion of information to improve the multimodal SEM images acquisition. We have modeled and implemented various techniques of image fusion of information, based in particular on spatial regression theory. They have been assessed on various datasets.Spatial classification of multivariate image pixels:We have proposed a novel approach for pixel classification in multi/hyper-spectral images. The aim of this technique is to represent and efficiently describe the spatial/spectral features of multivariate images. These multi-scale deep descriptors aim at representing the content of the image while considering invariances related to the texture and to its geometric transformations.Spatial dimensionality reduction:We have developed a technique to extract a feature space using morphological principal component analysis. Indeed, in order to take into account the spatial and structural information we used mathematical morphology operators
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Lerallut, Romain. "Modélisation et interprétation d'images à l'aide de graphes". Phd thesis, École Nationale Supérieure des Mines de Paris, 2006. http://pastel.archives-ouvertes.fr/pastel-00003298.

Texto completo
Resumen
L'analyse et la comparaison intelligentes d'images sont parmi les sujets suscitant le plus d'intérêt dans les milieux académiques autant qu'industriels. Décrire et comparer automatiquement les images est en effet un enjeu critique pour le plein développement de la «société de l'information». Les moteurs de recherche fonctionnant sur le texte ont prouvé leur utilité de façon éclatante mais à l'heure actuelle il n'existe aucun système équivalent fonctionnant uniquement sur les images. Une explication possible est que nous ne disposons pas de langage permettant de décrire les images et que les comparaisons pertinentes sont ainsi beaucoup plus difficiles que dans le cas du texte. Cependant, le cas du texte nous montre qu'il n'est pas nécessaire que les machines comprennent ce qu'elles analysent pour renvoyer des résultats pertinents. Des méthodes simples d'analyse syntaxique associées à des règles de composition suffisent à piloter des moteurs de recherche d'une grande efficacité. Pour permettre à des machines de simuler l'interprétation des images, il faudrait donc créer des descripteurs faisant office de mots et des règles pour les regrouper, ce qui permettrait de comparer des scènes comme on compare des phrases. On dispose d'ores et déjà de nombreuses méthodes pour détecter automatiquement de petits objets et des régions dans des images, par leur couleur commune, leur mouvement identique, etc. Poursuivant l'analogie, on pourrait comparer ces petits objets à des syllabes. La difficulté consiste à les grouper en mots, puis en phrases et comparer celles-ci, tout en étant robuste face aux perturbations. Pour ce faire, nous utilisons des graphes pour stocker ces objets et leurs relations. Ces relations peuvent être de voisinage ou d'inclusion, ce qui conduit les graphes à être respectivement des graphes plans ou des arbres. Nous verrons ainsi plusieurs méthodes permettant de construire l'un ou l'autre type de représentation, ainsi que leurs avantages et inconvénients. Dans une première étape, nous avons utilisé les algorithmes d'appariement de graphes développés par Cristina Gomila à la fin de sa thèse au CMM (1998-2001). Profitant du projet européen MASCOT étudiant l'utilisation de «métadonnées» pour faciliter le codage vidéo, nous avons étudié en détail les forces et faiblesses de cette approche. Nous avons d'abord testé le remplacement de l'algorithme au coeur de l'appariement de graphes. Nous avons obtenu une légère amélioration de la stabilité et également de meilleurs temps de calcul. Puis nous avons cherché à améliorer notre robustesse face aux variations de segmentation en utilisant une projection dans le domaine spectral. Malgré de bons résultats sur des images simples, nos essais sur des images plus difficiles n'ont pas été couronnés de succès. Pour pallier cette fragilité dès que les graphes ne sont plus similaires, nous avons préféré revenir à notre matériau source, les images. La seconde étape de ce travail a porté sur le développement de techniques basées sur l'image pour réduire la sensibilité de nos algorithmes de segmentation au bruit et aux petites variations. Pour ce faire, nous avons développé une classe d'opérateurs de filtrage adaptatifs, les «amibes morphologiques », extrêmement efficaces pour réduire le bruit dans les images. Par ailleurs, nous avons également développé un opérateur de gradient couleur robuste permettant de mieux détecter les contours dans les images bruitées. Ces deux opérateurs ont amélioré de façon parfois impressionnante la stabilité de nos modélisations, puis de nos graphes et donc des résultats globaux. L'étape suivante dans ce travail a porté sur le développement de modélisations d'objets indépendamment du reste de l'image. La motivation derrière cette approche est de considérer que, dans certains scénarios, le contenu de l'image, hors de certains objets bien définis, n'est pas informatif. Il faut donc analyser directement et de la façon la plus précise possible les objets eux-mêmes. Nous avons dans un premier temps supposé que les segmentations des objets étaient connues, afin de nous concentrer sur le calcul d'une signature robuste de chaque objet. Pour l'obtenir, nous avons modifié un algorithme de ligne de partage des eaux pour effectuer une resegmentation «top-down» d'un espace d'échelle morphologique basé sur des nivellements. Ceci a donné lieu à une nouvelle modélisation robuste utilisant des arbres de régions imbriquées. Nous avons également développé une distance entre ces arbres et nous l'avons testée sur une base d'images classique dans le domaine de l'indexation. La dernière étape est centrée sur l'aspect applicatif. En premier lieu en comparant les différentes approches présentées dans ce travail, notamment aux niveaux de leur robustesse et de leur vitesse d'exécution. Enfin, nous avons cherché la meilleure combinaison de techniques pour concevoir une application de vidéosurveillance. En particulier, nous avons développé des techniques rapides et robustes de segmentation dans le cadre du projet PS26-27 «Environnement Intelligent» en collaboration avec ST Microelectronics et le groupe ORION de l'INRIA. Ce projet visait à construire un démonstrateur de technologies de vidéosurveillance appliquées à la détection d'accidents dans les cadres domestique et hospitalier. Notre part du travail consistait à la mise au point d'algorithmes de détection de silhouettes en mouvement dans des séquences vidéo. Ainsi, en couplant ces techniques à nos descripteurs d'objets par arbres, nous avons pu définir des signatures robustes de personnes, qui pourront être utilisées avec un grande efficacité dans des systèmes automatisés de vidéosurveillance.
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

González, Obando Daniel Felipe. "From digital to computational pathology for biomarker discovery". Electronic Thesis or Diss., Université Paris Cité, 2019. http://www.theses.fr/2019UNIP5185.

Texto completo
Resumen
L'histopathologie a pour objectif d'analyser des images de tissus biologiques pour évaluer l’état pathologique d'un organe et établir un diagnostic. L'apparition des scanners de lames a haute résolution a ouvert la voie a des nouvelles possibilités d'acquisition de très grandes images (whole slide imaging), de multiplexage de marquages, d'extraction exhaustive d'informations visuelles et d'annotations multiples a large échelle. Cette thèse propose un ensemble de méthodes algorithmiques visant a faciliter et optimiser ces différents aspects. Dans un premier temps, nous proposons une méthode de recalage multiculturelle d'images histologiques multi-marquées reposant sur les propriétés des B-splines pour modéliser, de fawn continue, une image discrète. Nous proposons ensuite de nouvelles approches d'analyse morphologique sur des polygones faiblement simples, généralisés par des graphes a segments droits. Elles reposent sur le formalisme des squelettes droits (une approximation de squelettes courbes définis par des segments droits), construits a l'aide de graphes de motocyclettes. Cette structure permet de réaliser des opérations de morphologie mathématiques sur des polygones avec une complexité réduite. La précision des opérations sur des polygones bruites est obtenue en raffinant la construction des squelettes droits par ajout adaptatif de sommets. Nous avons aussi propose un algorithme de détection de l'axe médian et montre qu'il est possible de reconstruire la forme d'origine avec une approximation arbitraire. Enfin, nous avons explore les squelettes droits pondérés qui permettent des opérations morphologiques directionnelles. Ces approches d'analyse morphologique offrent un support consistant pour améliorer la segmentation des objets grâce a l'information contextuelle et réaliser des études liées a l'analyse spatiale des interactions entre les différentes structures d’intérêt au sein du tissu. Tous les algorithmes proposes sont optimises pour le traitement d'images gigapixels et garantissent une reproductibilité des analyses, notamment grâce a la création du plugin Icytomine, interface entre Icy et Cytomine
Histopathology aims to analyze images of biological tissues to assess the pathologi¬cal condition of an organ and to provide a diagnosis. The advent of high-resolution slide scanners has opened the door to new possibilities for acquiring very large im¬ages (whole slide imaging), multiplexing stainings, exhaustive extraction of visual information and large scale annotations. This thesis proposes a set of algorith¬mic methods aimed at facilitating and optimizing these different aspects. First, we propose a multi-scale registration method of multi-labeled histological images based on the properties of B-splines to model, in a continuous way, a discrete image. We then propose new approaches to perform morphological analysis on weakly simple polygons generalized by straight-line graphs. They are based on the formalism of straight skeletons (an approximation of curved skeletons defined by straight segments), built with the help of motorcycle graphs. This structure makes it possible to perform mathematical morphological operations on polygons. The precision of operations on noisy polygons is obtained by refining the construction of straight skeletons. We also propose an algorithm for computing the medial axis from straight skeletons, showing it is possible to approximate the original polygonal shape. Finally, we explore weighted straight skeletons that allow directional mor¬phological operations. These morphological analysis approaches provide consistent support for improving the segmentation of objects through contextual information and performing studies related to the spatial analysis of interactions between dif¬ferent structures of interest within the tissue. All the proposed algorithms are optimized to handle gigapixel images while assuring analysis reproducibility, in particular thanks to the creation of the Icytomine plugin, an interface between Icy and Cytomine
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Musa, Purnawarman. "Etude, conception et réalisation d'un capteur d'image en technologie CMOS : implantation d'opérateurs analogiques dans le plan focal pour le traitement non-linéaire des images". Thesis, Dijon, 2013. http://www.theses.fr/2013DIJOS039.

Texto completo
Resumen
Les capteurs d'images en technologie CMOS se sont fortement développés grâce à l'avènement du multimédia à la fin des années 1990. Leurs caractéristiques optiques, ainsi que leur coût, les ont, en effet, destinés au marché “grand public”. Ces capteurs intègrent des fonctions analogiques et/ou numériques qui permettent la mise en œuvre de traitements au sein du pixel, autour du pixel, pour un groupe de pixels, en bout de colonne. Jusqu’à présent, les traitements intégrés dans le capteur sont de nature linéaire et consistent en général à réaliser des convolutions. Si ces traitements sont incontournables dans une chaîne de vision, ils sont toutefois limités et ne permettent pas à eux seuls de réaliser une application complexe du type reconnaissance d’objets dans une scène naturelle. Pour cela, des traitements non-linéaires associés à des classifieurs haut-niveau permettent de compléter les traitements linéaires en vue de répondre aux contraintes d’une application complexe. Dans ce contexte, nous montrons que les approches “mathématique-inspirées” et “neuro-inspirées” nécessitent toutes deux l'emploi de traitements non-linéaires basés sur les opérateurs "min" et "max". De ce fait, nous proposons un modèle architectural permettant d'intégrer dans le plan focal les traitements non-linéaires. Ce modèle est basé sur une topologie de PEs 4-connexes et présente un double avantage par rapport aux solutions classiques. D'une part pour ce qui concerne l'augmentation de la vitesse d'exécution des traitements non linéaires mais aussi pour les aspects de réduction de la consommation qui sont liés aux nombres d'accès aux mémoires externes dans le cas des systèmes numériques. Le circuit NLIP (Non Linear Image processing) qui a été conçu durant cette thèse comporte 64 x 64 pixels associés à 64 x 64 processeurs analogiques élémentaires. Chaque pixel a une taille de 40 m de côté et présente un facteur de remplissage de 18% ce qui garantit une bonne sensibilité. La fabrication du circuit a été réalisée en technologie CMOS 0.35 m et les tests fonctionnels réalisés ont permis de valider le modèle de rétine proposé
CMOS images sensors have grown significantly since the late 1990s in connection with the huge developments of multimedia applications. Their optical characteristics, as well as their cost, have, in fact targeted for the consumer market. These sensors include analog and / or digital functions that allow the implementation of treatments within the pixel around the pixel, for a group of pixels in the end of column. Until now, processing inside the sensor.Until now, image processing inside the CMOS sensor are linear and based on convolutions. If these treatments are essential in a chain of vision, they are however limited and do not allow themselves to make a complex application like objects recognition in a natural scene. For this, non-linear associated with high-level classifiers can complete linear processing to meet the demands of a complex application. In this context, we show that “mathematically inspired” and “neuron-inspired” approaches both require the use of non-linear operators based on the “min” and “max” treatments. Therefore, we propose an architectural model for integrating non-linear processes in the focal plane. This model is based on a topology of “4-connected” PE and has two advantages over conventional solutions. Firstly with regard to increasing the speed of execution of nonlinear treatments but also aspects of reduced consumption are related to access to external memory in the case of digital based systems. The NLIP circuit (Non Linear Image Processing), which was designed during this thesis has 64 x 64 pixels associated with 64 x 64 elementary analog processors. Each pixel has a size of 40 m from the side and has a fill factor of 18%, which ensures a good sensitivity. The fabrication of the circuit was carried out in CMOS technology 0.35 m and functional tests were used to validate the proposed model retina
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Parmentier, Alain. "Acquisition de cartes denses pour la génération et le contrôle de formes vestimentaires". Valenciennes, 1994. https://ged.uphf.fr/nuxeo/site/esupversions/96d52b8e-37f9-4146-8eaf-405f79a9426f.

Texto completo
Resumen
Cet expose concerne une application au contrôle de formes vestimentaires en confection. Un premier chapitre décrit des aspects liés au cadre d'application. L'élasticité, la souplesse des formes vestimentaires interdisent tout contrôle impliquant des palpeurs mécaniques. Un second chapitre consacre un état de l'art a des méthodes optiques ou ultrasonores. Un plan de traçage optique est retenu afin de contrôler des régions vestimentaires, à lentes variations de courbure et a réflectances lambertiennes. La pupille de sortie du montage, qui élargit un faisceau laser en un plan lumineux, s'apparente à une fente fine qui diffracte à l'infini. Décrit dans un troisième chapitre, le protocole expérimental présente plus particulièrement un atelier photographique, un calibre de formes et des modes d'habillage adaptés aux comportements textiles des tissus étudiés. Malgré un faible équipement, la production photographique est adaptée a des contraintes spécifiques. Un quatrième chapitre présente des outils de contrôle photographique et d'analyse d'images. La granularité laser affecte les images des motifs de lumière structurée. Localement, l'image de la trace du plan laser est identifiée par une corde. Cette approximation implique une discrimination radiométrique selon une loi statistique. Un filtrage morphologique permet d'isoler efficacement les images des motifs de lumière structurée. Un cinquième chapitre présente un environnement industriel logiciel requis par la conduite d'une application prototype, une évaluation expérimentale en fonction d'états de surfaces vestimentaires et des perspectives de développement. Indépendamment de leurs états de surfaces, le contrôle de formes vestimentaires dépend de spécifications morphologiques appropriées à des types de vêtements.
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Lefèvre, Sébastien. "Approches multivaluées et supervisées en morphologie mathématique et applications en analyse d'image". Habilitation à diriger des recherches, Université de Strasbourg, 2009. http://tel.archives-ouvertes.fr/tel-00515901.

Texto completo
Resumen
Ce mémoire présente une synthèse des activités de recherche en morphologie mathématique menées au LSIIT (UMR 7005 CNRS–UDS) depuis 2003. La morphologie mathématique est une théorie introduite il y a quarante ans par les chercheurs français Georges Matheron et Jean Serra. Elle connaît depuis un vif succès dans la communauté de l'analyse et du traitement des images, puisqu'elle permet l'analyse des structures spatiales (le plus souvent au travers d'un voisinage défini par le terme d'élément structurant) dans un cadre non-linéaire. Son application aux images binaires et aux images en niveaux de gris s'effectue très simplement en s'appuyant sur la théorie des ensembles ou mieux, celle des treillis. Cependant, son extension au cas des images multivaluées (où chaque pixel est représenté par un vecteur et non plus par un scalaire) n'est pas triviale et reste un problème ouvert. Ainsi, nous nous sommes intéressés aux approches morphologiques vectorielles basées sur des ordres totaux (aux fondements théoriques les plus valides), en cherchant à atténuer, à l'aide de différentes méthodes de quantification, leur caractère fortement asymétrique afin de mieux exploiter l'ensemble des données disponibles. Nous avons également étudié une autre stratégie consistant à éviter l'appel explicite à un ordre vectoriel, et à décomposer l'image en un ensemble de composantes binaires ou à niveaux de gris, traitées indépendemment ou conjointement. Indépendamment de la nature des images considérées, la création des systèmes d'analyse d'image par morphologie mathématique nécessite le plus souvent une expertise du domaine et une connaissance très fine du problème pour pouvoir choisir, combiner, et paramétrer les opérateurs morphologiques à bon escient. De ce fait, les méthodes morphologiques ne peuvent généralement pas être réutilisées dans un contexte différent de celui pour lequel elles ont été élaborées, et ne respectent que très peu la contrainte de généricité souhaitée en analyse d'image. Ce problème n'est bien sûr pas spécifique à la morphologie mathématique et est récurrent en traitement d'image, et nous l'avons abordé selon deux axes principaux. D'une part, nous avons étudié les connaissances pouvant être formalisées au sein des éléments structurants dans le contexte de la détection d'objet. D'autre part, nous avons exploité des procédures de classification supervisée (où des ensembles d'apprentissage sont fournis par l'expert) ou non-supervisée (où seul le nombre d'objets ou de classes d'intérêt est connu) au sein du processus de segmentation d'image en régions. L'objectif sous-jacent à ces travaux fondamentaux est d'aboutir à terme à des approches morphologiques multivaluées et guidées par les connaissances, aptes à traiter tout type d'information, dans tout contexte. Nous avons donc cherché à appliquer ces développements théoriques et méthodologiques dans différents domaines, en particulier l'analyse d'images couleur (dans un but d'annotation et de recherche par le contenu), ainsi que la télédétection (à très haute résolution spatiale) et l'imagerie astronomique (où les données peuvent être particulièrement bruitées). Ces domaines d'application, où les images sont de nature multivaluée et où l'intégration de connaissances pour guider les traitements est nécessaire, sont particulièrement pertinents puisque l'information spatiale y est cruciale, la morphologie mathématique prenant alors tout son sens. Les problèmes récurrents rencontrés dans ces différents domaines sont la détection, la segmentation, et la description des images. En complément à ces travaux relatifs à la morphologie mathématique, nous présentons le projet PELICAN, une plate-forme générique et extensible pour le traitement d'image. Ce mémoire se termine par une présentation de quelques perspectives de recherche envisagées dans le cadre de différentes collaborations. Ainsi, l'apport des propriétés d'invariance et d'imprécision dans le contexte de la morphologie mathématique aurait des répercussions en imagerie du vivant. L'analyse morphologique de séquences vidéo, et l'élaboration de descripteurs morphologiques locaux offriraient des solutions alternatives en indexation multimédia. Enfin, la morphologie mathématique n'étant par définition pas limitée à des données de type image, son application à des données de différentes natures mérite d'être étudiée avec une attention particulière.
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Zhao, Zhou. "Heart Segmentation and Evaluation of Fibrosis". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS003.

Texto completo
Resumen
La fibrillation auriculaire est la maladie du rythme cardiaque la plus courante. En raison d'un manque de compréhension des structures atriales sous-jacentes, les traitements actuels ne sont toujours pas satisfaisants. Récemment, avec la popularité de l'apprentissage profond, de nombreuses méthodes de segmentation basées sur l'apprentissage profond ont été proposées pour analyser les structures auriculaires, en particulier à partir de l'imagerie par résonance magnétique renforcée au gadolinium tardif. Cependant, deux problèmes subsistent : 1) les résultats de la segmentation incluent le fond de type atrial ; 2) les limites sont très difficiles à segmenter. La plupart des approches de segmentation conçoivent un réseau spécifique qui se concentre principalement sur les régions, au détriment des frontières. Par conséquent, dans cette thèse, nous proposons deux méthodes différentes pour segmenter le cœur, une méthode en deux étapes et une méthode entraînable de bout en bout. Ensuite, pour évaluer le degré de fibrose, nous avons également proposé deux méthodes, l'une consiste à combiner l'apprentissage profond avec la morphologie, et l'autre à utiliser directement l'apprentissage profond. Enfin, l'efficacité de l'approche proposée est vérifiée sur certains jeux de données publics
Atrial fibrillation is the most common heart rhythm disease. Due to a lack of understanding in the matter of underlying atrial structures, current treatments are still not satisfying. Recently, with the popularity of deep learning, many segmentation methods based on deep learning have been proposed to analyze atrial structures, especially from late gadolinium-enhanced magnetic resonance imaging. However, two problems still occur: 1) segmentation results include the atrial-like background; 2) boundaries are very hard to segment. Most segmentation approaches design a specific network that mainly focuses on the regions, to the detriment of the boundaries. Therefore, in this dissertation, we propose two different methods to segment the heart, one two-stage and one end-to-end trainable method. And then, for evaluating the fibrosis degree, we also proposed two methods, one is to combine deep learning with morphology, and the other is to use deep learning directly. Finally, the efficiency of the proposed approach is verified on some public datasets
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

FRIEDLANDER, FRANCIS. "Traitement morphologique d'images de cardiologie nucleaire". Paris, ENMP, 1989. http://www.theses.fr/1989ENMP0183.

Texto completo
Resumen
Le contourage du ventricule gauche sur chacune des 16 images d'une sequence d'angiocardioscintigraphies permet de determiner la fraction d'ejection. Afin de rendre la mesure reproductible il est necessaire d'automatiser le traitement des images obtenues. Deux methodes sont proposees: une methode bidimensionnelle (2d) dans laquelle chaque image est traitees separement, et une methode tridimensionnelle (3d) dans laquelle l'empilement des 16 images est vu comme une image 3d, le temps jouant le role d'une troisieme dimension. Dans les deux cas, le contourage passe par la detection d'une ligne de partage des eaux (lpe). Un nouvel algorithme sequentiel de construction de lpe est propose. Enfin, les methodes 2d et 3d sont confrontees a trois methodes concurrentes ainsi qu'a la methode de reference, sur un echantillon de 71 sequences
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Randrianasoa, Tianatahina Jimmy Francky. "Représentation d'images hiérarchique multi-critère". Thesis, Reims, 2017. http://www.theses.fr/2017REIMS040/document.

Texto completo
Resumen
La segmentation est une tâche cruciale en analyse d’images. L’évolution des capteurs d’acquisition induit de nouvelles images de résolution élevée, contenant des objets hétérogènes. Il est aussi devenu courant d’obtenir des images d’une même scène à partir de plusieurs sources. Ceci rend difficile l’utilisation des méthodes de segmentation classiques. Les approches de segmentation hiérarchiques fournissent des solutions potentielles à ce problème. Ainsi, l’Arbre Binaire de Partitions (BPT) est une structure de données représentant le contenu d’une image à différentes échelles. Sa construction est généralement mono-critère (i.e. une image, une métrique) et fusionne progressivement des régions connexes similaires. Cependant, la métrique doit être définie a priori par l’utilisateur, et la gestion de plusieurs images se fait en regroupant de multiples informations issues de plusieurs bandes spectrales dans une seule métrique. Notre première contribution est une approche pour la construction multicritère d’un BPT. Elle établit un consensus entre plusieurs métriques, permettant d’obtenir un espace de segmentation hiérarchique unifiée. Par ailleurs, peu de travaux se sont intéressés à l’évaluation de ces structures hiérarchiques. Notre seconde contribution est une approche évaluant la qualité des BPTs en se basant sur l’analyse intrinsèque et extrinsèque, suivant des exemples issus de vérités-terrains. Nous discutons de l’utilité de cette approche pour l’évaluation d’un BPT donné mais aussi de la détermination de la combinaison de paramètres adéquats pour une application précise. Des expérimentations sur des images satellitaires mettent en évidence la pertinence de ces approches en segmentation d’images
Segmentation is a crucial task in image analysis. Novel acquisition devices bring new images with higher resolutions, containing more heterogeneous objects. It becomes also easier to get many images of an area from different sources. This phenomenon is encountered in many domains (e.g. remote sensing, medical imaging) making difficult the use of classical image segmentation methods. Hierarchical segmentation approaches provide solutions to such issues. Particularly, the Binary Partition Tree (BPT) is a hierarchical data-structure modeling an image content at different scales. It is built in a mono-feature way (i.e. one image, one metric) by merging progressively similar connected regions. However, the metric has to be carefully thought by the user and the handling of several images is generally dealt with by gathering multiple information provided by various spectral bands into a single metric. Our first contribution is a generalized framework for the BPT construction in a multi-feature way. It relies on a strategy setting up a consensus between many metrics, allowing us to obtain a unified hierarchical segmentation space. Surprisingly, few works were devoted to the evaluation of hierarchical structures. Our second contribution is a framework for evaluating the quality of BPTs relying both on intrinsic and extrinsic quality analysis based on ground-truth examples. We also discuss about the use of this evaluation framework both for evaluating the quality of a given BPT and for determining which BPT should be built for a given application. Experiments using satellite images emphasize the relevance of the proposed frameworks in the context of image segmentation
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Esteban, Baptiste. "A Generic, Efficient, and Interactive Approach to Image Processing with Applications in Mathematical Morphology". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS623.

Texto completo
Resumen
Les bibliothèques de traitement d’images jouent un rôle important dans la boîte à outils du chercheur et devraient respecter trois critères : généricité, performance et interactivité. La généricité favorise la réutilisation du code et la flexibilité des algorithmes pour diverses structures de données en entrée, tandis que la performance accélère les expériences et permet l’utilisation d’algorithmes dans le cas d’applications en temps réel. De plus, l’interactivité dans la chaîne de traitement d’une image permet d’effectuer des expérimentations en échangeant des données avec cette dernière. Ce dernier critère est généralement obtenu en ajoutant du dynamisme à la bibliothèque, et plus particulièrement en interfaçant ses fonctionnalités à un langage dynamique. Les deux premiers critères peuvent être atteints avec des langages statiques tels que C++ ou Rust, qui exigent la connaissance de certaines informations au moment de la compilation pour optimiser le code machine généré en fonction des différents types de données d’entrée et de sortie d’un algorithme. Le dernier critère nécessite généralement d’attendre jusqu’à l’exécution pour obtenir des informations sur le type, et est donc réalisé au détriment de la vitesse d’exécution. Le travail présenté dans cette thèse vise à dépasser cette limitation dans le contexte d’algorithmes de traitement d’images. Pour ce faire, une méthodologie visant à développer des algorithmes génériques dont les informations sur les types d’entrée et de sortie peuvent être connues soit au moment de la compilation, soit à l’exécution, est présentée. Cette méthode est évaluée sur différents schémas algorithmiques de traitement d’images, et il est conclu que l’écart de performance entre les versions où l’information de type est connu à la compilation et à l’exécution de l’algorithme de construction pour les représentations hiérarchiques d’images est négligeable. En tant qu’application, les représentations hiérarchiques sont utilisées pour étendre l’applicabilité de l’estimation du niveau de bruit en niveaux de gris aux images en couleur afin d’améliorer leur caractère générique. Cela soulève l’importance d’étudier l’impact d’une telle altération dans les images à partir desquelles les représentations hiérarchiques sont construites pour améliorer l’efficacité de leurs applications en présence de bruit. Il est démontré que le bruit a un impact sur la structure arborescente, et cet impact est lié à certains types de fonctionnelles dans le cas où les hiérarchies sont contraintes par une énergie
Image processing libraries play an important role in the researcher toolset and should respect three criteria: genericity, performance, and interactivity. In short, genericity boosts code reuse and algorithm flexibility for various data inputs, while performance speeds up experiments and supports real-time applications. Additionally, interactivity allows software evolution and maintenance without full recompilation, often through integration with dynamic languages like Python or Julia. The first two criteria are not straightforward to reach with static languages such as C++ or Rust which require knowing some information at compile time to optimize generated machine code related to the different input and output data types of an algorithm. The latest criterion usually requires waiting until runtime to obtain type information and is thus performed at the cost of runtime efficiency. The work presented in this thesis aims to go beyond this limitation in the context of image processing algorithms. To do so, a methodology to develop generic algorithms whose type information about its input and output data may be known either at compile-time or at runtime is presented. This methodology is evaluated on different image processing algorithmic schemes, and it is concluded that the performance gap between the runtime and compile-time versions of the construction algorithm for hierarchical representations of images is negligible. As an application, hierarchical representations are employed to expand the applicability of grayscale noise level estimation to color images to enhance its genericity. That raises the importance of studying the impact of such corruption in the hierarchies built on noisy images to improve their efficiency in the presence of noise. It is demonstrated that the noise has an impact on the tree structure, and this impact is related to some kinds of functional in the context of energy optimization on hierarchies
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Iwanowski, Marcin. "Application de la morphologie mathématique pour l'interpolation d'images numériques". ENSMP, 2000. http://www.theses.fr/2000ENMP1069.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Grouche, Lakhdar. "Traitement d'images par morphologie mathematique : applications aux domaines medical et industriel". Clermont-Ferrand 2, 1987. http://www.theses.fr/1987CLF2D207.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

You, Zhenzhen. "Etude de la morphologie et de la distribution des neurones dans le cerveau de macaque par microscopie optique". Electronic Thesis or Diss., Paris 6, 2017. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2017PA066278.pdf.

Texto completo
Resumen
La compréhension des mécanismes impliqués dans les cas sains, les maladies neurodégénératives ainsi que le développement de nouvelles approches thérapeutiques repose sur l’utilisation de modèles expérimentaux pertinents et de techniques d’imagerie adaptées. Dans ce contexte, la microscopie virtuelle offre la possibilité unique d’analyser ces modèles à l’échelle cellulaire avec une très grande variété de marquages histologiques. Mon projet de thèse consiste à mettre en place et à appliquer une méthode d’analyse d’images histologiques en couleur permettant de segmenter et de synthétiser l’information relative aux neurones à l’aide de l’anticorps NeuN sur des coupes de cerveau de macaque. Dans ce travail, nous appliquons d’abord la méthode de Random Forest (RF) pour segmenter les neurones ainsi que le tissu et le fond. Ensuite, nous proposons une méthode originale pour séparer les neurones qui sont accolés afin de les individualiser. Cette méthode s’adapte à l’ensemble des neurones présentant une taille variable (diamètre variant entre 5 et 30 μm). Elle est également efficace non seulement pour des régions dites « simples » caractérisées par une faible densité de neurones mais aussi pour des régions dites « complexes » caractérisées par une très forte densité de plusieurs milliers de neurones. Le travail suivant se concentre sur la création de cartes paramétriques synthétisant la morphologie et la distribution des neurones individualisés. Pour cela, un changement d’échelle est mis en œuvre afin de produire des cartographies présentant des résolutions spatiales plus faibles (résolution originale de 0,22 μm et cartographies créées proposant une résolution spatiale adaptative de quelques dizaines à quelques centaines de micromètres). Plusieurs dizaines de paramètres morphologiques (rayon moyen, surface, orientation, etc.) sont d’abord calculés pour chaque neurone ainsi que des paramètres colorimétriques. Ensuite, il est possible de synthétiser ces informations sous la forme de cartes paramétriques à plus basse résolution à l’échelle de régions anatomiques, de coupes voire, à terme, de cerveaux entiers. Cette étape transforme des images microscopiques qualitatives couleur en images mésoscopiques quantitatives, plus informatives et plus simples à analyser. Ce travail permet d’analyser statistiquement de très grands volumes de données, de synthétiser l’information sous la forme de cartographies quantitatives, d’analyser des problèmes extrêmement complexes tels que la mort neuronale et à terme de tester de nouveaux médicaments voire de confronter ces informations acquises post mortem avec des données acquises in vivo
Understanding the mechanisms involved in healthy cases, neurodegenerative diseases and the development of new therapeutic approaches is based on the use of relevant experimental models and appropriate imaging techniques. In this context, virtual microscopy offers the unique possibility of analyzing these models at a cellular scale with a very wide variety of histological markers. My thesis project consists in carrying out and applying a method of analyzing colored histological images that can segment and synthesize information corresponding to neurons using the NeuN antibody on sections of the macaque brain. In this work, we first apply the Random Forest (RF) method to segment neurons as well as tissue and background. Then, we propose an original method to separate the touching or overlapping neurons in order to individualize them. This method is adapted to process neurons presenting a variable size (diameter varying between 5 and 30 μm). It is also effective not only for so-called "simple" regions characterized by a low density of neurons but also for so-called "complex" regions characterized by a very high density of several thousands of neurons. The next work focuses on the creation of parametric maps synthesizing the morphology and distribution of individualized neurons. For this purpose, a multiscale approach is implemented in order to produce maps with lower spatial resolutions (0.22 μm original resolution and created maps offering adaptive spatial resolution from a few dozens to a few hundred of micrometers). Several dozens of morphological parameters (mean radius, surface, orientation, etc.) are first computed as well as colorimetric parameters. Then, it is possible to synthesize this information in the form of lower-resolution parametric maps at the level of anatomical regions, sections and even, eventually, the entire brains. This step transforms qualitative color microscopic images to quantitative mesoscopic images, more informative and easier to analyze. This work makes it possible to statistically analyze very large volumes of data, to synthesize information in the form of quantitative maps, to analyze extremely complex problems such as neuronal death, to test new drugs and to compare this acquired information post mortem with data acquired in vivo
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Ionescu, Gelu. "Segmentation et recalage d'images échographiques par utilisation de connaissances physiologiques et morphologiques". Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00005189.

Texto completo
Resumen
L'échographie est un outil qui s'impose de plus en plus dans le domaine des Gestes Médico-Chirurgicaux Assistés par Ordinateur (GMCAO). Les médecins et les chirurgiens disposent en conséquence d'un excellent outil de travail qui les aide à planifier et surtout à réaliser des interventions chirurgicales. Pour cela, ils ont besoin également de logiciels automatiques et faciles à utiliser fondés sur d'algorithmes robustes, précis et rapides. L'objectif majeur de cette thèse est d'exploiter la dualité segmentation- recalage pour extraire de l'information pertinente des images échographiques. Cette information permettra ensuite le recalage automatique et précis des structures anatomiques contenues dans le modèle pré-opératoire issu de l'imagerie TDM/IRM et des données per-opératoires contenues dans les images échographique. Le résultat du recalage sera utilisé ultérieurement pour prêter assistance à un outil guidé par ordinateur. Dans une première partie, nous proposons des méthodes de filtrage, segmentation et calibrage des images échographiques. Un intérêt majeur a été accordé au développement des algorithmes de traitement robustes, précis et rapides. Une deuxième partie a été dédiée à la dualité segmentation-recalage et à la compensation des déformations élastiques des tissus mous. Des algorithmes de segmentation de haut niveau des images échographiques ont été développés. Ils se fondent sur la fusion des résultats fournis par la segmentation de bas niveau, des connaissances anatomiques a priori et de l'information apportée par le modèle pré-opératoire. La troisième partie est réservée à la description détaillée des applications et à l'interprétation des résultats. Les applications traitées sont : l'orthopédie du rachis - visée pédiculaire, l'orthopédie du bassin - visée sacro-iliaque, la radiothérapie de la prostate et la ponction d'un épanchement péricardique. Finalement, les développements futurs de cette approche sont discutés.
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Outal, Souhaïl. "Quantification par analyse d'images de la granulométrie des roches fragmentées : amélioration de l'extraction morphologique des surfaces, amélioration de la reconstruction stéréologique". Phd thesis, École Nationale Supérieure des Mines de Paris, 2006. http://pastel.archives-ouvertes.fr/pastel-00002394/en/.

Texto completo
Resumen
Cette recherche s'inscrit dans le cadre général du contrôle de qualité des processus utilisés en production minière, tels que le tir à l'explosif, le broyage et le concassage. Elle s'intéresse plus particulièrement à la quantification par traitement d'images de la granulométrie des roches fragmentées. Globalement, les développements menés portent sur l'amélioration des deux étapes les plus déterminantes de la mesure : l'extraction des contours des fragments de roches dans l'image (2D) et la reconstruction de la courbe granulométrique en volume (étape de stéréologie, 3D). Actuellement, le tamisage (ou plus généralement le criblage) est le moyen le plus utilisé pour la mesure de la granulométrie des roches fragmentées. Il constitue la référence actuelle de la mesure. En conséquence, toute mesure établie par traitement d'images sera validée sur la base des résultats du tamisage. En ce qui concerne l'étape d'extraction des contours des fragments, le problème majeur qui se pose est celui du filtrage correct du bruit présent dans l'image. Dans un premier temps, de nouveaux outils de filtrage, basés sur les transformations morphologiques résiduelles, assez puissants et adaptés au cas des images de fragments de roches sont introduits et évalués. Dans un second temps, les surfaces des fragments sont extraites grâce une segmentation de l'image, basée sur une ligne de partage des eaux contrôlée par les marqueurs extraits des filtrages. La robustesse et l'automatisation de la démarche sont validées sur plusieurs cas d'images de fragments de roches. Le second problème abordé dans cette recherche est celui de la reconstruction de la courbe granulométrique en volume à partir des surfaces extraites par traitement d'images. Afin d'éviter l'occurrence de nombreux biais liés à cette étape, nous proposons un découpage en deux sous-problèmes, et ce, en fonction de la disposition des matériaux analysés (tas abattu, camion, convoyeur à bande) : - dans le cas de faible recouvrement et chevauchement : un modèle expérimental de reconstruction volumique mettant en jeu les données des refus matériels (surface et volumes), et basé d'emblée sur les résultats de référence est développé. Les deux lois des tailles et des épaisseurs (lois de reconstruction) permettant d'attribuer une taille et un volume aux surfaces sont validées expérimentalement. - dans le cas complexe de présence de masquage entre fragments : nous commençons par émettre des hypothèses essentielles à l'adaptation de la théorie des modèles de structures aléatoires à notre cas de fragments de roches. L'analyse des limites d'une application directe du modèle aléatoire de feuilles mortes (hypothèse du schéma booléen) nous a amené à élaborer une nouvelle méthode d'acquisition basée sur une incidence à éclairement variable. S'inspirant de la technique du «shape-from-shading», elle permet d'obtenir une information supplémentaire sur le recouvrement (ombre portée entre fragments) pour l'application de la statistique des grains intacts. Enfin, les résultats obtenus dans cette recherche pour les fragments en vrac mais aussi pour d'autres types d'images d'éléments granulaires, nous ont permis d'envisager d'ores et déjà une valorisation aussi bien auprès de l'industrie minérale et aussi dans d'autres domaines tels que l'agroalimentaire, pharmaceutique, cimenteries,...
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

On, Vu Ngoc Minh. "A new minimum barrier distance for multivariate images with applications to salient object detection, shortest path finding, and segmentation". Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS454.

Texto completo
Resumen
Les représentations hiérarchiques d’images sont largement utilisées dans le traitement d’images pour modéliser le contenu d’une image par un arbre. Une hiérarchie bien connue est l’arbre des formes (AdF) qui encode la relation d’inclusion entre les composants connectés à partir de différents niveaux de seuil. Ce genre d’arbre est auto-duale et invariant de changement de contraste, ce qu’il est utilisé dans de nombreuses applications de vision par ordinateur. En raison de ses propriétés, dans cette thèse, nous utilisons cette représentation pour calculer la nouvelle distance qui appartient au domaine de la morphologie mathématique. Les transformations de distance et les cartes de saillance qu’elles induisent sont généralement utilisées dans le traitement d’images, la vision par ordinateur et la reconnaissance de formes. L’une des transformations de distance les plus couramment utilisées est celle géodésique. Malheureusement, cette distance n’obtient pas toujours des résultats satisfaisants sur des images bruyantes ou floues. Récemment, une nouvelle pseudo-distance, appelée distance de barrière minimale (MBD), plus robuste aux variations de pixels, a été introduite. Quelques années plus tard, Géraud et al. ont proposé une bonne approximation rapide de cette distance : la pseudodistance de Dahu. Puisque cette distance a été initialement développée pour les images en niveaux de gris, nous proposons ici une extension de cette transformation aux images multivariées ; nous l’appelons vectorielle Dahu pseudo-distance. Cette nouvelle distance est facilement et efficacement calculée grâce à à l’arbre multivarié des formes (AdFM). Nous vous proposons une méthode de calcul efficace cette distance et sa carte de saillants déduits dans cette thèse. Nous enquêtons également sur le propriétés de cette distance dans le traitement du bruit et du flou dans l’image. Cette distance s’est avéré robuste pour les pixels invariants. Pour valider cette nouvelle distance, nous fournissons des repères démontrant à quel point la pseudo-distance vectorielle de Dahu est plus robuste et compétitive par rapport aux autres distances basées sur le MB. Cette distance est prometteuse pour la détection des objets saillants, la recherche du chemin le plus court et la segmentation des objets. De plus, nous appliquons cette distance pour détecter le document dans les vidéos. Notre méthode est une approche régionale qui s’appuie sur le saillance visuelle déduite de la pseudo-distance de Dahu. Nous montrons que la performance de notre méthode est compétitive par rapport aux méthodes de pointe de l’ensemble de données du concours Smartdoc 2015 ICDAR
Hierarchical image representations are widely used in image processing to model the content of an image in the multi-scale structure. A well-known hierarchical representation is the tree of shapes (ToS) which encodes the inclusion relationship between connected components from different thresholded levels. This kind of tree is self-dual, contrast-change invariant and popular in computer vision community. Typically, in our work, we use this representation to compute the new distance which belongs to the mathematical morphology domain. Distance transforms and the saliency maps they induce are generally used in image processing, computer vision, and pattern recognition. One of the most commonly used distance transforms is the geodesic one. Unfortunately, this distance does not always achieve satisfying results on noisy or blurred images. Recently, a new pseudo-distance, called the minimum barrier distance (MBD), more robust to pixel fluctuation, has been introduced. Some years after, Géraud et al. have proposed a good and fast-to-compute approximation of this distance: the Dahu pseudodistance. Since this distance was initially developed for grayscale images, we propose here an extension of this transform to multivariate images; we call it vectorial Dahu pseudo-distance. This new distance is easily and efficiently computed thanks to the multivariate tree of shapes (MToS). We propose an efficient way to compute this distance and its deduced saliency map in this thesis. We also investigate the properties of this distance in dealing with noise and blur in the image. This distance has been proved to be robust for pixel invariant. To validate this new distance, we provide benchmarks demonstrating how the vectorial Dahu pseudo-distance is more robust and competitive compared to other MB-based distances. This distance is promising for salient object detection, shortest path finding, and object segmentation. Moreover, we apply this distance to detect the document in videos. Our method is a region-based approach which relies on visual saliency deduced from the Dahu pseudo-distance. We show that the performance of our method is competitive with state-of-the-art methods on the ICDAR Smartdoc 2015 Competition dataset
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Enficiaud, Raffi. "Algorithmes multidimensionnels et multispectraux en Morphologie Mathématique : approche par méta-programmation". Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://pastel.archives-ouvertes.fr/pastel-00003122.

Texto completo
Resumen
Au cours de ces travaux de thèse, nous nous sommes intéressés d'un point de vue global aux algorithmes en Traitement d'Image et plus particulièrement en Morphologie Mathématique, selon certaines techniques nouvelles de programmation. L'évolution matérielle des moyens informatiques suit les prédictions de la loi de Moore. Cependant, une évolution parallèle, d'ordre logicielle, met à la disposition de la recherche scientifique des moyens de programmation nouveaux, dont la méta-programmation. Les avantages sont considérables, tant en terme scientifique par les possibilités offertes, qu'en termes simplement pratiques (portabilité, capitalisation des développements, réduction des erreurs, etc.). La présentation des travaux est structurée autour de la conception d'une bibliothèque de traitement - morphologique - d'image. Les différents aspects sont illustrés en partie par des exemples pris dans les domaines de la vidéosurveillance et de la sécurité automobile, et issus de projets industriels. Nous présentons dans un premier temps le cadre informatique utilisé pour l'écriture algorithmique. Afin de rendre efficace l'utilisation des nouvelles techniques de programmation, une étude préalable des notions mathématiques en Morphologie Mathématique - images, graphes, relations d'ordre, voisinages, éléments structurant, ... -, ainsi que des outils informatiques associés, est réalisée. La séparation correcte des rôles permet en outre l'écriture des structures indépendamment de la nature des données qu'ils contiennent, l'automatisation de nombreuses opérations par le compilateur, et une écriture algorithmique fidèle à une formulation mathématique. La conjonction de ces développements ouvre un grand champ d'exploration comme celui émanant des images nD et hyperspectrales, dont nous nous proposons d'explorer certains aspects. Le support des images nD associé à la programmation générique a sollicité le développement d'un algorithme de transformée exacte en distance. Les hypothèses sur la fonction distance sont faibles (homogénéité dans l'espace et convexité de la boule unité associée) afin d'utiliser les mêmes développements pour une large classe de fonction. Suite à une étude théorique, nous proposons un algorithme de calcul basé sur des propagations. Le même algorithme est utilisé pour l'ensemble des illustrations (fonctions de distance - L2, L5, orienté, non isométrique, ... - sur des images 4D). Les transformées morphologiques en distance sont d'approche totalement différente et d'usage courant en morphologie mathématique. Elles connaissent actuellement de nouveaux développements grâce à l'extension numérique proposée par Beucher: les « quasi-distances ». Nous proposons un algorithme de calcul rapide de ces distances. La couleur et plus généralement les images multispectrales (données vectorielles) sont d'une manipulation délicate en morphologie mathématique. Nous présentons trois approches complémentaires: l'utilisation de métriques couleurs, des statistiques locales et enfin les relations d'ordre lexicographique. Notre cadre informatique et algorithmique est parfaitement adapté à ces trois types de traitement. Le cadre métrique permet d'étendre la définition du gradient morphologique aux espaces couleurs, et plusieurs métriques dans Lab et HLS sont envisagées. Cette formulation est cependant coûteuse en termes de calcul et devient impraticable lorsque le voisinage utilisé pour le gradient s'agrandit. L'usage de statistiques locales permet de contourner ce problème. Nous nous sommes particulièrement intéressés à des statistiques circulaires dans HLS, ce qui nous a amené à la définition d'un gradient chromatique dans cet espace. Enfin, l'utilisation de relation d'ordre lexicographique étend le cadre algébrique classique à la couleur, sans modification fondamentale des algorithmes. Dans cette optique, nous verrons quels sont les moyens à notre disposition pour étendre la plupart des opérateurs (extrema, reconstruction, granulométries, ...) en maintenant un coût de développement bas. Deux études illustrent ces développements : la caractérisation chromatique de la peau, robuste aux changements d'illumination (contexte automobile), et la détection des zones de mouvement (vidéosurveillance). Le dernier sujet d'intérêt concerne la segmentation, et plus particulièrement l'algorithme de ligne de partage des eaux. L'implémentation de référence à l'aide de files d'attente hiérarchiques conduit à certains biais que nous corrigeons. L'algorithme proposé étant générique, nous l'appliquons sur des images de dimension 4, sur des reliefs en précision flottante ou couleur. Nous modifions ensuite la construction des bassins versants de manière à contourner certaines difficultés rencontrées lors de la segmentation avec un nombre faible de marqueurs. La première modification injecte dans le processus de propagation une information extérieure exprimée sous forme de fonction de coût. Cette fonction concerne aussi bien le contour que l'intérieur de la région en cours de construction. La seconde modification utilise une contrainte locale et rend le fluide visqueux. Des analogies sont établies entre ces nouvelles propagations et les équations d'évolution de courbe à l'aide de dérivées partielles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Assadzadeh, Djafar. "Traitement des images échographiques". Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37595555x.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Assadzadeh, Djafar. "Traitement des images échographiques". Paris 13, 1986. http://www.theses.fr/1986PA132013.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía