Dissertations / Theses on the topic 'Classification/segmentation'

To see the other types of publications on this topic, follow the link: Classification/segmentation.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Classification/segmentation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Porter, Robert Mark Stefan. "Texture classification and segmentation." Thesis, University of Bristol, 1997. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.389032.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Tan, Tieniu. "Image texture analysis : classification and segmentation." Thesis, Imperial College London, 1990. http://hdl.handle.net/10044/1/8697.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Wong, Jennifer L. "A material segmentation and classification system." Thesis, Massachusetts Institute of Technology, 2013. http://hdl.handle.net/1721.1/85523.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Thesis: M. Eng., Massachusetts Institute of Technology, Department of Electrical Engineering and Computer Science, 2013.
Cataloged from PDF version of thesis.
Includes bibliographical references (page 75).
In this thesis, I developed a material segmentation and classification system that takes in images of an object and identifies the material composition of the object's surface. The 3D surface is first segmented into regions that likely contain the same material, using color as a heuristic measure. The material classification of each region is then based on the cosine lobe model. The cosine lobe model is our adopted reflectance model, which allows for a simple approximation of a material's reflectance properties, which then serves as the material's unique signature.
by Jennifer L. Wong.
M. Eng.
4

Anusha, Anusha. "Word Segmentation for Classification of Text." Thesis, Uppsala universitet, Institutionen för informationsteknologi, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-396969.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Compounding is a highly productive word-formation process in some languages that is often problematic for natural language processing applications. Word segmentation is the problem of splitting a string of written language into its component words. The purpose of this research is to do a comparative study on different techniques of word segmentation and to identify the best technique that would aid in the extraction of keyword from the text. English was chosen as the language. Dictionary-based and Machine learning approaches were used to split the compound words. This research also aims at evaluating the quality of a word segmentation by comparing it with the segmentation of reference. Results indicated that Dictionary-based word segmentation showed better results in segmenting a compound word compared to the Machine learning segmentation when technical words were involved. Also, to improve the results for the text classification, improving the quality of the text alone is not the key
5

Lotz, Max. "Depth Inclusion for Classification and Semantic Segmentation." Thesis, KTH, Robotik, perception och lärande, RPL, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-233371.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The  majority  of  computer  vision  algorithms  only  use  RGB  images  to  make  inferencesabout  the  state  of  the  world.  With  the  increasing  availability  of  RGB-D  cameras  it  is  im-portant  to  examine  ways  to  effectively  fuse  this  extra  modality  for  increased  effective-ness.  This  paper  examines  how  depth  can  be  fused  into  CNNs  to  increase  accuracy  in  thetasks  of  classification  and  semantic  segmentation,  as  well  as  examining  how  this  depthshould  best  be  effectively  encoded  prior  to  inclusion  in  the  network.  Concatenating  depthas  a  fourth  image  channel  and  modifying  the  dimension  of  the  initial  layer  of  a  pretrainedCNN  is  initially  examined.  Creating  a  separate  duplicate  network  to  train  depth  on,  andfusing  both  networks  in  later  stages  is  shown  to  be  an  effective  technique  for  both  tasks.The  results  show  that  depth  concatenation  is  an  ineffective  strategy  as  it  clamps  the  ac-curacy  to  the  lower  accuracy  of  the  two  modalities,  whilst  late  fusion  can  improve  thetask  accuracy  beyond  that  of  just  the  RGB  trained  network  for  both  tasks.  It  is  also  foundthat  methods  such  as  HHA  encoding  which  revolve  around  calculating  geometric  prop-erties  of  the  depth,  such  as  surface  normals,  are  a  superior  encoding  method  than  sim-pler  colour  space  transformations  such  as  HSV.  This  only  holds  true  when  these  depthimages  are  normalised  over  the  maximum  depth  of  the  dataset  as  opposed  to  the  maxi-mum  depth  of  each  individual  image,  thus  retaining  geometric  consistency  between  im-ages.  The  reverse  holds  true  for  simpler  colour  space  transformations.
Majoriteten av algoritmerna för datorseende använder bara färginformation för att dra sultsatser om hur världen ser ut. Med ökande tillgänglighet av RGB-D-kameror är det viktigt att undersöka sätt att effektivt kombinera färg- med djupinformation. I denna uppsats undersöks hur djup kan kombineras med färg i CNN:er för att öka presentandan i både klassificering och semantisk segmentering, så väl som att undersöka hur djupet kodas mest effektivt före dess inkludering i nätverket. Att lägga till djupet som en fjärde färgkanal och modifiera en förtränad CNN utreds inledningsvis. Sedan studeras att istället skapa en separat kopia av nätverket för att träna djup och sedan kombinera utdata från båda nätverken. Resultatet visar att det är ineffektivt att lägga till djup som en fjärde färgkanal då nätverket begränsas av den sämsta informationen från djup och färg. Fusion från två separata nätverk med färg och djup ökar prestanda bortom det som färg och djup erbjuder separat. Resultatet visar också att metoder så som HHA-kodning, är överlägsna jämfört med enklare transformationer så som HSV. Värt att notera är att detta endast gäller då djupbilderna är normaliserade över alla bilders maxdjup och inte i varje enskild bilds för sig. Motsatsen är sann för enklare transformationer.
6

Arcila, Romain. "Séquences de maillages : classification et méthodes de segmentation." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00653542.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les séquences de maillages sont de plus en plus utilisées. Cette augmentation des besoins entraîne un développement des méthodes de génération de séquences de maillages. Ces méthodes de générations peuvent produire des séquences de maillages de natures différentes. Le nombre d'applications utilisant ces séquences s'est également accru, avec par exemple la compression et le transfert de pose. Ces applications nécessitent souvent de calculer une partition de la séquence. Dans cette thèse, nous nous intéressons plus particulièrement à la segmentation en composantes rigides de séquences de maillages. Dans un premier temps, nous formalisons la notion de séquence de maillages et proposons donc une classification permettant de désigner quelles sont les propriétés attachées à un type de séquence, et ainsi de décrire précisément quel type de séquence est nécessaire pour une application donnée. Dans un second temps, nous formalisons la notion de segmentation de séquence de maillages, et présentons également l'état de l'art des méthodes de segmentation sur les séquences de maillages. Ensuite, nous proposons une première méthode de type globale pour les séquences stables de maillages, fondée sur la fusion de régions. Par la suite, nous présentons deux autres méthodes, reposant sur la classification spectrale. La première, produit un ensemble de segmentations globales, tandis que la seconde génère une segmentation globale ou une segmentation temporellement variable. Nous mettons également en place un système d'évaluation quantitative des segmentations. Enfin, nous présentons les différentes perspectives liées à la segmentation.
7

Tress, Andrew. "Practical classification and segmentation of large textural images." Thesis, Heriot-Watt University, 1996. http://hdl.handle.net/10399/720.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Shaffrey, Cian William. "Multiscale techniques for image segmentation, classification and retrieval." Thesis, University of Cambridge, 2003. https://www.repository.cam.ac.uk/handle/1810/272033.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Kühne, Gerald. "Motion based segmentation and classification of video objects." [S.l. : s.n.], 2002. http://www.bsz-bw.de/cgi-bin/xvms.cgi?SWB10605031.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Tóvári, Dániel. "Segmentation Based Classification of Airborne Laser Scanner Data." [S.l. : s.n.], 2006. http://digbib.ubka.uni-karlsruhe.de/volltexte/1000006285.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Ravì, Daniele. "True scene understanding: classification, semantic segmentation and retriaval." Doctoral thesis, Università di Catania, 2014. http://hdl.handle.net/10761/1556.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The huge volume of images shared in the web sites and on personal archives has provided us challenges on massive multimedia management. Due to the well-known semantic gap between human-understandable high-level semantics and machine generated low-level features, recent years have witnessed plenty of research effort on multimedia content understanding and indexing. Computer vision algorithms for individual tasks such as object recognition, detection and segmentation have reached impressive results. The next challenge is to integrate all these algorithms and address the problem of the complete scene understanding, which involves explaining the image by recognizing all the objects of interest and their spatial extent or shape. True semantic understanding of an image mainly involves the scene classification and the semantic segmentation. The former has the aim to determinate the categories to which an image belongs. The later instead, provide for each pixel a semantic label, which describes the category of object where it appears. Solutions for the semantic interpretation and understanding of images will enable and enhance large variety of computer vision applications. While a human can do these tasks easily, it is laborious and the sheer quantity of data involved can make it prohibitive for a computer. This thesis proposes novel approaches for semantic scene categorization, segmentation and retrieval that enable a device with a limited amount of resources to understand images automatically. The proposed computer vision solutions use machine-learning algorithms to build robust and reusable systems. Since learning is a key component of biological vision systems, the design of automatic artificial systems that are capable to learn, is one of the most important trends in modern computer vision research.
12

Noyel, Guillaume. "Filtrage, réduction de dimension, classification et segmentation morphologique hyperspectrale." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004473.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le traitement d'images hyperspectrales est la généralisation de l'analyse des images couleurs, à trois composantes rouge, vert et bleu, aux images multivariées à plusieurs dizaines ou plusieurs centaines de composantes. Dans un sens général, les images hyperspectrales ne sont pas uniquement acquises dans le domaine des longueurs d'ondes mais correspondent à une description d'un pixel par un ensemble de valeurs : c'est à dire un vecteur. Chacune des composantes d'une image hyperspectrale constitue un canal spectral, et le vecteur associé à chaque pixel est appelé spectre. Pour valider la généralité de nos méthodes de traitement, nous les avons appliquées à plusieurs types d'imagerie correspondant aux images hyperspectrales les plus variées : des photos avec quelques dizaines de composantes acquises dans le domaine des longueurs d'ondes, des images satellites de télédétection, des séries temporelles d'imagerie par résonance dynamique (DCE-MRI) et des séries temporelles d'imagerie thermique. Durant cette thèse, nous avons développé une chaîne complète de segmentation automatique des images hyperspectrales par des techniques morphologiques. Pour ce faire, nous avons mis au point une méthode efficace de débruitage spectral, par Analyse Factorielle des Correspondances (AFC), qui permet de conserver les contours spatiaux des objets, ce qui est très utile pour la segmentation morphologique. Puis nous avons fait de la réduction de dimension, par des méthodes d'analyse de données ou par modélisation des spectres, afin d'obtenir un autre représentation de l'image avec un nombre restreint de canaux. A partir de cette image de plus faible dimension, nous avons effectué une classification (supervisée ou non) pour grouper les pixels en classes spectralement homogènes. Cependant, les classes obtenues n'étant pas homogènes spatialement, i.e. connexes, une étape de segmentation s'est donc avérée nécessaire. Nous avons démontré que la méthode récente de la Ligne de Partage des Eaux Probabiliste était particulièrement adaptée à la segmentation des images hyperspectrales. Elle utilise différentes réalisations de marqueurs aléatoires, conditionnés par la classification spectrale, pour obtenir des réalisations de contours par Ligne de Partage des Eaux (LPE). Ces réalisations de contours permettent d'estimer une fonction de densité de probabilité de contours (pdf) qui est très facile à segmenter par une LPE classique. En définitive, la LPE probabiliste est conditionnée par la classification spectrale et produit donc des segmentations spatio-spectrales dont les contours sont très lisses. Cette chaîne de traitement à été mise en œuvre sur des séquences d'imagerie par résonance magnétique dynamique (DCE-MRI) et a permis d'établir une méthode automatique d'aide au diagnostic pour la détection de tumeurs cancéreuses. En outre, d'autres techniques de segmentation spatio-spectrales ont été développées pour les images hyperspectrales : les régions η-bornées et les boules µ-géodésiques. Grâce à l'introduction d'information régionale, elles améliorent les segmentations par zones quasi-plates qui n'utilisent quant à elles que de l'information locale. Enfin, nous avons mis au point une méthode très efficace de calcul de toutes les paires de distances géodésiques d'une image, puisqu'elle permet de réduire jusqu'à 50 % le nombre d'opérations par rapport à une approche naïve et jusqu'à 30 % par rapport aux autres méthodes. Le calcul efficace de ce tableau de distances offre des perspectives très prometteuses pour la réduction de dimension spatio-spectrale.
13

Ouji, Asma. "Segmentation et classification dans les images de documents numérisés." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00749933.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de cette thèse ont été effectués dans le cadre de l'analyse et du traitement d'images de documents imprimés afin d'automatiser la création de revues de presse. Les images en sortie du scanner sont traitées sans aucune information a priori ou intervention humaine. Ainsi, pour les caractériser, nous présentons un système d'analyse de documents composites couleur qui réalise une segmentation en zones colorimétriquement homogènes et qui adapte les algorithmes d'extraction de textes aux caractéristiques locales de chaque zone. Les informations colorimétriques et textuelles fournies par ce système alimentent une méthode de segmentation physique des pages de presse numérisée. Les blocs issus de cette décomposition font l'objet d'une classification permettant, entre autres, de détecter les zones publicitaires. Dans la continuité et l'expansion des travaux de classification effectués dans la première partie, nous présentons un nouveau moteur de classification et de classement générique, rapide et facile à utiliser. Cette approche se distingue de la grande majorité des méthodes existantes qui reposent sur des connaissances a priori sur les données et dépendent de paramètres abstraits et difficiles à déterminer par l'utilisateur. De la caractérisation colorimétrique au suivi des articles en passant par la détection des publicités, l'ensemble des approches présentées ont été combinées afin de mettre au point une application permettant la classification des documents de presse numérisée par le contenu.
14

Mouroutis, Theodoros. "Segmentation and classification of cell nuclei in tissue sections." Thesis, Imperial College London, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.343898.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

El, Mabrouk Abdelhai. "Segmentation, regroupement et classification pour l'analyse d'image polarimétrique radar." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/28912/28912.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les images de télédétection radar sont caractérisées par un important bruit multi- plicatif, le chatoiement. La polarisation de l'onde est utilisée pour obtenir plus d'infor- mation sur la cible au sol. La décomposition du signal permet de caractériser le type de rétrodiffusion : de volume, de surface ou double bond. L'objectif de ce mémoire est d'illustrer et de mettre en évidence les avantages de la segmentation hiérarchique et du regroupement hiérarchique pour l'analyse d'images polarimétriques radar. Pour la classification H/A/alpha, on doit effectuer préalablement un filtrage pour réduire le bruit dans la classification. Nous proposons d'utiliser la segmentation hiérarchique et le regroupement hiérarchique pour faire un premier regroupement des pixels. Nous mon- trons que les résultats de la classification H/A/alpha et du regroupement de Wishart sont améliorés avec ce prétraitement. Nous utilisons deux images polarimétriques SAR pour notre étude.
Radar remote sensing images are characterized by an important multiplicative noise, the speckle. The polarization of the wave is used to obtain more information about the ground target. The scattering type is obtained from the signal decomposition : volume, surface or double bond. The objective of the thesis is to show and illustrate the advan- tages of the hierarchical segmentation and clustering for the analysis of polarimetric radar images. Filtering is needed to reduce the noise in H/A/alpha classification. We propose to use the hierarchical segmentation and the hierarchical clustering for a first grouping of the pixels. This produces a simple image while preserving the spatial infor- mation. The results of H/A/alpha classification and Wishart clustering are improved with this preprocessing. Two polarimetric images SAR are used for the study.
16

Ringqvist, Sanna. "Classification of terrain using superpixel segmentation and supervised learning." Thesis, Linköpings universitet, Datorseende, 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-112511.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The usage of 3D-modeling is expanding rapidly. Modeling from aerial imagery has become very popular due to its increasing number of both civilian and mili- tary applications like urban planning, navigation and target acquisition. This master thesis project was carried out at Vricon Systems at SAAB. The Vricon system produces high resolution geospatial 3D data based on aerial imagery from manned aircrafts, unmanned aerial vehicles (UAV) and satellites. The aim of this work was to investigate to what degree superpixel segmentation and supervised learning can be applied to a terrain classification problem using imagery and digital surface models (dsm). The aim was also to investigate how the height information from the digital surface model may contribute compared to the information from the grayscale values. The goal was to identify buildings, trees and ground. Another task was to evaluate existing methods, and compare results. The approach for solving the stated goal was divided into several parts. The first part was to segment the image using superpixel segmentation, after that features were extracted. Then the classifiers were created and trained and finally the classifiers were evaluated. The classification method that obtained the best results in this thesis had approx- imately 90 % correctly labeled superpixels. The result was equal, if not better, compared to other solutions available on the market.
17

Le, Truc Duc. "Machine Learning Methods for 3D Object Classification and Segmentation." Thesis, University of Missouri - Columbia, 2019. http://pqdtopen.proquest.com/#viewpdf?dispub=13877153.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:

Object understanding is a fundamental problem in computer vision and it has been extensively researched in recent years thanks to the availability of powerful GPUs and labelled data, especially in the context of images. However, 3D object understanding is still not on par with its 2D domain and deep learning for 3D has not been fully explored yet. In this dissertation, I work on two approaches, both of which advances the state-of-the-art results in 3D classification and segmentation.

The first approach, called MVRNN, is based multi-view paradigm. In contrast to MVCNN which does not generate consistent result across different views, by treating the multi-view images as a temporal sequence, our MVRNN correlates the features and generates coherent segmentation across different views. MVRNN demonstrated state-of-the-art performance on the Princeton Segmentation Benchmark dataset.

The second approach, called PointGrid, is a hybrid method which combines points and regular grid structure. 3D points can retain fine details but irregular, which is challenge for deep learning methods. Volumetric grid is simple and has regular structure, but does not scale well with data resolution. Our PointGrid, which is simple, allows the fine details to be consumed by normal convolutions under a coarser resolution grid. PointGrid achieved state-of-the-art performance on ModelNet40 and ShapeNet datasets in 3D classification and object part segmentation.

18

Majeed, Taban Fouad. "Segmentation, super-resolution and fusion for digital mammogram classification." Thesis, University of Buckingham, 2016. http://bear.buckingham.ac.uk/162/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Mammography is one of the most common and effective techniques used by radiologists for the early detection of breast cancer. Recently, computer-aided detection/diagnosis (CAD) has become a major research topic in medical imaging and has been widely applied in clinical situations. According to statics, early detection of cancer can reduce the mortality rates by 30% to 70%, therefore detection and diagnosis in the early stage are very important. CAD systems are designed primarily to assist radiologists in detecting and classifying abnormalities in medical scan images, but the main challenges hindering their wider deployment is the difficulty in achieving accuracy rates that help improve radiologists’ performance. The detection and diagnosis of breast cancer face two main issues: the accuracy of the CAD system, and the radiologists’ performance in reading and diagnosing mammograms. This thesis focused on the accuracy of CAD systems. In particular, we investigated two main steps of CAD systems; pre-processing (enhancement and segmentation), feature extraction and classification. Through this investigation, we make five main contributions to the field of automatic mammogram analysis. In automated mammogram analysis, image segmentation techniques are employed in breast boundary or region-of-interest (ROI) extraction. In most Medio-Lateral Oblique (MLO) views of mammograms, the pectoral muscle represents a predominant density region and it is important to detect and segment out this muscle region during pre-processing because it could be bias to the detection of breast cancer. An important reason for the breast border extraction is that it will limit the search-zone for abnormalities in the region of the breast without undue influence from the background of the mammogram. Therefore, we propose a new scheme for breast border extraction, artifact removal and removal of annotations, which are found in the background of mammograms. This was achieved using an local adaptive threshold that creates a binary mask for the images, followed by the use of morphological operations. Furthermore, an adaptive algorithm is proposed to detect and remove the pectoral muscle automatically. Feature extraction is another important step of any image-based pattern classification system. The performance of the corresponding classification depends very much on how well the extracted features represent the object of interest. We investigated a range of different texture feature sets such as Local Binary Pattern Histogram (LBPH), Histogram of Oriented Gradients (HOG) descriptor, and Gray Level Co-occurrence Matrix (GLCM). We propose the use of multi-scale features based on wavelet and local binary patterns for mammogram classification. We extract histograms of LBP codes from the original image as well as the wavelet sub-bands. Extracted features are combined into a single feature set. Experimental results show that our proposed method of combining LBPH features obtained from the original image and with LBPH features obtained from the wavelet domain increase the classification accuracy (sensitivity and specificity) when compared with LBPH extracted from the original image. The feature vector size could be large for some types of feature extraction schemes and they may contain redundant features that could have a negative effect on the performance of classification accuracy. Therefore, feature vector size reduction is needed to achieve higher accuracy as well as efficiency (processing and storage). We reduced the size of the features by applying principle component analysis (PCA) on the feature set and only chose a small number of eigen components to represent the features. Experimental results showed enhancement in the mammogram classification accuracy with a small set of features when compared with using original feature vector. Then we investigated and propose the use of the feature and decision fusion in mammogram classification. In feature-level fusion, two or more extracted feature sets of the same mammogram are concatenated into a single larger fused feature vector to represent the mammogram. Whereas in decision-level fusion, the results of individual classifiers based on distinct features extracted from the same mammogram are combined into a single decision. In this case the final decision is made by majority voting among the results of individual classifiers. Finally, we investigated the use of super resolution as a pre-processing step to enhance the mammograms prior to extracting features. From the preliminary experimental results we conclude that using enhanced mammograms have a positive effect on the performance of the system. Overall, our combination of proposals outperforms several existing schemes published in the literature.
19

Kaabi, Lotfi. "Segmentation d'image et classification de forme : theorie et application." Toulouse 3, 1988. http://www.theses.fr/1988TOU30216.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Plusieurs techniques de seuillage sont presentees et leurs performances evalues. Des nouveaux algorithmes de seuillage en utilisant des notions aussi variees que l'enveloppe convexe, la dimension fractale, certains criteres statistiques. Sont ensuite introduits des nouveaux outils pour la reconnaissance de caracteres disposes au hasard ainsi que la determination de leur orientation. Le probleme de la reconnaissance des caracteres arabes est alors aborde
20

Kaabi, Lotfi. "Segmentation d'image et classification de forme théorie et application /." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37614598g.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Ullah, Habib. "Crowd Motion Analysis: Segmentation, Anomaly Detection, and Behavior Classification." Doctoral thesis, Università degli studi di Trento, 2015. https://hdl.handle.net/11572/369001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The objective of this doctoral study is to develop efficient techniques for flow segmentation, anomaly detection, and behavior classification in crowd scenes. Considering the complexities of occlusion, we focused our study on gathering the motion information at a higher scale, thus not associating it to single objects, but considering the crowd as a single entity. Firstly,we propose methods for flow segmentation based on correlation features, graph cut, Conditional Random Fields (CRF), enthalpy model, and particle mutual influence model. Secondly, methods based on deviant orientation information, Gaussian Mixture Model (GMM), and MLP neural network combined with GoodFeaturesToTrack are proposed to detect two types of anomalies. The first one detects deviant motion of the pedestrians compared to what has been observed beforehand. The second one detects panic situation by adopting the GMM and MLP to learn the behavior of the motion features extracted from a grid of particles and GoodFeaturesToTrack, respectively. Finally, we propose particle-driven and hybrid appraoches to classify the behaviors of crowd in terms of lane, arch/ring, bottleneck, blocking and fountainhead within a region of interest (ROI). For this purpose, the particle-driven approach extracts and fuses spatio-temporal features together. The spatial features represent the density of neighboring particles in the predefined proximity, whereas the temporal features represent the rendering of trajectories traveled by the particles. The hybrid approach exploits a thermal diffusion process combined with an extended variant of the social force model (SFM).
22

Ullah, Habib. "Crowd Motion Analysis: Segmentation, Anomaly Detection, and Behavior Classification." Doctoral thesis, University of Trento, 2015. http://eprints-phd.biblio.unitn.it/1406/1/PhD_Thesis_Habib.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The objective of this doctoral study is to develop efficient techniques for flow segmentation, anomaly detection, and behavior classification in crowd scenes. Considering the complexities of occlusion, we focused our study on gathering the motion information at a higher scale, thus not associating it to single objects, but considering the crowd as a single entity. Firstly,we propose methods for flow segmentation based on correlation features, graph cut, Conditional Random Fields (CRF), enthalpy model, and particle mutual influence model. Secondly, methods based on deviant orientation information, Gaussian Mixture Model (GMM), and MLP neural network combined with GoodFeaturesToTrack are proposed to detect two types of anomalies. The first one detects deviant motion of the pedestrians compared to what has been observed beforehand. The second one detects panic situation by adopting the GMM and MLP to learn the behavior of the motion features extracted from a grid of particles and GoodFeaturesToTrack, respectively. Finally, we propose particle-driven and hybrid appraoches to classify the behaviors of crowd in terms of lane, arch/ring, bottleneck, blocking and fountainhead within a region of interest (ROI). For this purpose, the particle-driven approach extracts and fuses spatio-temporal features together. The spatial features represent the density of neighboring particles in the predefined proximity, whereas the temporal features represent the rendering of trajectories traveled by the particles. The hybrid approach exploits a thermal diffusion process combined with an extended variant of the social force model (SFM).
23

Gul, Mohammed Jaza. "Segmentation générique et classification dans des images 3D+T." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066600.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La segmentation est le principal problème de l'analyse d'image qui concerne l'extraction de l'information quantitative de l'image. La segmentation d'image partitionne une image en un nombre de régions separées du fond qui pourraient correspondre aux objets dans l'image. La technique la plus simple de segmentation est le seuillage, en considérant par exemple un seuil au dessous duquel les pixels/voxels sont considérés comme du fond. Le problème du seuillage est de trouver un seuil global; si le seuil est très bas, les objets se touchent et cela nécessite un post traitement, en revanche pour un seuil très haut, les objets ayant des intensités faibles seront supprimés. L'information qualitative peut être extraite directement sur l'image segmentée. Or, afin de donner plus de sens aux objets, les objets détéctés peuvent être assignés à des classes ou clusters d'objets prédefinis. Dans cette thèse, je présente une nouvelle contribution dans le domaine de l'informatique appliquée à la biologie. La contribution « informatique » c'est la nouvelle technique d'apprentisage supervisé (machine leaning) afin d'obtenir une nouvelle segmentation et classification sans paramètres. La contribution « biologique » c'est cette nouvelle technique appliquée à la segmentation et la classification de noyaux de differents embryons. Dans cette thèse, je présente une méthode automatique de segmentation et classification appliquée à l'étude de cycle cellulaire de noyaux dans l'embryon pour des images de microscopie 3D/4D. Ce qui permet aux biologistes d'étudier comment les cellules s'organisent spatialement et temporellement à l'intérieur de l'embryon, et de quantifier l'effet des perturbations génétiques et des médicaments. Dans cette thèse, deux nouvelles techniques de segmentation supervisée se basant sur l'apprentissage d'objects prédéfinis sont présentées. La première technique supervisée de segmentation dévéloppée est la composition de machine learning et de seuillage iteratif (seuillage montant). Pour chaque seuil, les objets détéctés passent par la classification. À la fin du seuillage, afin de trouver le meilleur seuil pour chaque objet, le seuil qui donne la plus haute probablité d' appartenance dans la classe stabilisée est pris. Cette technique a donné des résultats relativement bons sur 3 modèles différents d'image malgré la présence de variations d'intensité temporelle et spatiale. Dans la même prespective, une autre technique se basant sur une croissance de region (watershes descendant) a été développée pour surmonter les cas où noyaux de cellule se touchent et présentent des intensités inhomogènes. La technique est basée sur la croissance des région à partir des maximum locaux. Une fois que les régions se réunissent, des combinaisons de régions sont créées et la combinaision qui à la plus haute probablité d' appartenance aux classes d'objets prédéfinis. L'originalité de cette thèse est ; 1- la combinaision de segmentation et classification dans un processus unique. 2- la généricité du modèle de segmentation et classification étant applicable à des images de modèles biologiques différents. 3- l' fait de ne pas de necessité de réglage de paramètres ( Parameter-free )
Image segmentation, being the main challenge in image analysis that deals with extraction of quantitative information. Segmentation partitions an image into a number of separate regions which might correspond to objects in the image. The simplest technique is thresholding, by considering a threshold below which pixels/voxels are assumed as background. Finding optimal threshold is critical; if the threshold is very low, the observed nuclei in fluorescent image are touching and requires a post-processing, on the other hand, with very high threshold, nuclei with low intensities will be deleted. Afterwards, qualitative information can be extracted directly from segmented image. However, in order to give more meaning to detected objects, these objects can be assigned to predefined classes. This challenge is carried out in this thesis through an automatic method of segmentation and classification which was applied to the study of cell cycle of nuclei in 3D/4D embryo microscopy images. Our method ensures optimal threshold for each object. In this thesis, we present two new segmentation techniques which are based on supervised learning of predefined classes of objects. The first technique of supervised segmentation is realized by combining machine learning and iterative thresholding (bottom-up thresholding). For each threshold, the detected objects will be classified. At the end of thresholding, to find optimal threshold for each object, the threshold that gives the highest probability of belonging in the stabilized class is taken. This technique was tested on three different datasets and gave good results despite the presence of temporal and spatial variations of intensity. In the same perspective, another technique based on a region-growing (top-down thresholding) approach was developed to overcome overlapping and inhomogeneous cell nuclei problems. This technique is based on region-growth from the local maximum. Once the regions meet, combinations of regions are created and combination that gives the highest membership probability to predefined classes of object is retained. The originality of this work is that segmen- tation and classification are performed simultaneously. The program is also generic and applicable to wide biological datasets, without any parameter (parameter-free)
24

Gul, Mohammed Jaza. "Segmentation générique et classification dans des images 3D+T." Electronic Thesis or Diss., Paris 6, 2014. http://www.theses.fr/2014PA066600.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La segmentation est le principal problème de l'analyse d'image qui concerne l'extraction de l'information quantitative de l'image. La segmentation d'image partitionne une image en un nombre de régions separées du fond qui pourraient correspondre aux objets dans l'image. La technique la plus simple de segmentation est le seuillage, en considérant par exemple un seuil au dessous duquel les pixels/voxels sont considérés comme du fond. Le problème du seuillage est de trouver un seuil global; si le seuil est très bas, les objets se touchent et cela nécessite un post traitement, en revanche pour un seuil très haut, les objets ayant des intensités faibles seront supprimés. L'information qualitative peut être extraite directement sur l'image segmentée. Or, afin de donner plus de sens aux objets, les objets détéctés peuvent être assignés à des classes ou clusters d'objets prédefinis. Dans cette thèse, je présente une nouvelle contribution dans le domaine de l'informatique appliquée à la biologie. La contribution « informatique » c'est la nouvelle technique d'apprentisage supervisé (machine leaning) afin d'obtenir une nouvelle segmentation et classification sans paramètres. La contribution « biologique » c'est cette nouvelle technique appliquée à la segmentation et la classification de noyaux de differents embryons. Dans cette thèse, je présente une méthode automatique de segmentation et classification appliquée à l'étude de cycle cellulaire de noyaux dans l'embryon pour des images de microscopie 3D/4D. Ce qui permet aux biologistes d'étudier comment les cellules s'organisent spatialement et temporellement à l'intérieur de l'embryon, et de quantifier l'effet des perturbations génétiques et des médicaments. Dans cette thèse, deux nouvelles techniques de segmentation supervisée se basant sur l'apprentissage d'objects prédéfinis sont présentées. La première technique supervisée de segmentation dévéloppée est la composition de machine learning et de seuillage iteratif (seuillage montant). Pour chaque seuil, les objets détéctés passent par la classification. À la fin du seuillage, afin de trouver le meilleur seuil pour chaque objet, le seuil qui donne la plus haute probablité d' appartenance dans la classe stabilisée est pris. Cette technique a donné des résultats relativement bons sur 3 modèles différents d'image malgré la présence de variations d'intensité temporelle et spatiale. Dans la même prespective, une autre technique se basant sur une croissance de region (watershes descendant) a été développée pour surmonter les cas où noyaux de cellule se touchent et présentent des intensités inhomogènes. La technique est basée sur la croissance des région à partir des maximum locaux. Une fois que les régions se réunissent, des combinaisons de régions sont créées et la combinaision qui à la plus haute probablité d' appartenance aux classes d'objets prédéfinis. L'originalité de cette thèse est ; 1- la combinaision de segmentation et classification dans un processus unique. 2- la généricité du modèle de segmentation et classification étant applicable à des images de modèles biologiques différents. 3- l' fait de ne pas de necessité de réglage de paramètres ( Parameter-free )
Image segmentation, being the main challenge in image analysis that deals with extraction of quantitative information. Segmentation partitions an image into a number of separate regions which might correspond to objects in the image. The simplest technique is thresholding, by considering a threshold below which pixels/voxels are assumed as background. Finding optimal threshold is critical; if the threshold is very low, the observed nuclei in fluorescent image are touching and requires a post-processing, on the other hand, with very high threshold, nuclei with low intensities will be deleted. Afterwards, qualitative information can be extracted directly from segmented image. However, in order to give more meaning to detected objects, these objects can be assigned to predefined classes. This challenge is carried out in this thesis through an automatic method of segmentation and classification which was applied to the study of cell cycle of nuclei in 3D/4D embryo microscopy images. Our method ensures optimal threshold for each object. In this thesis, we present two new segmentation techniques which are based on supervised learning of predefined classes of objects. The first technique of supervised segmentation is realized by combining machine learning and iterative thresholding (bottom-up thresholding). For each threshold, the detected objects will be classified. At the end of thresholding, to find optimal threshold for each object, the threshold that gives the highest probability of belonging in the stabilized class is taken. This technique was tested on three different datasets and gave good results despite the presence of temporal and spatial variations of intensity. In the same perspective, another technique based on a region-growing (top-down thresholding) approach was developed to overcome overlapping and inhomogeneous cell nuclei problems. This technique is based on region-growth from the local maximum. Once the regions meet, combinations of regions are created and combination that gives the highest membership probability to predefined classes of object is retained. The originality of this work is that segmen- tation and classification are performed simultaneously. The program is also generic and applicable to wide biological datasets, without any parameter (parameter-free)
25

Kurtz, Camille. "Une approche collaborative segmentation - classification pour l'analyse descendante d'images multirésolutions." Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00735217.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis la fin des années 1990, les images optiques à très hautes résolutions spatiales issues de capteurs satellitaires sont de plus en plus accessibles par une vaste communauté d'utilisateurs. En particulier, différents systèmes satellitaires sont maintenant disponibles et produisent une quantité de données importante, utilisable pour l'observation de la Terre. En raison de cet important volume de données,les méthodes analytiques manuelles deviennent inadaptées pour un traitement efficace de ces données. Il devient donc crucial d'automatiser ces méthodes par des procédés informatiques, capables de traiter cette quantité de données hétérogènes.Dans le cadre de cette thèse, nos recherches se sont focalisées sur le développement de nouvelles approches basées régions (i.e., segmentation et classification) permettant l'extraction de plusieurs niveaux de connaissance et d'information à partir d'ensembles d'images à différentes résolutions spatiales. De telles images offrent en effet des vues différentes de la scène étudiée, ce qui peut permettre de faciliter l'extraction des objets d'intérêt. Ces derniers étant structurés sous la forme de hiérarchies d'objets complexes, nos travaux se sont naturellement tournés (1) vers l'utilisation d'approches de segmentation hiérarchique fournissant des ensembles de partitions de la scène à différents niveaux de détail et (2) vers l'intégration de connaissances de haut-niveau dans les processus de fouille de données. De manière plus générale, nous nous sommes intéressés à élaborer un outil informatique reposant sur une stratégie d'analyse descendante,similaire à celle d'un utilisateur, qui consiste à interpréter la scène en considérant, en premier lieu, les grandes zones composant les territoires (à partir des images aux résolutions les plus grossières) puis à affiner récursivement le niveau d'interprétation pour en extraire des zones plus spécialisées (à partir des images aux résolutions les plus fines).L'ensemble de ces travaux a été implanté dans une bibliothèque logicielle et validé dans le contexte de l'analyse d'environnements urbains à partir d'ensembles d'images multi résolutions.
26

El-Sakka, Mahmoud R. "Adaptive digital image compression based on segmentation and block classification." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape11/PQDD_0001/NQ44784.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Arof, H. "Texture classification and segmentation using one dimensional discrete Fourier transforms." Thesis, Swansea University, 1997. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.635797.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This thesis introduces a texture descriptor that is invariant to rotation. The new texture descriptor utilizes the property of the magnitudes of Fourier transform coefficients that do not change with spatial shift of input elements. Since rotating an image by an arbitrary angle does not change pixel intensities in an image but shifts them in circular motion, the notion of producing texture features invariant to rotation using 1-D Fourier transform coefficients can be realized if the relationship between circular motion and spatial shift can be established. By analyzing individual circular neighbourhoods centered at every pixel in an image, local and global texture attributes of the image can be described. Rotating the image has a similar effect as spatially shifting the pixels in the circular neighbourhood around without altering their intensities. A number of sequences can be formed by the intensities of pixels at various fixed distances from the center of the neighbourhood. Fourier transforming the sequences would generate coefficients that contain the texture information of the neighbourhood. From the magnitudes of these coefficients, several rotation invariant features are obtained. The capabilities of the new features are investigated in a number of classification and segmentation experiments. The experimental results compare favourably with those of prominent descriptors like the circular autoregressive model, the wavelet transform, the Gaussian Markov radom field and the co-occurrence matrix. In the majority of the instances, the new method shows superior performance.
28

Nilsback, Maria-Elena. "An automatic visual flora-segmentation and classification of flower images." Thesis, University of Oxford, 2009. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.504504.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Bartels, Marc. "Segmentation and classification of terrain features in airborne LIDAR data." Thesis, University of Reading, 2007. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.446204.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

MANO, FERNANDO RIMOLA DA CRUZ. "CLASSIFICATION AND SEGMENTATION OF MPEG AUDIO BASED ON SCALE FACTORS." PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2007. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=11606@1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO
As tarefas de segmentação e classificação automáticas de áudio vêm se tornando cada vez mais importantes com o crescimento da produção e armazenamento de mídia digital. Este trabalho se baseia em características do padrão MPEG, que é considerado o padrão para acervos digitais, para gerir algoritmos de grande eficiência para realizar essas arefas. Ao passo que há muitos estudos trabalhando a partir do vídeo, o áudio ainda é pouco utilizado de forma eficiente para auxiliar nessas tarefas. Os algoritmos sugeridos partem da leitura apenas dos fatores de escala presentes no Layer 2 do áudio MPEG para ambas as tarefas. Com isso, é necessária a leitura da menor quantidade possível de informações, o que diminui significativamente o volume de dados manipulado durante a análise e torna seu desempenho excelente em termos de tempo de processamento. O algoritmo proposto para a classificação divide o áudio em quatro possíveis tipos: silêncio, fala, música e aplausos. Já o algoritmo de segmentação encontra as mudanças ignificativas de áudio, que são indícios de segmentos e mudanças de cena. Foram realizados testes com diferentes tipos de vídeos, e ambos os algoritmos mostraram bons resultados.
With the growth of production and storing of digital media, audio segmentation and classification are becoming increasingly important. This work is based on characteristics of the MPEG standard, considered to be the standard for digital media storage and retrieval, to propose efficient algorithms to perform these tasks. While there are many studies based on video analysis, the audio information is still not widely used in an efficient way. The suggested algorithms for both tasks are based only on the scale factors present on layer 2 MPEG audio. That allows them to read the smallest amount of information possible, significantly diminishing the amount of data manipulated during the analysis and making their performance excellent in terms of processing time. The algorithm proposed for audio classification divides audio in four possible types: silent, speech, music and applause. The segmentation algorithm finds significant changes on the audio signal that represent clues of audio segments and scene changes. Tests were made with a wide range of types of video, and both algorithms show good results.
31

Mui, Lik. "A statistical multi-experts approach to image classification and segmentation." Thesis, Massachusetts Institute of Technology, 1995. http://hdl.handle.net/1721.1/38112.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Tong, Tong. "Patch-based image analysis : application to segmentation and disease classification." Thesis, Imperial College London, 2014. http://hdl.handle.net/10044/1/24453.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
In recent years, image analysis using local patches has received significant interest and has been shown to be highly effective in many medical imaging applications. In this work, we investigate machine learning methods which utilize local patches for different discriminative tasks. Specifically, this thesis focuses mainly on the applications of medical image segmentation in different imaging modalities as well as the classification of AD by using patch based image analysis. The first contribution of the thesis is a novel approach for the segmentation of the hippocampus in brain MR images. This approach utilizes local image patches and introduces dictionary learning techniques for supervised image segmentation. The proposed approach is evaluated on two different datasets, demonstrating competitive segmentation performance compared with state-of-the-art techniques. Furthermore, we extend the proposed approach for segmentation of multiple structures and evaluate it in the context of multi-organ segmentation of abdominal CT images. The second contribution of this thesis is a new classification framework for the detection of AD. This framework utilizes local intensity patches as features and constructs patch-based graphs for classification. Images from the ADNI study are used for the evaluation of the proposed framework. The experimental results suggest that not only patch intensities but also the relationships among patches are related to the pathological changes of AD and provide discriminative information for classification.
33

Wan, Fengkai. "Deep Learning Method used in Skin Lesions Segmentation and Classification." Thesis, KTH, Medicinsk teknik, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-233467.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Malignant melanoma (MM) is a type of skin cancer that is associated with a very poor prognosis and can often lead to death. Early detection is crucial in order to administer the right treatment successfully but currently requires the expertise of a dermatologist. In the past years, studies have shown that automatic detection of MM is possible through computer vision and machine learning methods. Skin lesion segmentation and classification are the key methods in supporting automatic detection of different skin lesions. Compared with traditional computer vision as well as other machine learning methods, deep neural networks currently show the greatest promise both in segmentation and classification. In our work, we have implemented several deep neural networks to achieve the goals of skin lesion segmentation and classification. We have also applied different training schemes. Our best segmentation model achieves pixel-wise accuracy of \textbf{0.940}, Dice index of \textbf{0.867} and Jaccard index of \textbf{0.765} on the ISIC 2017 challenge dataset. This surpassed the official state of the art model whose pixel-wise accuracy was 0.934, Dice index 0.849 and Jaccard Index 0.765. We have also trained a segmentation model with the help of adversarial loss which improved the baseline model slightly. Our experiments with several neural network models for skin lesion classification achieved varying results. We also combined both segmentation and classification in one pipeline meaning that we were able to train the most promising classification model on pre-segmented images. This resulted in improved classification performance. The binary (melanoma or not) classification from this single model trained without extra data and clinical information reaches an area under the curve (AUC) of 0.684 on the official ISIC test dataset. Our results suggest that automatic detection of skin cancers through image analysis shows significant promise in early detection of malignant melanoma.
34

M'Hiri, Slim. "Segmentation d'images par classification floue fondée sur une approche neuromimétique." Paris 12, 1996. http://www.theses.fr/1996PA120082.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these presente une nouvelle methode de segmentation d'images par une approche de classification sequentielle neuro-floue. L'algorithme de classification que nous proposons combine les capacites d'apprentissage des modeles neuromimetiques et la souplesse au niveau de la prise de decision offerte par la logique floue. Nous nous sommes aux cartes auto-organisantes de kohonen pour leur proprietes topologiques interessantes dans le cadre de la segmentation d'images. Cette procedure fait appel a des heuristiques ce qui induit d'une part le reglage d'un nombre important de parametres et d'autre part des problemes de convergence. Dans un premier temps nous proposons une contribution a l'amelioration de l'algorithme de kohonen, en presentant une nouvelle regle d'apprentissage. Cette derniere realise l'optimisation iterative d'une fonctionnelle de cout que nous avons definis. Cette regle d'apprentissage est ensuite utilisee afin de definir une nouvelle methode de segmentation d'images non supervisee agissant en deux etapes. Lors de la premiere etape, nous exploitons les proprietes topologiques, conservees par le nouvel algorithme d'apprentissage, afin de deduire le nombre de classes existant dans l'image ainsi que des prototypes pour chaque classe. La deuxieme etape consiste a etiqueter les pels de l'image. Dans un premier temps, nous definissons une nouvelle methode de classification floue a centres mobiles qui constitue une approche region attribuant a chaque pel l'etiquette de la classe a laquelle il appartient. Nous proposons egalement une nouvelle methode adaptative d'extraction de contours en marquant les pels pour lesquels les proprietes topologiques sont mises a defaut spatialement. Nous avons enfin valide la nouvelle methode de segmentation avec des images de natures differentes (image de scene, image scannographique et images echocardiographiques)
35

Miller, Mark G. "Segmentation of complex scenes and object classification using neural networks." Scholarly Commons, 1994. https://scholarlycommons.pacific.edu/uop_etds/2790.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The focus of this thesis is on the emerging technology known as Neural Networks which has recently become quite successful in many forms of pattern recognition applications. A software implementation of a neural network based system and an overview of this form of artificial intelligence will be presented in this paper. The system will identify geometric patterns embedded in a complex scene by first segmenting the image and then identifying the objects through a neural network. Automatic positioning mechanisms and military target recognition are two examples of applications that could use the technology outlined in this paper. A computer generated image containing multiple sub-images of eight basic shapes is used as the input to the segmentation-classification system. The images are corrupted by large amounts of gaussian noise and various shading patterns to closely simulate pictures taken by a camera. A region growing algorithm, which incorporates the use of histograms and neighborhood filters, is used to segment the complex scenes. Prior intensity or object position information is not required by the segmentation algorithm to fully dissect the image. Additionally, variation in object location, rotation, and size do not affect the ultimate classification solutions. A special set of moments is then calculated for each individual object. These moment features are used as the inputs to a feed-forward neural network which is trained by the use of the back-propagation learning algorithm. Once trained, the network activates an appropriate output to identify the shape classification of the applied input. This overall system, which includes segmentation, feature extraction, and neural network implementation, achieves a high level of classification accuracy. The methodology used in developing this segmentation algorithm does not require prior knowledge of the application, and the invariant features utilized in the neural network classification make the system readily transferable to other applications. Only basic geometric patterns will be classified by my segmentation and classification system; however, more complex shapes, such as text, could also be classified with minimal changes to the software. There are essentially no limitations to the two-dimensional shapes that can be recognized by this method; although, additional preprocessing may be required to recognize a hexagon from a circle, for example.
36

Varney, Nina M. "LiDAR Data Analysis for Automatic Region Segmentation and Object Classification." University of Dayton / OhioLINK, 2015. http://rave.ohiolink.edu/etdc/view?acc_num=dayton1446747790.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Zbib, Hiba. "Segmentation d'images TEP dynamiques par classification spectrale automatique et déterministe." Thesis, Tours, 2013. http://www.theses.fr/2013TOUR3317/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La quantification d’images TEP dynamiques est un outil performant pour l’étude in vivo de la fonctionnalité des tissus. Cependant, cette quantification nécessite une définition des régions d’intérêts pour l’extraction des courbes temps-activité. Ces régions sont généralement identifiées manuellement par un opérateur expert, ce qui renforce leur subjectivité. En conséquent, un intérêt croissant a été porté sur le développement de méthodes de classification. Ces méthodes visent à séparer l’image TEP en des régions fonctionnelles en se basant sur les profils temporels des voxels. Dans cette thèse, une méthode de classification spectrale des profils temporels des voxels est développée. Elle est caractérisée par son pouvoir de séparer des classes non linéaires. La méthode est ensuite étendue afin de la rendre utilisable en routine clinique. Premièrement une procédure de recherche globale est utilisée pour localiser d’une façon déterministe les centres optimaux des données projetées. Deuxièmement, un critère non supervisé de qualité de segmentation est proposé puis optimisé par le recuit simulé pour estimer automatiquement le paramètre d’échelle et les poids temporels associés à la méthode. La méthode de classification spectrale automatique et déterministe proposée est validée sur des images simulées et réelles et comparée à deux autres méthodes de segmentation de la littérature. Elle a présenté une amélioration de la définition des régions et elle paraît un outil prometteur pouvant être appliqué avant toute tâche de quantification ou d’estimation de la fonction d’entrée artérielle
Quantification of dynamic PET images is a powerful tool for the in vivo study of the functionality of tissues. However, this quantification requires the definition of regions of interest for extracting the time activity curves. These regions are usually identified manually by an expert operator, which reinforces their subjectivity. As a result, there is a growing interest in the development of clustering methods that aim to separate the dynamic PET sequence into functional regions based on the temporal profiles of voxels. In this thesis, a spectral clustering method of the temporal profiles of voxels that has the advantage of handling nonlinear clusters is developed. The method is extended to make it more suited for clinical applications. First, a global search procedure is used to locate in a deterministic way the optimal cluster centroids from the projected data. Second an unsupervised clustering criterion is proposed and optimised by the simulated annealing to automatically estimate the scale parameter and the weighting factors involved in the method. The proposed automatic and deterministic spectral clustering method is validated on simulated and real images and compared to two other segmentation methods from the literature. It improves the ROI definition, and appears as a promising pre-processing tool before ROI-based quantification and input function estimation tasks
38

Lu, Jiang. "Transforms for multivariate classification and application in tissue image segmentation /." free to MU campus, to others for purchase, 2002. http://wwwlib.umi.com/cr/mo/fullcit?p3052195.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

El-Sakka, Mahmoud R. "Adaptive digital image compression based on segmentation and block classification." Ottawa : National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.nlc-bnc.ca/obj/s4/f2/dsk1/tape11/PQDD%5F0001/NQ44784.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Lerousseau, Marvin. "Weakly Supervised Segmentation and Context-Aware Classification in Computational Pathology." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’anatomopathologie est la discipline médicale responsable du diagnostic et de la caractérisation des maladies par inspection macroscopique, microscopique, moléculaire et immunologique des tissus. Les technologies modernes permettent de numériser des lames tissulaire en images numériques qui peuvent être traitées par l’intelligence artificielle pour démultiplier les capacités des pathologistes. Cette thèse a présenté plusieurs approches nouvelles et puissantes qui s’attaquent à la segmentation et à la classification pan-cancer des images de lames numériques. L’apprentissage de modèles de segmentation pour des lames numériques est compliqué à cause de difficultés d’obtention d’annotations qui découlent (i) d’une pénurie de pathologistes, (ii) d’un processus d’annotation ennuyeux, et (iii) de différences majeurs entre les annotations inter-pathologistes. Mon premier axe de travail a abordé la segmentation des tumeurs pan-cancéreuses en concevant deux nouvelles approches d’entraînement faiblement supervisé qui exploitent des annotations à l’échelle de la lame qui sont faciles et rapides à obtenir. En particulier, ma deuxième contribution à la segmentation était un algorithme générique et très puissant qui exploite les annotations de pourcentages de tumeur pour chaque lame, sans recourir à des annotations de pixels. De vastes expériences à grande échelle ont montré la supériorité de mes approches par rapport aux méthodes faiblement supervisées et supervisées pour la segmentation des tumeurs pan-cancer sur un ensemble de données de plus de 15 000 lames de tissus congelés. Mes résultats ont également démontré la robustesse de nos approches au bruit et aux biais systémiques dans les annotations. Les lames numériques sont difficiles à classer en raison de leurs tailles colossales, qui vont de millions de pixels à plusieurs milliards de pixels, avec un poids souvent supérieur à 500 mégaoctets. L’utilisation directe de la vision par ordinateur traditionnelle n’est donc pas possible, incitant l’utilisation de l’apprentissage par instances multiples, un paradigme d’apprentissage automatique consistant à assimiler une lame comme un ensemble de tuiles uniformément échantillonnés à partir de cette dernière. Jusqu’à mes travaux, la grande majorité des approches d’apprentissage à instances multiples considéraient les tuiles comme échantillonnées de manière indépendante et identique, c’est-à-dire qu’elles ne prenaient pas en compte la relation spatiale des tuiles extraites d’une image de lame numérique. Certaines approches ont exploité une telle interconnexion spatiale en tirant parti de modèles basés sur des graphes, bien que le véritable domaine des lames numériques soit spécifiquement le domaine de l’image qui est plus adapté aux réseaux de neurones convolutifs. J’ai conçu un cadre d’apprentissage à instances multiples puissant et modulaire qui exploite la relation spatiale des tuiles extraites d’une lame numérique en créant une carte clairsemée des projections multidimensionnelles de patches, qui est ensuite traitée en projection de lame numérique par un réseau convolutif à entrée clairsemée, avant d’être classée par un modèle générique de classification. J’ai effectué des expériences approfondies sur trois tâches de classification d’images de lames numériques, dont la tâche par excellence du cancérologue de soustypage des tumeurs, sur un ensemble de données de plus de 20 000 images de lames numériques provenant de données publiques. Les résultats ont mis en évidence la supériorité de mon approche vis-à-vis les méthodes d’apprentissage à instances multiples les plus répandues. De plus, alors que mes expériences n’ont étudié mon approche qu’avec des réseaux de neurones convolutifs à faible entrée avec deux couches convolutives, les résultats ont montré que mon approche fonctionne mieux à mesure que le nombre de paramètres augmente, suggérant que des réseaux de neurones convolutifs plus sophistiqués peuvent facilement obtenir des résultats su
Anatomic pathology is the medical discipline responsible for the diagnosis and characterization of diseases through the macroscopic, microscopic, molecular and immunologic inspection of tissues. Modern technologies have made possible the digitization of tissue glass slides into whole slide images, which can themselves be processed by artificial intelligence to enhance the capabilities of pathologists. This thesis presented several novel and powerful approaches that tackle pan-cancer segmentation and classification of whole slide images. Learning segmentation models for whole slide images is challenged by an annotation bottleneck which arises from (i) a shortage of pathologists, (ii) an intense cumbersomeness and boring annotation process, and (iii) major inter-annotators discrepancy. My first line of work tackled pan-cancer tumor segmentation by designing two novel state-of-the-art weakly supervised approaches that exploit slide-level annotations that are fast and easy to obtain. In particular, my second segmentation contribution was a generic and highly powerful algorithm that leverages percentage annotations on a slide basis, without needing any pixelbased annotation. Extensive large-scale experiments showed the superiority of my approaches over weakly supervised and supervised methods for pan-cancer tumor segmentation on a dataset of more than 15,000 unfiltered and extremely challenging whole slide images from snap-frozen tissues. My results indicated the robustness of my approaches to noise and systemic biases in annotations. Digital slides are difficult to classify due to their colossal sizes, which range from millions of pixels to billions of pixels, often weighing more than 500 megabytes. The straightforward use of traditional computer vision is therefore not possible, prompting the use of multiple instance learning, a machine learning paradigm consisting in assimilating a whole slide image as a set of patches uniformly sampled from it. Up to my works, the greater majority of multiple instance learning approaches considered patches as independently and identically sampled, i.e. discarded the spatial relationship of patches extracted from a whole slide image. Some approaches exploited such spatial interconnection by leveraging graph-based models, although the true domain of whole slide images is specifically the image domain which is more suited with convolutional neural networks. I designed a highly powerful and modular multiple instance learning framework that leverages the spatial relationship of patches extracted from a whole slide image by building a sparse map from the patches embeddings, which is then further processed into a whole slide image embedding by a sparse-input convolutional neural network, before being classified by a generic classifier model. My framework essentially bridges the gap between multiple instance learning, and fully convolutional classification. I performed extensive experiments on three whole slide image classification tasks, including the golden task of cancer pathologist of subtyping tumors, on a dataset of more than 20,000 whole slide images from public data. Results highlighted the superiority of my approach over all other widespread multiple instance learning methods. Furthermore, while my experiments only investigated my approach with sparse-input convolutional neural networks with two convolutional layers, the results showed that my framework works better as the number of parameters increases, suggesting that more sophisticated convolutional neural networks can easily obtain superior results
41

Coquin, Didier. "Segmentation et analyse d'Images pour la classification automatique : application au zooplancton." Rennes 1, 1991. http://www.theses.fr/1991REN10090.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'inscrit dans les deux grandes disciplines que sont le traitement d'images et la reconnaissance des formes. Le but principal de cette thèse est la recherche de méthodes permettant l'analyse et la classification des individus zooplanctoniques (mensuration, modélisation, identification et comptage), apportant aux biologistes une aide importante dans le dépouillement et l'analyse de milliers d'individus. La segmentation d'images limitée à la binarisation a été choisie, car les objets traités dans le cadre de notre application ne présentent pas de texture. Nous avons développé trois méthodes de binarisation automatique, basées sur des critères locaux, et favorisant l'extraction des objets du fond, quel que soit l'éclairement de la scène. Pour l'extraction des paramètres nous avons retenu des paramètres morphologiques, des paramètres liés à l'inertie expliquée par les axes principaux calculés par rapport à la surface, et la signature polaire de chaque forme. L'extraction de ces paramètres constitue une phase décisive pour la classification des individus. La classification des individus se fait par phases successives, en utilisant une méthode de classification ascendante hiérarchique. La formation de groupes d'individus en sous classes homogènes a permis de créer des modèles, utilisés dans la phase d'identification. La partie identification est basée sur la minimisation de l'erreur quadratique entre la signature polaire de l'individu traité et des modèles auxquels il peut être attribué. Le système décrit permet donc une automatisation de l'analyse d'images, la classification automatique des différentes catégories zooplanctoniques, puis leur identification.
42

Ersahin, Kaan. "Segmentation and classification of polarimetric SAR data using spectral graph partitioning." Thesis, University of British Columbia, 2009. http://hdl.handle.net/2429/14607.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Polarimetric Synthetic Aperture Radar (POLSAR) data have been commercially available for the last few years, which has increased demand for its operational use in remote sensing applications. Segmentation and classification of image data are important tasks for POLSAR data analysis and interpretation, which often requires human interaction. Existing strategies for automated POLSAR data analysis have utilized the polarimetric attributes of pixels, which involve target decompositions based on physical, mathematical or statistical models. A well-established and widely-used technique is the Wishart classifier, which is used as the benchmark in this work. In this thesis, a new methodology is used that exploits both the polarimetric attributes of pixels, and the visual aspect of the image data through computer vision principles. In this process, the performance level of humans is desired, and several features or cues, inspired by perceptual organization, are utilized, i.e., patch-based similarity of intensity, contour, spatial proximity, and the polarimetric cue. The pair-wise grouping technique of Spectral Graph Partitioning (SGP) is employed to perform the segmentation and classification tasks based on graph cuts. A new classification algorithm is developed for POLSAR data, where segmentation based on the contour and spatial proximity cues is followed by classification based on the polarimetric cue (i.e., similarity of coherency matrices). It offers a way to utilize the complete polarimetric information through the coherency matrix representation in the SGP framework. The proposed unsupervised technique aims to automate the data analysis process for the mapping of distributed targets. Two fully polarimetric data sets in L-, and C-bands acquired by AIRSAR and the Convair-580, both containing agricultural fields, were used to obtain the experimental results and analysis. The results suggest quantitative and qualitative improvements over the Wishart classifier. This method is suitable for applications where homogeneity within each separated region is desirable, such as mapping crops or other types of terrain. The SGP methodology used in the developed scheme is flexible in the definition of affinity functions and will likely allow further improvements through the addition of different image features and data sources.
43

Chang, Camacho Violeta Noemí. "Segmentation and classification of human sperm heads towards morphological sperm analysis." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/136250.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Doctora en Ciencias, Mención Computación
La infertilidad es un problema clínico que afecta hasta a 15% de parejas en edad reproductiva, con implicancias tanto emocionales como fisiológicas. Un análisis de semen es el primer paso en la evaluación de una pareja infértil. El énfasis en identificar no sólo cabezas normales de espermatozoides sino también categorías de cabezas anormales puede tener una significativa utilidad clínica al decidir por un tratamiento de fertilidad. Esta tesis propone una nueva metodología para detectar, segmentar, caracterizar y clasificar cabezas de espermatozoides humanos, con el objetivo de facilitar el posterior análisis morfológico, para diagnósticos de fertilidad, toxicología reproductiva, investigación básica o estudios de salud pública. En la primera parte de este tesis, se ha tratado la detección y segmentación de cabezas de espermatozoides humanos. En este sentido, se propone un gold-standard para segmentación de espermatozoides construido con la cooperación de un experto referente en el área, para comparar métodos para detección y segmentación de espermatozoides. Además, se ha desarrollado un framework para la detección y segmentación de componentes de cabezas de espermatozoides humanos (incluyendo acrosoma y núcleo) que usa tres espacios de color además de técnicas de clustering y análisis estadístico del histograma. La evaluación experimental muestra que el método propuesto mejora el desempeño del estado del arte. Los resultados logran 98% de detección correcta a expensas de un número menor de falsos positivos, comparado con el estado del arte. Así mismo, los resultados de segmentación de cabeza, acrosoma y núcleo muestran más de 80% de solapamiento comparado con las máscaras de segmentación manual del gold-standard. En la segunda parte de esta tesis, el enfoque estuvo en la caracterización y clasificación de cabezas de espermatozoides humanos. Así, se introduce un gold-standard para clasificación de cabezas de espermatozoides humanos, construido con la colaboración de tres expertos referentes en área, y de acuerdo al criterio de la OMS. Además, se ha formulado un nuevo descriptor para cabezas de espermatozoides que, combinado con otros descriptores basados en forma, permite discriminar entre cabezas de espermatozoides normales y anormales, identificando cuatro tipos de cabezas anormales. También se propone un esquema de clasificación, que permite categorizar las cabezas de espermatozoides en 5 clases diferentes, según la OMS. La evaluación experimental muestra que el esquema propuesto tiene mejor desempeño que distintos clasificadores monolíticos, así como varios esquemas de clasificación en cascada que fueron diseñados en el contexto de esta investigación. Los resultados muestran más de 70% de clasificación correcta usando un dataset de total concordancia entre expertos del área.
44

Ben, Naceur Mostefa. "Deep Neural Networks for the segmentation and classification in Medical Imaging." Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC2014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nos jours, obtenir une segmentation efficace des tumeurs cérébrales de Glioblastome Multiforme (GBM) dans des images IRM multimodale le plus tôt possible, donne un diagnostic clinique, traitement et suivi précoce. La technique d'IRM est conçue spécifiquement pour fournir aux radiologues des outils puissants de visualisation pour analyser des images médicales, mais le challenge réside dans l'interprétation des images radiologiques avec les données cliniques et pathologiques et leurs causes dans les tumeurs GBM. C'est pourquoi la recherche quantitative en neuroimagerie nécessite souvent une segmentation anatomique du cerveau humain à partir d'images IRM afin d'aider la détection et la segmentation des tumeurs cérébrales. L'objectif de cette thèse est de proposer des méthodes automatiques de Deep learning pour la segmentation des tumeurs cérébrales à l'aide des images IRM.Tout d’abord, nous nous intéressons principalement à la segmentation des images IRM des patients atteints des tumeurs GBM en utilisant le Deep learning, en particulier, Deep Convolutional Neural Networks (DCNNs). Nous proposons deux approches End-to-End DCNNs pour la segmentation automatique des tumeurs cérébrales. La première approche est basée sur la technique pixel-wise et la deuxième approche est basée sur la technique patch-wise. Ensuite, nous prouvons que la deuxième approche est plus efficace en termes de performance de segmentation et de temps de calcul. Nous proposons aussi un nouvel algorithme d'optimisation pour optimiser les hyperparamètres adaptés à la première approche. Deuxièmement, pour améliorer les performances de segmentation des approches proposées, nous proposons de nouveaux pipelines de segmentation des images IRM des patients, où ces pipelines sont basés sur des features extraites de DCNNs et de deux étapes de training. Nous abordons aussi les problèmes liés aux données déséquilibrées en plus les faux positifs et les faux négatifs pour augmenter la sensibilité de segmentation du modèle vers les régions tumorales et la spécificité vers les régions saines. Finalement, les performances et le temps de segmentation des approches et des pipelines proposés sont rapportés avec les méthodes de l'état de l'art sur une base de données accessible au public, annotées par des radiologues et approuvées par des neuroradiologues
Nowadays, getting an efficient segmentation of Glioblastoma Multiforme (GBM) braintumors in multi-sequence MRI images as soon as possible, gives an early clinical diagnosis, treatment, and follow-up. The MRI technique is designed specifically to provide radiologists with powerful visualization tools to analyze medical images, but the challenge lies more in the information interpretation of radiological images with clinical and pathologies data and their causes in the GBM tumors. This is why quantitative research in neuroimaging often requires anatomical segmentation of the human brain from MRI images for the detection and segmentation of brain tumors. The objective of the thesis is to propose automatic Deep Learning methods for brain tumors segmentation using MRI images.First, we are mainly interested in the segmentation of patients’ MRI images with GBMbrain tumors using Deep Learning methods, in particular, Deep Convolutional NeuralNetworks (DCNN). We propose two end-to-end DCNN-based approaches for fully automaticbrain tumor segmentation. The first approach is based on the pixel-wise techniquewhile the second one is based on the patch-wise technique. Then, we prove that thelatter is more efficient in terms of segmentation performance and computational benefits. We also propose a new guided optimization algorithm to optimize the suitable hyperparameters for the first approach. Second, to enhance the segmentation performance of the proposed approaches, we propose new segmentation pipelines of patients’ MRI images, where these pipelines are based on deep learned features and two stages of training. We also address problems related to unbalanced data in addition to false positives and false negatives to increase the model segmentation sensitivity towards the tumor regions and specificity towards the healthy regions. Finally, the segmentation performance and the inference time of the proposed approaches and pipelines are reported along with state-of-the-art methods on a public dataset annotated by radiologists and approved by neuroradiologists
45

Gong, Rongsheng. "A Segmentation and Re-balancing Approach for Classification of Imbalanced Data." University of Cincinnati / OhioLINK, 2011. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1296594422.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Paquet, Thierry. "Segmentation et classification de mots en reconnaissance optique de textes manuscrits." Rouen, 1992. http://www.theses.fr/1992ROUES007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans ce mémoire abordent les différentes étapes nécessaires à la réalisation d'un logiciel de reconnaissance optique de texte manuscrit provenant d'un scripteur quelconque, dans le cadre d'une application à vocabulaire limité : la lecture automatique des montants littéraux présents sur des chèques bancaires ou postaux. La localisation des mots dans l'image binarisée, première étape du traitement, est réalisée par une méthode d'analyse descendante. De cette façon, il est possible de déterminer au cours du traitement des paramètres utiles pour les traitements suivants : hauteur des corps de ligne, positions des lignes de base, positions des extensions des corps de ligne. Un modèle structurel global des mots manuscrits cursifs constitué des particularités locales rencontrées dans le mot autour de l'axe médian est proposé. Celui-ci constitue une alternative au modèle analytique en lettres séparées généralement utilisé. L'extraction des caractéristiques dans l'image du mot est effectué par un algorithme de suivi de trait qui permet l'étiquetage direct des éléments caractéristiques selon le modèle envisagé lors dans la progression dans le trait vu comme un graphe de zones. La discrimination des 30 mots du vocabulaire étudié s'effectue en deux étapes. Un critère d'aspect prenant en compte les extensions du corps de ligne et la longueur du mot permet tout d'abord de rejeter les mots du dictionnaire d'aspects fondamentalement différents. Les candidats retenus sont ensuite classés en évaluant une distance d'édition entre le graphe de traits extraits et les graphes de référence des mots candidats codés en chaîne de graphèmes. L'utilisation de règles de substitution étendues permet la prise en compte de configurations proches et notamment des liaisons entre lettres. Les résultats présentés, issus de tests effectués sur des données de laboratoire et d'images de chèques, laissent augurer de bonnes performances sur des bases de données importantes par la mise en place d'une stratégie de lecture qui n'est pas envisagée dans ce travail
47

Vasilache, Simina. "Image Segmentation and Analysis for Automated Classification of Traumatic Pelvic Injuries." VCU Scholars Compass, 2010. http://scholarscompass.vcu.edu/etd/61.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
In the past decades, technical advances have allowed for the collection and storage of more types and larger quantities of medical data. The increase in the volume of existing medical data has increased the need for processing and analyzing such data. Medical data holds information that is invaluable for diagnostic as well as treatment planning purposes. Presently, a large portion of the data is not optimally used towards medical decisions because information contained in the data is inaccessible through simple human inspection, or traditional computational methods. In the field of trauma medicine, where caregivers are frequently confronted with situations where they need to make rapid decisions based on large amounts of information, the need for reliable, fast and automated computational methods for decision support systems is stringent. Such methods could process and analyze, in a timely fashion, all available medical data and provide caretakers with recommendations/predictions for both patient diagnostic and treatment planning. Presently however, even extracting features that are known to be useful for diagnosis, like presence and location of hemorrhage and fracture, is not easily achievable in automatic manner. Trauma is the main cause of death among Americans age 40 and younger; hence, it has become a national priority. A computer-aided decision making system capable of rapidly analyzing all data available for a patient and forming reliable recommendations for physicians can greatly impact the quality of care provided to patients. Such a system would also reduce the overall costs involved in patient care as it helps in optimizing the decisions, avoiding unnecessary procedures, and customizing treatments for individual patients. Among different types of trauma with a high impact on the lives of Americans, traumatic pelvic injuries, which often occur in motor vehicle accidents and in falls, have had a tremendous toll on both human lives and healthcare costs in the United States. The present project has developed automated computational methods and algorithms to analyze pelvic CT images and extract significant features describing the severity of injuries. Such a step is of great importance as every CT scan consists of tens of slices that need to be closely examined. This method can automatically extract information hidden in CT images and therefore reduce the time of the examination. The method identifies and signals areas of potential abnormality and allows the user to decide upon the action to be taken (e.g. further examination of the image and/or area and neighboring images in the scan). The project also initiates the design of a system that combines the features extracted from biomedical signals and images with information such as injury scores, injury mechanism and demographic information in order to detect the presence and the severity of Traumatic Pelvic Injuries and to provide recommendations for diagnosis and treatment. The recommendations are provided in form of grammatical rules, allowing physicians to explore the reasoning behind these assessments.
48

Rojas, Dominguez Alfonso. "Automated detection, segmentation and classification of breast masses in digitised mammograms." Thesis, University of Liverpool, 2007. http://livrepository.liverpool.ac.uk/375/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A method for automatic detection of mammographic masses is presented. As part of this method, an enhancement algorithm is proposed that improves image contrast based on local statistical measures of the mammograms. After enhancement, regions are segmented via thresholding at multiple levels, and a set of features is computed from each of the segmented regions. A region-ranking system is also presented that identifies the regions most likely to represent abnormalities based on the features computed. The method was tested on 57 mammographic images of masses and achieved a sensitivity of 80% at 2.3 false-positives per image (average of 0.32 false-positives). Two new algorithms for segmentation of masses are presented. These are based on the Dynamic Programming-based Boundary Tracing (DPBT) algorithm proposed in: Timp and Karssemeijer, Med. Phys. 31 (5), pp. 958-971, (2004). The DPBT algorithm contains two main steps: 1) construction of a local cost function, and 2) application of dynamic programming to the selection of the optimal boundary. Modifications to the computation of the local cost function are proposed and produce the Improved-DPBT (IDPBT) algorithm. A procedure for the dynamic selection of the strength of the components of the local cost function is also presented that makes these parameters independent of the image dataset, and produces another new algorithm, ID2PBT. Both of the new algorithms outperform the original DPBT. Four new features for the analysis of breast masses are presented. These features are designed to be insensitive to the exact shape of the contour of the masses, so that an approximate contour, such as one extracted via an automated segmentation algorithm, can be employed in their computation. Two of the features, SpSI and SpGO, measure the degree of spiculation of a mass and its likelihood of being spiculated. The last two features, Fz1 and Fz2, measure the local fuzziness of the mass margins based on points defined automatically. The features were tested for characterisation and diagnosis of breast masses using a set of 319 masses and three different classifiers, and obtained approximately 90% and 76% correct classification, respectively.
49

Almasiri, osamah A. "SKIN CANCER DETECTION USING SVM-BASED CLASSIFICATION AND PSO FOR SEGMENTATION." VCU Scholars Compass, 2018. https://scholarscompass.vcu.edu/etd/5489.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Various techniques are developed for detecting skin cancer. However, the type of maligned skin cancer is still an open problem. The objective of this study is to diagnose melanoma through design and implementation of a computerized image analysis system. The dataset which is used with the proposed system is Hospital Pedro Hispano (PH²). The proposed system begins with preprocessing of images of skin cancer. Then, particle swarm optimization (PSO) is used for detecting the region of interest (ROI). After that, features extraction (geometric, color, and texture) is taken from (ROI). Lastly, features selection and classification are done using a support vector machine (SVM). Results showed that with a data set of 200 images, the sensitivity (SE) and the specificity (SP) reached 100% with a maximum processing time of 0.03 sec.
50

Mathieu, Bérangère. "Segmentation interactive multiclasse d'images par classification de superpixels et optimisation dans un graphe de facteurs." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30290/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La segmentation est l'un des principaux thèmes du domaine de l'analyse d'images. Segmenter une image consiste à trouver une partition constituée de régions, c'est-à-dire d'ensembles de pixels connexes homogènes selon un critère choisi. L'objectif de la segmentation consiste à obtenir des régions correspondant aux objets ou aux parties des objets qui sont présents dans l'image et dont la nature dépend de l'application visée. Même s'il peut être très fastidieux, un tel découpage de l'image peut être facilement obtenu par un être humain. Il n'en est pas de même quand il s'agit de créer un programme informatique dont l'objectif est de segmenter les images de manière entièrement automatique. La segmentation interactive est une approche semi-automatique où l'utilisateur guide la segmentation d'une image en donnant des indications. Les méthodes qui s'inscrivent dans cette approche se divisent en deux catégories en fonction de ce qui est recherché : les contours ou les régions. Les méthodes qui recherchent des contours permettent d'extraire un unique objet correspondant à une région sans trou. L'utilisateur vient guider la méthode en lui indiquant quelques points sur le contour de l'objet. L'algorithme se charge de relier chacun des points par une courbe qui respecte les caractéristiques de l'image (les pixels de part et d'autre de la courbe sont aussi dissemblables que possible), les indications données par l'utilisateur (la courbe passe par chacun des points désignés) et quelques propriétés intrinsèques (les courbes régulières sont favorisées). Les méthodes qui recherchent les régions groupent les pixels de l'image en des ensembles, de manière à maximiser la similarité en leur sein et la dissemblance entre les différents ensembles. Chaque ensemble correspond à une ou plusieurs composantes connexes et peut contenir des trous. L'utilisateur guide la méthode en traçant des traits de couleur qui désignent quelques pixels appartenant à chacun des ensembles. Si la majorité des méthodes ont été conçues pour extraire un objet principal du fond, les travaux menés durant la dernière décennie ont permis de proposer des méthodes dites multiclasses, capables de produire une partition de l'image en un nombre arbitraire d'ensembles. La contribution principale de ce travail de recherche est la conception d'une nouvelle méthode de segmentation interactive multiclasse par recherche des régions. Elle repose sur la modélisation du problème comme la minimisation d'une fonction de coût pouvant être représentée par un graphe de facteurs. Elle intègre une méthode de classification par apprentissage supervisé assurant l'adéquation entre la segmentation produite et les indications données par l'utilisateur, l'utilisation d'un nouveau terme de régularisation et la réalisation d'un prétraitement consistant à regrouper les pixels en petites régions cohérentes : les superpixels. L'utilisation d'une méthode de sur-segmentation produisant des superpixels est une étape clé de la méthode que nous proposons : elle réduit considérablement la complexité algorithmique et permet de traiter des images contenant plusieurs millions de pixels, tout en garantissant un temps interactif. La seconde contribution de ce travail est une évaluation des algorithmes permettant de grouper les pixels en superpixels, à partir d'un nouvel ensemble de données de référence que nous mettons à disposition et dont la particularité est de contenir des images de tailles différentes : de quelques milliers à plusieurs millions de pixels. Cette étude nous a également permis de concevoir et d'évaluer une nouvelle méthode de production de superpixels
Image segmentation is one of the main research topics in image analysis. It is the task of researching a partition into regions, i.e., into sets of connected pixels, meeting a given uniformity criterion. The goal of image segmentation is to find regions corresponding to the objects or the object parts appearing in the image. The choice of what objects are relevant depends on the application context. Manually locating these objects is a tedious but quite simple task. Designing an automatic algorithm able to achieve the same result is, on the contrary, a difficult problem. Interactive segmentation methods are semi-automatic approaches where a user guide the search of a specific segmentation of an image by giving some indications. There are two kinds of methods : boundary-based and region-based interactive segmentation methods. Boundary-based methods extract a single object corresponding to a unique region without any holes. The user guides the method by selecting some boundary points of the object. The algorithm search for a curve linking all the points given by the user, following the boundary of the object and having some intrinsic properties (regular curves are encouraged). Region-based methods group the pixels of an image into sets, by maximizing the similarity of pixels inside each set and the dissimilarity between pixels belonging to different sets. Each set can be composed of one or several connected components and can contain holes. The user guides the method by drawing colored strokes, giving, for each set, some pixels belonging to it. If the majority of region-based methods extract a single object from the background, some algorithms, proposed during the last decade, are able to solve multi-class interactive segmentation problems, i.e., to extract more than two sets of pixels. The main contribution of this work is the design of a new multi-class interactive segmentation method. This algorithm is based on the minimization of a cost function that can be represented by a factor graph. It integrates a supervised learning classification method checking that the produced segmentation is consistent with the indications given by the user, a new regularization term, and a preprocessing step grouping pixels into small homogeneous regions called superpixels. The use of an over-segmentation method to produce these superpixels is a key step in the proposed interactive segmentation method : it significantly reduces the computational complexity and handles the segmentation of images containing several millions of pixels, by keeping the execution time small enough to ensure comfortable use of the method. The second contribution of our work is an evaluation of over-segmentation algorithms. We provide a new dataset, with images of different sizes with a majority of big images. This review has also allowed us to design a new over-segmentation algorithm and to evaluate it

To the bibliography