To see the other types of publications on this topic, follow the link: SURF FEATURES.

Dissertations / Theses on the topic 'SURF FEATURES'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'SURF FEATURES.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Jurgensen, Sean M. "The rotated speeded-up robust features algorithm (R-SURF)." Thesis, Monterey, California: Naval Postgraduate School, 2014. http://hdl.handle.net/10945/42653.

Full text
Abstract:
Approved for public release; distribution is unlimited
Includes supplemental materials
Weaknesses in the Fast Hessian detector utilized by the speeded-up robust features (SURF) algorithm are examined in this research. We evaluate the SURF algorithm to identify possible areas for improvement in the performance. A proposed alternative to the SURF detector is proposed called rotated SURF (R-SURF). This method utilizes filters that are rotated 45 degrees counter-clockwise, and this modification is tested with standard detector testing methods against the regular SURF detector. Performance testing shows that the R-SURF outperforms the regular SURF detector when subject to image blurring, illumination changes and compression. Based on the testing results, the R-SURF detector outperforms regular SURF slightly when subjected to affine (viewpoint) changes. For image scale and rotation transformations, R-SURF outperforms for very small transformation values, but the regular SURF algorithm performs better for larger variations. The application of this research in the larger recognition process is also discussed.
APA, Harvard, Vancouver, ISO, and other styles
2

Brykt, Andreas. "A testbed for distributed detection ofkeypoints and extraction of descriptors forthe Speeded-Up-Robust-Features (SURF)algorithm." Thesis, KTH, Kommunikationsnät, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-141475.

Full text
Abstract:
Detecting keypoints and computing descriptors needed in an imagerecognition algorithm are tasks that require substantial processing powerif they are to be executed in a short time span. If a network of sensornodes is used to capture the images to be processed, then the sensor nodescould be used to perform the actual processing. The system would dis-tribute the computing tasks to the available nodes in the network, so thatthe computing load can be divided among the nodes. By this, the com-puting time could possibly still be kept low, despite the large differencein available computing power between a rack-server and a sensor node.This report describes the implementation of a testbed for the evaluationof distributed processing of visual features. The testbed is implementedin C++ using creditcard sized computers and Zigbee USB units. Com-munication between nodes utilizes ASN.1 defined types. The detectionand extraction stage use an implementation of the SURF algorithm fromOpenCV. Results are sent for matching to a server using a TCP-socketin the sink node. The system is evaluated in terms of data transmissionprotocol efficiency, and time spent on transmitting data vs. computation.
APA, Harvard, Vancouver, ISO, and other styles
3

Medeiros, Petr?cio Ricardo Tavares de. "Multifoveamento em multirresolu??o com f?veas m?veis." PROGRAMA DE P?S-GRADUA??O EM ENGENHARIA EL?TRICA E DE COMPUTA??O, 2016. https://repositorio.ufrn.br/jspui/handle/123456789/22258.

Full text
Abstract:
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2017-03-14T21:32:46Z No. of bitstreams: 1 PetrucioRicardoTavaresDeMedeiros_DISSERT.pdf: 5937912 bytes, checksum: c98c0e639d8348140e2635081d9744f4 (MD5)
Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2017-03-15T22:29:35Z (GMT) No. of bitstreams: 1 PetrucioRicardoTavaresDeMedeiros_DISSERT.pdf: 5937912 bytes, checksum: c98c0e639d8348140e2635081d9744f4 (MD5)
Made available in DSpace on 2017-03-15T22:29:35Z (GMT). No. of bitstreams: 1 PetrucioRicardoTavaresDeMedeiros_DISSERT.pdf: 5937912 bytes, checksum: c98c0e639d8348140e2635081d9744f4 (MD5) Previous issue date: 2016-07-20
Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES)
O foveamento ? uma t?cnica de vis?o computacional capaz de promover a redu??o da informa??o visual atrav?s de uma transforma??o da imagem, em dom?nio espacial, para o dom?nio de multirresolu??o. Entretanto, esta t?cnica se limita a uma ?nica f?vea com mobilidade dependente do contexto. Neste trabalho s?o propostas a defini??o e a constru??o de um modelo multifoveado denominado MMMF (multifoveamento em multirresolu??o com f?veas m?veis) baseado em um modelo anterior denominado MMF (multirresolu??o com f?vea m?vel). Em um contexto de m?ltiplas f?veas, a aplica??o de v?rias estruturas MMF, uma para cada f?vea, resulta em um consider?vel aumento de processamento, uma vez que h? interse??es entre regi?es de estruturas distintas, as quais s?o processadas m?ltiplas vezes. Dadas as estruturas de f?veas MMF, propomos um algoritmo para obter regi?es disjuntas que devem ser processadas, evitando regi?es redundantes e, portanto, reduzindo o tempo de processamento. Experimentos s?o propostos para validar o modelo e verificar a sua aplicabilidade no contexto de vis?o computacional. Resultados demonstram o ganho em termos de tempo de processamento do modelo proposto em rela??o ao uso de m?ltiplas f?veas do modelo MMF.
Foveation is a computer vision technique for visual information reduction obtained by applying an image transformation in the spatial domain to the multiresolution domain. However, this technique is limited to a single fovea context-dependent mobility. This work proposes the definition and the construction of a multifoveated model called MMMF (Multiresolution Multifoveation using Mobile Foveae) based on an earlier model called MMF (Multiresolution with Moving Fovea). In the context of multiple foveae, the application of various MMF structures, one for each fovea, results in an increase in processing time, since there are intersections between regions of different structures, which are processed multiple times. Given MMF structures, an algorithm in order to get disjoint regions which are to be processed is proposed, avoiding redundant regions and thereby reducing the processing time. Experiments are proposed to validate the model and to verify its applicability in the computer vision context. Results show the gain in processing time of the proposed model compared to the use of multiple MMF structures.
APA, Harvard, Vancouver, ISO, and other styles
4

Zavalina, Viktoriia. "Identifikace objektů v obraze." Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2014. http://www.nusl.cz/ntk/nusl-220364.

Full text
Abstract:
Master´s thesis deals with methods of objects detection in the image. It contains theoretical, practical and experimental parts. Theoretical part describes image representation, the preprocessing image methods, and methods of detection and identification of objects. The practical part contains a description of the created programs and algorithms which were used in the programs. Application was created in MATLAB. The application offers intuitive graphical user interface and three different methods for the detection and identification of objects in an image. The experimental part contains a test results for an implemented program.
APA, Harvard, Vancouver, ISO, and other styles
5

Saad, Elhusain Salem. "Defocus Blur-Invariant Scale-Space Feature Extractions." University of Dayton / OhioLINK, 2014. http://rave.ohiolink.edu/etdc/view?acc_num=dayton1418907974.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Veľas, Martin. "Automatické třídění fotografií podle obsahu." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2013. http://www.nusl.cz/ntk/nusl-236399.

Full text
Abstract:
This thesis deals with content based automatic photo categorization. The aim of the work is to experiment with advanced techniques of image represenatation and to create a classifier which is able to process large image dataset with sufficient accuracy and computation speed. A traditional solution based on using visual codebooks is enhanced by computing color features, soft assignment of visual words to extracted feature vectors, usage of image segmentation in process of visual codebook creation and dividing picture into cells. These cells are processed separately. Linear SVM classifier with explicit data embeding is used for its efficiency. Finally, results of experiments with above mentioned techniques of the image categorization are discussed.
APA, Harvard, Vancouver, ISO, and other styles
7

González, Valenzuela Ricardo Eugenio 1984. "Linear dimensionality reduction applied to SIFT and SURF feature descriptors." [s.n.], 2014. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275499.

Full text
Abstract:
Orientadores: Hélio Pedrini, William Robson Schwartz
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação
Made available in DSpace on 2018-08-24T12:45:45Z (GMT). No. of bitstreams: 1 GonzalezValenzuela_RicardoEugenio_M.pdf: 22940228 bytes, checksum: 972bc5a0fac686d7eda4da043bbd61ab (MD5) Previous issue date: 2014
Resumo: Descritores locais robustos normalmente compõem-se de vetores de características de alta dimensionalidade para descrever atributos discriminativos em imagens. A alta dimensionalidade de um vetor de características implica custos consideráveis em termos de tempo computacional e requisitos de armazenamento afetando o desempenho de várias tarefas que utilizam descritores de características, tais como correspondência, recuperação e classificação de imagens. Para resolver esses problemas, pode-se aplicar algumas técnicas de redução de dimensionalidade, escencialmente, construindo uma matrix de projeção que explique adequadamente a importancia dos dados em outras bases. Esta dissertação visa aplicar técnicas de redução linear de dimensionalidade aos descritores SIFT e SURF. Seu principal objetivo é demonstrar que, mesmo com o risco de diminuir a precisão dos vetores de caraterísticas, a redução de dimensionalidade pode resultar em um equilíbrio adequado entre tempo computacional e recursos de armazenamento. A redução linear de dimensionalidade é realizada por meio de técnicas como projeções aleatórias (RP), análise de componentes principais (PCA), análise linear discriminante (LDA) e mínimos quadrados parciais (PLS), a fim de criar vetores de características de menor dimensão. Este trabalho avalia os vetores de características reduzidos em aplicações de correspondência e de recuperação de imagens. O tempo computacional e o uso de memória são medidos por comparações entre os vetores de características originais e reduzidos
Abstract: Robust local descriptors usually consist of high dimensional feature vectors to describe distinctive characteristics of images. The high dimensionality of a feature vector incurs into considerable costs in terms of computational time and storage requirements, which affects the performance of several tasks that employ feature vectors, such as matching, image retrieval and classification. To address these problems, it is possible to apply some dimensionality reduction techniques, by building a projection matrix which explains adequately the importance of the data in other basis. This dissertation aims at applying linear dimensionality reduction to SIFT and SURF descriptors. Its main objective is to demonstrate that, even risking to decrease the accuracy of the feature vectors, the dimensionality reduction can result in a satisfactory trade-off between computational time and storage. We perform the linear dimensionality reduction through Random Projections (RP), Independent Component Analysis (ICA), Principal Component Analysis (PCA), Linear Discriminant Analysis (LDA) and Partial Least Squares (PLS) in order to create lower dimensional feature vectors. This work evaluates such reduced feature vectors in a matching application, as well as their distinctiveness in an image retrieval application. The computational time and memory usage are then measured by comparing the original and the reduced feature vectors. OBSERVAÇÃONa segunda folha, do arquivo em anexo, o meu nome tem dois pequenos erros
Mestrado
Ciência da Computação
Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
8

Grünseisen, Vojtěch. "Vyhledávání graffiti tagů podle podobnosti." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2013. http://www.nusl.cz/ntk/nusl-236413.

Full text
Abstract:
This work focuses on a possibility of using current computer vision alghoritms and methods for automatic similarity matching of so called graffiti tags. Those are such graffiti, that are used as a fast and simple signature of their authors. The process of development and implementation of CBIR system, which is created for this task, is described. For the purposes of finding images similarity, local features are used, most notably self-similarity features.
APA, Harvard, Vancouver, ISO, and other styles
9

Stefanik, Kevin Vincent. "Sequential Motion Estimation and Refinement for Applications of Real-time Reconstruction from Stereo Vision." Thesis, Virginia Tech, 2011. http://hdl.handle.net/10919/76802.

Full text
Abstract:
This paper presents a new approach to the feature-matching problem for 3D reconstruction by taking advantage of GPS and IMU data, along with a prior calibrated stereo camera system. It is expected that pose estimates and calibration can be used to increase feature matching speed and accuracy. Given pose estimates of cameras and extracted features from images, the algorithm first enumerates feature matches based on stereo projection constraints in 2D and then backprojects them to 3D. Then, a grid search algorithm over potential camera poses is proposed to match the 3D features and find the largest group of 3D feature matches between pairs of stereo frames. This approach will provide pose accuracy to within the space that each grid region covers. Further refinement of relative camera poses is performed with an iteratively re-weighted least squares (IRLS) method in order to reject outliers in the 3D matches. The algorithm is shown to be capable of running in real-time correctly, where the majority of processing time is taken by feature extraction and description. The method is shown to outperform standard open source software for reconstruction from imagery.
Master of Science
APA, Harvard, Vancouver, ISO, and other styles
10

Hubený, Marek. "Koncepty strojového učení pro kategorizaci objektů v obrazu." Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2017. http://www.nusl.cz/ntk/nusl-316388.

Full text
Abstract:
This work is focused on objects and scenes recognition using machine learning and computer vision tools. Before the solution of this problem has been studied basic phases of the machine learning concept and statistical models with accent on their division into discriminative and generative method. Further, the Bag-of-words method and its modification have been investigated and described. In the practical part of this work, the implementation of the Bag-of-words method with the SVM classifier was created in the Matlab environment and the model was tested on various sets of publicly available images.
APA, Harvard, Vancouver, ISO, and other styles
11

Weller, Tobias [Verfasser], and Y. [Akademischer Betreuer] Sure-Vetter. "Learning Latent Features using Stochastic Neural Networks on Graph Structured Data / Tobias Weller ; Betreuer: Y. Sure-Vetter." Karlsruhe : KIT-Bibliothek, 2021. http://d-nb.info/1230475656/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Nguyen, Huu-Tuan. "Contributions to facial feature extraction for face recognition." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT034/document.

Full text
Abstract:
La tâche la plus délicate d'un système de reconnaissance faciale est la phase d'extraction de caractéristiques significatives et discriminantes. Dans le cadre de cette thèse, nous nous sommes focalisés sur cette tâche avec comme objectif l'élaboration d'une représentation de visage robuste aux variations majeures suivantes: variations d'éclairage, de pose, de temps, images de qualité différentes (vidéosurveillance). Par ailleurs, nous avons travaillé également dans une optique de traitement temps réel. Tout d'abord, en tenant compte des caractéristiques d'orientation des traits principaux du visages (yeux, bouche), une nouvelle variante nommée ELBP de célèbre descripteur LBP a été proposée. Elle s'appuie sur les informations de micro-texture contenues dans une ellipse horizontale. Ensuite, le descripteur EPOEM est construit afin de tenir compte des informations d'orientation des contours. Puis un descripteur nommée PLPQMC qui intégre des informations obtenues par filtrage monogénique dans le descripteur LPQ est proposé. Enfin le descripteur LPOG intégrant des informations de gradient est présenté. Chacun des descripteurs proposés est testé sur les 3 bases d'images AR, FERET et SCface. Il en résulte que les descripteurs PLPQMC et LPOG sont les plus performants et conduisent à des taux de reconnaissance comparables voire supérieur à ceux des meilleurs méthodes de l'état de l'art
Centered around feature extraction, the core task of any Face recognition system, our objective is devising a robust facial representation against major challenges, such as variations of illumination, pose and time-lapse and low resolution probe images, to name a few. Besides, fast processing speed is another crucial criterion. Towards these ends, several methods have been proposed through out this thesis. Firstly, based on the orientation characteristics of the facial information and important features, like the eyes and mouth, a novel variant of LBP, referred as ELBP, is designed for encoding micro patterns with the usage of an horizontal ellipse sample. Secondly, ELBP is exploited to extract local features from oriented edge magnitudes images. By this, the Elliptical Patterns of Oriented Edge Magnitudes (EPOEM) description is built. Thirdly, we propose a novel feature extraction method so called Patch based Local Phase Quantization of Monogenic components (PLPQMC). Lastly, a robust facial representation namely Local Patterns of Gradients (LPOG) is developed to capture meaningful features directly from gradient images. Chiefs among these methods are PLPQMC and LPOG as they are per se illumination invariant and blur tolerant. Impressively, our methods, while offering comparable or almost higher results than that of existing systems, have low computational cost and are thus feasible to deploy in real life applications
APA, Harvard, Vancouver, ISO, and other styles
13

Godaert-Simon, Lidvine. "Aspects épidémiologiques et cliniques d'une infection par le virus du Chikungunya chez les sujets âgés de 65 ans et plus. : Etude sur les spécificités d'une atteinte par arbovirose dans une population âgée." Thesis, Antilles, 2017. http://www.theses.fr/2017ANTI0253/document.

Full text
Abstract:
L’infection par le virus du Chikungunya est devenu en quelques années un problème de santé publique. D’abord limitée dans les régions tropicales et subtropicales, la diffusion mondiale du vecteur de l’infection couplée à la migration humaine et aux adaptations du virus contribue à la survenue de phénomènes épidémiques fréquents et touchant de nombreux territoires jusqu’aux pays tempérés. Dans les prochaines décades, la population des 65 ans ou plus sera probablement largement impactée lors des épidémies. Les conséquences de la maladie dans cette population est méconnu du fait de l’absence de données d’observation disponibles. Or, les spécificités de cette population sont connues (risque de comorbidité associée, immunosenescence, modifications physiologiques affectant le système rénal, cardiaque, pulmonaire…) et influencent fortement son mode de réponse et sa capacité à supporter un épisode infectieux. A travers l’observation et le suivi de la cohorte ChikOld constituée de 687 sujets âgés de 65 ans ou plus ayant contracté ou non la maladie en 2014, nous avons mis en évidence que les outils d’aide au diagnostic élaborés dans une population d’adultes jeunes avaient des performances médiocres dans la population âgée. Nous avons également pu mettre en évidence que les tableaux cliniques habituellement décrits de la maladie ne sont pas ceux observés le plus fréquemment dans une population de sujets de 65 ans ou plus. Ces observations ont abouti à l’élaboration un outil d’aide au diagnostic (score) spécifique à cette population. De nombreuses questions subsistent concernant cette infection, notamment sur les conséquences à moyen et long terme, sachant les conséquences en phase aiguë et l’existence de formes chroniques. Une étude préliminaire que nous avons conduit suggère l’absence de surmortalité à moyen terme (un an) et la majoration de la dépendance dans les suites d’une infection par le virus du Chikungunya. D’autres travaux seront nécessaires pour caractériser la forme habituelle de la maladie chez les sujets âgés ainsi que pour mieux appréhender les conséquences à moyen et long terme concernant la mortalité et la dépendance
Chikungunya virus infection is an emergent arthropod-borne alpha-virus transmitted by mosquito bites, and causes fever with debilitating arthritic illness. Chikungunya virus infection is still considered as an emerging public health problem in both tropical and temperate regions. The presence of favourable conditions in temperate regions has enabled propagation of the vector, leading to the emergence of the first autochthonous cases of CHIKV in Europe and the USA. Older people may be particularly concerned about infection during an outbreak. CVhikungunya virus infection prevalence rates are not fully known, and vary from 18% to 48% The use of predictive scores would thus be very helpful in this situation. We have showed that predictive scores developed in young population have poor diagnostic performances in elderly population. In fact, the populations described in observational studies of chikungunya virus infection were predominantly young subjects. Clinical and epidemiological data in older subjects (aged 65 and over) are sparse. The mortality and morbidity related to infection in elderly people is poorly documented. We showed that the usual clinical expression of CHIKV infection is different in elderly subjects (absence of fever, arthralgia or both). We have developed and validated a new Chikungunya virus infection screening score specifically for use in the aged population.Some questions remain, in particular concerning mid- or long-term consequences of infection in elderly people. In a preliminary study, we have showed that the mid-term mortality rate of aged people infected by Chikungunya was lower than that of uninfected aged people.We need to continue our work on this thematic to explore more precisely the consequences of chikungunya virus infection in elderly people (mid- and long-term mortality, loss of autonomy, chronic form…)
APA, Harvard, Vancouver, ISO, and other styles
14

Žilka, Filip. "Detektory a deskriptory oblastí v obrazu." Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2016. http://www.nusl.cz/ntk/nusl-240912.

Full text
Abstract:
This master’s thesis deals with an important part of computer vision field. Main focus of this thesis is on feature detectors and descriptors in an image. Throughout the thesis the simplest feature detectors like Moravec detector will be presented, building up to more complex detectors like MSER or FAST. The purpose of feature descriptors is in a mathematical description of these points. We begin with the oldest ones like SIFT and move on to newest and best performing descriptors like FREAK or ORB. The major objective of the thesis is comparison of presented methods on licence plate localization task.
APA, Harvard, Vancouver, ISO, and other styles
15

Mykhalchuk, Vasyl. "Correspondance de maillages dynamiques basée sur les caractéristiques." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAD010/document.

Full text
Abstract:
Correspondance de forme est un problème fondamental dans de nombreuses disciplines de recherche, tels que la géométrie algorithmique, vision par ordinateur et l'infographie. Communément définie comme un problème de trouver injective/ multivaluée correspondance entre une source et une cible, il constitue une tâche centrale dans de nombreuses applications y compris le transfert de attributes, récupération des formes etc. Dans récupération des formes, on peut d'abord calculer la correspondance entre la forme de requête et les formes dans une base de données, puis obtenir le meilleure correspondance en utilisant une mesure de qualité de correspondance prédéfini. Il est également particulièrement avantageuse dans les applications basées sur la modélisation statistique des formes. En encapsulant les propriétés statistiques de l'anatomie du sujet dans le model de forme, comme variations géométriques, des variations de densité, etc., il est utile non seulement pour l'analyse des structures anatomiques telles que des organes ou des os et leur variations valides, mais aussi pour apprendre les modèle de déformation de la classe d'objets. Dans cette thèse, nous nous intéressons à une enquête sur une nouvelle méthode d'appariement de forme qui exploite grande redondance de l'information à partir des ensembles de données dynamiques, variables dans le temps. Récemment, une grande quantité de recherches ont été effectuées en infographie sur l'établissement de correspondances entre les mailles statiques (Anguelov, Srinivasan et al. 2005, Aiger, Mitra et al. 2008, Castellani, Cristani et al. 2008). Ces méthodes reposent sur les caractéristiques géométriques ou les propriétés extrinsèques/intrinsèques des surfaces statiques (Lipman et Funkhouser 2009, Sun, Ovsjanikov et al. 2009, Ovsjanikov, Mérigot et al. 2010, Kim, Lipman et al., 2011) pour élaguer efficacement les paires. Bien que l'utilisation de la caractéristique géométrique est encore un standard d'or, les méthodes reposant uniquement sur l'information statique de formes peuvent générer dans les résultats de correspondance grossièrement trompeurs lorsque les formes sont radicalement différentes ou ne contiennent pas suffisamment de caractéristiques géométriques. [...]
3D geometry modelling tools and 3D scanners become more enhanced and to a greater degree affordable today. Thus, development of the new algorithms in geometry processing, shape analysis and shape correspondence gather momentum in computer graphics. Those algorithms steadily extend and increasingly replace prevailing methods based on images and videos. Non-rigid shape correspondence or deformable shape matching has been a long-studied subject in computer graphics and related research fields. Not to forget, shape correspondence is of wide use in many applications such as statistical shape analysis, motion cloning, texture transfer, medical applications and many more. However, robust and efficient non-rigid shape correspondence still remains a challenging task due to fundamental variations between individual subjects, acquisition noise and the number of degrees of freedom involved in correspondence search. Although dynamic 2D/3D intra-subject shape correspondence problem has been addressed in the rich set of previous methods, dynamic inter-subject shape correspondence received much less attention. The primary purpose of our research is to develop a novel, efficient, robust deforming shape analysis and correspondence framework for animated meshes based on their dynamic and motion properties. We elaborate our method by exploiting a profitable set of motion data exhibited by deforming meshes with time-varying embedding. Our approach is based on an observation that a dynamic, deforming shape of a given subject contains much more information rather than a single static posture of it. That is different from the existing methods that rely on static shape information for shape correspondence and analysis.Our framework of deforming shape analysis and correspondence of animated meshes is comprised of several major contributions: a new dynamic feature detection technique based on multi-scale animated mesh’s deformation characteristics, novel dynamic feature descriptor, and an adaptation of a robust graph-based feature correspondence approach followed by the fine matching of the animated meshes. [...]
APA, Harvard, Vancouver, ISO, and other styles
16

Moget, Caroline. "Influence des propriétés de surface sur les performances de localisation d’icônes et de mots sur un écran : quelles recommandations pour un public âgé ?" Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM3126.

Full text
Abstract:
Cette thèse en ergonomie s’inscrit dans le cadre d’un projet de conception industrielle d’un système innovant d’e-santé (HADAGIO), développé par l’entreprise SESIN et permettant le maintien à domicile de personnes âgées fragiles. Son objectif appliqué a été de produire des recommandations ergonomiques permettant d’améliorer les interfaces du système proposé sous la forme d’un portail d’applications web afin de les rendre faciles à utiliser par des personnes âgées et, ainsi, favoriser l’acceptation finale du dispositif HADAGIO. Ce travail s’est intéressé à la tâche de localisation d’informations sur un écran et, plus particulièrement, au rôle des éléments de surface (couleur et niveau de détails) des icônes et libellés lexicaux sur les performances de réalisation de cette tâche par des personnes âgées. Cette tâche est en effet particulièrement difficile pour ces dernières qui obtiennent des performances de localisation moindres que celles des jeunes (temps de réaction et nombre d’erreurs plus importants). Des recommandations graphiques pour la conception d’interfaces du portail HADAGIO ont émergées de ce travail, et permettent de faciliter la tâche de localisation des informations pour des personnes âgées
This thesis in ergonomics is part of an industrial design project of an innovative e-health system (HADAGIO), developed by the company SESIN and allowing home support frail elderly. Its goal was applied to produce ergonomic recommendations for improving the interfaces of the system proposed in the form of a web portal software to make them easier to use and thus promote the final acceptance HADAGIO the device.This work has focused on the task of locating information on a screen and, in particular, the role of perceptual features (color and detail) lexical icons and labels on achieving performance of this task by elders. This task is indeed particularly difficult for this people who get lower localization performances than young people (reaction times and a larger number of errors). The models proposed for the target location task assumes that the knowledge possessed by individuals on the appearance of the target to locate allow improved performance. Given that advancing age does not affect the process involving knowledge stored in memory (Top Down type) implemented in this task it was to determine what could be the color of the role and Details of the target level in the implementation of these processes at a location task information.Graphics recommendations for HADAGIO portal interface design have emerged from this work, and provide information to facilitate the localization task for the elderly
APA, Harvard, Vancouver, ISO, and other styles
17

Dernoncourt, David. "Stabilité de la sélection de variables sur des données haute dimension : une application à l'expression génique." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066317/document.

Full text
Abstract:
Les technologies dites « haut débit » permettent de mesurer de très grandes quantités de variables à l'échelle de chaque individu : séquence ADN, expressions des gènes, profil lipidique… L'extraction de connaissances à partir de ces données peut se faire par exemple par des méthodes de classification. Ces données contenant un très grand nombre de variables, mesurées sur quelques centaines de patients, la sélection de variables est une étape préalable indispensable pour réduire le risque de surapprentissage, diminuer les temps de calcul, et améliorer l'interprétabilité des modèles. Lorsque le nombre d’observations est faible, la sélection tend à être instable, et on observe souvent que sur deux jeux de données différents mais traitant d’un même problème, les variables sélectionnées ne se recoupent presque pas. Pourtant, obtenir une sélection stable semble crucial si l'on veut avoir confiance dans la pertinence effective des variables sélectionnées à des fins d'extraction de connaissances. Dans ce travail, nous avons d'abord cherché à déterminer quels sont les facteurs qui influencent le plus la stabilité de la sélection. Puis nous avons proposé une approche, spécifique aux données puces à ADN, faisant appel aux annotations fonctionnelles pour assister les méthodes de sélection habituelles, en enrichissant les données avec des connaissances a priori. Nous avons ensuite travaillé sur deux aspects des méthodes d'ensemble : le choix de la méthode d'agrégation et les ensembles hybrides. Dans un dernier chapitre, nous appliquons les méthodes étudiées à un problème de prédiction de la reprise de poids suite à un régime, à partir de données puces, chez des patients obèses
High throughput technologies allow us to measure very high amounts of variables in patients: DNA sequence, gene expression, lipid profile… Knowledge discovery can be performed on such data using, for instance, classification methods. However, those data contain a very high number of variables, which are measured, in the best cases, on a few hundreds of patients. This makes feature selection a necessary first step so as to reduce the risk of overfitting, reduce computation time, and improve model interpretability. When the amount of observations is low, feature selection tends to be unstable. It is common to observe that two selections obtained from two different datasets dealing with the same problem barely overlap. Yet, it seems important to obtain a stable selection if we want to be confident that the selected variables are really relevant, in an objective of knowledge discovery. In this work, we first tried to determine which factors have the most influence on feature selection stability. We then proposed a feature selection method, specific to microarray data, using functional annotations from Gene Ontology in order to assist usual feature selection methods, with the addition of a priori knowledge to the data. We then worked on two aspects of ensemble methods: the choice of the aggregation method, and hybrid ensemble methods. In the final chapter, we applied the methods studied in the thesis to a dataset from our lab, dealing with the prediction of weight regain after a diet, from microarray data, in obese patients
APA, Harvard, Vancouver, ISO, and other styles
18

Perez, Repetto Lucia. "Étude longitudinale sur les habiletés sensorielles des enfants ayant un trouble du spectre de l’autisme." Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/10649.

Full text
Abstract:
Problématique : Le trouble du spectre de l’autisme (TSA) affecte plus de 1 % des enfants. Les caractéristiques communes associées au TSA sont des difficultés de communication et d’interaction sociale, ainsi qu’une rigidité ou une répétitivité dans les intérêts et comportements. Certains intérêts et comportements restreints ou répétitifs peuvent être liés à des difficultés de traitement de l’information sensorielle (TIS). De fait, entre 45 et 95 % des enfants ayant un TSA présentent des difficultés sur le plan sensoriel, affectant leur fonctionnement dans la vie quotidienne. Cependant, les données disponibles dans la littérature scientifique nous apportent peu de connaissances quant à l’évolution des habiletés sensorielles chez les enfants ayant un TSA. Objectif : L’objectif principal est de documenter l’évolution des habiletés sensorielles chez les enfants ayant un TSA entre l’âge de 3-4 ans (T1) et deux ans après (T2), au moment de l’entrée à l’école. Méthodologie : Il s’agit d’une analyse secondaire de données non traitées d’une étude prospective antérieure (de 2008 à 2010). Dans le présent projet, un devis corrélationnel rétrospectif a été utilisé pour étudier 34 enfants ayant un TSA. Les données provenant d’outils d’évaluation normalisés permettant de documenter les habiletés sensorielles des enfants dans le temps, soit le Sensory Profile (SP) et le Short Sensory Profile (SSP), ont été analysées. Résultats: Les analyses démontrent une stabilité des difficultés sensorielles chez les enfants atteints de TSA de l'âge de trois à six ans. La stabilité des scores sensoriels est indépendante de la correction par des variables contrôlées, telles que l'âge mental et la gravité du TSA. Conclusions : La persistance des difficultés sensorielles chez les enfants ayant un TSA souligne la nécessité de bien évaluer cet aspect et de le considérer lors de la planification des interventions et du suivi de ces enfants. En effet, si l’on souhaite améliorer leur fonctionnement dans la vie quotidienne et accroître leur intégration sociale, il importe de tenir compte de leurs difficultés persistantes.
Abstract : Introduction: Autism Spectrum Disorder (ASD) affects more than 1% of children. Common characteristics associated with ASD are difficulties in communication and social interaction, as well as repetitive interests and behaviors. Some restricted or repetitive interests and behaviors may be linked to difficulties in sensory processing. Indeed, between 45% and 95% of children with ASD have sensory featuresaffecting their functioning in everyday life. However, the data available in the scientific literature give us little knowledge about the evolution of sensory abilities in children with ASD. Objective:The main objective of this project was to evaluatethe evolution of sensory features in children with ASD between the age of 3-4 years (T1) and two years after (T2), when they entered school. Methods:This project is a secondary analysisof untreated data from a previous prospective study (from 2008 to 2010).In the presentproject, a retrospective correlation design was usedto study 34 children with ASD. The data from standardized assessment tools were used to evaluate children's sensory features over time, the Sensory Profile (SP) and the Short Sensory Profile (SSP), were analyzed. Results:Our analyses demonstratea stability of sensory features in children with ASD from the age of three to six years old. The stability of sensory scores is independent of correction by covariates such as mental age and autism severity. Conclusions: The persistence of sensory features in children with ASD highlights the need to adequately assess this aspect and to consider it when planning and monitoring interventions. Indeed, in order to improve their functioning in everyday life and increase their social integration, it is important to take into account their persistent sensory features.
APA, Harvard, Vancouver, ISO, and other styles
19

Leveau, Valentin. "Représentations d'images basées sur un principe de voisins partagés pour la classification fine." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT257/document.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés au problème de la classification à « grain fin » qui est une tâche de classification particulière où les classes peuvent être visuellement distinguables seulement à partir de détails subtils et où le contexte agit souvent comme une source de bruit. Ce travail est principalement motivé par le besoin de concevoir des représentations d'images plus « fines » pour adresser de telles tâches de classification qui nécessitent un encodage d’informations discriminantes très fines et localisées. L'originalité principale de notre approche est d’intégrer dans une représentation globale de haute dimension une mesure de consistance géométrique locale entre l’image à représenter et les images d’une base de référence (que nous considérons comme un vocabulaire visuel possiblement constitué d’un grand nombre d’images). Ceci nous permet d’encoder dans une représentation vectorielle des motifs très localisés et géométriquement consistant avec l’image (contrairement aux méthodes de codage traditionnelles comme les Bag-of-Visual-Word, les vecteurs de Fisher ou les vecteurs VLAD). Plus en détails : Nous proposons dans un premier temps une approche de classification d'instances d'entités visuelles basée sur un classificateur par plus proches voisins qui agrège les similarités entre l'image requête et celles de la base d'apprentissage. Les similarités sont calculées avec prise en compte de la consistance géométrique locale entre les descripteurs locaux de la requête et ceux des images de la base d'apprentissage. Cette base pouvant être constituée de nombreux descripteurs locaux, nous proposons de passer notre méthode à l’échelle en utilisant des méthodes de recherche approximatives de plus proches voisins. Par la suite, nous avons mis au point un nouveau noyau de similarité entre des images basé sur les descripteurs locaux qu'elles partagent dans une base de référence. Nous avons nommé ce noyau Shared Nearest Neighbors Kernel (SNN Kernel), qui peut être utilisé comme n'importe quel autre noyau dans les machines à noyau. Nous avons dérivé, à partir de ce dernier, une représentation explicite globale des images à décrire. Cette représentation encode la similarité de l'image considérée avec les différentes régions visuelles des images de la base correspondant au vocabulaire visuel. Nous avons également rendu possible l'intégration de l'information de consistance géométrique dans nos représentations à l'aide de l'algorithme RANSAC amélioré que nous avons proposé dans notre contribution précédente. La classification des images se fait ensuite par un modèle linéaire appris sur ces représentations. Finalement, nous proposons, comme troisième contribution, une stratégie permettant de considérablement réduire, jusqu'à deux ordres de grandeur, la dimension de la représentation d'image sur-complète précédemment présentée tout en conservant une performance de classification compétitive aux méthodes de l’état de l’art. Nous avons validé nos approches en conduisant une série d’expérimentations sur plusieurs tâches de classification impliquant des objets rigides comme FlickrsLogos32 ou Vehicles29, mais aussi sur des tâches impliquant des concepts visuels plus finement discriminables comme la base FGVC-Aircrafts, Oxford-Flower102 ou CUB-Birds200. Nous avons aussi démontré des résultats significatifs sur des tâches de classification audio à grain fin comme la tâche d'identification d'espèce d'oiseau de LifeCLEF2015 en proposant une extension temporelle de notre représentation d'image. Finalement, nous avons montré que notre technique de réduction de dimension permet d’obtenir un vocabulaire visuel très interprétable composé des régions d'image les plus représentatives pour les concepts visuels représentés dans la base d’apprentissage
This thesis focuses on the issue of fine-grained classification which is a particular classification task where classes may be visually distinguishable only from subtle localized details and where background often acts as a source of noise. This work is mainly motivated by the need to devise finer image representations to address such fine-grained classification tasks by encoding enough localized discriminant information such as spatial arrangement of local features.To this aim, the main research line we investigate in this work relies on spatially localized similarities between images computed thanks to efficient approximate nearest neighbor search techniques and localized parametric geometry. The main originality of our approach is to embed such spatially consistent localized similarities into a high-dimensional global image representation that preserves the spatial arrangement of the fine-grained visual patterns (contrary to traditional encoding methods such as BoW, Fisher or VLAD Vectors). In a nutshell, this is done by considering all raw patches of the training set as a large visual vocabulary and by explicitly encoding their similarity to the query image. In more details:The first contribution proposed in this work is a classification scheme based on a spatially consistent k-nn classifier that relies on pooling similarity scores between local features of the query and those of the similar retrieved images in the vocabulary set. As this set can be composed of a lot of local descriptors, we propose to scale up our approach by using approximate k-nearest neighbors search methods. Then, the main contribution of this work is a new aggregation-based explicit embedding derived from a newly introduced match kernel based on shared nearest neighbors of localized feature vectors combined with local geometric constraints. The originality of this new similarity-based representation space is that it directly integrates spatially localized geometric information in the aggregation process.Finally, as a third contribution, we proposed a strategy to drastically reduce, by up to two orders of magnitude, the high-dimensionality of the previously introduced over-complete image representation while still providing competitive image classification performance.We validated our approaches by conducting a series of experiments on several classification tasks involving rigid objects such as FlickrsLogos32 or Vehicles29 but also on tasks involving finer visual knowledge such as FGVC-Aircrafts, Oxford-Flower102 or CUB-Birds200. We also demonstrated significant results on fine-grained audio classification tasks such as the LifeCLEF 2015 bird species identification challenge by proposing a temporal extension of our image representation. Finally, we notably showed that our dimensionality reduction technique used on top of our representation resulted in highly interpretable visual vocabulary composed of the most representative image regions for different visual concepts of the training base
APA, Harvard, Vancouver, ISO, and other styles
20

Enéa, Drapeau Claire. "Stéréotype explicite et implicite des personnes porteuses de trisomie 21. Relations entre typicalité du visage, jugement sur l'intelligence et niveau cognitif." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM3104.

Full text
Abstract:
La trisomie 21 (t21) est l'anomalie génétique la plus fréquente à l'origine d'une déficience intellectuelle. Bien que la recherche concernant le stéréotype social de la t21 soit limitée, les personnes porteuses de t21, et particulièrement les enfants, semblent être associées à des traits de personnalité tels que « affectueux » et « heureux », les caractéristiques positives l'emportant sur les négatives comme « retardé ». Cependant, ce stéréotype positif coexiste avec des attitudes ambivalentes notamment à propos de l'intégration scolaire de ces enfants. L'objectif principal de cette thèse est d'étudier ce stéréotype au niveau implicite ainsi que l'impact des caractéristiques faciales sur le stéréotype au niveau explicite et implicite. Nos résultats confirment d'une part, un stéréotype social positif explicite dans des échantillons d'étudiants, d'adultes non étudiant et de professionnels du handicap intellectuel. Les visages d'enfants présentant plus de traits faciaux associés à la t21 sont associés à un stéréotype moins positif que ceux en présentant moins. D'autre part, nous mettons en évidence un stéréotype négatif au niveau implicite, même chez les professionnels du handicap. Nous étudions l'influence des variables individuelles sexe, familiarité avec la t21 et théories implicites de l'intelligence sur le stéréotype explicite et implicite. Puis, nous montrons une relation négative entre la typicalité des visages et le jugement sur l'intelligence alors que nous n'observons pas de relation significative entre la typicalité des visages et le niveau cognitif. Nous discutons l'implication de ces résultats sur l'étude du stéréotype et sur les personnes stigmatisées
Trisomy 21 (t21) or Down syndrome is the most frequent genetic disorder associated with intellectual disability. Although research on the social stereotype toward t21 is very limited, it seems that persons with t21 are typically viewed as “affectionate” and “happy”; with positive personality traits prevailing over the negative ones (e.g., “mentally retarded”). However, this positive stereotype coexists with ambivalent attitudes. The main objective of this study was to investigate the stereotype at the implicit level and the impact of t21 facial features on the stereotype of t21 at the both explicit and implicit levels. Our results confirm, on one hand, a positive social stereotype explicit in samples of young adult students, non-student adults and professional caregivers working with intellectually disabled persons. The positive bias typically found in explicit judgments of children with t21 is smaller for those whose facial features are highly characteristic of this disorder, compared to their counterparts with less distinctive features and to typically developing children. On the other hand, we also show that this bias can coexist with negative evaluations at the implicit level, even among professional caregivers but to a lesser extent. We study the influence of individual variables sex, familiarity with the t21 and implicit theories of intelligence on explicit and implicit stereotypes. Finally, we show a negative relationship between t21 typicality of faces and the judgment of the intelligence as we do not observe a significant relationship between typicality and the cognitive level. We discuss the implications of these results
APA, Harvard, Vancouver, ISO, and other styles
21

Vavula, Tatiana. "Approche idéographique et relationnelle des prépositions russes /v/ [dans, en…] et /na/ [sur, à…]." Thesis, Paris 4, 2012. http://www.theses.fr/2012PA040106/document.

Full text
Abstract:
Dans cette thèse, nous abordons la question de l’identité sémantique respective des prépositions russes в (/v/) et на (/na/) en établissant pour chacune d’elles un schéma relationnel de base, en construisant leur configuration idéographique, en regroupant leurs relations sémantiques dans le but d’expliquer les emplois polysémiques de ces prépositions. Nous considérons la signification de la préposition comme un réseau complexe, où le sens abstrait de la préposition est précisé par un nombre d’éléments sémantiques (traits idéographiques et relationnels) qui font partie du contexte dans lequel se fixent les différents champs d’application de la préposition. Les systèmes prépositionnels du russe et du français ne sont pas identiques car les champs sémantico-relationnels des prépositions dans les deux langues sont différents : le caractère de la relation (l’activation des traits idéographiques) et le nombre d’entités mises en rapport, régies par telle ou telle préposition, diffèrent d’une langue à l’autre
The thesis tackles the question of the semantic identity of the Russian prepositions « в » and « нa » establishing for each of them a relational basic scheme, by building their ideographic configuration, by grouping together their semantic relations in order to explain the polysemous use of them. It is argued that the meaning of the preposition is a complex system, where the abstract meaning of the preposition is specified by a number of semantic elements (ideographic and relational features) which are part of the context in which settle the various fields of application of the preposition. The Russian and French prepositional systems diverge because the semantico-relational fields of the prepositions are different in both languages : the character of the relation (activation of the ideographic features) and the number of entities in contact, governed by such or such preposition, differ from one language to another
APA, Harvard, Vancouver, ISO, and other styles
22

Penne, Thomas. "Développement d'un système de tracking vidéo sur caméra robotisée." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00822117.

Full text
Abstract:
Ces dernières années se caractérisent par la prolifération des systèmes de vidéo-surveillance et par l'automatisation des traitements que ceux-ci intègrent. Parallèlement, le problème du suivi d'objets est devenu en quelques années un problème récurrent dans de nombreux domaines et notamment en vidéo-surveillance. Dans le cadre de cette thèse, nous proposons une nouvelle méthode de suivi d'objet, basée sur la méthode Ensemble Tracking et intégrant deux améliorations majeures. La première repose sur une séparation de l'espace hétérogène des caractéristiques en un ensemble de sous-espaces homogènes appelés modules et sur l'application, sur chacun d'eux, d'un algorithme basé Ensemble Tracking. La seconde adresse, quant à elle, l'apport d'une solution à la nouvelle problématique de suivi induite par cette séparation des espaces, à savoir la construction d'un filtre particulaire spécifique exploitant une pondération des différents modules utilisés afin d'estimer à la fois, pour chaque image de la séquence, la position et les dimensions de l'objet suivi, ainsi que la combinaison linéaire des différentes décisions modulaires conduisant à l'observation la plus discriminante. Les différents résultats que nous présentons illustrent le bon fonctionnement global et individuel de l'ensemble des propriétés spécifiques de la méthode et permettent de comparer son efficacité à celle de plusieurs algorithmes de suivi de référence. De plus, l'ensemble des travaux a fait l'objet d'un développement industriel sur les consoles de traitement de la société partenaire. En conclusion de ces travaux, nous présentons les perspectives que laissent entrevoir ces développements originaux, notamment en exploitant les possibilités offertes par la modularité de l'algorithme ou encore en rendant dynamique le choix des modules utilisés en fonction de l'efficacité de chacun dans une situation donnée.
APA, Harvard, Vancouver, ISO, and other styles
23

Ali, Cheikhmous. "Recherches sur les représentations architecturales dans la glyptique du Proche-Orient ancien." Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00869944.

Full text
Abstract:
Les représentations architecturales que nous donne à voir la glyptique du Proche-Orient ancien constituent une source primordiale d'informations sur l'art de bâtir dans cette région du IVe au Ier millénaire av. J.-C.,car les édifices, généralement en briques crue, sont la plupart du temps mal conservés. Le but de cette recherche est donc de recenser tous les motifs architecturaux présents sur sceaux ou sur empreintes et de les réunir dans un corpus qui sert de base à une vaste exploration de l'architecture mésopotamienne à travers son iconographie, les bâtiments trouvés en fouille, les formes du pouvoir qu'ils manifestent et l'ethnographie. Notre réflexion s'articulera autour de trois axes. D'une part, nous mènerons une étude analytique consistant à décomposer chaque façade pour évaluer la fiabilité des éléments iconographiques dont elle se compose (ouvertures, décors muraux, toits, etc.) et déterminer s'ils reflètent une réalité architecturale. Cette analyse est fondée sur des comparaisons avec des représentations attestées sur d'autres supports (plaquettes,tablettes, bas-reliefs, maquettes, etc.), mais aussi avec des vestiges architecturaux découverts en fouille et des exemples d'architecture traditionnelle. D'autre part, nous recomposons chaque façade pour établir une typologie formelle, confronter les figurations glyptiques à l'architecture réelle et définir dans quelle mesure nous pourrions les exploiter pour restituer certains monuments, tout ou partie (au moins l'une des élévations,la forme du toit, etc.), mis au jour sur des sites archéologiques. Enfin, face aux lacunes et aux incertitudes concernant la fonction de certains monuments antiques (civile, religieuse ou militaire), les sceaux et les empreintes sur argile, en grand nombre pour certaines périodes, sont susceptibles de nous fournir des éléments de réponse. Ce travail de recherche comprend trois tomes :Tome 1, Texte - Tome 2, Façades iconographiques accompagnées de leur fiche analytique, le tout gravé sur un CD-ROM- Tome 3, Planches.
APA, Harvard, Vancouver, ISO, and other styles
24

Christoff, Vesselinova Nicole. "Détection et caractérisation d'attributs géométriques sur les corps rocheux du système solaire." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0565/document.

Full text
Abstract:
L’un des défis de la science planétaire est la détermination de l’âge des surfaces des différents corps célestes du système solaire, pour comprendre leurs processus de formation et d’évolution. Une approche repose sur l’analyse de la densité et de la taille des cratères d’impact. En raison de l’énorme quantité de données à traiter, des approches automatiques ont été proposées pour détecter les cratères d’impact afin de faciliter ce processus de datation. Ils utilisent généralement les valeurs de couleur des images ou les valeurs d’altitude de "modèles numériques d’élévation" (DEM). Dans cette thèse, nous proposons une nouvelle approche pour détecter les bords des cratères. L’idée principale est de combiner l’analyse de la courbure avec une classification basée sur un réseau de neurones. Cette approche comporte deux étapes principales : premièrement, chaque sommet du maillage est étiqueté avec la valeur de la courbure minimale; deuxièmement, cette carte de courbure est injectée dans un réseau de neurones pour détecter automatiquement les formes d’intérêt. Les résultats montrent que la détection des formes est plus efficace en utilisant une carte en deux dimensions s’appuyant sur le calcul d’estimateurs différentiels discrets, plutôt qu’en utilisant la valeur de l’élévation en chaque sommet. Cette approche réduit significativement le nombre de faux négatifs par rapport aux approches précédentes basées uniquement sur une information topographique. La validation de la méthode est effectuée sur des DEM de Mars, acquis par un altimètre laser à bord de la sonde spatiale "Mars Global Surveyor" de la NASA et combinés avec une base de données de cratères identifiés manuellement
One of the challenges of planetary science is the age determination of the surfaces of the different celestial bodies in the solar system, to understand their formation and evolution processes. An approach relies on the analysis of the crater impact density and size. Due to the huge quantity of data to process, automatic approaches have been proposed for automatically detecting impact craters in order to facilitate this dating process. They generally use the color values from images or the elevation values from Digital Elevation Model (DEM). In this PhD thesis, we propose a new approach for detecting craters rims. The main idea is to combine curvature analysis with Neural Network based classification. This approach contains two main steps: first, each vertex of the mesh is labeled with the value of the minimal curvature; second, this curvature map is injected into a neural network to automatically detect the shapes of interest. The results show that detecting forms are more efficient using a two-dimensional map based on the computation of discrete differential estimators, than by the value of the elevation at each vertex. This approach significantly reduces the number of false negatives compared to previous approaches based on topographic information only. The validation of the method is performed on DEMs of Mars, acquired by a laser altimeter aboard NASA’s Mars Global Surveyor spacecraft and combined with a database of manually identified craters
APA, Harvard, Vancouver, ISO, and other styles
25

Mounirou, Lawani A. "Etude du ruissellement et de l’érosion à différentes échelles spatiales sur le bassin versant de Tougou en zone sahélienne du Burkina Faso : quantification et transposition des données." Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20039/document.

Full text
Abstract:
La variabilité spatio-temporelle du ruissellement et de l'érosion hydrique n'est pas un fait nouveau. Leurs caractéristiques s'estiment généralement avec une marge raisonnable sur des parcelles d'un à quelques dizaines de m². Avec l'accroissement de la surface, l'hétérogénéité du milieu croît ce qui induit un effet d'échelle. Le passage de la parcelle au bassin versant n'est pas totalement maîtrisé compte tenu de la complexité et de la variabilité des facteurs mis en jeu. L'objectif de cette thèse est de comprendre les processus de ruissellement et de l'érosion dans différents environnements et à différentes échelles spatiales, d'identifier les sources de variation, puis de développer une méthodologie de transposition des résultats de l'échelle parcellaire à l'exutoire du bassin versant. À cet effet, un réseau de dix-huit parcelles expérimentales de différentes tailles, de deux unités hydrologiques ont permis de quantifier le ruissellement et les pertes en terre sur les principaux états de surface du bassin versant de Tougou.Les résultats obtenus sur les micro-parcelles de 1m², les parcelles de 50 et 150m², les unités hydrologiques de 6 et 34 ha et le bassin versant de 37km², montrent que, tant sur sols cultivés que sur sols dénudés, la lame ruisselée ainsi que les pertes en terres diminuent lorsque la superficie augmente, pour une même pluie et dans des conditions comparables d'humidité préalable des sols. Ce phénomène d'effet d'échelle de la superficie sur l'écoulement et l'érosion est connu des hydrologues qui se heurtent toujours à l'écueil de l'extrapolation des résultats obtenus sur petites superficies à des superficies plus grandes. Nos résultats montrent que l'effet d'échelle observé sur le ruissellement et l'érosion est dû principalement à l'hétérogénéité spatiale des sols (propriétés hydrodynamiques, microrelief) et à sa variabilité (état des variables) et que la dynamique temporelle de l'intensité de la pluie ne fait que l'amplifier.Les résultats obtenus lors des essais de transposition permettent de soutenir avec raison qu'une meilleure extrapolation des données de l'échelle parcellaire à l'échelle du bassin viendra de la prise en compte des questions de la connectivité hydrologique.En définitive, cette étude met en avant l'intérêt d'effectuer des mesures de ruissellement et d'érosion sur des unités homogènes en termes d'occupation du sol qui peuvent représenter une mosaïque hétérogène de surfaces homogènes. La localisation sur le bassin versant et le taux de connectivité de ces unités hydrologiques à l'intérieur desquelles les processus dominants du ruissellement et d'érosion se manifestent peuvent permettre d'approcher la résolution du problème de transfert d'échelle
The spatio-temporal variability of runoff and erosion is not new fact. Their characteristics are generally estimated with a reasonable margin on plots of a few tens of square meters. With the increase of the surface, the heterogeneity of environment increases which induces a scale effect. The passage of the plot to the catchment is not totally controlled because of the complexity and variability of factors come into play. The objective of this thesis is to understand the processes of runoff and erosion in different environments and at different spatial scales, to identify the sources of variation, and to develop a methodology for implementation of the results of field scale to the basin outlet. To this end, a network of eighteen plots of different sizes, two hydrological units were used to quantify runoff and soil loss on the main surface features Watershed Tougou.The results obtained on micro-plots of 1 m², plots of 50 and 150 m², hydrologic units of 6 and 34 ha and the catchment area of 37 km², show that, both in cultivated soils and on bare soils, the runoff excess decreases as the area increases, for the same rain and prior comparable humidity conditions of the soil. This phenomenon of the scale effect of the area on runoff is known to hydrologists who still face the challenge of extrapolating results obtained on small areas to larger areas. Our results show that the scale effect observed on the runoff is mainly due to the spatial heterogeneity of soils (hydraulic properties, microrelief) and its variability (state of the variables) and that temporal dynamics of the intensity of rain just amplifies it. The results obtained in tests of transposition can maintain with reason that a better extrapolation of data from the field scale across the pond comes from the consideration of the issues of hydrologic connectivity.Ultimately, this study highlights the value of measurements of runoff on homogeneous units in terms of land use that may represent a heterogeneous mosaic of homogeneous areas. The location on the watershed and the rate of connectivity of the hydrologic units within which the dominant processes of runoff occur can allow approach the solution of the problem of scale transfer
APA, Harvard, Vancouver, ISO, and other styles
26

Němec, Lukáš. "Lokalizace mobilního robota v prostředí." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2016. http://www.nusl.cz/ntk/nusl-255455.

Full text
Abstract:
This paper addresses the problem of mobile robot localization based on current 2D and 3D data and previous records. Focusing on practical loop detection in the trajectory of a robot. The objective of this work was to evaluate current methods of image processing and depth data for issues of localization in environment. This work uses Bag of Words for 2D data and environment of point cloud with Viewpoint Feature Histogram for 3D data. Designed system was implemented and evaluated.
APA, Harvard, Vancouver, ISO, and other styles
27

Pagliaro, Sarah Beatriz De Oliveira. "Transcriptional control induced by bcr-abl and its role in leukemic stem cell heterogeneity. Single-Cell Transcriptome in Chronic Myeloid Leukemia: Pseudotime Analysis Reveals Evidence of Embryonic and Transitional Stem Cell States Single Cell Transcriptome in Chronic Myeloid Leukemia (CML): Pseudotime Analysis Reveals a Rare Population with Embryonic Stem Cell Features and Druggable Intricated Transitional Stem Cell States A novel neuronal organoid model mimicking glioblastoma (GBM) features from induced pluripotent stem cells (iPSC) Experimental and integrative analyses identify an ETS1 network downstream of BCR-ABL in chronic myeloid leukemia (CML)." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASQ032.

Full text
Abstract:
La leucémie myéloïde chronique est une hématopoïèse maligne clonale, caractérisée par l'acquisition de la translocation t (9;22) conduisant au chromosome Ph1 et à son homologue l'oncogène BCR-ABL, dans une cellule souche hématopoïétique très primitive. La LMC est un modèle de thérapies ciblées, car il a été démontré que la preuve de la faisabilité du ciblage de l'activité tyrosine kinase (TK) BCR-ABL à l'aide d'inhibiteurs de TK (TKI) entraîne des réponses et des rémissions majeures. Cependant, les problèmes actuels rencontrés dans ces thérapies sont la résistance des cellules souches leucémiques primitives et leur persistance qui serait liée à l'hétérogénéité des cellules souches au moment du diagnostic, ce qui conduit à la sélection clonale de cellules résistant aux thérapies TKI. J'ai appliqué la technologie de l'analyse du transcriptome des cellule uniques aux cellules de la LMC en utilisant un panel de gènes impliqués dans différentes voies, combinée à l'analyse d'inférence de trajectoire au modèle d'expression des gènes. Les résultats ont montré un état transitoire des cellules souches comprenant des gènes embryonnaires identifiés dans les cellules de la LMC au moment du diagnostic, ce qui pourrait contribuer à la résistance et à la persistance de la LSC. En outre, l'oncoprotéine Bcr-Abl est la tyrosine kinase constitutivement active produite par le gène chimérique BCR-ABL dans la leucémie myéloïde chronique (LMC). Les cibles transcriptionnelles de Bcr-Abl dans les cellules leucémiques n'ont pas été étudiées de manière approfondie. Une expérience de transcriptome utilisant la lignée cellulaire UT7 hématopoïétique exprimant BCR-ABL, a identifié la surexpression du facteur d'élongation eucaryote kinase 2 (eEF2K) qui joue un rôle majeur dans la survie des cellules en cas de privation de nutriments. Dans l'ensemble, les données suggèrent que la surexpression de eEF2K dans la LMC est associée à une sensibilité accrue à la privation de nutriments
Chronic myeloid leukemia is a clonal hematopoietic malignancy, characterized by the acquisition of the t (9;22) translocation leading to Ph1 chromosome and its counterpart BCR-ABL oncogene, in a very primitive hematopoietic stem cell. CML is a model of targeted therapies as the proof of concept of the feasibility of targeting the tyrosine kinase (TK) activity BCR-ABL using TK inhibitors (TKI) has been shown to lead to major responses and remissions. However, the current problems encountered in these therapies are primitive leukemic stem cells resistance and their persistence which is thought to be related to the heterogeneity of the stem cells at diagnosis leading to clonal selection of cells resisting to TKI therapies. I have applied the technology of single cell transcriptome analysis to CML cells using a panel of genes involved in different pathways combined with trajectory inference analysis to the gene expression pattern. The results showed a transitional stem cell states including embryonic genes identified in CML cells at diagnosis which could contribute to LSC resistance and persistence. Furthermore, the oncoprotein Bcr-Abl is the constitutively active tyrosine kinase produced by the chimeric BCR-ABL gene in chronic myeloid leukemia (CML). The transcriptional targets of Bcr-Abl in leukemic cells have not been extensively studied. A transcriptome experiment using the hematopoietic UT7 cell line expressing BCR-ABL, has identified the overexpression of eukaryotic elongation factor kinase 2 (eEF2K) which plays a major role in the survival of cells upon nutrient deprivation. Overall, the data suggest that overexpression of eEF2K in CML is associated with an increased sensitivity to nutrient-deprivation
APA, Harvard, Vancouver, ISO, and other styles
28

Sellami, Akrem. "Interprétation sémantique d'images hyperspectrales basée sur la réduction adaptative de dimensionnalité." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0037/document.

Full text
Abstract:
L'imagerie hyperspectrale permet d'acquérir des informations spectrales riches d'une scène dans plusieurs centaines, voire milliers de bandes spectrales étroites et contiguës. Cependant, avec le nombre élevé de bandes spectrales, la forte corrélation inter-bandes spectrales et la redondance de l'information spectro-spatiale, l'interprétation de ces données hyperspectrales massives est l'un des défis majeurs pour la communauté scientifique de la télédétection. Dans ce contexte, le grand défi posé est la réduction du nombre de bandes spectrales inutiles, c'est-à-dire de réduire la redondance et la forte corrélation de bandes spectrales tout en préservant l'information pertinente. Par conséquent, des approches de projection visent à transformer les données hyperspectrales dans un sous-espace réduit en combinant toutes les bandes spectrales originales. En outre, des approches de sélection de bandes tentent à chercher un sous-ensemble de bandes spectrales pertinentes. Dans cette thèse, nous nous intéressons d'abord à la classification d'imagerie hyperspectrale en essayant d'intégrer l'information spectro-spatiale dans la réduction de dimensions pour améliorer la performance de la classification et s'affranchir de la perte de l'information spatiale dans les approches de projection. De ce fait, nous proposons un modèle hybride permettant de préserver l'information spectro-spatiale en exploitant les tenseurs dans l'approche de projection préservant la localité (TLPP) et d'utiliser l'approche de sélection non supervisée de bandes spectrales discriminantes à base de contraintes (CBS). Pour modéliser l'incertitude et l'imperfection entachant ces approches de réduction et les classifieurs, nous proposons une approche évidentielle basée sur la théorie de Dempster-Shafer (DST). Dans un second temps, nous essayons d'étendre le modèle hybride en exploitant des connaissances sémantiques extraites à travers les caractéristiques obtenues par l'approche proposée auparavant TLPP pour enrichir la sélection non supervisée CBS. En effet, l'approche proposée permet de sélectionner des bandes spectrales pertinentes qui sont à la fois informatives, discriminantes, distinctives et peu redondantes. En outre, cette approche sélectionne les bandes discriminantes et distinctives en utilisant la technique de CBS en injectant la sémantique extraite par les techniques d'extraction de connaissances afin de sélectionner d'une manière automatique et adaptative le sous-ensemble optimal de bandes spectrales pertinentes. La performance de notre approche est évaluée en utilisant plusieurs jeux des données hyperspectrales réelles
Hyperspectral imagery allows to acquire a rich spectral information of a scene in several hundred or even thousands of narrow and contiguous spectral bands. However, with the high number of spectral bands, the strong inter-bands spectral correlation and the redundancy of spectro-spatial information, the interpretation of these massive hyperspectral data is one of the major challenges for the remote sensing scientific community. In this context, the major challenge is to reduce the number of unnecessary spectral bands, that is, to reduce the redundancy and high correlation of spectral bands while preserving the relevant information. Therefore, projection approaches aim to transform the hyperspectral data into a reduced subspace by combining all original spectral bands. In addition, band selection approaches attempt to find a subset of relevant spectral bands. In this thesis, firstly we focus on hyperspectral images classification attempting to integrate the spectro-spatial information into dimension reduction in order to improve the classification performance and to overcome the loss of spatial information in projection approaches.Therefore, we propose a hybrid model to preserve the spectro-spatial information exploiting the tensor model in the locality preserving projection approach (TLPP) and to use the constraint band selection (CBS) as unsupervised approach to select the discriminant spectral bands. To model the uncertainty and imperfection of these reduction approaches and classifiers, we propose an evidential approach based on the Dempster-Shafer Theory (DST). In the second step, we try to extend the hybrid model by exploiting the semantic knowledge extracted through the features obtained by the previously proposed approach TLPP to enrich the CBS technique. Indeed, the proposed approach makes it possible to select a relevant spectral bands which are at the same time informative, discriminant, distinctive and not very redundant. In fact, this approach selects the discriminant and distinctive spectral bands using the CBS technique injecting the extracted rules obtained with knowledge extraction techniques to automatically and adaptively select the optimal subset of relevant spectral bands. The performance of our approach is evaluated using several real hyperspectral data
APA, Harvard, Vancouver, ISO, and other styles
29

Khoualed, Samir. "Descripteurs augmentés basés sur l'information sémantique contextuelle." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00853815.

Full text
Abstract:
Les techniques de description des éléments caractéristiques d'une image sont omniprésentes dans de nombreuses applications de vision par ordinateur. Nous proposons à travers ce manuscrit une extension, pour décrire (représenter) et apparier les éléments caractéristiques des images. L'extension proposée consiste en une approche originale pour apprendre, ou estimer, la présence sémantique des éléments caractéristiques locaux dans les images. L'information sémantique obtenue est ensuite exploitée, en conjonction avec le paradigme de sac-de-mots, pour construire un descripteur d'image performant. Le descripteur résultant, est la combinaison de deux types d'informations, locale et contextuelle-sémantique. L'approche proposée peut être généralisée et adaptée à n'importe quel descripteur local d'image, pour améliorer fortement ses performances spécialement quand l'image est soumise à des conditions d'imagerie contraintes. La performance de l'approche proposée est évaluée avec des images réelles aussi bien dans les deux domaines, 2D que 3D. Nous avons abordé dans le domaine 2D, un problème lié à l'appariement des éléments caractéristiques dans des images. Dans le domaine 3D, nous avons résolu les problèmes d'appariement et alignement des vues partielles tridimensionnelles. Les résultats obtenus ont montré qu'avec notre approche, les performances sont nettement meilleures par rapport aux autres méthodes existantes.
APA, Harvard, Vancouver, ISO, and other styles
30

Kacem, Sahraoui Ameni. "Personalized information retrieval based on time-sensitive user profile." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30111/document.

Full text
Abstract:
Les moteurs de recherche, largement utilisés dans différents domaines, sont devenus la principale source d'information pour de nombreux utilisateurs. Cependant, les Systèmes de Recherche d'Information (SRI) font face à de nouveaux défis liés à la croissance et à la diversité des données disponibles. Un SRI analyse la requête soumise par l'utilisateur et explore des collections de données de nature non structurée ou semi-structurée (par exemple : texte, image, vidéo, page Web, etc.) afin de fournir des résultats qui correspondent le mieux à son intention et ses intérêts. Afin d'atteindre cet objectif, au lieu de prendre en considération l'appariement requête-document uniquement, les SRI s'intéressent aussi au contexte de l'utilisateur. En effet, le profil utilisateur a été considéré dans la littérature comme l'élément contextuel le plus important permettant d'améliorer la pertinence de la recherche. Il est intégré dans le processus de recherche d'information afin d'améliorer l'expérience utilisateur en recherchant des informations spécifiques. Comme le facteur temps a gagné beaucoup d'importance ces dernières années, la dynamique temporelle est introduite pour étudier l'évolution du profil utilisateur qui consiste principalement à saisir les changements du comportement, des intérêts et des préférences de l'utilisateur en fonction du temps et à actualiser le profil en conséquence. Les travaux antérieurs ont distingué deux types de profils utilisateurs : les profils à court-terme et ceux à long-terme. Le premier type de profil est limité aux intérêts liés aux activités actuelles de l'utilisateur tandis que le second représente les intérêts persistants de l'utilisateur extraits de ses activités antérieures tout en excluant les intérêts récents. Toutefois, pour les utilisateurs qui ne sont pas très actifs dont les activités sont peu nombreuses et séparées dans le temps, le profil à court-terme peut éliminer des résultats pertinents qui sont davantage liés à leurs intérêts personnels. Pour les utilisateurs qui sont très actifs, l'agrégation des activités récentes sans ignorer les intérêts anciens serait très intéressante parce que ce type de profil est généralement en évolution au fil du temps. Contrairement à ces approches, nous proposons, dans cette thèse, un profil utilisateur générique et sensible au temps qui est implicitement construit comme un vecteur de termes pondérés afin de trouver un compromis en unifiant les intérêts récents et anciens. Les informations du profil utilisateur peuvent être extraites à partir de sources multiples. Parmi les méthodes les plus prometteuses, nous proposons d'utiliser, d'une part, l'historique de recherche, et d'autre part les médias sociaux
Recently, search engines have become the main source of information for many users and have been widely used in different fields. However, Information Retrieval Systems (IRS) face new challenges due to the growth and diversity of available data. An IRS analyses the query submitted by the user and explores collections of data with unstructured or semi-structured nature (e.g. text, image, video, Web page etc.) in order to deliver items that best match his/her intent and interests. In order to achieve this goal, we have moved from considering the query-document matching to consider the user context. In fact, the user profile has been considered, in the literature, as the most important contextual element which can improve the accuracy of the search. It is integrated in the process of information retrieval in order to improve the user experience while searching for specific information. As time factor has gained increasing importance in recent years, the temporal dynamics are introduced to study the user profile evolution that consists mainly in capturing the changes of the user behavior, interests and preferences, and updating the profile accordingly. Prior work used to discern short-term and long-term profiles. The first profile type is limited to interests related to the user's current activities while the second one represents user's persisting interests extracted from his prior activities excluding the current ones. However, for users who are not very active, the short-term profile can eliminate relevant results which are more related to their personal interests. This is because their activities are few and separated over time. For users who are very active, the aggregation of recent activities without ignoring the old interests would be very interesting because this kind of profile is usually changing over time. Unlike those approaches, we propose, in this thesis, a generic time-sensitive user profile that is implicitly constructed as a vector of weighted terms in order to find a trade-off by unifying both current and recurrent interests. User profile information can be extracted from multiple sources. Among the most promising ones, we propose to use, on the one hand, searching history. Data from searching history can be extracted implicitly without any effort from the user and includes issued queries, their corresponding results, reformulated queries and click-through data that has relevance feedback potential. On the other hand, the popularity of Social Media makes it as an invaluable source of data used by users to express, share and mark as favorite the content that interests them
APA, Harvard, Vancouver, ISO, and other styles
31

Silalahi, Parsaoran. "Evaluation expérimentale des effets de la sélection sur des caractères de reproduction et de robustesse dans une population de porcs Large White." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLA009/document.

Full text
Abstract:
Des progrès importants ont été obtenus dans les principales populations porcines pour les caractères inclus dans l'objectif de reproduction, à savoir la croissance, l'efficacité alimentaire, la composition de la carcasse et, dans les lignées maternelles, la prolificité des truies. Les animaux sélectionnés pour une forte efficacité productive peuvent être particulièrement sensibles à des problèmes comportementaux, physiologiques ou immunologiques, c'est-à-dire être moins robustes. Ces effets défavorables de la sélection sont souvent difficiles à mettre en évidence, car les caractères correspondants ne sont pas systématiquement enregistrés dans les programmes de sélection. L'utilisation d’un stock de sperme congelé est une méthode élégante pour estimer les évolutions génétiques pour un grand nombre de caractères (habituellement non enregistrés). Deux groupes expérimentaux (L77 et L98) ont été produits par l'insémination de truies LW, nées en 1997-1998, soit avec du sperme congelé stocké à partir des verrats LW de 1977, soit avec du sperme frais de verrats nés en 1998. Cette étude a montré que deux décennies de sélection ont permis des progrès importants pour les principaux caractères d'intérêt, mais ont également affecté de façon défavorable des caractères tels que la longévité, le risque de mortalité, la variabilité de caractères, qui suggèrent un effet défavorable de la sélection sur la robustesse des porcs. Nos résultats soulignent la nécessité d'intégrer des caractères liés à la robustesse dans l'objectif de sélection des populations porcines. Il est donc nécessaire de poursuivre les recherches afin de mieux caractériser les différentes composantes de la robustesse et leur impact sur l’efficience, le bien-être et la santé des porcs afin de pouvoir définir les objectifs de sélection les plus pertinents pour l’avenir
Large improvements have been obtained in major pig populations for traits included in the breeding goal, i.e. growth, feed efficiency, carcass composition and, in maternal lines, sow prolificacy. Animals selected for high production efficiency may in particular be more sensitive to behavioral, physiological, or immunological problems, I.e., be less robust. These adverse effects of selection are often difficult to reveal, as corresponding traits are not routinely recorded in breeding programs. The use of stored frozen semen has been shown to be an elegant method to estimate genetic trends for a large number of (usually not recorded) traits. Two experimental groups (L77 and L98) were produced by inseminating French Large White (LW) sows born in 1997-1998 with either stored frozen semen from the above-mentioned 1977 LW boars or with fresh semen from LW boars born in 1998. This study has shown that 2 decades of selection have resulted in large gains for major traits of interest, but have also adversely affected traits such as longevity, risk of mortality, trait variability, which tend to indicate an unfavorable effect of selection on pig robustness. Our results stress the necessity to integrate robustness related traits in the breeding goal of pig populations. Thus, further research is needed to better characterize the different components of robustness and their impact on pig efficiency, welfare and health to be able to define the most relevant breeding objectives for the future
APA, Harvard, Vancouver, ISO, and other styles
32

Bernard, Anne. "Développement de méthodes statistiques nécessaires à l'analyse de données génomiques : application à l'influence du polymorphisme génétique sur les caractéristiques cutanées individuelles et l'expression du vieillissement cutané." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2013. http://tel.archives-ouvertes.fr/tel-00925074.

Full text
Abstract:
Les nouvelles technologies développées ces dernières années dans le domaine de la génétique ont permis de générer des bases de données de très grande dimension, en particulier de Single Nucleotide Polymorphisms (SNPs), ces bases étant souvent caractérisées par un nombre de variables largement supérieur au nombre d'individus. L'objectif de ce travail a été de développer des méthodes statistiques adaptées à ces jeux de données de grande dimension et permettant de sélectionner les variables les plus pertinentes au regard du problème biologique considéré. Dans la première partie de ce travail, un état de l'art présente différentes méthodes de sélection de variables non supervisées et supervisées pour 2 blocs de variables et plus. Dans la deuxième partie, deux nouvelles méthodes de sélection de variables non supervisées de type "sparse" sont proposées : la Group Sparse Principal Component Analysis (GSPCA) et l'Analyse des Correspondances Multiples sparse (ACM sparse). Vues comme des problèmes de régression avec une pénalisation group LASSO elles conduisent à la sélection de blocs de variables quantitatives et qualitatives, respectivement. La troisième partie est consacrée aux interactions entre SNPs et dans ce cadre, une méthode spécifique de détection d'interactions, la régression logique, est présentée. Enfin, la quatrième partie présente une application de ces méthodes sur un jeu de données réelles de SNPs afin d'étudier l'influence possible du polymorphisme génétique sur l'expression du vieillissement cutané au niveau du visage chez des femmes adultes. Les méthodes développées ont donné des résultats prometteurs répondant aux attentes des biologistes, et qui offrent de nouvelles perspectives de recherches intéressantes
APA, Harvard, Vancouver, ISO, and other styles
33

Nguyen, Thanh-Khoa. "Image segmentation and extraction based on pixel communities." Thesis, La Rochelle, 2019. http://www.theses.fr/2019LAROS035.

Full text
Abstract:
La segmentation d’images est devenue une tâche indispensable largement utilisée dans plusieurs applications de traitement d’images, notamment la détection d’objets, le suivi d’objets, l’assistance automatique à la conduite et les systèmes de contrôle du trafic, etc. La littérature regorge d’algorithmes permettant de réaliser des tâches de segmentation d’images. Ces méthodes peuvent être divisées en groupes principaux en fonction des approches sous-jacentes, telles que la segmentation d'images basée sur les régions, la classification basée sur les caractéristiques de l'image, les approches basées sur les graphes et la segmentation d'images basée sur les réseaux de neurones. Récemment, l'analyse de réseaux sociaux a proposé de nombreuses théories et méthodologies. En particulier, des techniques de segmentation d’images basées sur des algorithmes de détection de communautés ont été proposées et forment une famille d'approches visible dans la littérature. Dans cette thèse, nous proposons un nouveau cadre pour la segmentation d'images basée sur la détection de communautés. Si l'idée de base d'utiliser le domaine de l'analyse des réseaux sociaux dans la segmentation de l'image est tout à fait séduisante, la manière dont les algorithmes de détection de communautés peuvent être appliqués efficacement à la segmentation d'images est un sujet qui continue à interroger. L’apport de cette thèse est un effort pour construire de manière pertinente des meilleurs réseaux complexes en fonction de l'application, des méthodes utilisées pour la détection de communautés et pour proposer de nouvelles méthodes pour agréger les régions homogènes afin de produire de bonnes segmentations d’images.Par ailleurs, nous proposons également un système de recherche d’images par le contenu (content-based image retrieval) utilisant les mêmes caractéristiques que celles obtenues par les processus de segmentation d’images. Le moteur de recherche d'images proposé fonctionne pour des images de scènes naturelles et permet de rechercher les images les plus similaires à l'image requête. Ce moteur de recherche d’images par le contenu repose sur l’utilisation des régions extraites comme mots visuels dans le modèle Bag-of-Visual-Words. Ceci permet de valider la généricité de notre approche de segmentation d’images à partir de réseaux complexes et son utilisation dans plusieurs domaines d'applications liés au traitement d’images et de vision par ordinateur. Nos méthodes ont été testées sur plusieurs jeux de données et évaluées en utilisant différentes mesures classiques de la qualité d'une segmentation. Les méthodes proposées produisent des segmentations d'image dont la qualité est supérieure à l'état de l'art
Image segmentation has become an indispensable task that is widely employed in several image processing applications including object detection, object tracking, automatic driver assistance, and traffic control systems, etc. The literature abounds with algorithms for achieving image segmentation tasks. These methods can be divided into some main groups according to the underlying approaches, such as Region-based image segmentation, Feature-based clustering, Graph-based approaches and Artificial Neural Network-based image segmentation. Recently, complex networks have mushroomed both theories and applications as a trend of developments. Hence, image segmentation techniques based on community detection algorithms have been proposed and have become an interesting discipline in the literature. In this thesis, we propose a novel framework for community detection based image segmentation. The idea that brings social networks analysis domain into image segmentation quite satisfies with most authors and harmony in those researches. However, how community detection algorithms can be applied in image segmentation efficiently is a topic that has challenged researchers for decades. The contribution of this thesis is an effort to construct best complex networks for applying community detection and proposal novel agglomerate methods in order to aggregate homogeneous regions producing good image segmentation results. Besides, we also propose a content based image retrieval system using the same features than the ones obtained by the image segmentation processes. The proposed image search engine for real images can implement to search the closest similarity images with query image. This content based image retrieval relies on the incorporation of our extracted features into Bag-of-Visual-Words model. This is one of representative applications denoted that image segmentation benefits several image processing and computer visions applications. Our methods have been tested on several data sets and evaluated by many well-known segmentation evaluation metrics. The proposed methods produce efficient image segmentation results compared to the state of the art
APA, Harvard, Vancouver, ISO, and other styles
34

Legrand, Jonathan. "Toward a multi-scale understanding of flower development - from auxin networks to dynamic cellular patterns." Thesis, Lyon, École normale supérieure, 2014. http://www.theses.fr/2014ENSL0947/document.

Full text
Abstract:
Dans le domaine de la biologie développementale, un des principaux défis est de comprendre comment des tissus multicellulaires, à l'origine indifférenciés, peuvent engendrer des formes aussi complexes que celles d'une fleur. De part son implication dans l'organogenèse florale, l'auxine est une phytohormone majeure. Nous avons donc déterminé son réseau binaire potentiel, puis y avons appliqué des modèles de clustering de graphes s'appuyant sur les profils de connexion présentés par ces 52 facteurs de transcription (FT). Nous avons ainsi pu identifier trois groupes, proches des groupes biologiques putatifs: les facteurs de réponse à l'auxine activateurs (ARF+), répresseurs (ARF-) et les Aux/IAAs. Nous avons détecté l'auto-interaction des ARF+ et des Aux/IAA, ainsi que leur interaction, alors que les ARF- en présentent un nombre restreint. Ainsi, nous proposons un mode de compétition auxine indépendent entre ARF+ et ARF- pour la régulation transcriptionelle. Deuxièmement, nous avons modélisé l'influence des séquences de dimérisation des FT sur la structure de l'interactome en utilisant des modèles de mélange Gaussien pour graphes aléatoires. Les groupes obtenus sont proches des précédents, et les paramètres estimés nous on conduit à conclure que chaque sous-domaine peut jouer un rôle différent en fonction de leur proximité phylogénétique.Enfin, nous sommes passés à l'échelle multi-cellulaire ou, par un graphe spatio-temporel, nous avons modélisé les premiers stades du développement floral d'A. thaliana. Nous avons pu extraire des caractéristiques cellulaires (3D+t) de reconstruction d'imagerie confocale, et avons démontré la possibilité de caractériser l'identité cellulaire en utilisant des méthodes de classification hiérarchique et des arbres de Markov cachés
A striking aspect of flowering plants is that, although they seem to display a great diversity of size and shape, they are made of the same basics constituents, that is the cells. The major challenge is then to understand how multicellular tissues, originally undifferentiated, can give rise to such complex shapes. We first investigated the uncharacterised signalling network of auxin since it is a major phytohormone involved in flower organogenesis.We started by determining the potential binary network, then applied model-based graph clustering methods relying on connectivity profiles. We demonstrated that it could be summarise in three groups, closely related to putative biological groups. The characterisation of the network function was made using ordinary differential equation modelling, which was later confirmed by experimental observations.In a second time, we modelled the influence of the protein dimerisation sequences on the auxin interactome structure using mixture of linear models for random graphs. This model lead us to conclude that these groups behave differently, depending on their dimerisation sequence similarities, and that each dimerisation domains might play different roles.Finally, we changed scale to represent the observed early stages of A. thaliana flower development as a spatio-temporal property graph. Using recent improvements in imaging techniques, we could extract 3D+t cellular features, and demonstrated the possibility of identifying and characterising cellular identity on this basis. In that respect, hierarchical clustering methods and hidden Markov tree have proven successful in grouping cell depending on their feature similarities
APA, Harvard, Vancouver, ISO, and other styles
35

Nguyen, Van Toi. "Visual interpretation of hand postures for human-machine interaction." Thesis, La Rochelle, 2015. http://www.theses.fr/2015LAROS035/document.

Full text
Abstract:
Aujourd'hui, les utilisateurs souhaitent interagir plus naturellement avec les systèmes numériques. L'une des modalités de communication la plus naturelle pour l'homme est le geste de la main. Parmi les différentes approches que nous pouvons trouver dans la littérature, celle basée sur la vision est étudiée par de nombreux chercheurs car elle ne demande pas de porter de dispositif complémentaire. Pour que la machine puisse comprendre les gestes à partir des images RGB, la reconnaissance automatique de ces gestes est l'un des problèmes clés. Cependant, cette approche présente encore de multiples défis tels que le changement de point de vue, les différences d'éclairage, les problèmes de complexité ou de changement d'environnement. Cette thèse propose un système de reconnaissance de gestes statiques qui se compose de deux phases : la détection et la reconnaissance du geste lui-même. Dans l'étape de détection, nous utilisons un processus de détection d'objets de Viola Jones avec une caractérisation basée sur des caractéristiques internes d'Haar-like et un classifieur en cascade AdaBoost. Pour éviter l'influence du fond, nous avons introduit de nouvelles caractéristiques internes d'Haar-like. Ceci augmente de façon significative le taux de détection de la main par rapport à l'algorithme original. Pour la reconnaissance du geste, nous avons proposé une représentation de la main basée sur un noyau descripteur KDES (Kernel Descriptor) très efficace pour la classification d'objets. Cependant, ce descripteur n'est pas robuste au changement d'échelle et n'est pas invariant à l'orientation. Nous avons alors proposé trois améliorations pour surmonter ces problèmes : i) une normalisation de caractéristiques au niveau pixel pour qu'elles soient invariantes à la rotation ; ii) une génération adaptative de caractéristiques afin qu'elles soient robustes au changement d'échelle ; iii) une construction spatiale spécifique à la structure de la main au niveau image. Sur la base de ces améliorations, la méthode proposée obtient de meilleurs résultats par rapport au KDES initial et aux descripteurs existants. L'intégration de ces deux méthodes dans une application montre en situation réelle l'efficacité, l'utilité et la faisabilité de déployer un tel système pour l'interaction homme-robot utilisant les gestes de la main
Nowadays, people want to interact with machines more naturally. One of the powerful communication channels is hand gesture. Vision-based approach has involved many researchers because this approach does not require any extra device. One of the key problems we need to resolve is hand posture recognition on RGB images because it can be used directly or integrated into a multi-cues hand gesture recognition. The main challenges of this problem are illumination differences, cluttered background, background changes, high intra-class variation, and high inter-class similarity. This thesis proposes a hand posture recognition system consists two phases that are hand detection and hand posture recognition. In hand detection step, we employed Viola-Jones detector with proposed concept Internal Haar-like feature. The proposed hand detection works in real-time within frames captured from real complex environments and avoids unexpected effects of background. The proposed detector outperforms original Viola-Jones detector using traditional Haar-like feature. In hand posture recognition step, we proposed a new hand representation based on a good generic descriptor that is kernel descriptor (KDES). When applying KDES into hand posture recognition, we proposed three improvements to make it more robust that are adaptive patch, normalization of gradient orientation in patches, and hand pyramid structure. The improvements make KDES invariant to scale change, patch-level feature invariant to rotation, and final hand representation suitable to hand structure. Based on these improvements, the proposed method obtains better results than original KDES and a state of the art method
APA, Harvard, Vancouver, ISO, and other styles
36

Huang, Kai-Chi, and 黃凱琦. "Route Following System Using Kinect and SURF Features." Thesis, 2013. http://ndltd.ncl.edu.tw/handle/3n6kk7.

Full text
Abstract:
碩士
國立臺北科技大學
電機工程系研究所
101
This paper proposes a novel approach that uses Kinect upon the wheeled mobile robot to capture grey and depth image as the information for route following system of indoor environment. The system only needs Kinect and two sonar sensors to get the information around the mobile robot. In the first learning process, the robot was guided by user and took a photograph at the desired position along the route. The next process, we apply the speeded-up robust features (SURF) algorithm to the desired images in order to extract the features and its corresponding depth data. Then the final navigation process could match the former data with the features also extracted by SURF of the current image which also photographed from Kinect. According to the matching result, we apply ART-2 algorithm to keep the right matched features. Then we use the depth data, which belong to their right matched features, into the coordinate transformation to obtain the distance and the orientation error between the pose of navigation and learning process. Experiment is presented by three kinds of route to proof our approach in indoor environments.
APA, Harvard, Vancouver, ISO, and other styles
37

Huang, Po-ying, and 黃柏穎. "Applying Histogram and SURF Features on Farmland Recognition." Thesis, 2015. http://ndltd.ncl.edu.tw/handle/13025029524588717008.

Full text
Abstract:
碩士
世新大學
資訊管理學研究所(含碩專班)
103
According to the information provided by our COA, Taiwan's grain self-sufficiency rate is less than 35% in recent years. In view of this, to investigate all the agricultural land the status of the country, whereby the subsequent formulation of relevant policies is needed. In view of this, to investigate all the agricultural land of the status in the country, whereby developed the subsequent relevant policies is needed. But the amount of agricultural land in the country is enormous, and it takes enormous time and manpower. Therefore, the main purpose of this study is to develop an efficient method that can identify the agricultural land automatically. By distinguishing the massive applications between agricultural lands and the others purposes to reduce the manpower required and the time cost. The study uses the Taiwan aerial photographs orthophotos as identification material and relative agricultural land cadastral data. The study uses RGB color histograms as features for AdaBoost classifier, and then uses SURF algorithm to extract keypoint features for CART classifier to recognize farmlands. Experiments have been performed and achieve 93.5% accuracy rate.
APA, Harvard, Vancouver, ISO, and other styles
38

PANT, MALLIKA. "DIGITAL SPLICING DETECTION USING LOCAL INVARIANT FEATURES." Thesis, 2016. http://dspace.dtu.ac.in:8080/jspui/handle/repository/14798.

Full text
Abstract:
Digital images have become the most important source of information. Due to presence of various image editing tools, images can be easily changed and altered. Therefore, the authentication of digital images has become an important issue. Forgery is performed by copying one part of an image somewhere else in same image. Copied part can be rotated, scaled or cropped while duplicating. So it is necessary to distinguish between authentic and forged images. These techniques are divided into two varieties- one being active i.e. intrusive. It means one needs to embed something in image example watermark, if the image is modified then the embedded data is also modified. Another one is passive i.e non-intrusive. It is a signature based technique. The work presents and compares feature selection algorithms for the detection of image forgery in tampered images. Various features are extracted from normal and spliced using spatial gray level dependence method and many more. Support vector machine has been used for classification. A very difficult problem in classification techniques is the choice of features to distinguish between classes. The feature optimization problem is addressed using a genetic algorithm (GA) as a search method. Classical sequential methods and floating search algorithm are compared against the genetic approach in terms of the best recognition rate achieved and the optimal number of features.
APA, Harvard, Vancouver, ISO, and other styles
39

Zeng, Ruo-han, and 曾若涵. "Feature extraction and matching of finger-vein pat-terns based on SURF(Speeded Up Robust Features)." Thesis, 2012. http://ndltd.ncl.edu.tw/handle/9zy2j8.

Full text
Abstract:
碩士
國立臺灣科技大學
資訊工程系
100
In 20th century, electronic information let people have convenient life in the Global village. After 21s century, life become blend of intelligent technology gradually, but humans just not use intelligent technology to get information in a network, they also want use intelligent technology to create more convenient and comfortable life. If the technology is closely related to the life, then the technology safe is particularly important. Biometrics recognition is very popular in recent years, that use humans face、iris、voice、fingerprint to recognize, and the biometrics recognition mainstream become vein recognition. The vein recognition using Near-Infrared to illuminate the back of a hand、wrist、palm or finger to get the vein images form camera, and then use vein images to take features to recognize. Vein recognition is vital identification so it’s very difficult to forge and fake. Our proposed is use few features in the finger to identification. First to do normalization aimed at finger vein image on camera, second we use improve POSHE and Sobel to enhance the vein in finger vein image, then final we use SURF(Speeded Up Robust Features) to extraction and matching of finger-vein patterns. The experiment has proved that our proposed have high estimate、convenience and low cost.
APA, Harvard, Vancouver, ISO, and other styles
40

Kuo, Shu-Wei, and 郭舒瑋. "A Design of Mobile Visual Search System Using SURF Features." Thesis, 2014. http://ndltd.ncl.edu.tw/handle/09126388906534943387.

Full text
Abstract:
碩士
國立高雄第一科技大學
資訊管理研究所
102
With the development of information technology, the way of information accessing for people has been very different from those before. Most people will use mobile devices with camera to obtain information through the Internet rather than just rely on personal and notebook computers. In this study, we focus on the design of mobile visual search system and hope to effectively enhance the performance of existed mobile visual search systems. Different to the traditional architecture of visual search systems, the proposed system computes the SURF features of the captured image of shooting with camera on the mobile devices and then send these features to the server site via networks. On the server site, a feature matching operation will be performed between the query image and the database images and then return the most similarity image back to the client site. This kind of approach uses the image feature transmission to replace the image transmission will reduce the data capacity on the network and enhance the system performance. In addition, in order to evaluate the performance of the Client-Server architecture, we have implemented two practical applications - wine labels and building image retrieval system. On the wine retrieval application, K-means algorithm is applied to cluster the wine label images into K classes and the corresponding K-D Tree data structures are constructed to carry out an efficient matching. On the other application of the building image retrieval, GPS information is applied to find the nearby buildings. Only these nearby buildings required to perform the matching operation so it will save much time for image feature matching. Experimental results reveal that the proposed wine label retrieval system can achieve 99.5% accuracy rate for 202 test images and 0.41 second matching time per image query. In addition, the proposed building retrieval system can achieve 100% accuracy in recognizing 10 buildings in our campus not only in the client-server architecture but for the real-time query. These results show the good performances of the proposed mobile visual searching systems.
APA, Harvard, Vancouver, ISO, and other styles
41

Su, Sheng-Jie, and 蘇晟傑. "A Study of Seashell Retrieval Using CCD and SURF Features." Thesis, 2013. http://ndltd.ncl.edu.tw/handle/38551326969518415174.

Full text
Abstract:
碩士
國立高雄第一科技大學
資訊管理研究所
101
Due to the rapid development of information technology and upgrade retrieval technology, Content-Based Image Retrieval has become a popular technique in image search application. The generally used features for image indexing include shape, texture and color. However, these low-level features would not work very well when they are applied in practical applications. In this study, we focus on the seashell image recognition topic. The existed seashell indexing websites can only provide some traditional search modes such as keyword indexing which lack of humanization. This will make the users feel bad in usage if they lack the professional background of seashell. We develop a two-pass recognition system using CCD shape feature and SURF features to recognize seashell images. In order to increase the efficiency of feature calculation in the system, user can input a front and back seashell image through a webcam then the system will output the corresponding information of the query seashell. The used image processing techniques include image noise removal and normalization. We extract the input shape features of seashell images using CCD with 72 distance values. These features are used to compare the pre-defined image features in database image to find a candidate seashell image. If the candidate is located in the uncertain cluster, then a second stage of SURF feature matching is performed to find a proper solution. Experimental results show that the proposed method has high accuracy and efficiency, the accuracy rate for the front seashell images using the proposed method is 96% and the average execution time is 0.59 seconds; the accuracy rate for the back seashell images is 100% and the average execution time is 0.66 seconds.
APA, Harvard, Vancouver, ISO, and other styles
42

Chen, Chung-Ying, and 陳俊穎. "SURF (Speeded-Up Robust Features) Based Visual Localization for a Mobile Robot." Thesis, 2013. http://ndltd.ncl.edu.tw/handle/63955133610815789402.

Full text
Abstract:
碩士
國立中興大學
機械工程學系所
101
In this thesis, we consider the application of a visual based localization and mapping algorithm for a 4-Mecanum omni-directional mobile robot. Digital images are took by a camera in different time and pose. Using basic image processing technology and Speeded-Up Robust Features (SURF) detector, the coordinates of some feature points in an image are extracted, and the feature points detected in successive different images, projected from the same scene points are then matched. Based on the matched feature points between two successive images and using the Structure-from-Motion (SfM) algorithm, the translation vector and rotation matrix between the poses of camera in different time are calculated. The depths of feature points can then be retrieved in absolute scale with some constraints by using the obtained translation vector and rotation matrix. Finally, the camera attached to mobile robot and object coordinates in the world coordinate frame are found via the translation vector, rotation matrix, and the depths of the feature points. Experimental results are then presented for illustrating the performance of the suggested visual-based localization method.
APA, Harvard, Vancouver, ISO, and other styles
43

Guan, Jia-Ren, and 官家任. "A Study on Audio Fingerprinting Method Using Constant Q Transform and SURF Features." Thesis, 2017. http://ndltd.ncl.edu.tw/handle/53764493738137727301.

Full text
Abstract:
碩士
國立中興大學
資訊科學與工程學系
105
Audio fingerprinting which is like human fingerprint. It can identify the unique fingerprint of the audio. We can match audio by comparing the similarity of its fingerprint, this is called audio fingerprinting method. The system is widely used in audio matching applications. For example, we can compare the similarity between the query audio and music database, therefore we can get the details of the query audio to achieve audio identification. In this study, we propose an audio fingerprinting method based on computer vision. We use image processing technology to solve the problem of audio matching. We transform one-dimensional audio to two-dimensional spectrogram, and get a robust SURF features. We use SURF features to compare the similarity between different audio fingerprints. For distortions, like pitch shifting and time stretching, which are difficult to match for some existing systems. Our method has a promising success rate. In experimental results, we compare our results with other audio fingerprinting methods. Experimental results demonstrate that our system is highly robust to various audio distortions. In audio alignment, our method can achieve higher accuracy and the average error is less than one second.
APA, Harvard, Vancouver, ISO, and other styles
44

Cai, Zong-Han, and 蔡宗翰. "Depth Measurement Based on Pixel Number Variation and Speeded Up Robust Features (SURF)." Thesis, 2011. http://ndltd.ncl.edu.tw/handle/26750087644131777790.

Full text
Abstract:
碩士
國立臺灣師範大學
應用電子科技學系
100
This paper presents a method for depth measurement based on Speeded Up Robust Features (SURF) and pixel number variation of CCD Images. A single camera is used to capture two images in different photographing distances, where speeded up robust features in the images are extracted and matched. To remove mismatches from given putative point correspondences, an Identifying point correspondences by Correspondence Function (ICF) method is adopted in order to automatically select better reference points required by the pixel number variation method. Based on the displacement of the camera at two photographing distances, feature points of the objects in the images are used to determine the distance measurement of the target objects. After that, we use the obtained distance information of the feature points of the target objects to construct the depth map by using smooth interpolation.
APA, Harvard, Vancouver, ISO, and other styles
45

Lin, Chia-Ju, and 林家儒. "A Fast Multi-Banner Counting System using Color and SURF Key-Point Features Classification." Thesis, 2012. http://ndltd.ncl.edu.tw/handle/5w4m52.

Full text
Abstract:
碩士
國立臺北科技大學
資訊工程系研究所
100
In 2012, behind the home base in Los Angeles’ Dodger Stadium, once again there will be the billboard of Taiwan’s Tourism Bureau. The Tourism Bureau has indicated that this year they have prepared a budget of 10 million NT dollar and signed a one year contract with the Dodger Stadium to utilize their billboards to promote Taiwan Tourism. As these advertising billboards are visible to a worldwide audience via television broadcast, regardless of the item being promoted, increased awareness will be achieved by taking advantage of high rating broadcasted locations. The main focus of this paper is of color and SURF. The representative features are identified through filtering by color and recognition of SURF characteristics as well as the distribution of space and information. This helps creating a new index structure with the main features specified, and allowing efficient multiple high-dimensional feature search whilst targeting the basis of visual imagery advertising through sports game broadcasting’s billboard recognition system. The processed features allow each advertising image to maintain its uniqueness and mutually exclusive characteristics. In collaboration of detecting the frame differences, calculating frequency can be markedly decreased. Identification is made by comparison of the similarity of the feature points using sign of the laplacian, distance of the characteristic vectors and the main direction of the synthetic vector. According to the test results, search is accelerated by using the identified main features as it also decreased the number of comparisons required, which in effect achieves more accurate results.
APA, Harvard, Vancouver, ISO, and other styles
46

Chen, Shio Wen, and 陳秀紋. "A Distinctive Urban Buildings Recognition System Using the Google Street View with SURF and Color Features." Thesis, 2012. http://ndltd.ncl.edu.tw/handle/hhzcrk.

Full text
Abstract:
碩士
國立臺北科技大學
資訊工程系研究所
100
In the sense of culture, art, and history meaning, buildings have played an important role in our lives. If we can retrieve unique features that can describe a building, it might have some benefits for architecture history or digital resources of architecture. As the popularity of smart mobile devices, if we could have some interesting application for getting information of buildings around user, captured in any direction and view, it must be a great help for the promotion of culture and tourism industry. In this paper, I propose a system using SURF and color features for distinctive buildings in Taipei. This system using Google Street View’s image for feature learning database .Based on the research of buildings’ characteristics in Taiwan, the recognition system can identify buildings robustly in different scales, rotation, and partial building’s image in this system.
APA, Harvard, Vancouver, ISO, and other styles
47

Pranata, Yoga Dwi, and 优嘉逸. "Deep Learning and Speeded Up Robust Features (SURF) for Calcaneus Fracture Classification and Detection on CT Images." Thesis, 2017. http://ndltd.ncl.edu.tw/handle/e6z4yr.

Full text
Abstract:
碩士
國立中央大學
資訊工程學系在職專班
105
Calcaneus, also called as heel bone, is the largest tarsal bone that forms the rear part of the foot. Cuboid bone articulates with its anterior and superior sides together with talus bone. Calcaneus is known to be the most fracture prone tarsal bone. Calcaneal fractures represent only about 2% of all fractures but 60% of tarsal bones fractures[1]. Based on subtalar joint involvement, calcaneal fractures can be categorized into two types: intraarticular fracture and extraarticular fracture. Intraarticular fractures are more common where posterior talar articular facet involves calcaneus. Patient data can be stored in several kinds of imaging format, e.g. Computer Tomography (CT) data. The CT images is the evolution of the medical images that recently used for determine the disease from the patient. It is a sequence of 2-D images that construct 3-D images. CT images contain a significant amount of information, such as fracture information in each slice of 2-D images that may not be thoroughly and accurately analyzed via visual inspection. This study proposed a new method to classify and detect the fracture in calcaneus bone CT images. In this experiment, we do the experiment in two dataset. The first one in just one Dicom case and the second one in the all dataset (two Dicom case). Both morphological operation and edge detection methods were combined in order to achieve better input in classification and detection processes. In the pre-processing step, the images were resized into the same size (224 x 224) to fit in the CNN method. After that the input images were converted in the grayscale images. After that, the images were subtracted with the images mean. Convolutional Neural Network was also applied in the classification process in order to classify the bone into several classes. Two classes were classified (fracture and non-fracture) from three views that are coronal, transversal, and sagittal view. After classification, the detection were done from the fracture class and determine in which part of calcaneus bone was broken. The detection is from three views also that is transversal, sagittal, and coronal views.
APA, Harvard, Vancouver, ISO, and other styles
48

Van, der Haar Dustin Terence. "Face recognition-based authentication and monitoring in video telecommunication systems." Thesis, 2012. http://hdl.handle.net/10210/5024.

Full text
Abstract:
M.Sc. (Computer Science)
A video conference is an interactive meeting between two or more locations, facilitated by simultaneous two-way video and audio transmissions. People in a video conference, also known as participants, join these video conferences for business and recreational purposes. In a typical video conference, we should properly identify and authenticate every participant in the video conference, if information discussed during the video conference is confidential. This prevents unauthorized and unwanted people from being part of the conference and exposing any confidential information during the video conference. Present existing video conferencing systems however, have problems in this area, resulting in some risks. These risks relate precisely to the lack of facilities to properly identify and authenticate participants, making it possible for unwanted/unauthorised participants to join the conference or masquerade as another participant. It is especially a problem, when facilitators or organisers are the only participants that know the authorised participants, or participants allowed in a video conference. In this dissertation, we review the risks that are present in video conferencing, and create a security system, (called BioVid) that mitigates the identification and authentication risks in video conferences. BioVid uses a Speeded-Up Robust Features or SURF-based face recognition approach, to identify and authenticate any participant in a video conference. BioVid continuously monitors the participants to check if masquerading has occurred and when it does detect an unauthorised participant, it informs the Service Provider. The Service Provider can then deal with the problem by either kicking the participant or asking the other participants to vote the unauthorised participant out of the video conference.
APA, Harvard, Vancouver, ISO, and other styles
49

Zhen-YuWeng and 翁振育. "HDR aligment with matching SURF feature points." Thesis, 2017. http://ndltd.ncl.edu.tw/handle/u7dz8r.

Full text
Abstract:
碩士
國立成功大學
電機工程學系
105
High dynamic range, HDR, means the range of the maximum and the minimum radiance value in scene. The sensitivity of human eyes is usually 100,000,000:1, but camera limited by hardware storage memory is usually 1000:1. In order to make images in scene close to observation with human eyes, HDR will store the information of images which are based on their exposure time. Finally, with tone mapping, the value of pixel of image will be rebuilt. However, process to synchronize the multiple images generates the human and natural factors caused by different filming time. Therefore, before multiple images are synchronized, they will align first. In this paper, we discuss alignment about different dynamic range images. With Speeded Up Robust Features, SURF, we extract the feature points from images and match these points. Next, we build affine transform to align these images with feature points. Finally, the result of high dynamic range will be synchronized.
APA, Harvard, Vancouver, ISO, and other styles
50

Herath, Mudiyanselage DD. "Sonar image based advanced feature extraction and feature mapping algorithm for under-ice AUV navigation." Thesis, 2018. https://eprints.utas.edu.au/28587/1/Herath_Mudiyanselage_whole_thesis.pdf.

Full text
Abstract:
Navigation and localisation of AUVs are challenging in underwater or under-ice environments due to the unavoidable growth of navigational drift in inertial navigation systems and Doppler velocity logs, especially in long-range under-ice missions where surfacing is not possible. Similarly, acoustic transponders are time consuming and difficult to deploy. Terrain Relative Navigation (TRN) and Simultaneous Localisation and Mapping (SLAM) based technologies are emerging as promising solutions as they require neither deploying sensors nor the calculation of distance travelled from a reference point in order to determine the location. These techniques require robust detection of the features present in sonar images and matching them with known images. The key challenge of under-ice image based localisation comes from the unstructured nature of the seabed terrain and lack of significant features. This issue has motivated the research project presented in this thesis. The research has developed technologies for the robust detection and matching of the available features in such environments. In aiming to address this issue, there are number of feature detectors and descriptors that have been proposed in the literature. These include Harris corner, Scale-Invariant Feature Transform (SIFT), Binary Robust Invariant Scalable Keypoints (BRISK), Speeded-Up Robust Features (SURF), Smallest Univalue Segment Assimilating Nucleus (SUSAN), Features from Accelerated Segment Test (FAST), Binary Robust Independent Elementary Features (BRIEF) and Fast Retina Keypoints (FREAK). While these methods work well in land and aerial complex environments, their application in under-ice environments have not been well explored. Therefore, this research has investigated the possibility of using these detector and descriptor algorithms in underwater environments. According to the test carried out with side-scan sonar images, the SURF and Harris algorithms were found to be better in repeatability while the FAST algorithm was found to be the fastest in feature detection. The Harris algorithm was the best for localisation accuracy. BRISK shows better immunity noise compared to BRIEF. SURF, BRISK and FREAK are the best in terms of robustness. These detector and descriptor algorithms are used for a wide range of varying substrates in underwater environments such as clutter, mud, sand, stones, lack of features and effects on the sonar images such as scaling, rotation and non-uniform intensity and backscatter with filtering effect. This thesis presents a comprehensive performance comparison of feature detection and matching of the SURF, Harris, FAST, BRISK and FREAK algorithms, with filtering effects. However, these detectors and descriptors have reduced efficiency in underwater environments lacking features. Therefore, this research further addressed this problem by developing new advanced algorithms named the ‘SURF-Harris’ algorithm, which combined Harris interest points with the SURF descriptor, and the ‘SURF-Harris-SURF’ algorithm which combined Harris and SURF interest points with the SURF descriptor, using the most significant factor of each detector and descriptor to give better performance, especially in feature mapping. The major conclusion drawn from this research is that the ‘SURF-Harris-SURF’ algorithm outperforms all the other methods in feature matching with filtering even in the presence of scaling and rotation differences in image intensity. The results of this research have proved that new algorithms perform well in comparison to the conventional feature detectors and descriptors such as SURF, Harris, FAST, BRISK and FREAK. Furthermore, SURF works well in all the disciplines with higher percentage matching even though it produces fewer keypoints, thus demonstrating its robustness among all the conventional detectors and descriptors. Even if there are a large number of features in a cluttered environment, it produces less matching compared to features that are distributed. Another conclusion to be derived from these results is that the feature detection and matching algorithms performed well in environments where features are clearly separated. Based on these findings, the comprehensive performance of combined feature detector and descriptor is discussed in the thesis. This is a novel contribution in underwater environments with sonar images. Moreover, this thesis outlines the importance of having a new advanced feature detector and mapping algorithm especially for sonar images to work in underwater or under-ice environments.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography