Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Cartographie sémantique.

Dissertationen zum Thema „Cartographie sémantique“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-17 Dissertationen für die Forschung zum Thema "Cartographie sémantique" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Ben, Abbès Sarra. „Construction d'une cartographie de domaine à partir de ressources sémantiques hétérogènes“. Paris 13, 2013. http://scbd-sto.univ-paris13.fr/secure/edgalilee_th_2013_ben_abbes.pdf.

Der volle Inhalt der Quelle
Annotation:
Ces dernières années, un effort considérable a été accompli pour le partage et la réutilisation des connaissances dans le cadre du Web sémantique. Un nombre important de ressources sémantiques ont été mises à disposition mais cette richesse et cette diversité compliquent la réutilisation de ressources existantes. Avant de chercher à réutiliser des ressources, un ingénieur de la connaissance doit commencer par dresser un état des lieux du domaine qui l'intéresse, identifier les ressources disponibles et les positionner les unes par rapport aux autres. Il lui faut se repérer dans un web foisonnant dont l'hétérogénéité sémantique ne cesse de croître. C'est le défi que cette thèse a cherché à relever. Nous proposons de cartographier le web sémantique sur un domaine particulier et nous avons mis au point une méthode qui permet de construire automatiquement de telles « cartographies de domaine » destinées à des ingénieurs de la connaissance souhaitant prendre connaissance des ressources disponibles pour un domaine particulier. Pour que ces cartographies soient centrées sur leurs centres d'intérêt, les ingénieurs fournissent en entrée un texte représentatif du domaine et de l'application visée, ce texte servant ensuite de pivot à l'ensemble de la méthodologie de construction de la cartographie. Nous avons défini un processus global de construction de cartographies qui se décompose en trois étapes, en supposant résolue l'étape préalable de sélection des ressources sémantiques. Le texte d'acquisition servant de point de départ, la première étape consiste à lier les ressources sélectionnées au texte : c'est une phase d'annotation sémantique qui projette les entités d'ontologies sur le texte afin d'identifier celles qui y sont mentionnées. La deuxième étape permet d'aligner les différentes ressources et ce processus d'alignement est lui-aussi guidé par le texte : les entités de ressources différentes sont rapprochées sur la base de leur proximité distributionnelle dans le texte. La troisième étape permet de détecter et au besoin de corriger les anomalies sur les correspondances obtenues à l'issue de la phase d'alignement ; cette phase permet aussi de détecter et d'afficher les correspondances remarquables qui peuvent aider l'ingénieur à prendre connaissance du matériau existant. Notre méthode d'alignement d'ontologies présente la particularité d'être guidée par le texte. L'alignement consiste classiquement à identifier des relations ou « correspondances » existant entre les entités issues d'ontologies différentes et il est utilisé dans plusieurs applications, comme l'enrichissement d'une ontologie, la fusion de plusieurs ontologies ou, ici, pour aider l'ingénieur de la connaissance à appréhender les ressources disponibles pour un domaine particulier. L'exploitation d'un texte permet de rapprocher des entités ontologiques qui n'ont ni la même étiquette - comme dans les méthodes d'alignement lexical - ni la même position dans les ressources d'origine - comme dans les approches structurelles. Nous proposons de différencier deux types de correspondance selon la nature de la relation existant entre les termes associés : si les termes ou étiquettes tendent à apparaître dans les mêmes phrases nous présumons l'existence d'une relation associative entre eux ; à l'inverse, s'ils se substituent l'un à l'autre, on peut faire l'hypothèse d'une relation d'équivalence. La construction d'une cartographie de domaine se fait à partir des résultats de l'alignement. Cette phase consiste à repérer les anomalies et les correspondances remarquables à présenter à l'ingénieur de la connaissance. Nous faisons en effet l'hypothèse que ces deux types de configurations sont importantes à repérer : les anomalies font apparaître des différences notables dans les choix de conceptualisation sur lesquels reposent les deux ressources alignées ; les configurations remarquables font au contraire ressortir les zones les plus centrales et les plus cohérentes de l'alignement proposé. Repérer et analyser ces configurations doit donc permettre à l'ingénieur de comprendre comment les ressources alignées se positionnent l'une par rapport à l'autre. L'ensemble de cette approche a été implémenté et testé sur différents cas d'usage dans les domaines de la biologie, de la géographie et de l'alimentation
In recent years, a large effort has been devoted to the sharing and reuse of knowledge in the semantic web. A number of semantic resources have been made available significantly but this richness and diversity complicate the reuse of existing resources. Before trying to reuse resources, the knowledge engineer must begin by drawing up an inventory of the domain's interest, identify available resources and put it against each other. He must locate in a "teeming" web where the semantic heterogeneity is growing. This is the challenge that this thesis has sought to address. We propose to map the semantic web on a particular domain and we have developed an automatic method to create such "domain cartographies" for engineers wishing to gain insught in the available resources on a particular domain. In order to have these cartographies suited to their interests, engineers give as an input a text which is representative of the domain and the target application and the text is a pivot to the whole the cartography process. We have defined an overall process of building cartographies that is composed of three steps, assuming resolved the prior selection step of semantic resources. The text acquisition is a starting point, the first step is to link the selected resources to the text : it is a step of semantic resources annotation which projects ontological entities on the text in order to identify those which are mentioned. The second step is to align different resources and the alignment process itself is also based on the text : the entities of different resources are aligned based on their distributional proximity in the text. The third step is to detect and correct the mapping anomalies obtained after the alignment step ; this step can also detect and display the remarkable mappings that can help the engineer to take knowledge of the existing resources. The originality of our ontology alignment method is to use the text. The alignment consists typically on identifying relations or mappings between entities from different ontologies. It is used in several applications, such as the ontology enrichment, the ontology merging or here, to help the knowledge engineer to understand the available resources of a particular domain. Using a text allows closer ontological entities that do not have the same label - as in the lexical alignment methods - or the same position in the original resources - as in structural approaches. We propose to distinguish between two types of mappings with the nature of the relationship between related terms : if the terms or labels tend to appear in the same sentences, we conclude an associative relationship between them ; on the contrary, if they are substituted to each other, we can conclude an equivalence relation. The building cartography process is based on the results of the alignment process. This step consists on identifying anomalies and to present the remarkable mappings to the knowledge engineer. We make the hypothesis that these two types of configurations are important to identify : anomalies show significant differences in the choice of conceptualization represented on the two aligned resources ; remarkable configurations are instead highlighting the most central parts and most consistent of the proposed alignment. Identify and analyze these configurations must allow the engineer to understand how resources are aligned to each other. This overall approach was implemented and tested on different use cases in the biology, geography and food domains
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Tricot, Christophe. „Cartographie sémantique : des connaissances à la carte“. Chambéry, 2006. http://www.theses.fr/2006CHAMS032.

Der volle Inhalt der Quelle
Annotation:
Cette étude a débuté avec un constat important: les organisations sont submergées par le nombre toujours croissant d'informations qu'il est nécessaire de maîtriser pour mener à bien leurs activités. En effet, étant obligées de faire face à la mondialisation des flux et des services, les organisations ont découvert de nouveaux besoins et elles ont développé de nouvelles activités : veille stratégique, gestion de l'innovation, capitalisation des savoirs, gestion du capital intellectuel et humain, intelligence économique, etc. Depuis, elles collectent et stockent toujours plus d'informations et leur espace informationnel ne cesse de grandir. Dans ce contexte mondialisé, l'avenir des organisations passe par la maîtrise de leur espace informationnel. La maîtrise d'un espace est une problématique universelle qui préoccupe l'homme depuis son origine. La cartographie résulte de cette problématique ; elle permet de visualiser un espace pour mieux l'appréhender. Chaque carte joue alors le rôle de support externe de la pensée pour amplifier la cognition des personnes qui l'utilisent. L'étude de la cartographie nous a appris que pour construire des cartes à partir de l'espace informationnel des organisations, il est nécessaire de mettre en œuvre des paradigmes de représentation, de visualisation et d'interaction. Cette « recette» est maintenant bien connue et maîtrisée. Cependant elle ne répond que partiellement à nos besoins. En effet, il subsiste deux problématiques à résoudre pour y parvenir: comment proposer une cartographie basée sur la sémantique du domaine ? comment déterminer les paradigmes à mettre en œuvre pour fournir des cartes adaptées à l'utilisateur ? Face à cette double problématique, nous avons défini une nouvelle cartographie capable de construire des cartes adaptées aux besoins des organisations. Nous la nommons « cartographie sémantique ». Elle repose sur nos différentes propositions et sur leurs réalisations. La mise en œuvre de la cartographie sémantique dans le monde des entreprises nous a permis de valider l'ensemble de l'étude mais surtout de s'assurer que la problématique était bien résolue
This study has begun with an important observation : organizations are more and more submerged by information whose management is necessary for their activities. As a matter of fact, the globalization of flows and services has created new needs and then new activities have been developed : strategic intelligence, innovation management, knowledge capitalization, intellectual and human capital management, economic intelligence, etc. Insofar as more and more information are collected, the enterprise's informational space does not stop to increase. In such a context, the future of organizations goes through the control of their informational space. The control of a space is a universal problem which concerns mankind since its origin. Cartography results from this problem. It makes it possible to visualize a space for a better apprehension. Each map plays the role of an external medium for mind in order to amplify the user's cognition. The study of cartography has revealed that building maps from the informational space of organizations requires to carry out paradigms of representation, visualization and interaction. This process is now well known and controlled. However it meets only partially our needs. Indeed, it remains two problems to solve to reach that point: how to take into account the domain's semantics and how to select the different paradigms in order to provide the most suitable maps for users ? Faced with this two-fold problem, we have defined a new cartography paradigm for building maps which fit to the needs of organizations. We have named it "semantic cartography". This new cartography paradigm relies on our different propositions and realizations. Our proposition has been validated through different industrial applications, e. G. Content management systems and competency management systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Drouilly, Romain. „Cartographie hybride métrique topologique et sémantique pour la navigation dans de grands environnements“. Thesis, Nice, 2015. http://www.theses.fr/2015NICE4037/document.

Der volle Inhalt der Quelle
Annotation:
La navigation autonome est l'un des plus grands challenges pour un robot autonome. Elle nécessite la capacité à localiser sa position ou celle de l'objectif et à trouver le meilleur chemin connectant les deux en évitant les obstacles. Pour cela, les robots utilisent une carte de l'environnement modélisant sa géométrie ou sa topologie. Cependant la construction d'une telle carte dans des environnements de grande dimension est ardue du fait de la quantité de données à traiter et le problème de la localisation peut devenir insoluble. De plus, un environnement changeant peut conduire à l'obsolescence rapide du modèle. Comme démontré dans cette thèse, l'ajout d'information de nature sémantique dans ces cartes améliore significativement les performances de navigation des robots dans des environnements réels. La labélisation d'image permet de construire des modèles extrêmement compacts qui sont utilisés pour la localisation rapide en utilisant une approche basée comparaison de graphes. Ils sont des outils puissants pour comprendre l'environnement et permettent d'étendre la carte au-delà des limites perceptuelles du robot. L'analyse statistique de ces modèles est utilisée pour construire un embryon de sens commun qui est ensuite utilisé pour détecter des erreurs de labélisation et pour mettre à jour la carte en utilisant des algorithmes conçus pour maintenir une représentation stable en dépits des occlusions créées par les objets dynamiques. Finalement, la sémantique est utilisées pour sélectionner le meilleur chemin vers une position cible en fonction de critères de haut niveau plutôt que métriques, autorisant une navigation intelligente
Utonomous navigation is one of the most challenging tasks for mobile robots. It requires the ability to localize itself or a target and to find the best path linking both positions avoiding obstacles. Towards this goal, robots build a map of the environment that models its geometry or topology. However building such a map in large scale environments is challenging due to the large amount of data to manage and localization could become intractable. Additionally, an ever changing environment leads to fast obsolescence of the map that becomes useless. As shown in this thesis, introducing semantics in those maps dramatically improves navigation performances of robots in realistic environments. Scene parsing allows to build extremely compact semantic models of the scene that are used for fast relocalization using a graph-matching approach. They are powerful tools to understand scene and they are used to extend the map beyond perceptual limits of the robot through reasoning. Statistical analysis of those models is used to build an embryo of common sens which allows to detect labeling errors and to update the map using algorithms designed to maintain a stable model of the world despite occlusions due to dynamic objects. Finally semantics is used to select the best route to a target position according to high level criteria instead of metrical constraints, allowing intelligent navigation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Moritz-Gasser, Sylvie. „Les bases neurales du traitement sémantique : un nouvel éclairage : études en électrostimulations cérébrales directes“. Thesis, Montpellier 1, 2012. http://www.theses.fr/2012MON1T007/document.

Der volle Inhalt der Quelle
Annotation:
Le traitement sémantique est le processus mental par lequel nous accédons au sens. Il occupe donc une place centrale dans la compréhension et la production du langage, mais également dans le fonctionnement humain en général, puisqu'il permet de conceptualiser le monde qui nous entoure et de lui donner un sens, en le confrontant en pleine conscience aux connaissances que nous emmagasinons au fil de nos expériences. Si les bases neurales corticales du traitement sémantique sont bien documentées par de nombreuses études basées sur les données de l'imagerie fonctionnelle notamment, l'analyse de la connectivité sous-corticale impliquée dans ce traitement a jusqu'ici reçu moins d'attention. Les auteurs s'accordent néanmoins sur l'existence d'une voie ventrale sémantique, parallèle à une voie dorsale dédiée au traitement phonologique. Le présent ouvrage se propose d'apporter un nouvel éclairage à la connaissance des bases neurales du traitement sémantique du mot isolé, en lien avec le cadre plus large du traitement sémantique non-verbal, par l'étude des habiletés sémantiques de patients présentant un gliome de grade 2 OMS et pour lequel ils bénéficient d'une prise en charge chirurgicale en condition éveillée, avec cartographie cortico-sous-corticale peropératoire. Il met ainsi en évidence l'importance cruciale du faisceau fronto-occipital inférieur gauche dans cette voie ventrale sémantique, au sein d'une organisation cérébrale fonctionnelle en réseaux parallèles et distribués de zones corticales interconnectées par des faisceaux d'association de substance blanche. Il souligne également le caractère interactif du fonctionnement cognitif, ainsi que l'importance des mécanismes de contrôle dans le traitement du langage, et de la mesure de la chronométrie mentale lors son évaluation. Ces différentes considérations nous amènent à proposer un modèle hodotopique général d'organisation anatomo-fonctionnelle du langage. Les résultats présentés dans cet ouvrage peuvent donc avoir des implications cliniques et scientifiques majeures, quant à la compréhension de l'organisation cérébrale fonctionnelle du langage, de ses dysfonctionnements, des mécanismes de réorganisation fonctionnelle en cas de lésion et à l'élaboration de programmes de réhabilitation
Semantic processing is the mental process by which we access to meaning. Therefore, it takes a central place in language comprehension and production, but also in the whole human functioning, since it allows conceptualizing and giving a meaning to the world, by confronting it consciously with the knowledge we store over our experiences. If the neural bases of semantic processing are well known at the cortical level, thanks to numerous studies based particularly on functional neuroimaging data, the analysis of the subcortical connectivity underlying this processing received so far less attention. Nevertheless, the authors agree on the existence of a semantic ventral stream, parallel to a phonological dorsal stream.The present work mean to bring a new highlight on the knowledge of the neural bases of semantic processing at the level of the single word, in connection with the wider setting of non verbal semantic processing, by the study of semantic skills in patients presenting with WHO grade 2 glioma, and for which they undergo a surgery in awaken conditions, with cortico-subcortical intraoperative mapping. Thus, this work highlights the crucial role of the inferior fronto-occipital fascicle, in this ventral semantic route, within a functional brain organization in parallel and distributed networks of cortical areas interconnected by white matter association fibers.it underlines also the interactive feature of cognitive functioning, and the significance of control mechanisms in language processing, as well as the measuring of mental chronometry when assessing it. These considerations lead us to propose a general hodotopical model of language anatomo-functional organization.The results presented in this work may thus have important clinical and scientific implications, regarding the comprehension of language brain functional organization, of its dysfunctioning, of functional reorganization mechanisms in case of brain lesion, and the elaboration of rehabilitation programs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Lienou, Marie Lauginie. „Apprentissage automatique des classes d'occupation du sol et représentation en mots visuels des images satellitaires“. Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005585.

Der volle Inhalt der Quelle
Annotation:
La reconnaissance de la couverture des sols à partir de classifications automatiques est l'une des recherches méthodologiques importantes en télédétection. Par ailleurs, l'obtention de résultats fidèles aux attentes des utilisateurs nécessite d'aborder la classification d'un point de vue sémantique. Cette thèse s'inscrit dans ce contexte, et vise l'élaboration de méthodes automatiques capables d'apprendre des classes sémantiques définies par des experts de la production des cartes d'occupation du sol, et d'annoter automatiquement de nouvelles images à l'aide de cette classification. A partir des cartes issues de la classification CORINE Land Cover, et des images satellitaires multispectrales ayant contribué à la constitution de ces cartes, nous montrons tout d'abord que si les approches classiques de la littérature basées sur le pixel ou la région sont suffisantes pour identifier les classes homogènes d'occupation du sol telles que les champs, elles peinent cependant à retrouver les classes de haut-niveau sémantique, dites de mélange, parce qu'étant composées de différents types de couverture des terres. Pour détecter de telles classes complexes, nous représentons les images sous une forme particulière basée sur les régions ou objets. Cette représentation de l'image, dite en mots visuels, permet d'exploiter des outils de l'analyse de textes qui ont montré leur efficacité dans le domaine de la fouille de données textuelles et en classification d'images multimédia. A l'aide d'approches supervisées et non supervisées, nous exploitons d'une part, la notion de compositionnalité sémantique, en mettant en évidence l'importance des relations spatiales entre les mots visuels dans la détermination des classes de haut-niveau sémantique. D'autre part, nous proposons une méthode d'annotation utilisant un modèle d'analyse statistique de textes : l'Allocation Dirichlet Latente. Nous nous basons sur ce modèle de mélange, qui requiert une représentation de l'image dite en sacs-de-mots visuels, pour modéliser judicieusement les classes riches en sémantique. Les évaluations des approches proposées et des études comparatives menées avec les modèles gaussiens et dérivés, ainsi qu'avec le classificateur SVM, sont illustrées sur des images SPOT et QuickBird entre autres.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Defraiteur, Rémi. „Évaluation de systèmes d'aide à la conduite. Génération automatique de vérité terrain augmentée à partir d’un capteur haute résolution et d’une cartographie sémantique et 3D ; Evaluation de fonctions de perception tierces“. Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG040.

Der volle Inhalt der Quelle
Annotation:
Le véhicule autonome représente l'un des défis technologiques actuels majeurs dans le secteur automobile. Les véhicules actuels se complexifient et intègrent de nouveaux systèmes reposants sur des fonctionnalités clés telles que la perception. Permettant au véhicule d'appréhender l'environnement dans lequel il évolue, elle est exploitée sous différents aspects pour garantir une mobilité plus sûre. Étant donné le rôle essentiel de la perception dans le bon comportement d'un véhicule autonome, il est nécessaire de s'assurer que les solutions de perception utilisées soient suffisamment performantes pour garantir une circulation sécurisée. L’évaluation de telles solutions de perception reste cependant une tâche complexe et peu explorée. L’un des points critiques est la difficulté de produire et de disposer de données de référence suffisantes pour mener des évaluations pertinentes. L'objectif de cette thèse est de mettre au point un nouvel outil de validation permettant d'évaluer les performances et niveaux d'erreurs de différentes solutions de perception, tout en utilisant le minimum de traitements manuels. Via cet outil, il sera alors possible de mettre en concurrence différentes solutions en se basant sur des critères communs. La mise au point de cet outil se décompose selon deux parties principales qui sont : la génération automatisée de données de référence et la méthode d'évaluation des solutions de perceptions testées
Autonomous driving is one of the current major technological challenges in the automotive sector. Vehicles are becoming more complex and are integrating new systems relying on key functionalities such as perception. Perception is used in various ways to ensure safer mobility, allowing the main inboard system to understand the environment in which the vehicle evolves. Perception plays a critical role in the proper behavior of an autonomous vehicle. It is necessary to ensure that the embedded perception solutions are effective enough to meet safe driving requirements. However, the evaluation of such solutions remains a complex and little explored task. One of the critical issues is the difficulty of generating and having sufficient reference data to conduct relevant evaluations. The purpose of this thesis is to develop a new validation tool to evaluate the performances and error levels of different perception solutions, while minimizing the manual annotations. With this tool, it will be possible to lead benchmark studies on different solutions based on common criteria. The development of this tool is split into two main parts: the automated production of reference data and the evaluation method of the tested perception solutions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Sy, Mohameth François. „Utilisation d'ontologies comme support à la recherche et à la navigation dans une collection de documents“. Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20211/document.

Der volle Inhalt der Quelle
Annotation:
Les ontologies offrent une modélisation des connaissances d'un domaine basée sur une hiérarchie des concepts clefs de ce domaine. Leur utilisation dans le cadre des Systèmes de Recherche d'Information (SRI), tant pour indexer les documents que pour exprimer une requête, permet notamment d'éviter les ambiguïtés du langage naturel qui pénalisent les SRI classiques. Les travaux de cette thèse portent essentiellement sur l'utilisation d'ontologies lors du processus d'appariement durant lequel les SRI ordonnent les documents d'une collection en fonction de leur pertinence par rapport à une requête utilisateur. Nous proposons de calculer cette pertinence à l'aide d'une stratégie d'agrégation de scores élémentaires entre chaque document et chaque concept de la requête. Cette agrégation, simple et intuitive, intègre un modèle de préférences dépendant de l'utilisateur et une mesure de similarité sémantique associée à l'ontologie. L'intérêt majeur de cette approche est qu'elle permet d'expliquer à l'utilisateur pourquoi notre SRI, OBIRS, estime que les documents qu'il a sélectionnés sont pertinents. Nous proposons de renforcer cette justification grâce à une visualisation originale où les résultats sont représentés par des pictogrammes, résumant leurs pertinences élémentaires, puis disposés sur une carte sémantique en fonction de leur pertinence globale. La Recherche d'Information étant un processus itératif, il est nécessaire de permettre à l'utilisateur d'interagir avec le SRI, de comprendre et d'évaluer les résultats et de le guider dans sa reformulation de requête. Nous proposons une stratégie de reformulation de requêtes conceptuelles basée sur la transposition d'une méthode éprouvée dans le cadre de SRI vectoriels. La reformulation devient alors un problème d'optimisation utilisant les retours faits par l'utilisateur sur les premiers résultats proposés comme base d'apprentissage. Nous avons développé une heuristique permettant de s'approcher d'une requête optimale en ne testant qu'un sous-espace des requêtes conceptuelles possibles. Nous montrons que l'identification efficace des concepts de ce sous-espace découle de deux propriétés qu'une grande partie des mesures de similarité sémantique vérifient, et qui suffisent à garantir la connexité du voisinage sémantique d'un concept.Les modèles que nous proposons sont validés tant sur la base de performances obtenues sur des jeux de tests standards, que sur la base de cas d'études impliquant des experts biologistes
Domain ontologies provide a knowledge model where the main concepts of a domain are organized through hierarchical relationships. In conceptual Information Retrieval Systems (IRS), where they are used to index documents as well as to formulate a query, their use allows to overcome some ambiguities of classical IRSs based on natural language processes.One of the contributions of this study consists in the use of ontologies within IRSs, in particular to assess the relevance of documents with respect to a given query. For this matching process, a simple and intuitive aggregation approach is proposed, that incorporates user dependent preferences model on one hand, and semantic similarity measures attached to a domain ontology on the other hand. This matching strategy allows justifying the relevance of the results to the user. To complete this explanation, semantic maps are built, to help the user to grasp the results at a glance. Documents are displayed as icons that detail their elementary scores. They are organized so that their graphical distance on the map reflects their relevance to a query represented as a probe. As Information Retrieval is an iterative process, it is necessary to involve the users in the control loop of the results relevancy in order to better specify their information needs. Inspired by experienced strategies in vector models, we propose, in the context of conceptual IRS, to formalize ontology based relevance feedback. This strategy consists in searching a conceptual query that optimizes a tradeoff between relevant documents closeness and irrelevant documents remoteness, modeled through an objective function. From a set of concepts of interest, a heuristic is proposed that efficiently builds a near optimal query. This heuristic relies on two simple properties of semantic similarities that are proved to ensure semantic neighborhood connectivity. Hence, only an excerpt of the ontology dag structure is explored during query reformulation.These approaches have been implemented in OBIRS, our ontological based IRS and validated in two ways: automatic assessment based on standard collections of tests, and case studies involving experts from biomedical domain
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Aijazi, Ahmad Kamal. „3D urban cartography incorporating recognition and temporal integration“. Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22528/document.

Der volle Inhalt der Quelle
Annotation:
Au cours des dernières années, la cartographie urbaine 3D a suscité un intérêt croissant pour répondre à la demande d’applications d’analyse des scènes urbaines tournées vers un large public. Conjointement les techniques d’acquisition de données 3D progressaient. Les travaux concernant la modélisation et la visualisation 3D des villes se sont donc intensifiés. Des applications fournissent au plus grand nombre des visualisations efficaces de modèles urbains à grande échelle sur la base des imageries aérienne et satellitaire. Naturellement, la demande s’est portée vers des représentations avec un point de vue terrestre pour offrir une visualisation 3D plus détaillée et plus réaliste. Intégrées dans plusieurs navigateurs géographiques comme Google Street View, Microsoft Visual Earth ou Géoportail, ces modélisations sont désormais accessibles et offrent une représentation réaliste du terrain, créée à partir des numérisateurs mobiles terrestres. Dans des environnements urbains, la qualité des données obtenues à partir de ces véhicules terrestres hybrides est largement entravée par la présence d’objets temporairement statiques ou dynamiques (piétons, voitures, etc.) dans la scène. La mise à jour de la cartographie urbaine via la détection des modifications et le traitement des données bruitées dans les environnements urbains complexes, l’appariement des nuages de points au cours de passages successifs, voire la gestion des grandes variations d’aspect de la scène dues aux conditions environnementales constituent d’autres problèmes délicats associés à cette thématique. Plus récemment, les tâches de perception s’efforcent également de mener une analyse sémantique de l’environnement urbain pour renforcer les applications intégrant des cartes urbaines 3D. Dans cette thèse, nous présentons un travail supportant le passage à l’échelle pour la cartographie 3D urbaine automatique incorporant la reconnaissance et l’intégration temporelle. Nous présentons en détail les pratiques actuelles du domaine ainsi que les différentes méthodes, les applications, les technologies récentes d’acquisition des données et de cartographie, ainsi que les différents problèmes et les défis qui leur sont associés. Le travail présenté se confronte à ces nombreux défis mais principalement à la classification des zones urbaines l’environnement, à la détection automatique des changements, à la mise à jour efficace de la carte et l’analyse sémantique de l’environnement urbain. Dans la méthode proposée, nous effectuons d’abord la classification de l’environnement urbain en éléments permanents et temporaires. Les objets classés comme temporaire sont ensuite retirés du nuage de points 3D laissant une zone perforée dans le nuage de points 3D. Ces zones perforées ainsi que d’autres imperfections sont ensuite analysées et progressivement éliminées par une mise à jour incrémentale exploitant le concept de multiples passages. Nous montrons que la méthode d’intégration temporelle proposée permet également d’améliorer l’analyse sémantique de l’environnement urbain, notamment les façades des bâtiments. Les résultats, évalués sur des données réelles en utilisant différentes métriques, démontrent non seulement que la cartographie 3D résultante est précise et bien mise à jour, qu’elle ne contient que les caractéristiques permanentes exactes et sans imperfections, mais aussi que la méthode est également adaptée pour opérer sur des scènes urbaines de grande taille. La méthode est adaptée pour des applications liées à la modélisation et la cartographie du paysage urbain nécessitant une mise à jour fréquente de la base de données
Over the years, 3D urban cartography has gained widespread interest and importance in the scientific community due to an ever increasing demand for urban landscape analysis for different popular applications, coupled with advances in 3D data acquisition technology. As a result, in the last few years, work on the 3D modeling and visualization of cities has intensified. Lately, applications have been very successful in delivering effective visualizations of large scale models based on aerial and satellite imagery to a broad audience. This has created a demand for ground based models as the next logical step to offer 3D visualizations of cities. Integrated in several geographical navigators, like Google Street View, Microsoft Visual Earth or Geoportail, several such models are accessible to large public who enthusiastically view the real-like representation of the terrain, created by mobile terrestrial image acquisition techniques. However, in urban environments, the quality of data acquired by these hybrid terrestrial vehicles is widely hampered by the presence of temporary stationary and dynamic objects (pedestrians, cars, etc.) in the scene. Other associated problems include efficient update of the urban cartography, effective change detection in the urban environment and issues like processing noisy data in the cluttered urban environment, matching / registration of point clouds in successive passages, and wide variations in environmental conditions, etc. Another aspect that has attracted a lot of attention recently is the semantic analysis of the urban environment to enrich semantically 3D mapping of urban cities, necessary for various perception tasks and modern applications. In this thesis, we present a scalable framework for automatic 3D urban cartography which incorporates recognition and temporal integration. We present in details the current practices in the domain along with the different methods, applications, recent data acquisition and mapping technologies as well as the different problems and challenges associated with them. The work presented addresses many of these challenges mainly pertaining to classification of urban environment, automatic change detection, efficient updating of 3D urban cartography and semantic analysis of the urban environment. In the proposed method, we first classify the urban environment into permanent and temporary classes. The objects classified as temporary are then removed from the 3D point cloud leaving behind a perforated 3D point cloud of the urban environment. These perforations along with other imperfections are then analyzed and progressively removed by incremental updating exploiting the concept of multiple passages. We also show that the proposed method of temporal integration also helps in improved semantic analysis of the urban environment, specially building façades. The proposed methods ensure that the resulting 3D cartography contains only the exact, accurate and well updated permanent features of the urban environment. These methods are validated on real data obtained from different sources in different environments. The results not only demonstrate the efficiency, scalability and technical strength of the method but also that it is ideally suited for applications pertaining to urban landscape modeling and cartography requiring frequent database updating
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Serdel, Quentin. „Semantic-assisted Autonomous Ground Robot Navigation in Unstructured Environments“. Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPAST139.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur la navigation autonome de robots terrestres dans des environnements non structurés et dépourvus de télécommunications. Afin d'employer des robots mobiles pour effectuer des tâches complexes telles que l'exploration planétaire ou des opérations de sauvetage, ils doivent bénéficier d'une autonomie complète, notamment pour leur navigation sans carte préalable. Les dernières avancées dans le domaine de l'apprentissage profond permettent l'extraction d'informations sémantiques à partir des données capteurs d'un robot. L'exploitation de ces informations, relatives à la nature des éléments de l'environnement du robot, est une piste prometteuse pour l'amélioration de la sécurité et de l'autonomie des systèmes de navigation. Leur intégration dans un processus de cartographie en ligne et l'exploitation de la représentation produite pour la planification de chemins sont abordées via la notion de traversabilité du terrain. La complexité de calcul et la robustesse aux données bruitées sont des aspects cruciaux à prendre en compte. De nouvelles méthodes sont proposées pour la construction de telles représentations et leur exploitation pour la planification de trajectoires. Elles ont été intégrées dans un système complet de navigation robotique et utilisées avec succès dans un scénario réel
The content of this PhD thesis deals with the autonomous navigation of ground robots in telecommunication-denied unstructured environments. In order to employ mobile robots to perform complex tasks such as planetary exploration or search-and-rescue operations, they must be trusted with complete autonomy, notably for their map-less navigation. Thanks to recent advances in the domain of deep-learning, the efficient extraction of semantic information from a robot sensor data is now possible. The exploitation of this information, relating to the nature of the robot surroundings elements, is a promising lead toward the improvement of the safety and autonomy of navigation systems. The integration of semantic labelling into an online mapping process and the exploitation of the resulting environment representation for informative path planning are tackled via the notion of terrain traversability. Computational complexity and robustness to noisy inputs are crucial aspects to be considered. New methods are therefore proposed for the online construction of such representations and their exploitation for path planning. They have been integrated in a complete robot navigation system and successfully employed in a real-world scenario
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Karam, Roula. „Multi-providers location based services for mobile-tourism : a use case for location and cartographic integrations on mobile devices“. Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00694476.

Der volle Inhalt der Quelle
Annotation:
Les services géolocalisés (LBS) sont destinés à délivrer de l'information adéquate aux utilisateurs quelque soit le temps et l'endroit et ceci en se basant sur leur profil, contexte et position géographique. A travers n'importe quelle application dans ce domaine, par exemple m-tourisme, les utilisateurs souhaitent toujours recevoir une réponse rapide et précise en se déplaçant. Cependant, la qualité de service proposée par les fournisseurs cartographiques actuels (i.e. Google Maps, Bing, Yahoo Maps, Mappy ou Via Michelin) dépend de leurs données géographiques. En général, ces données sont stockées de plusieurs bases de données géographiques (BDG) dans le monde entier. D'autre part, le nombre croissant des différentes BDG couvrant la même zone géographique et la récupération des données/métadonnées non erronées pour un service quelconque, impliquent de nombreux raisonnements et de contrôles d'accès aux BDG afin de résoudre les ambiguïtés dues à la présence des objets homologues dupliqués sur l'écran mobile. Mon travail consiste à permettre cette intégration cartographique pour les applications mtourisme et ceci en récupérant les informations spatiales/non-spatiales (noms, positions géographiques, catégorie du service, détails sémantiques et symboles cartographiques) de plusieurs fournisseurs. Cependant, ceci peut conduire à visualiser des objets dupliqués pour le même point d'intérêt et causer des difficultés au niveau de la gestion des données. En outre, l'utilisateur sera dérouté par la présence de résultats multiples pour un même point. Donc, mon but ultime sera de générer automatiquement une carte unique intégrant plusieurs interfaces des fournisseurs sur laquelle les objets homologues seront intégrés avant de les visualiser sur l'écran mobile. Nos nouveaux concepts, basés sur certains algorithmes de fusion, sur l'ontologie pour assurer l'intégration au niveau sémantique et cartographique, sur l'orchestration des géo web services, sont implémentés dans des prototypes modulaires et évalués.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Bernard, Camille. „Immersing evolving geographic divisions in the semantic Web“. Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM048.

Der volle Inhalt der Quelle
Annotation:
De nos jours, le volume de données provenant du secteur public augmente rapidement dans le Web des données ouvertes. La plupart des données proviennent d’organismes gouvernementaux tels que des instituts officiels de statistique et de cartographie. Ensemble, ces institutions publient des statistiques géo-codées qui revêtent une importance capitale pour que les responsables politiques mènent diverses analyses de leur territoire, dans le temps et dans l’espace. Cependant, au cours du temps et partout dans le monde, les divisions (administratives ou électorales par exemple) de ces territoires (portions d’espace sur la terre) délimités par des groupes humains (ou sous le contrôle de groupes humains) sont sujettes à modifications : leur nom, appartenance ou leurs frontières changent pour des raisons politiques ou administratives. De même, les Nomenclatures Statistiques Territoriales (acronyme TSN en anglais), qui regroupent différentes zones géographiques, artefacts construits par des instituts statistiques mais dérivant généralement de structures électorales ou administratives, changent dans le temps et à plusieurs niveaux du territoire (e.g., régions, départements, communes, etc.). Ces changements sont un obstacle à la comparabilité des données socio-économiques dans le temps, celle-ci n’étant possible qu’à la condition d’estimer les données dans un même découpage géographique, un processus compliqué qui finit par masquer les changements territoriaux. Ces changements territoriaux entraînent donc des ruptures dans les séries statistiques et sont à l’origine d’interprétations erronées ou de biais statistiques lorsqu’ils ne sont pas correctement documentés. Par conséquent, des solutions pour représenter différentes versions de TSNs et leurs évolutions dans le Web des Données Ouvertes doivent être proposées afin d’améliorer la compréhension des dynamiques territoriales.Dans cette thèse, nous présentons un cadriciel nommé Theseus Framework. Theseus adopte les technologies du Web sémantique et représente les découpages géographiques et leurs évolutions au cours du temps sous forme de données ouvertes et liées (Linked Open Data (LOD) en anglais). Theseus est composé d’un ensemble de modules permettant la gestion du cycle de vie des TSNs dans le LOD Web : de la modélisation des zones géographiques et de leurs changements au cours du temps, à la détection automatique des changements et à l’exploitation de ces descriptions dans le LOD Web. L’ensemble des modules logiciels reposent sur deux ontologies nommées TSN Ontology et TSN-Change Ontology, que nous avons conçues pour une description non ambiguë des zones géographiques dans le temps et dans l’espace, ainsi que pour la description de leurs modifications au cours du temps.Ce cadriciel s’adresse tout d’abord aux agences statistiques, car il facilite considérablement la mise en conformité de leurs données géographiques, support à l’information statistique avec les directives Open Data. De plus, les graphes de données liées créés améliorent la compréhension des dynamiques territoriales au cours du temps, en fournissant aux décideurs politiques, aux chercheurs et au grand public des descriptions sémantiques des changements territoriaux afin de réaliser diverses analyses de leur territoire. L’applicabilité et la généricité de notre approche sont illustrées par trois tests du cadriciel Theseus menés sur trois TSN officielles : La Nomenclature européenne des unités territoriales statistiques (versions 1999, 2003, 2006 et 2010) de Institut statistique Européen Eurostat; les unités administratives suisses de l’Office fédéral de la statistique Suisse, décrivant les cantons, districts et communes de la Suisse en 2017 et 2018 ; l’Australian Statistical Geography Standard, construit par le Bureau australien de la statistique, composé de sept divisions imbriquées du territoire australien, dans les versions 2011 et 2016
Nowadays, the volume of data coming from the public sector is growing rapidly on the Open Data Web. Most of data come from governmental agencies such as Statistical and Mapping Agencies. Together, these public institutions publish geo-coded statistics that are of utmost importance for policy-makers to conduct various analyses upon their jurisdiction, in time and space. However, through times, all over the world, the subdivisions of such ju- risdictions (portions of space on Earth) delimited by or, under the control of human groups (e.g., administrative or electoral areas) are subject to change: their names, belonging or boundaries change for political or administrative reasons. Likewise, the Territorial Statistical Nomenclatures (TSNs) that are sets of artifact areas (although they usually correspond to political or administrative structures) built by Statistical Agencies to observe a territory at several levels (e.g., regions, districts, sub-districts) also change over time. Changes in TSNs are an obstacle to maintain the comparability of socio-economic data over time, unless past data are recalculated according to present geographic areas, a complicated process that, in the end, hide the territorial changes. Then, territorial changes lead to breaks in the statistical series, and are sources of misinterpretations of statistics, or statistical bias when not properly documented. Therefore, solutions for representing different versions of TSNs, and their evolution on the Open Data Web are to be proposed in order to enhance the understanding of territorial dynamics.In this thesis, we present the Theseus Framework with reference to philosophical issue raised by the Ship of Theseus that, according to legend, was rebuilt entirely over the years, every plank of the ship being replaced one by one. This software framework adopts Semantic Web technologies and Linked Open Data (LOD) representation for the description of the TSNs’ areas, and of their changes: this guaranties the syntactic and, moreover, semantic interoperability between systems exchanging TSN information. Theseus is composed of a set of modules to handle the whole TSN data life cycle on the LOD Web: from the modeling of geographic areas and of their changes, to the exploitation of these descriptions on the LOD Web. All the software modules rely on two ontologies, TSN Ontology and TSN-Change Ontology, we have designed for an unambiguous description of the areas in time and space, and for the description of their changes. In order to automate the detection of such changes in TSN geospatial files, Theseus embeds an implementation of the TSN Semantic Matching Algorithm that computes LOD semantic graphs describing all the TSN elements and their evolution, based on the vocabulary of the two ontologies.This framework is intended first for the Statistical Agencies, since it considerably helps in complying with Open Data directives, by automating the publication of Open Data representation of their geographic areas that change over time. Second, the created LOD graphs enhance the understanding of territorial dynamics over time, providing policy-makers, researchers, general public with semantic descriptions of territorial changes to conduct various analyses upon their jurisdiction, in time and space. The applicability and genericity of our approach is illustrated by three tests of Theseus, each of them being led on three official TSNs: The European Nomenclature of Territorial Units for Statistics (NUTS) (versions 1999, 2003, 2006, and 2010) from the European Eurostat Statistical Institute; The Switzerland Administrative Units (SAU), from The Swiss Federal Statistical Office, that describes the cantons, districts and municipalities of Switzerland in 2017 and 2018; The Australian Statistical Geography Standard (ASGS), built by the Australian Bureau of Statistics, composed of seven nested divisions of the Australian territory, in versions 2011 and 2016
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Hombiat, Anthony. „OF4OSM : un méta-modèle pour structurer la folksonomie d'OpenStreetMap en une nouvelle ontologie“. Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM044/document.

Der volle Inhalt der Quelle
Annotation:
Depuis les années 2000, les technologies du Web permettent aux utilisateurs de prendre part à la production de données : les internautes du Web 2.0 sont les nouveaux capteurs de l’information. Du côté de l’Information Géographique affluent de nombreux jeux de données en provenance de plates-formes de cartographie participative telles qu’OpenStreetMap (OSM) qui a largement impulsé le phénomène de la Géographique Participative (VGI). La communauté OSM représente aujourd’hui plus de deux millions de contributeurs qui alimentent une base de données géospatiales ouverte dont l’objet est de capturer une représentation du territoire mondial. Les éléments cartographiques qui découlent de ce déluge de VGI sont caractérisés par des tags. Les tags permettent une catégorisation simple et rapide du contenu des plates-formes de crowdsourcing qui inondent la toile. Cette approche est cependant un obstacle majeur pour le partage et la réutilisation de ces grands volumes d’information. En effet, ces ensembles de tags, ou folksonomies, sont des modèles de données beaucoup moins expressifs que les ontologies. Nous proposons un méta-modèle pour rapprocher la folksonomie et l’ontologie OSM afin de mieux exploiter la sémantique des données qui en sont issues, tout en préservant la flexibilité intrinsèque à l’utilisation de tags
Post-2000s web technologies have enabled users to engage in the information production process: Web 2.0 surfers are the new data sensors. Regarding Geographic Information (GI), large crowdsourced datasets emerge from the Volunteered Geographic Information (VGI) phenomenon through platforms such as OpenStreetMap (OSM). The latter involves more than two millions contributors who aim at mapping the world into an open geospatial database. This deluge of VGI consists of spatial features associated with tags describing their attributes which is typical of crowdsourced content categorization. However, this approach is also a major impediment to interoperability with other systems that could benefit from this huge amount of bottom-up data. Indeed, folksonomies are much less expressive data models than ontologies. We address the issue of loose OSM metadata by proposing a model for collaborative ontology engineering in order to semantically lift the data while preserving the flexible nature of the activity of tagging
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Roy, Thibault. „Visualisations interactives pour l'aide personnalisée à l'interprétation d'ensembles documentaires“. Phd thesis, Université de Caen, 2007. http://tel.archives-ouvertes.fr/tel-00176825.

Der volle Inhalt der Quelle
Annotation:
Avec la multiplication des documents électroniques, les utilisateurs se retrouvent face à une véritable montagne de textes difficile à gravir.
Cette thèse, prenant place en Traitement Automatique des Langues, a pour objectif d'aider les utilisateurs dans de telles situations.
Les systèmes traditionnellement proposés (tels les moteurs de recherche) ne donnent pas toujours satisfaction aux utilisateurs pour des tâches répétées, prenant peu en considération leur point de vue et leurs interactions avec le matériau textuel.

Nous proposons dans cette thèse que la personnalisation et l'interaction soient au centre de nouveaux outils d'aide pour l'accès au contenu d'ensembles de textes.
Ainsi, nous représentons le point de vue de l'utilisateur sur ses domaines d'intérêt par des ensembles de termes décrits et organisés selon un modèle de sémantique lexicale différentielle.
Nous exploitons de telles représentations pour construire des supports cartographiques d'interactions entre l'utilisateur et l'ensemble de textes, supports lui permettant de visualiser des regroupements, des liens et des différences entre textes de l'ensemble, et ainsi d'appréhender son contenu.

Afin d'opérationnaliser de telles propositions, nous avons mis au point la plate-forme ProxiDocs.
Différentes validations de la plate-forme, prenant place dans des contextes pluridisciplinaires variés allant notamment de la recherche d'information sur Internet à l'étude d'expressions métaphoriques, ont ainsi permis de dégager la valeur ajoutée de nos propositions.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Lienou, Marie Lauginie. „Apprentissage automatique des classes d'occupation du sol et représentation en mots visuels des images satellitaires“. Phd thesis, Paris, ENST, 2009. https://pastel.hal.science/pastel-00005585.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de la reconnaissance de la couverture des sols à partir de classifications automatiques en télédétection, l'obtention de résultats fidèles aux attentes des utilisateurs nécessite d'aborder la classification d'un point de vue sémantique. Cette thèse s'inscrit dans ce contexte, et vise l'élaboration de méthodes automatiques capables d'apprendre des classes sémantiques définies par des experts de la cartographie, et d'annoter automatiquement de nouvelles images à l'aide de cette classification. A partir des cartes issues de la classification CORINE Land Cover, et des images satellitaires multispectrales ayant contribué à la constitution de ces cartes, nous montrons tout d'abord que si les approches classiques de la littérature basées sur le pixel ou la région sont suffisantes pour identifier les classes homogènes d'occupation du sol telles que les champs, elles peinent cependant à retrouver les classes de haut-niveau sémantique, dites de mélange, parce qu'étant composées de différents types de couverture des terres. Pour détecter de telles classes complexes, nous représentons les images sous une forme particulière basée sur les régions ou objets. Cette représentation de l'image, dite en mots visuels, permet d'exploiter des outils de l'analyse de textes qui ont montré leur efficacité dans le domaine de la fouille de données textuelles et en classification d'images multimédia. A l'aide d'approches supervisées et non supervisées, nous exploitons d'une part, la notion de compositionnalité sémantique, en mettant en évidence l'importance des relations spatiales entre les mots visuels dans la détermination des classes de haut-niveau sémantique. D'autre part, nous proposons une méthode d'annotation utilisant un modèle d'analyse statistique de textes : l'Allocation Dirichlet Latente. Nous nous basons sur ce modèle de mélange, qui requiert une représentation de l'image dite en sacs-de-mots visuels, pour modéliser judicieusement les classes riches en sémantique. Les évaluations des approches proposées et des études comparatives menées avec les modèles gaussiens et dérivés, ainsi qu'avec le classificateur SVM, sont illustrées sur des images SPOT et QuickBird entre autres
Land cover recognition from automatic classifications is one of the important methodological researches in remote sensing. Besides, getting results corresponding to the user expectations requires approaching the classification from a semantic point of view. Within this frame, this work aims at the elaboration of automatic methods capable of learning classes defined by cartography experts, and of automatically annotating unknown images based on this classification. Using corine land cover maps, we first show that classical approaches in the state-of-the-art are able to well-identify homogeneous classes such as fields, but have difficulty in finding high-level semantic classes, also called mixed classes because they consist of various land cover categories. To detect such classes, we represent images into visual words, in order to use text analysis tools which showed their efficiency in the field of text mining. By means of supervised and not supervised approaches on one hand, we exploit the notion of semantic compositionality: image structures which are considered as mixtures of land cover types, are detected by bringing out the importance of spatial relations between the visual words. On the other hand, we propose a semantic annotation method using a statistical text analysis model: latent dirichlet allocation. We rely on this mixture model, which requires a bags-of-words representation of images, to properly model high-level semantic classes. The proposed approach and the comparative studies with gaussian and gmm models, as well as svm classifier, are assessed using spot and quickbird images among others
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Llorens, Anaïs. „Dynamique spatiotemporelle de la production de mots“. Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM5011.

Der volle Inhalt der Quelle
Annotation:
La production de mots intéresse un vaste réseau cérébral principalement localisé dans l'hémisphère gauche, synthétisé dans une revue de littérature traitant des études de production de mots en enregistrements intracérébraux. Nous nous sommes principalement focalisés sur l'implication du réseau cérébral lors de l'accès lexical en utilisant deux protocoles de dénomination d'images manipulant l'interférence sémantique, connue pour moduler les liens entre les étapes sémantiques et lexicales. Nous avons comparé la dynamique spatiotemporelle de ces protocoles utilisés de façon interchangeable dans la littérature, mais qui diffèrent dans l'implication de paramètres méthodologiques pouvant faire intervenir des mécanismes mnésiques tels que la familiarisation et la répétition. Notre hypothèse étant que ces paramètres étant si divergents, le réseau neuronal sous-jacent devrait au moins être modulé selon le protocole étudié. Notre étude EEG révèle deux patterns d'activité électrophysiologique distincts entre les protocoles attribuables à l'effet de familiarisation. Nous avons étudié l'implication de la structure hippocampique dans la production de mot via des enregistrements intracérébraux. Les analyses en temps-fréquence et en champs locaux montrent que l'hippocampe est impliqué dans l'apprentissage progressif des liens sémantico-lexicaux, mais aussi dans leur maintien en mémoire durant une courte période et dans leur récupération. Ce travail de thèse a permis de révéler que la dynamique spatiotemporelle de la dénomination d'images est modulée par différents facteurs, ce qui va à l'encontre de l'implication d'un réseau partagé par ces deux protocoles de dénomination d'images
Words production involves a vast brain network mainly localized in the left hemisphere, summarized in a review of literature based on studies of word production in intracranial recordings.We focused principally on the involvement of the cerebral network during lexical access by using two picture naming protocols manipulating the semantic interference effect, known to modulate the links between semantic and lexical processes. We compare the spatiotemporal dynamics of these protocols interchangeably used in the literature, but which differ in the involvement of methodological parameters that may involve mnemonic mechanisms such as familiarity and repetition. Our hypothesis was that these parameters are so divergent that the underlying neural network should at least be modulated by the protocol investigated. Our EEG study reveals two distinct patterns of electrophysiological activity between the protocols due to the familiarization effect. We studied the involvement of the hippocampal structure in the production of word through intracranial recordings. The time-frequency and the local field analyses show that the hippocampus is involved in the progressive learning links between semantic and lexicon, but also in keeping them in memory for a short period and in their recovery. This work revealed that the spatiotemporal dynamics of picture naming is modulated by various factors, which goes against the involvement of a common network shared by these two picture naming protocols
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Teboul, Bruno. „Le développement du neuromarketing aux Etats-Unis et en France. Acteurs-réseaux, traces et controverses“. Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLED036/document.

Der volle Inhalt der Quelle
Annotation:
Notre travail de recherche explore de manière comparée le développement du neuromarketing aux Etats-Unis et en France. Nous commençons par analyser la littérature sur le neuromarketing. Nous utilisons comme cadre théorique et méthodologique l’Actor Network Theory (ANT) ou Théorie de l’Acteur-Réseau (dans le sillage des travaux de Bruno Latour et Michel Callon). Nous montrons ainsi comment des actants « humains et non-humains »: acteurs-réseaux, traces (publications) et controverses forment les piliers d’une nouvelle discipline telle que le neuromarketing. Notre approche hybride « qualitative-quantitative », nous permet de construire une méthodologie appliquée de l’ANT: analyse bibliométrique (Publish Or Perish), text mining, clustering et analyse sémantique de la littérature scientifique et web du neuromarketing. A partir de ces résultats, nous construisons des cartographies, sous forme de graphes en réseau (Gephi) qui révèlent les interrelations et les associations entre acteurs, traces et controverses autour du neuromarketing
Our research explores the comparative development of neuromarketing between the United States and France. We start by analyzing the literature on neuromarketing. We use as theoretical and methodological framework the Actor Network Theory (ANT) (in the wake of the work of Bruno Latour and Michel Callon). We show how “human and non-human” entities (“actants”): actor-network, traces (publications) and controversies form the pillars of a new discipline such as the neuromarketing. Our hybrid approach “qualitative-quantitative” allows us to build an applied methodology of the ANT: bibliometric analysis (Publish Or Perish), text mining, clustering and semantic analysis of the scientific literature and web of the neuromarketing. From these results, we build data visualizations, mapping of network graphs (Gephi) that reveal the interrelations and associations between actors, traces and controversies about neuromarketing
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Weber, Michael. „Development of a method for practical testing of camera-based advanced driver assistance systems in automotive vehicles using augmented reality“. Electronic Thesis or Diss., Bourgogne Franche-Comté, 2023. http://www.theses.fr/2023UBFCA027.

Der volle Inhalt der Quelle
Annotation:
Les systèmes avancés d'aide à la conduite (ADAS) assistent le conducteur, lui offrent du confort et prennent la responsabilité d'accroître la sécurité routière. Ces systèmes complexes font l'objet d'une phase d'essai approfondie qui permet d'optimiser la qualité, la reproductibilité et les coûts. Les systèmes d'aide à la conduite de demain prendront en charge des proportions toujours plus grandes de situations de conduite dans des scénarios de plus en plus complexes et représentent un facteur clé pour la conduite autonome. Les méthodes d'essai actuelles pour les systèmes d'aide à la conduite peuvent être divisées en deux catégories : la simulation et la réalité. Le concept de base de la simulation est de bénéficier de la reproductibilité, de la flexibilité et de la réduction des coûts. Cependant, la simulation ne peut pas encore remplacer complètement les essais en conditions réelles. Les conditions physiques, telles que les conditions météorologiques, le revêtement de la route et d'autres variables, jouent un rôle crucial dans l'évaluation des essais routiers des systèmes d'aide à la conduite et ne peuvent pas être entièrement reproduites dans un environnement virtuel. Ces méthodes d'essai reposent sur des tests de conduite réels sur des sites d'essai spéciaux ainsi que dans un trafic routier réel, ce qui prend beaucoup de temps et est très coûteux. Des méthodes d'essai nouvelles et efficaces sont donc nécessaires pour ouvrir la voie aux futurs systèmes d'assistance à la conduite automobile. Une nouvelle approche, Vehicle in the Loop (VIL), déjà utilisée dans l'industrie aujourd'hui, combine les avantages de la simulation et de la réalité. L'approche retenue dans ce projet est une nouvelle méthode qui vient s'ajouter aux solutions VIL existantes. Tirant parti de la simulation et de la réalité pour tester les ADAS, ce projet présente une nouvelle approche utilisant la réalité augmentée (AR) pour tester ADAS basés sur des caméras, de manière reproductible, rentable et rapide. Une puissance informatique élevée est nécessaire pour des conditions environnementales automobiles complexes, telles que la vitesse élevée du véhicule et le nombre réduit de points d'orientation sur une piste d'essai par rapport aux applications de réalité augmentée à l'intérieur d'un bâtiment. Un modèle tridimensionnel contenant des informations précises sur le site d'essai est généré sur la base de la combinaison de la localisation et de la cartographie visuelles simultanées (vSLAM) et de la segmentation sémantique. L'utilisation d'un processus d'augmentation spécial nous permet d'enrichir la réalité avec des usagers de la route virtuels afin de présenter une preuve de concept pour de futures procédures d'essai
Advanced Driver Assistance Systems (ADAS) support the driver, offer comfort, and take responsibility for increasing road safety. These complex systems endure an extensive testing phase resulting in optimization potential regarding quality, reproducibility, and costs. ADAS of the future will support ever-larger proportions of driving situations in increasingly complex scenarios and represent a key factor for Autonomous Driving (AD). Current testing methods for ADAS can be divided into simulation and reality. The core concept behind the simulation is to benefit from reproducibility, flexibility, and cost reduction. However, simulation cannot yet completely replace real-world tests. Physical conditions, such as weather, road surface, and other variables, play a crucial role in evaluating ADAS road tests and cannot be fully replicated in a virtual environment. These test methods rely on real driving tests on special test sites as well as in real road traffic and are very time-consuming and costly. Therefore, new and efficient test methods are required to pave the way for future ADAS. A new approach Vehicle in the Loop (VIL), which is already being used in the industry today, combines the advantages of simulation and reality. The approach in this project is a new method besides existing VIL solutions. Taking advantage of testing ADAS in simulation and reality, this project presents a new approach to using Augmented Reality (AR) to test camera-based ADAS in a reproducible, cost- and time-efficient way. High computer power is needed for complex automotive environmental conditions, such as high vehicle speed and fewer orientation points on a test track compared to AR applications inside a building. A three-dimensional model with accurate information about the test site is generated based on the combination of visual Simultaneous Localization and Mapping (vSLAM) and Semantic Segmentation. The use of a special augmentation process allows us to enrich reality with virtual road users to present a proof of concept for future test procedures
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie