Littérature scientifique sur le sujet « Interprétation sémantique de tables »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Interprétation sémantique de tables ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Interprétation sémantique de tables"

1

Mathieu, Yvette Yannick. « Verbes psychologiques et interprétation sémantique ». Langue française 105, no 1 (1995) : 98–106. http://dx.doi.org/10.3406/lfr.1995.5296.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Nagy, Tünde. « Semantic and discourse factors in complement choice after begin and start ». Recherches anglaises et nord-américaines 41, no 1 (2008) : 187–96. http://dx.doi.org/10.3406/ranam.2008.1360.

Texte intégral
Résumé :
Ce travail se propose d’analyser les valeurs aspectuelles des formes to -infinitif et -ing après les verbes begin et start. Bien que les deux verbes présentent une grande ressemblance, aussi bien sur les plans sémantique que syntaxique, ils manifestent aussi des différences sur le plan de la complémentation. Il s’agit de produire une interprétation sémantique tant des différences que des ressemblances entre ces verbes aspectuels et leurs formes de complementation. interprétation sémantique tant des différences que des ressemblances entre ces verbes aspectuels et leurs formes de complementation.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Rastier, François. « Topoï et interprétation ». Lectures 36, no 1 (15 mars 2006) : 93–107. http://dx.doi.org/10.7202/036172ar.

Texte intégral
Résumé :
Résumé La topique, secteur important des études littéraires, intéresse toutes les sciences de la culture. Après avoir reconsidéré brièvement les traditions rhétorique, folkloristique et narratologique, on revient sur la définition et le statut du topos, ainsi que sur les problèmes de méthode que posent son identification, son codage et sa recontextualisation. Les exemples donnés conduisent à une réflexion sur les rapports entre sémantique littéraire et idéologie.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Sanfourche, Martial, Bernard Le Saux, Aurélien Plyer et Guy Le Besnerais. « Cartographie et interprétation de l'environnement par drone ». Revue Française de Photogrammétrie et de Télédétection, no 213 (26 avril 2017) : 55–62. http://dx.doi.org/10.52638/rfpt.2017.199.

Texte intégral
Résumé :
Nous présentons dans cet article le système de cartographie géométrique et d'interprétation sémantique de l'environnementpour des applications drone développé à l'ONERA/DTIM. Une cartographie précise en 3D de l'environnementsurvolé par le drone est réalisée au moyen des données vidéo et Lidar acquises en vol. Notre système comprend ensuiteun module pour la cartographie sémantique interactive et la détection d'objets génériques dans le modèle global.Enfin nous proposons des fonctionnalités de détection et pistage des objets mobiles et des évènements sur vidéo, quipermettent de localiser les évènements spécifiques sur la carte, et ainsi avoir une vue globale de la situation.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Dupuis, France. « Traduire le mouvement du sens : Germen et Gestalten en sémantique textuelle des formes ». Translationes 6, no 1 (1 janvier 2014) : 17–32. http://dx.doi.org/10.1515/tran-2015-0001.

Texte intégral
Résumé :
Résumé Cette étude a pour but de convaincre les professionnels de la traduction qu‘avant même de commencer à traduire, il faut se familiariser avec une théorie du sens. C‘est seulement alors qu‘il devient possible d‘obtenir une lecture et une interprétation sémantique efficiente du texte-source. Nous proposons une sémantique textuelle élaborée à partir de travaux initiés en sémantique lexicale ainsi qu‘une analyse des problématiques de la signification développées en philosophie des formes symboliques, en phénoménologie et dans d‘autres travaux, notamment ceux de E. Coseriu. Afin d‘illustrer nos propos théoriques nous traitons un exemple d‘analyse sémantique à partir du poème Chanson noire de L. Aragon.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Giermak-Zielińska, Teresa. « Les adjectifs antonymes - statut logique et interprétation sémantique ». Langages 23, no 89 (1988) : 109–24. http://dx.doi.org/10.3406/lgge.1988.1986.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Bischofsberger, Marco. « Sémantique historique et cognition ». Scolia 9, no 1 (1996) : 7–22. http://dx.doi.org/10.3406/scoli.1996.947.

Texte intégral
Résumé :
Le "socio-cognitivisme" conçoit l'activité cognitive comme activité de constmction inter homines, comme un ensemble d'actes interprétatifs conditionnés par les présupposés sociaux et par les points de vue adoptés par les sujets. Il rejoint ainsi les bases épistémologiques de la sémantique diachronique qui se propose de saisir le sens des mots "dans le temps", en les insérant dans le contexte culturel et social qui contribue à leur définition et à leur interprétation. Si l'on réunit les deux approches, l'unité lexicale et surtout son aspect sémantique deviennent la trace d'une opération cognitive, le résultat non pas d’une lecture, mais d'une écriture de la réalité. En adoptant une perspective radicalement constmctiviste, on discutera ensuite de la naissance de "sémantiques particulières" et des conséquences de l'hétérogénéité sociale et culturelle de la communication.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Colin, Michel. « Interprétation sémantique et représentations spatiales dans la bande-image ». DRLAV. Documentation et Recherche en Linguistique Allemande Vincennes 34, no 1 (1986) : 359–76. http://dx.doi.org/10.3406/drlav.1986.1053.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Gayral, Françoise, Daniel Kayser et François Levy. « Logique et sémantique du langage naturel : modèles et interprétation ». Intellectica. Revue de l'Association pour la Recherche Cognitive 23, no 2 (1996) : 303–25. http://dx.doi.org/10.3406/intel.1996.1539.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Mayol, Pierre. « Septembre 2007. De « communauté» à « communautarisme » ». Diversité 11, no 1 (2009) : 167–74. http://dx.doi.org/10.3406/diver.2009.7878.

Texte intégral
Résumé :
En France, autant le mot « communauté » a la cote, autant celui de « communautarisme » est mal vu. On trouvera dans les ouvrages spécialisés l’histoire des deux mots. Un parcours sémantique est l’étape préalable de toute interprétation sociale, politique ou philosophique. Que voulons-nous dire quand nous employons ces mots ? Que dit l’étymologie ?
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Interprétation sémantique de tables"

1

Liu, Jixiong. « Semantic Annotations for Tabular Data Using Embeddings : Application to Datasets Indexing and Table Augmentation ». Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS529.

Texte intégral
Résumé :
Avec le développement de l'Open Data, un grand nombre de sources de données sont mises à disposition des communautés (notamment les data scientists et les data analysts). Ces données constituent des sources importantes pour les services numériques sous réserve que les données soient nettoyées, non biaisées, et combinées à une sémantique explicite et compréhensible par les algorithmes afin de favoriser leur exploitation. En particulier, les sources de données structurées (CSV, JSON, XML, etc.) constituent la matière première de nombreux processus de science des données. Cependant, ces données proviennent de différents domaines pour lesquels l'expertise des consommateurs des données peut être limitée (knowledge gap). Ainsi, l'appropriation des données, étape critique pour la création de modèles d'apprentissage automatique de qualité, peut être complexe.Les modèles sémantiques (en particulier, les ontologies) permettent de représenter explicitement le sens des données en spécifiant les concepts et les relations présents dans les données. L'association d'étiquettes sémantiques aux ensembles de données facilite la compréhension et la réutilisation des données en fournissant une documentation sur les données qui peut être facilement utilisée par un non-expert. De plus, l'annotation sémantique ouvre la voie à des modes de recherche qui vont au-delà de simples mots-clés et permettent l'expression de requêtes d'un haut niveau conceptuel sur le contenu des jeux de données mais aussi leur structure tout en surmontant les problèmes d'hétérogénéité syntaxique rencontrés dans les données tabulaires. Cette thèse introduit un pipeline complet pour l'extraction, l'interprétation et les applications de tableaux de données à l'aide de graphes de connaissances. Nous rappelons tout d'abord la définition des tableaux du point de vue de leur interprétation et nous développons des systèmes de collecte et d'extraction de tableaux sur le Web et dans des fichiers locaux. Nous proposons ensuite trois systèmes d'interprétation de tableaux basés sur des règles heuristiques ou sur des modèles de représentation de graphes, afin de relever les défis observés dans la littérature. Enfin, nous présentons et évaluons deux applications d'augmentation des tables tirant parti des annotations sémantiques produites: l'imputation des données et l'augmentation des schémas
With the development of Open Data, a large number of data sources are made available to communities (including data scientists and data analysts). This data is the treasure of digital services as long as data is cleaned, unbiased, as well as combined with explicit and machine-processable semantics in order to foster exploitation. In particular, structured data sources (CSV, JSON, XML, etc.) are the raw material for many data science processes. However, this data derives from different domains for which consumers are not always familiar with (knowledge gap), which complicates their appropriation, while this is a critical step in creating machine learning models. Semantic models (in particular, ontologies) make it possible to explicitly represent the implicit meaning of data by specifying the concepts and relationships present in the data. The provision of semantic labels on datasets facilitates the understanding and reuse of data by providing documentation on the data that can be easily used by a non-expert. Moreover, semantic annotation opens the way to search modes that go beyond simple keywords and allow the use of queries of a high conceptual level on the content of the datasets but also their structure while overcoming the problems of syntactic heterogeneity encountered in tabular data. This thesis introduces a complete pipeline for the extraction, interpretation, and applications of tables in the wild with the help of knowledge graphs. We first refresh the exiting definition of tables from the perspective of table interpretation and develop systems for collecting and extracting tables on the Web and local files. Three table interpretation systems are further proposed based on either heuristic rules or graph representation models facing the challenges observed from the literature. Finally, we introduce and evaluate two table augmentation applications based on semantic annotations, namely data imputation and schema augmentation
Styles APA, Harvard, Vancouver, ISO, etc.
2

Lavigne, Frédéric. « Sémantique isochronotopique : locus et decours temporel des processus d'interprétation sémantique ». Paris, EHESS, 1996. http://www.theses.fr/1996EHES0312.

Texte intégral
Résumé :
Les phenomenes de construction du sens au cours de la comprehension d'enonces font intervenir de nombreux parametres relevant notamment des proprietes du langage et du systeme cognitif. Les bases minimales des interactions systemiques entre un lecteur et un enonce montrent l'interet interdisciplinaire d'apprehender les phenomenes semantiques par l'analyse conjointe de la structure linguistique anaphorique associative de l'enonce et des processus cognitifs interpretatifs. Les questions theoriques posees par les processus en temps reel de l'interpretation nous amenent a preciser empiriquement les interactions entre les representations que se fait le sujet de l'enonce et la structure semantique de l'enonce. L'analyse empirique des processus interpretatifs s'inscrit, en psychologie cognitive, dans la problematique des effets du contexte semantique sur la reconnaissance des mots, etudiee par une serie d'experiences d'enregistrement des mouvements oculaires pendant la lecture et de decision lexicale. Les resultats conduisent a distinguer plusieurs types d'interpretation du sens des mots en fonction du contexte qui les precede, et en fonction de la dimension temporelle des processus interpretatifs. Dans le cadre de l'analyse structurale des phenomenes d'isotopie, l'analyse de la temporalite des effets du contexte permet de degager des decours temporel distincts des processus activateurs et inhibiteurs du traitement semantique. Ces proprietes fonctionnelles sont analysees sur un plan qualitatif des types d'associations lexicales mises en jeu dans la phrase, puis sont elargies a un plan quantitatif vers la notion de thematique globale du niveau textuel. Un modele interpretatif psycholinguistique est propose pour rendre compte de maniere unifiee des processus interpretatifs activateurs et inhibiteurs. Des elements de formalisation sont proposes relativement aux proprietes structurales d'un reseau de neurones. Ce travail propose une approche interdisciplinaire d'une theorie semantique lexicale, structurale et temporelle
Sentence comprehension processes rely on semantic properties of the linguistic system and of the cognitive system. An analysis of systemic interactions between a text and a reader is proposed. This analysis defines the types of interactions between an associative anaphoric structure and an associative cognitive structure, usually investigated from different disciplinary point of views. On the basis of this theoretical anaysis, an experimental approach is proposed within the frame of semantic context effects studies in psycholinguistics. A set of eye movement recording experiments, and of lexical decision experiments, investigates the locus and time course of context effects on word processing. Results show that both the semantic structure of the context and the time course of the context effects can influence the processing of a target word. Results are discussed within the linguistic frame of isotopic phenomenon, and show that both activatory and inhibitory processes are involved, with different time courses. These results are extended from the reading of isolated sentences to the reading of texts. A psycholinguistic associative model is proposed within the frame of the current literature, which propose to analyse at an associative level the activatiry and inhibitory processes and their respective time courses
Styles APA, Harvard, Vancouver, ISO, etc.
3

Gzawi, Mahmoud. « Désambiguïsation de l’arabe écrit et interprétation sémantique ». Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE2006.

Texte intégral
Résumé :
Cette thèse se situe à l’intersection des domaines de la recherche en linguistique et du traitement automatique de la langue. Ces deux domaines se croisent pour la construction d’outils de traitement de texte, et des applications industrielles intégrant des solutions de désambiguïsation et d’interprétation de la langue.Une tâche difficile et très peu abordée et appliqué est arrivée sur les travaux de l’entreprise Techlimed, celle de l’analyse automatique des textes écrits en arabe. De nouvelles ressources sont apparues comme les lexiques de langues et les réseaux sémantiques permettant à la création de grammaires formelles d’accomplir cette tâche.Une métadonnée importante pour l’analyse de texte est de savoir « qu’est-ce qui est dit, et que signifie-t-il ? ». Le domaine de linguistique computationnelle propose des méthodes très diverses et souvent partielle pour permettre à l’ordinateur de répondre à de telles questions.L’introduction et l’application des règles de grammaire descriptives de langues dans les langages formels spécifiques au traitement de langues par ordinateur est l’objet principal de cette thèse.Au-delà de la réalisation d’un système de traitement et d’interprétation de textes en langue arabe, basé aussi sur la modélisation informatique, notre intérêt s’est porté sur l’évaluation des phénomènes linguistiques relevés par la littérature et les méthodes de leur formalisation en informatique.Dans tous les cas, nos travaux de recherche ont été testés et validés dans un cadre expérimental rigoureux autour de plusieurs formalismes et outils informatiques.Nos expérimentations concernant l'apport de la grammaire syntaxico-sémantique, a priori, ont montré une réduction importante de l’ambiguïté linguistique dans le cas de l'utilisation d’une grammaire à état fini écrite en Java et une grammaire générativetransformationnelle écrite en Prolog, intégrant des composants morphologiques, syntaxiques et sémantiques.La mise en place de notre étude a requis la construction d’outils de traitement de texte et d’outils de recherche d’information. Ces outils ont été construits par nos soins et sont disponible en Open-source.La réussite de l’application de nos travaux à grande échelle s’est conclue par la condition d’avoir de ressources sémantiques riches et exhaustives. Nous travaux ont été redirigés vers une démarche de production de telles ressources, en termes de recherche d’informations et d’extraction de connaissances. Les tests menés pour cette nouvelle perspective ont étéfavorables à d’avantage de recherche et d’expérimentation
This thesis lies at the frontier of the fields of linguistic research and the automatic processing of language. These two fields intersect for the construction of natural language processing tools, and industrial applications integrating solutions for disambiguation and interpretation of texts.A challenging task, briefly approached and applied, has come to the work of the Techlimed company, that of the automatic analysis of texts written in Arabic. Novel resources have emerged as language lexicons and semantic networks allowing the creation of formal grammars to accomplish this task.An important meta-data for text analysis is "what is being said, and what does it mean". The field of computational linguistics offers very diverse and, mostly, partial methods to allow the computer to answer such questions.The main purpose of this thesis is to introduce and apply the rules of descriptive language grammar in formal languages specific to computer language processing.Beyond the realization of a system of processing and interpretation of texts in Arabic language based on computer modeling, our interest has been devoted to the evaluation of the linguistic phenomena described by the literature and the methods of their formalization in computer science.In all cases, our research was tested and validated in a rigorous experimental framework around several formalisms and computer tools.The experiments concerning the contribution of syntaxico-semantic grammar, a priori, have demonstrated a significant reduction of linguistic ambiguity in the case of the use of a finite-state grammar written in Java and a transformational generative grammarwritten in Prolog, integrating morphological, syntactic and semantic components.The implementation of our study required the construction of tools for word processing, information retrieval tools. These tools were built by us and are available in Open-source.The success of the application of our work in large scale was concluded by the requirement of having rich and comprehensive semantic resources. Our work has been redirected towards a process of production of such resources, in terms of informationretrieval and knowledge extraction. The tests for this new perspective were favorable to further research and experimentation
Styles APA, Harvard, Vancouver, ISO, etc.
4

Monsuez, Bruno. « Typage par interprétation abstraite ». Palaiseau, Ecole polytechnique, 1994. http://www.theses.fr/1994EPXX0015.

Texte intégral
Résumé :
L'interprétation abstraite et l'inférence de types sont deux méthodes formelles permettant d'obtenir de manière statique (i. E. à la compilation) et automatique une description approchée du comportement dynamique (i. E. De l'exécution) d'un programme. Ces deux méthodes sont généralement présentées comme concurrentes voir même incompatibles. Dans cet ouvrage, notre objectif a été tout d'abord de développer une approche générique permettant de définir un système de types en utilisant les techniques d'interprétation abstraite. Le résultat auquel nous sommes parvenus met ainsi fin à la polémique entre les tenants des techniques d'interprétation abstraite et ceux de l'inférence de types et ouvrent de nouveaux horizons pour aux techniques d'inférences. Il est désormais possible de combiner les techniques propres aux systèmes d'inférences de types et les techniques d'interprétation abstraite afin d'améliorer les systèmes de types existant, de développer de nouveaux systèmes de types. En résumé, notre objectif a été tout d'abord de développer dans cet ouvrage une approche générique permettant de définir un système de types en utilisant les techniques de l'interprétation abstraite, tout en exhibant les similitudes des systèmes obtenus avec les systèmes de types définis de manière classique. Ce formalisme une fois défini, nous illustrons comment utiliser les techniques spécifiques de l'interprétation abstraite afin d'améliorer de façon significative les systèmes de types classiques. Enfin, dans une dernière partie, nous définissons de nouveaux systèmes moins intuitifs permettant des typages bien plus précis que ceux disponibles dans la littérature
Styles APA, Harvard, Vancouver, ISO, etc.
5

Pechoux, Romain. « Analyse de la complexité des programmes par interprétation sémantique ». Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2007. http://tel.archives-ouvertes.fr/tel-00321917.

Texte intégral
Résumé :
Il existe de nombreuses approches développées par la communauté Implicit Computational Complexity (ICC) permettant d'analyser les ressources nécessaires à la bonne exécution des algorithmes. Dans cette thèse, nous nous intéressons plus particulièrement au contrôle des ressources à l'aide d'interprétations sémantiques.
Après avoir rappelé brièvement la notion de quasi-interprétation ainsi que les différentes propriétés et caractérisations qui en découlent, nous présentons les différentes avancées obtenues dans l'étude de cet outil : nous étudions le problème de la synthèse qui consiste à trouver une quasi-interprétation pour un programme donné, puis, nous abordons la question de la modularité des quasi-interprétations. La modularité permet de diminuer la complexité de la procédure de synthèse et de capturer un plus grand nombre d'algorithmes. Après avoir mentionné différentes extensions des quasi-interprétations à des langages de programmation réactif, bytecode ou d'ordre supérieur, nous introduisons la sup-interprétation. Cette notion généralise la quasi-interprétation et est utilisée dans des critères de contrôle des ressources afin d'étudier la complexité d'un plus grand nombre d'algorithmes dont des algorithmes sur des données infinies ou des algorithmes de type diviser pour régner. Nous combinons cette notion à différents critères de terminaison comme les ordres RPO, les paires de dépendance ou le size-change principle et nous la comparons à la notion de quasi-interprétation. En outre, après avoir caractérisé des petites classes de complexité parallèles, nous donnons quelques heuristiques permettant de synthétiser des sup-interprétations sans la propriété sous-terme, c'est à dire des sup-interprétations qui ne sont pas des quasi-interprétations. Enfin, dans un dernier chapitre, nous adaptons les sup-interprétations à des langages orientés-objet, obtenant ainsi différents critères pour contrôler les ressources d'un programme objet et de ses méthodes.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Andrés, Samuel. « Ontologies dans les images satellitaires : interprétation sémantique des images ». Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2013. http://tel.archives-ouvertes.fr/tel-00998692.

Texte intégral
Résumé :
Étant donnée l'évolution technologique des capteurs embarqués à bord des satellites, le potentiel d'images satellitaires accessible s'accroît de telle manière que se pose maintenant la question de son exploitation la plus efficace possible. C'est l'objectif du projet CARTAM-SAT que de fluidifier la chaîne de traitement depuis les satellites jusqu'aux utilisateurs des images. La thèse s'inscrit dans ce cadre. Les traitements relatifs aux images ont évolué au cours des années. Les images basse résolution étaient traitées par une approche dite pixel alors que la haute résolution a permis le développement d'une approche dite objet. Cette dernière s'attache à analyser non plus des pixels isolés, mais des groupes de pixels représentatifs d'objets concrets sur le terrain. Ainsi, en principe, ces groupes de pixels sont dotés d'une sémantique propre au domaine de la télédétection. La représentation des connaissances a évolué parallèlement aux images satellitaires. Les standards de représentation ont profité de l'expansion du web pour donner naissance à des standards comme OWL. Celui-ci repose en grande partie sur les logiques de description qui permettent l'utilisation de raisonneurs automatiques capables d'inférer une connaissance implicite.Cette thèse se place à la jonction de ces deux sciences et propose une approche ontologique d'analyse des images satellitaires. Il s'agit de formaliser différents types de connaissances et de conceptualisations implicitement utilisés par les logiciels de traitement d'image et par les experts en télédétection, puis de raisonner automatiquement sur la description d'une image pour en obtenir une interprétation sémantique.Ce principe général est susceptible de nombreuses déclinaisons techniques. La mise en œuvre a consisté en la réalisation d'un prototype alliant une bibliothèque d'analyse d'images satellitaires et un raisonneur basé sur les ontologies. L'implémentation proposée dans la thèse permet d'explorer quatre déclinaisons techniques du principe qui mènent à des discussions sur la complémentarité des paradigmes d'analyse pixel et objet, la représentation de certaines relations spatiales et la place de la connaissance par rapport aux traitements.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Péchoux, Romain. « Analyse de la complexité des programmes par interprétation sémantique ». Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL084N/document.

Texte intégral
Résumé :
Il existe de nombreuses approches développées par la communauté Implicit Computational Complexity (ICC) permettant d'analyser les ressources nécessaires à la bonne exécution des algorithmes. Dans cette thèse, nous nous intéressons plus particulièrement au contrôle des ressources à l'aide d'interprétations sémantiques. Après avoir rappelé brièvement la notion de quasi-interprétation ainsi que les différentes propriétés et caractérisations qui en découlent, nous présentons les différentes avancées obtenues dans l'étude de cet outil : nous étudions le problème de la synthèse qui consiste à trouver une quasi-interprétation pour un programme donné, puis, nous abordons la question de la modularité des quasi-interprétations. La modularité permet de diminuer la complexité de la procédure de synthèse et de capturer un plus grand nombre d'algorithmes. Après avoir mentionné différentes extensions des quasi-interprétations à des langages de programmation réactifs, bytecode ou d'ordre supérieur, nous introduisons la sup-interprétation. Cette notion généralise la quasi-interprétation et est utilisée dans des critères de contrôle des ressources afin d'étudier la complexité d'un plus grand nombre d'algorithmes dont des algorithmes sur des données infinies ou des algorithmes de type diviser pour régner. Nous combinons cette notion à différents critères de terminaison comme les ordres RPO, les paires de dépendance ou le size-change principle et nous la comparons à la notion de quasi-interprétation. En outre, après avoir caractérisé des petites classes de complexité parallèles, nous donnons quelques heuristiques permettant de synthétiser des sup-interprétations sans la propriété sous-terme, c'est à dire des sup-interprétations qui ne sont pas des quasi-interprétations. Enfin, dans un dernier chapitre, nous adaptons les sup-interprétations à des langages orientés-objet, obtenant ainsi différents critères pour contrôler les ressources d'un programme objet et de ses méthodes
There are several approaches developed by the Implicit Computational Complexity (ICC) community which try to analyze and control program resources. In this document, we focus our study on the resource control with the help of semantics interpretations. After introducing the notion of quasi-interpretation together with its distinct properties and characterizations, we show the results obtained in the study of such a tool: We study the synthesis problem which consists in finding a quasi-interpretation for a given program and we tackle the issue of quasi-interpretation modularity. Modularity allows to decrease the complexity of the synthesis procedure and to capture more algorithms. We present several extensions of quasi-interpretations to reactive programming, bytecode verification or higher-order programming. Afterwards, we introduce the notion of sup-interpretation. This notion strictly generalizes the one of quasi-interpretation and is used in distinct criteria in order to control the resources of more algorithms, including algorithms over infinite data and algorithms using a divide and conquer strategy. We combine sup-interpretations with distinct termination criteria, such as RPO orderings, dependency pairs or size-change principle, and we compare them to the notion of quasi-interpretation. Using the notion of sup-interpretation, we characterize small parallel complexity classes. We provide some heuristics for the sup-interpretation synthesis: we manage to synthesize sup-interpretations without the subterm property, that is, sup-interpretations which are not quasi-interpretations. Finally, we extend sup-interpretations to object-oriented programs, thus obtaining distinct criteria for resource control of object-oriented programs and their methods
Styles APA, Harvard, Vancouver, ISO, etc.
8

Foucherot, Irène. « Analyse syntaxique et interprétation de clauses de Horn ». Dijon, 1995. http://www.theses.fr/1995DIJOS055.

Texte intégral
Résumé :
Please est un système permettant d'évaluer des programmes en clauses de Horn pures en utilisant des algorithmes de génération d'analyseurs syntaxiques LR. Ce système permet à l'utilisateur d'écrire ses programmes de façon totalement déclarative, ce qu'il ne peut pas faire avec un système prolog classique. Notre système intègre des prédicats prédéfinis d'entrée/sortie et de manipulation dynamique de clauses qui conservent son caractère déclaratif et prennent en compte la cohérence du programme. De tels prédicats ont pu être ajoutes grâce à l'adaptation d'algorithmes de génération incrémentale d'analyseurs. Nous avons défini une sémantique opérationnelle de notre système dans le langage des clauses de Horn augmentées de la négation.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Sellami, Akrem. « Interprétation sémantique d'images hyperspectrales basée sur la réduction adaptative de dimensionnalité ». Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0037/document.

Texte intégral
Résumé :
L'imagerie hyperspectrale permet d'acquérir des informations spectrales riches d'une scène dans plusieurs centaines, voire milliers de bandes spectrales étroites et contiguës. Cependant, avec le nombre élevé de bandes spectrales, la forte corrélation inter-bandes spectrales et la redondance de l'information spectro-spatiale, l'interprétation de ces données hyperspectrales massives est l'un des défis majeurs pour la communauté scientifique de la télédétection. Dans ce contexte, le grand défi posé est la réduction du nombre de bandes spectrales inutiles, c'est-à-dire de réduire la redondance et la forte corrélation de bandes spectrales tout en préservant l'information pertinente. Par conséquent, des approches de projection visent à transformer les données hyperspectrales dans un sous-espace réduit en combinant toutes les bandes spectrales originales. En outre, des approches de sélection de bandes tentent à chercher un sous-ensemble de bandes spectrales pertinentes. Dans cette thèse, nous nous intéressons d'abord à la classification d'imagerie hyperspectrale en essayant d'intégrer l'information spectro-spatiale dans la réduction de dimensions pour améliorer la performance de la classification et s'affranchir de la perte de l'information spatiale dans les approches de projection. De ce fait, nous proposons un modèle hybride permettant de préserver l'information spectro-spatiale en exploitant les tenseurs dans l'approche de projection préservant la localité (TLPP) et d'utiliser l'approche de sélection non supervisée de bandes spectrales discriminantes à base de contraintes (CBS). Pour modéliser l'incertitude et l'imperfection entachant ces approches de réduction et les classifieurs, nous proposons une approche évidentielle basée sur la théorie de Dempster-Shafer (DST). Dans un second temps, nous essayons d'étendre le modèle hybride en exploitant des connaissances sémantiques extraites à travers les caractéristiques obtenues par l'approche proposée auparavant TLPP pour enrichir la sélection non supervisée CBS. En effet, l'approche proposée permet de sélectionner des bandes spectrales pertinentes qui sont à la fois informatives, discriminantes, distinctives et peu redondantes. En outre, cette approche sélectionne les bandes discriminantes et distinctives en utilisant la technique de CBS en injectant la sémantique extraite par les techniques d'extraction de connaissances afin de sélectionner d'une manière automatique et adaptative le sous-ensemble optimal de bandes spectrales pertinentes. La performance de notre approche est évaluée en utilisant plusieurs jeux des données hyperspectrales réelles
Hyperspectral imagery allows to acquire a rich spectral information of a scene in several hundred or even thousands of narrow and contiguous spectral bands. However, with the high number of spectral bands, the strong inter-bands spectral correlation and the redundancy of spectro-spatial information, the interpretation of these massive hyperspectral data is one of the major challenges for the remote sensing scientific community. In this context, the major challenge is to reduce the number of unnecessary spectral bands, that is, to reduce the redundancy and high correlation of spectral bands while preserving the relevant information. Therefore, projection approaches aim to transform the hyperspectral data into a reduced subspace by combining all original spectral bands. In addition, band selection approaches attempt to find a subset of relevant spectral bands. In this thesis, firstly we focus on hyperspectral images classification attempting to integrate the spectro-spatial information into dimension reduction in order to improve the classification performance and to overcome the loss of spatial information in projection approaches.Therefore, we propose a hybrid model to preserve the spectro-spatial information exploiting the tensor model in the locality preserving projection approach (TLPP) and to use the constraint band selection (CBS) as unsupervised approach to select the discriminant spectral bands. To model the uncertainty and imperfection of these reduction approaches and classifiers, we propose an evidential approach based on the Dempster-Shafer Theory (DST). In the second step, we try to extend the hybrid model by exploiting the semantic knowledge extracted through the features obtained by the previously proposed approach TLPP to enrich the CBS technique. Indeed, the proposed approach makes it possible to select a relevant spectral bands which are at the same time informative, discriminant, distinctive and not very redundant. In fact, this approach selects the discriminant and distinctive spectral bands using the CBS technique injecting the extracted rules obtained with knowledge extraction techniques to automatically and adaptively select the optimal subset of relevant spectral bands. The performance of our approach is evaluated using several real hyperspectral data
Styles APA, Harvard, Vancouver, ISO, etc.
10

Massé, Damien. « Vérification par interprétation abstraite guidée par une propriété temporelle ». Palaiseau, École polytechnique, 2002. http://www.theses.fr/2002EPXX0048.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "Interprétation sémantique de tables"

1

Blanchard, Robert. Interprétation des formes symboliques : Théorie générale de la sémantique symbolique. Toulon : Les Presses du Midi, 2002.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Müller, Friedrich. Discours de la méthode juridique. Paris : Presses universitaires de France, 1996.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

L' interprétation des formes symboliques : Théorie générale de la sémantique symbolique. Toulon : Presses du Midi, 2002.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Saint-Martin, Fernande. Le sens du langage visuel : Essai de sémantique visuelle psychanalytique. Québec : Presses de l'Université du Québec, 2007.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Wrestling with rationality in Paul : Romans 1-8 in a new perspective. Cambridge : Cambridge University Press, 1995.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Bau der Gemeinde : Das paulinische Wortfeld = oikodomē/(ep)oikodomein. Würzburg : Echter Verlag, 1986.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Josephus and faith : [pistis] and [pisteuein] as faith terminology in the writings of Flavius Josephus and in the New Testament. Leiden : E.J. Brill, 1993.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Semantic interpretation and the resolution of ambiguity. Cambridge [Cambridgeshire] : Cambridge University Press, 1987.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Pozierak-Trybisz, Izabela. Analyse Sémantique des Prédicats de Communication : Production et Interprétation des Signes- Emplois de Communication Non Verbale. Lang GmbH, Internationaler Verlag der Wissenschaften, Peter, 2015.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Pozierak-Trybisz, Izabela. Analyse Sémantique des Prédicats de Communication : Production et Interprétation des Signes- Emplois de Communication Non Verbale. Lang GmbH, Internationaler Verlag der Wissenschaften, Peter, 2015.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.

Chapitres de livres sur le sujet "Interprétation sémantique de tables"

1

Gross, Gaston. « Les tables du LADL et la sémantique ». Dans Lingvisticæ Investigationes Supplementa, 131–44. Amsterdam : John Benjamins Publishing Company, 2013. http://dx.doi.org/10.1075/lis.29.09gro.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

PERSON, Cédric. « Sémantique du procès : représentation et interprétation ». Dans Représentation du sens linguistique II, 267. De Boeck Supérieur, 2007. http://dx.doi.org/10.3917/dbu.bouch.2007.01.0267.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Houle, Jean-François. « L’innovation sémantique comme pré-interprétation ou la fonction herméneutique de l’imagination chez Paul Ricœur ». Dans Il rinnovamento dell’ermeneutica. Con e oltre Paul Ricoeur, 55–72. Quodlibet, 2020. http://dx.doi.org/10.2307/j.ctv19qmc9q.7.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Schnakenbourg, Éric. « Nommer l’étranger aux XVIe et XVIIe siècles : sauvages des Antilles et barbares de Moscovie, interprétation d’une distinction sémantique ». Dans Étrangers et sociétés, 223–32. Presses universitaires de Rennes, 2009. http://dx.doi.org/10.4000/books.pur.97835.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

FAYE, Babacar. « Plurilinguisme, « Sui generisité » et stratégies de médiation dans l’écriture francophone ». Dans Médier entre langues, cultures et identités : enjeux, outils, stratégies, 63–70. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.5503.

Texte intégral
Résumé :
L’écrivant qui se trouve dans un contexte de bi-plurilinguisme est frappé par une non-coïncidence du dire (Authier-Revuz) qui déteint sur son dire. En effet, les inférences possibles et les systèmes de référence venant de sources sociolinguistiques différentes, on imagine l’importance de la méta-énonciation textuelle dont le rôle est de maintenir un imaginaire de coïncidence entre des techniques langagières différentes mais qui sont en jeu dans l’expression unilingue d’un bi-plurilingue. Dans le cadre d’un bilinguisme collectif, si le monde représenté est différent du monde qui a vu naître la langue d’écriture, alors un problème de coïncidence sémantique, de manière de parler, se pose entre un système de signe extérieur ou naturalisé et ce monde représenté ; les langues ne découpant pas la réalité d’une même manière. C’est ainsi que nous verrons apparaître dans l’écriture francophone, une méta-énonciation qui jette des ponts entre la langue d’expression (ici le français) et les langues d’arrière-plan. En effet, face à la non-coïncidence et aux structures externes qui déconstruisent le système de la langue d’écriture, nos auteurs sont malgré tout conscients des problèmes de réception que peut engendrer ce genre de codage textuel. Nos énonciateurs textuels étant d’abord leur propre récepteur et, soupçonnant une possibilité de non-coïncidence du dire, mettent en scène des stratégies de restauration d’un imaginaire du « un». L’écrivain prévoit donc l’incertitude, le malentendu, à travers la lecture-interprétation de l’interlocuteur-lecteur. Il s’agit en quelque sorte d’un dialogue des langues à travers un métalangage qui rétablit différents niveaux. Cette homogénéisation de l’hétérogène est rendue possible par des procédés qui permettent de concevoir une totalité éparpillée. Ces procédés de médiation inter-linguistiques seront étudiés à travers la parenthèse hétérolingue, l’intégration morphosyntaxique, le calque de construction et le changement de valence verbale chez trois auteurs francophones : Ousmane Sembène, Pape Pathé Diop et Ahmadou Kourouma.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie