To see the other types of publications on this topic, follow the link: Lambadi language.

Dissertations / Theses on the topic 'Lambadi language'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 31 dissertations / theses for your research on the topic 'Lambadi language.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Kathail, Vinod. "Optimal interpreters for lambda-calculus based functional languages." Thesis, Massachusetts Institute of Technology, 1990. http://hdl.handle.net/1721.1/14040.

Full text
Abstract:
Thesis (Ph. D.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 1990.
Includes bibliographical references (leaves 195-197).
by Vinod Kumar Kathail.
Ph.D.
APA, Harvard, Vancouver, ISO, and other styles
2

Silvia, Gilezan. "Intersection types in lambda calculus and logic." Phd thesis, Univerzitet u Novom Sadu, Prirodno-matematički fakultet u Novom Sadu, 1993. https://www.cris.uns.ac.rs/record.jsf?recordId=73293&source=NDLTD&language=en.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Madiot, Jean-Marie. "Higher-order languages : dualities and bisimulation enhancements." Thesis, Lyon, École normale supérieure, 2015. http://www.theses.fr/2015ENSL0988/document.

Full text
Abstract:
Les comportements des processus concurrents peuvent être exprimés en utilisant des calculs de processus, des langages formels simples qui permettent de démontrer des résultats mathématiques précis sur les interactions entre processus. Un exemple très simple est CCS, un autre exemple est le pi-calcul, plus expressif grâce à un mécanisme de communication de canaux. Dans ce dernier, on peut instaurer un système de types (pour raffiner l'analyse aux environnements plus contraints) et encoder le lambda-calcul (qui représente les calculs séquentiels).Certains de ces calculs, comme CCS ou des variantes du pi-calcul comme les calculs de fusions, ont une certaine propriété de symétrie. On utilise dans un premier temps cette symétrie comme un outil, pour prouver que deux encodages du lambda-calcul dans le pi-calcul sont en fait équivalents.Cette preuve nécessitant un système de types et une forme de symétrie, on se pose la question de l'existence d'un système de types pour les autres calculs symétriques, notamment les calculs de fusion, à laquelle on répond par la négative avec un théorème d'impossibilité.En analysant ce théorème, on découvre un contrainte fondamentale de ces calculs qui empêche l'utilisation des types, à savoir la présence d'une notion de relation d'équivalence entre les canaux de communication. Le relâchement de cette contrainte pour obtenir une relation de pré-ordre engendre un calcul intéressant qui recouvre des notions importantes du pi-calcul, absentes dans les calculs de fusion : les types et les noms privés. La première partie de la thèse se concentre sur l'étude de ce calcul.La deuxième partie de la thèse se concentre sur la bisimulation, une méthode pour établir l'équivalence de deux agents dans des langages d'ordre supérieur, par exemple le pi-calcul ou le lambda-calcul. Une amélioration de cette méthode est la théorie des techniques modulo, très puissante, mais qui malheureusement s'applique uniquement aux systèmes de premier ordre, comme les automates ou CCS.Cette thèse s'applique alors à décrire les langages d'ordre supérieur en tant que systèmes du premier ordre. On récupère ainsi la théorie générale des techniques modulo pour ces langages, en prouvant correctes la correspondance induite et les techniques spécifiques à chaque langage. On détaille les tenants et aboutissants de cette approche, pour fournir les outils nécessaires à son utilisation pour d'autres langages d'ordre supérieur
The behaviours of concurrent processes can be expressed using process calculi, which are simple formal languages that let us establish precise mathematical results on the behaviours and interactions between processes. A very simple example is CCS, another one is the pi-calculus, which is more expressive thanks to a name-passing mechanism. The pi-calculus supports the addition of type systems (to refine the analysis to more subtle environments) and the encoding of the lambda-calculus (which represents sequential computations).Some of these calculi, like CCS or variants of the pi-calculus such as fusion calculi, enjoy a property of symmetry. First, we use this symmetry as a tool to prove that two encodings of the lambda-calculus in the pi-calculus are in fact equivalent.This proof using a type system and a form of symmetry, we wonder if other existing symmetric calculi can support the addition of type systems. We answer negatively to this question with an impossibility theorem.Investigating this theorem leads us to a fundamental constraint of these calculi that forbids types: they induce an equivalence relation on names. Relaxing this constraint to make it a preorder relation yields another calculus that recovers important notions of the pi-calculus, that fusion calculi do not satisfy: the notions of types and of privacy of names. The first part of this thesis focuses on the study of this calculus, a pi-calculus with preorders on names.The second part of this thesis focuses on bisimulation, a proof method for equivalence of agents in higher-order languages, like the pi- or the lambda-calculi. An enhancement of this method is the powerful theory of bisimulations up to, which unfortunately only applies for first-order systems, like automata or CCS.We then proceed to describe higher-order languages as first-order systems. This way, we inherit the general theory of up-to techniques for these languages, by proving correct the translations and up-to techniques that are specific to each language. We give details on the approach, to provide the necessary tools for future applications of this method to other higher-order languages
APA, Harvard, Vancouver, ISO, and other styles
4

Xiao, Yong. "From syntactic theories to interpreters : specifying and proving properties /." view abstract or download file of text, 2004. http://wwwlib.umi.com/cr/uoregon/fullcit?p3136455.

Full text
Abstract:
Thesis (Ph. D.)--University of Oregon, 2004.
Typescript. Includes vita and abstract. Includes bibliographical references (leaves 152-155). Also available for download via the World Wide Web; free to University of Oregon users.
APA, Harvard, Vancouver, ISO, and other styles
5

Chelyah, Hassane. "Analyse phonographématique de l'Arabe en vue d'applications informatiques." Google Book Search Library Project, 1994. http://books.google.com/books?id=gn1jAAAAMAAJ.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Thévenon, Patrick. "Vers un assistant à la preuve en langue naturelle." Chambéry, 2006. http://www.theses.fr/2006CHAMS036.

Full text
Abstract:
Cette Thèse est la conclusion de trois ans de travail sur un projet nommé DemoNat. Le but de ce projet est la conception d'un système d'analyse et de vérification de démonstrations mathématiques écrites en langue naturelle. L'architecture générale du système se décrit en 4 phases : 1. Analyse de la démonstration par des outils linguistiques ; 2. Traduction de la démonstration dans un langage restreint ; 3. Interprétation du texte traduit en un arbre de règles de déduction ; 4. Validation des règles de déduction à l'aide d'un démonstrateur automatique. Ce projet a mobilisé des équipes de linguistes et de logiciens, les deux premières phases étant la tâche des linguistes, et les deux dernières étant la tâche des logiciens. Cette thèse présente plus en détail ce projet et développe principalement les points suivants : - définition du langage restreint et de son interprétation ; - propriétés du type principal de termes d'un λ -calcul typé avec deux flèches entrant dans le cadre d'un outil linguistique, les ACGs ; - description du démonstrateur automatique
This Thesis is the conclusion of three years of work in a project named DemoNat. The aim of this project is to design a system able to analyse and validate mathematical proofs written in a natural language. The general scheme of the system is the following : 1. Analysis of the proof by means of linguistics tools ; 2. Translation of the proof in a restricted language ; 3. Interpretation of the translated text in a deduction rules tree ; 4. Validation of the deduction rules with an automatic prover. This project envolved teams of linguists and logicians, the first two phases being the task of the linguists, and the lasts ones being the task of the logicians. This thesis presents in more details the project and develops mainly the following points: - Definition of the restricted language and its interpretation ; - proprerties of the principal type of terms of a typed λ-calculus with two arrows, part of a linguistic tool, the ACGs ; - Description of the automatic prover
APA, Harvard, Vancouver, ISO, and other styles
7

Ahn, Ki Yung. "The Nax Language: Unifying Functional Programming and Logical Reasoning in a Language based on Mendler-style Recursion Schemes and Term-indexed Types." PDXScholar, 2014. https://pdxscholar.library.pdx.edu/open_access_etds/2088.

Full text
Abstract:
Two major applications of lambda calculi in computer science are functional programming languages and mechanized reasoning systems (or, proof assistants). According to the Curry--Howard correspondence, it is possible, in principle, to design a unified language based on a typed lambda calculus for both logical reasoning and programming. However, the different requirements of programming languages and reasoning systems make it difficult to design such a unified language that provides both. Programming languages usually extend lambda calculi with programming-friendly features (e.g., recursive datatypes, general recursion) for supporting the flexibility to model various computations, while sacrificing logical consistency. Logical reasoning systems usually extend lambda calculi with logic-friendly features (e.g., induction principles, dependent types) for paradox-free inference over fine-grained properties, while being more restrictive in modeling computations. In this dissertation, we design and implement a language called Nax that embraces benefits of both. Nax accepts all recursive datatypes, thus, allowing the same flexibility of defining recursive datatypes as in functional languages. Nax supports a number of Mendler-style recursion schemes that can express various kinds of recursive computations and also guarantee termination. Nax supports term-indexed types to support specifications of fine-grained properties. In addition, Nax supports a conservative extension of Hindley--Milner type inference. The theoretical contributions of this dissertation include theories for Mendler-style recursion schemes and term-indexed types, which we developed to establish strong normalization and logical consistency of Nax.
APA, Harvard, Vancouver, ISO, and other styles
8

Madet, Antoine. "Complexité Implicite de Lambda-Calculs Concurrents." Phd thesis, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00794977.

Full text
Abstract:
Contrôler la consommation en ressources des programmes informatiques est d'importance capitale, non seulement pour des raisons de performance, mais aussi pour des questions de sécurité quand par exemple certains systèmes mobiles ou embarqués disposent de quantités limitées de ressources. Dans cette thèse, nous développons des critères statiques pour contrôler la consommation en ressources de programmes concurrents d'ordre supérieur. Nous prenons comme point de départ le cadre des Logiques Light qui a été étudié afin de contrôler la complexité de programmes fonctionnels d'ordre supérieur au moyen de la correspondance preuves-programmes. La contribution de cette thèse est d'étendre ce cadre aux programmes concurrents d'ordre supérieur. Plus généralement, cette thèse s'inscrit dans le domaine de la complexité implicite qui cherche à caractériser des classes de complexité par des principes logiques ou des restrictions de langage. Les critères que nous proposons sont purement syntaxiques et sont développés graduellement afin de contrôler le temps de calcul des programmes de plus en plus finement: dans un premier temps nous montrons comment garantir la terminaison des programmes (temps fini), puis nous montrons comment garantir la terminaison des programmes en temps élémentaire, et enfin nous montrons comment garantir la terminaison des programmes en temps polynomial. Nous introduisons également des systèmes de types tels que les programmes bien typés terminent en temps borné et retournent des valeurs. Enfin, nous montrons que ces systèmes de types capturent des programmes concurrents intéressants qui itèrent des fonctions produisant des effets de bord sur des structures de données inductives. Dans la dernière partie, nous étudions une méthode sémantique alternative afin de contrôler la consommation en ressources de programmes impératifs d'ordre supérieur. Cette méthode est basée sur la réalisabilité quantitative de Dal Lago et Hofmann et permet d'obtenir plusieurs bornes de complexité de manière uniforme. Cette dernière partie est un travail en collaboration avec Aloïs Brunel.
APA, Harvard, Vancouver, ISO, and other styles
9

Müller, Fritz [Verfasser], and Reinhard [Akademischer Betreuer] Wilhelm. "On confluence and semantic full abstraction of lambda calculus languages / Fritz Müller ; Betreuer: Reinhard Wilhelm." Saarbrücken : Saarländische Universitäts- und Landesbibliothek, 2016. http://d-nb.info/1122110596/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Might, Matthew Brendon. "Environment Analysis of Higher-Order Languages." Diss., Georgia Institute of Technology, 2007. http://hdl.handle.net/1853/16289.

Full text
Abstract:
Any analysis of higher-order languages must grapple with the tri-facetted nature of lambda. In one construct, the fundamental control, environment and data structures of a language meet and intertwine. With the control facet tamed nearly two decades ago, this work brings the environment facet to heel, defining the environment problem and developing its solution: environment analysis. Environment analysis allows a compiler to reason about the equivalence of environments, i.e., name-to-value mappings, that arise during a program's execution. In this dissertation, two different techniques-abstract counting and abstract frame strings-make this possible. A third technique, abstract garbage collection, makes both of these techniques more precise and, counter to intuition, often faster as well. An array of optimizations and even deeper analyses which depend upon environment analysis provide motivation for this work. In an abstract interpretation, a single abstract entity represents a set of concrete entities. When the entities under scrutiny are bindings-single name-to-value mappings, the atoms of environment-then determining when the equality of two abstract bindings infers the equality of their concrete counterparts is the crux of environment analysis. Abstract counting does this by tracking the size of represented sets, looking for singletons, in order to apply the following principle: If {x} = {y}, then x = y. Abstract frame strings enable environmental reasoning by statically tracking the possible stack change between the births of two environments; when this change is effectively empty, the environments are equivalent. Abstract garbage collection improves precision by intermittently removing unreachable environment structure during abstract interpretation.
APA, Harvard, Vancouver, ISO, and other styles
11

Aritiba, Adji Sardji. "Le Lamba de Défalé, langue gurunsi du Togo phonologie et morphologie /." Lille 3 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37602364x.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Aritiba, Adji Sardji. "Le lamba de Defale (langue gurunsi du Togo) : phonologie et morphologie." Université Stendhal (Grenoble ; 1970-2015), 1987. http://www.theses.fr/1987GRE39045.

Full text
Abstract:
Le systeme phonologique du lamba comprend d'une part : 9 voyelles reparties en 6 hau enfin une basse a|, neutre du point de vue combinatoire. D'autre part : 17 consonnes, toutes des sourdes et des sonantes. L'enonce verbal simple du lamba se ramene au scheme de predication ns vp (no) (nc), susceptible de se preter systematiquement aux differentes modalites enonciatives telles que la negation, l'interrogation, la mise en relief etc. Les noms s'organisent en 10 classes et en 8 genres. Les verbes, eux, se repartissent en 5 groupes principaux, lesquels representent 13 types de conjugaison. Ces subdivisions sont fonction de la nature du scheme tonal de ces verbes aux differents aspects de la conjugaison : imperatif, inaccompli et accompli. Les deux constituants syntaxiques, le nom et le verbes, ont une structure morphologique generale : lexeme + morpheme marqueur pour les non derives ; (derivatif)lexeme - derivatif + morpheme marqueur pour les derives. Le morpheme marqueur est de type cv (consonne voyelle) en structure sous-jacente, correspondant a c, v, zero en structure de surface. Le ton haut suivants. La liste verbale est presentee selon un ordre alphabetique. Chaque verbe est suivi de son type de conjugaison et d'exemples de construction pour chacune de ses signifi- cations. Les noms, pour leur part, sont presentes selon leur classe de singulier et de pluriel.
APA, Harvard, Vancouver, ISO, and other styles
13

Bourreau, Pierre. "Jeux de typage et analyse de lambda-grammaires non-contextuelles." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2012. http://tel.archives-ouvertes.fr/tel-00733964.

Full text
Abstract:
Les grammaires catégorielles abstraites (ou λ-grammaires) sont un formalisme basé sur le λ-calcul simplement typé. Elles peuvent être vues comme des grammaires générant de tels termes, et ont été introduites afin de modéliser l'interface entre la syntaxe et la sémantique du langage naturel, réunissant deux idées fondamentales : la distinction entre tectogrammaire (c.a.d. structure profonde d'un énoncé) et phénogrammaire (c.a.d représentation de la surface d'un énoncé) de la langue, exprimé par Curry ; et une modélisation algébrique du principe de compositionnalité afin de rendre compte de la sémantique des phrases, due à Montague. Un des avantages principaux de ce formalisme est que l'analyse d'une grammaires catégorielle abstraite permet de résoudre aussi bien le problème de l'analyse de texte, que celui de la génération de texte. Des algorithmes d'analyse efficaces ont été découverts pour les grammaires catégorielles abstraites de termes linéaires et quasi-linéaires, alors que le problème de l'analyse est non-élémentaire dans sa forme la plus générale. Nous proposons d'étudier des classes de termes pour lesquels l'analyse grammaticale reste solvable en temps polynomial. Ces résultats s'appuient principalement sur deux théorèmes de typage : le théorème de cohérence, spécifiant qu'un λ-terme donné est l'unique habitant d'un certain typage ; et le théorème d'expansion du sujet, spécifiant que deux termes β-équivalents habitent les même typages. Afin de mener cette étude à bien, nous utiliserons une représentation abstraite des notions de λ-termes et de typages, sous forme de jeux. En particulier, nous nous appuierons grandement sur cette notion afin de démontrer le théorème de cohérence pour de nouvelles familles de λ-termes et de typages. Grâce à ces résultats, nous montrerons qu'il est possible de construire de manière directe, un reconnaisseur dans le langage Datalog, pour des grammaires catégorielles abstraites de λ-termes quasi-affines.
APA, Harvard, Vancouver, ISO, and other styles
14

Duvert, Frédéric. "Composition sémantique pour la langue orale." Phd thesis, Université d'Avignon, 2010. http://tel.archives-ouvertes.fr/tel-00609520.

Full text
Abstract:
La thèse présentée ici a pour but de proposer des systèmes de détection, de composition de constituants sémantiques et d'interprétation dans la compréhension de la langue naturelle parlée. Cette compréhension se base sur un système de reconnaissance automatique de la parole qui traduit les signaux oraux en énoncés utilisables par la machine. Le signal de la parole, ainsi transcrit, comporte un ensemble d'erreurs liées aux erreurs de reconnaissance (bruits, parasites, mauvaise prononciation...). L'interprétation de cet énoncé est d'autant plus difficile qu'il est issu d'un discours parlé, soumis à la disfluence du discours, aux auto-corrections... L'énoncé est de plus agrammatical, car le discours parlé lui-même est agrammatical. L'application de méthodes d'analyses grammaticales ne produit pas de bons résultats d'interprétation, sur des textes issus de transcriptions de la parole. L'utilisation de méthodes d'analyses syntaxiques profondes est à éviter. De ce fait, une analyse superficielle est envisagée. Un des premiers objectifs est de proposer une représentation du sens. Il s'agit de considérer des ontologies afin de conceptualiser le monde que l'on décrit. On peut exprimer les composants sémantiques en logique du premier ordre avec des prédicats. Dans les travaux décrits ici, nous représentons les éléments sémantiques par des frames (FrameNet ). Les structures de frames sont hiérarchisées, et sont des fragments de connaissances auxquels on peut insérer, fusionner ou inférer d'autres fragments de connaissances. Les structures de frames sont dérivables en formules logiques. Nous proposons un système de compréhension de la parole à partir de règles logiques avec le support d'une ontologie, afin de pouvoir créer des liens à partir de composants sémantiques. Puis, nous avons mené une étude sur la découverte des supports syntaxiques des relations sémantiques. Nous proposons une expérience de composition sémantique afin d'enrichir les composants sémantiques de base. Enfin, nous présentons un système de détection de lambda-expression pour mettre en hypothèse les relations à trouver à travers le discours
APA, Harvard, Vancouver, ISO, and other styles
15

Atzemoglou, George Philip. "Higher-order semantics for quantum programming languages with classical control." Thesis, University of Oxford, 2012. http://ora.ox.ac.uk/objects/uuid:9fdc4a26-cce3-48ed-bbab-d54c4917688f.

Full text
Abstract:
This thesis studies the categorical formalisation of quantum computing, through the prism of type theory, in a three-tier process. The first stage of our investigation involves the creation of the dagger lambda calculus, a lambda calculus for dagger compact categories. Our second contribution lifts the expressive power of the dagger lambda calculus, to that of a quantum programming language, by adding classical control in the form of complementary classical structures and dualisers. Finally, our third contribution demonstrates how our lambda calculus can be applied to various well known problems in quantum computation: Quantum Key Distribution, the quantum Fourier transform, and the teleportation protocol.
APA, Harvard, Vancouver, ISO, and other styles
16

Reinke, Claus [Verfasser]. "Functions, Frames, and Interactions-completing a lambda-calculus-based purely functional language with respect to programming-in-the-large and interactions with runtime environments / Claus Reinke." Kiel : Universitätsbibliothek Kiel, 1998. http://d-nb.info/1080332626/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Solieri, Marco. "Sharing, Superposition and Epansion : Geometrical Studies on the semantics and Implementation of lambda-calculi and proof-nets." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCD015/document.

Full text
Abstract:
Des sémantiques élégantes et des implémentations efficaces des langages de programmation fonctionnels peuvent être décrits par les mêmes structures mathématiques, notamment dans la correspondance Curry-Howard, où le programmes, les types et l’exécution, coïncident aux preuves, formules et normalisation. Une telle flexibilité est aiguisé par l’approche déconstructive et géométrique de la logique linéaire (LL) et les réseaux de preuve, et de la réduction optimale et les graphes de partage (SG).En adaptent la géométrie de l’interaction de Girard, cette thèse propose une géométrie de l’interaction des ressources (GoRI), une sémantique dynamique et dénotationnelle, qui décrit algébriquement par leurs chemins, les termes du calcul des ressources (RC), une variation linéaire et non-déterministe du lambda calcul (LC). Les séries infinis dans RC sont aussi le domaine du développement de Taylor-Ehrhard-Regnier, une linéarisation du LC. La thèse explique la relation entre ce dernier et la réduction démontrant qu’ils commutent, et présente une version développé de la formule d’exécution pour calculer les chemins du LC typé.Les SG sont un modèle d’implémentation du LC, dont les pas sont locales et asynchrones, et le partage implique et les termes et les contextes. Bien que les tests ont montré des accélérations exceptionnelles, jusqu à exponentielles, par rapport aux implémentations traditionnelles, les SG n’ont pas que des avantages. La thèse montre que, dans le cas restreint des réseaux élémentaires, où seule le cœur des SG est requis, les désavantages sont au plus quadratique, donc inoffensifs
Elegant semantics and efficient implementations of functional programming languages can both be described by the very same mathematical structures, most prominently with in the Curry-Howard correspondence, where programs, types and execution respectively coincide with proofs, formulæ and normalisation. Such a flexibility is sharpened by the deconstructive and geometrical approach pioneered by linear logic (LL) and proof-nets, and by Lévy-optimal reduction and sharing graphs (SG).Adapting Girard’s geometry of interaction, this thesis introduces the geometry of resource interaction (GoRI), a dynamic and denotational semantics, which describes, algebra-ically by their paths, terms of the resource calculus (RC), a linear and non-deterministic variation of the ordinary lambda calculus. Infinite series of RC-terms are also the domain of the Taylor-Ehrhard-Regnier expansion, a linearisation of LC. The thesis explains the relation between the former and the reduction by proving that they commute, and provides an expanded version of the execution formula to compute paths for the typed LC. SG are an abstract implementation of LC and proof-nets whose steps are local and asynchronous, and sharing involves both terms and contexts. Whilst experimental tests on SG show outstanding speedups, up to exponential, with respect to traditional implementations, sharing comes at price. The thesis proves that, in the restricted case of elementary proof-nets, where only the core of SG is needed, such a price is at most quadratic, hence harmless
Semantiche eleganti ed implementazioni efficienti di linguaggi di programmazione funzionale possono entrambe essere descritte dalle stesse strutture matematiche, più notevolmente nella corrispondenza Curry-Howard, dove i programmi, i tipi e l’esecuzione coincidono, nell’ordine, con le dimostrazioni, le formule e la normalizzazione. Tale flsesibilità è acuita dall’approccio decostruttivo e geometrico della logica lineare (LL) e le reti di dimostrazione, e della riduzione ottimale e i grafi di condivisione (SG).Adattando la geometria dell’interazione di Girard, questa tesi introduce la geometria dell’interazione delle risorse (GoRI), una semantica dinamica e denotazionale che descrive, algebricamente tramite i loro per-corsi, i termini del calcolo delle risorse (RC), una variante lineare e non-deterministica del lambda calcolo ordinario. Le serie infinite di termini del RC sono inoltre il dominio dell’espansione di Taylor-Ehrhard-Regnier, una linearizzazione del LC. La tesi spiega la relazione tra quest’ultima e la riduzione dimostrando che esse commutano, e fornisce una versione espansa della for-mula di esecuzione per calcolare i percorsi del LC tipato. I SG sono un modello d’implementazione del LC, i cui passi sono loc-ali e asincroni, e la cui condivisione riguarda sia termini che contesti. Sebbene le prove sperimentali sui SG mostrino accellerazioni eccezionali, persino esponenziali, rispetto alle implementazioni tradizionali, la condivisione ha un costo. La tesi dimostra che, nel caso ristretto delle reti elementari, dove è necessario solo il cuore dei SG, tale costo è al più quad-ratico, e quindi innocuo
APA, Harvard, Vancouver, ISO, and other styles
18

Pompigne, Florent. "Modélisation logique de la langue et Grammaires Catégorielles Abstraites." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00921040.

Full text
Abstract:
Cette thèse s'intéresse à la modélisation de la syntaxe et de l'interface syntaxe-sémantique de la phrase, et explore la possibilité de contrôler au niveau des structures de dérivation la surgénération que produit le traitement des dépendances à distance par des types d'ordre supérieur. À cet effet, nous étudions la possibilité d'étendre le système de typage des Grammaires Catégorielles Abstraites avec les constructions de la somme disjointe, du produit cartésien et du produit dépendant, permettant d'étiqueter les catégories syntaxiques par des structures de traits. Nous prouvons dans un premier temps que le calcul résultant de cette extension bénéficie des propriétés de confluence et de normalisation, permettant d'identifier les termes beta-équivalents dans le formalisme grammatical. Nous réduisons de plus le même problème pour la beta-eta-équivalence à un ensemble d'hypothèse de départ. Dans un second temps, nous montrons comment cette introduction de structures de traits peut être appliquée au contrôle des dépendances à distances, à travers les exemples des contraintes de cas, des îlots d'extraction pour les mouvements explicites et implicites, et des extractions interrogatives multiples, et nous discutons de la pertinence de placer ces contrôles sur les structures de dérivation.
APA, Harvard, Vancouver, ISO, and other styles
19

Son, Hyunjung. "L' adverbial temporel en DONGAN en coréen : description et formalisation." Paris, EHESS, 2003. http://www.theses.fr/2003EHES0012.

Full text
Abstract:
Il est largement admis que si les adverbiaux temporels jouent un rôle important dans la configuration temporelle des phrases, leur description sémantique et syntaxique demeure relativement marginale. Le présent travail s’est ainsi fixé deux objectifs, le premier étant la description détaillée du fonctionnement de l’adverbial temporel coréen en DONGAN. Cette tâche nous a permis de dégager quatre paramètres permanents de la description du sémantisme de DONGAN : la distinction de mono-occurrence/ multi-occurrence, la structure du groupe déterminant, la quantification et le type de phrases noyaux. Le second objectif était de représenter formellement le fonctionnement de DONGAN tel qu’on a pu l’observer en construisant un parseur sémantique et syntaxique. Pour ce faire, nous nous sommes appuyés sur la G Grammaire proposée par F. Renaud (1996) dont les moteurs principaux sont le lambda-calcul typé et la grammaire d’unification
As it is widely known, time adverbials play an important role in the temporal configuration of a sentence while their semantic and syntactic description rests relatively marginal. This dissertation has two primary objectives. The first objective is to describe in detail the function of the Korean temporal adverbial with DONGAN, identifying four factors relevant to the description of DONGAN: distinction of mono-occurrence/ multi-occurrence, structure of determiner group, quantification and type of nuclear sentences. The second objective is to represent the observed function of DONGAN formally in framework of G grammar proposed by F. Renaud (1996) whose two principal components are typed lambda-calculus and unification grammar
APA, Harvard, Vancouver, ISO, and other styles
20

Vidal, Didier. "Nouvelles notions de réduction en lambda-calcul : Application à la réalisation d'un langage fonctionnel fondé sur la réduction forte." Nancy 1, 1989. http://www.theses.fr/1989NAN10488.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Sinot, François-Régis. "Stratégies Efficaces et Modèles d'Implantation pour les Langages Fonctionnels." Phd thesis, Ecole Polytechnique X, 2006. http://pastel.archives-ouvertes.fr/pastel-00001952.

Full text
Abstract:
Dans les langages fonctionnels, l'efficacité dépend crucialement du choix de la stratégie d'évaluation et d'un modèle d'implantation adapté. Nous développons d'abord un λ-calcul avec substitutions explicites qui évite les problèmes habituels liés à la substitution et à l'α-conversion, dans lequel on peut définir les stratégies usuelles, mais aussi des stratégies avec un meilleur partage de calcul. Ensuite, nous développons un modèle d'implantation efficace pour ce calcul. Pour cela, nous proposons une représentation innnovante des variables libres, d'abord dans le cadre très général de la récriture d'ordre supérieur, puis avec plus de détails dans notre cas particulier. Nous obtenons ainsi un λ-calcul avec substitutions explicites sans noms ni indices, dans lequel les te! rmes sont annotés avec de l'information qui indique comment les substitutions doivent être propagées, et qui constitue un modèle d'implantation efficace pour nos stratégies. Des machines abstraites sont alors définies, implantées et comparées expérimentalement aux meilleurs évaluateurs connus. Finalement, nous étudions les relations entre machines abstraites traditionnelles et réseaux d'interaction, deux modèles d'implantation courants mais très différents. Plus précisément, nous montrons comment certaines stratégies peuvent être implantées dans les réseaux d'interaction d'une façon très naturelle, rapprochant ainsi deux modèles utilisés pour l'implantation de stratégies efficaces.
APA, Harvard, Vancouver, ISO, and other styles
22

Blanqui, Frédéric. "Terminaison des systèmes de réécriture d'ordre supérieur basée sur la notion de clôture de calculabilité." Habilitation à diriger des recherches, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00724233.

Full text
Abstract:
Dans ce document, nous montrons comment la notion de calculabilité introduite par W. W. Tait et étendue par Girard aux types polymorphes peut être utilisée et facilement étendue pour montrer la terminaison de différents types de relations de réécriture, y compris avec filtrage sur des symboles définis, filtrage d'ordre supérieur ou réécriture de classe modulo certaines théories équationnelles. Nous montrons également que la notion de clôture de calculabilité donne lieu a une relation bien fondée incluant l'extension à l'ordre supérieur par J.-P. Jouannaud et A. Rubio de l'ordre récursif sur les chemins de N. Dershowitz.
APA, Harvard, Vancouver, ISO, and other styles
23

Kerneis, Gabriel. "Continuation-Passing C : Transformations de programmes pour compiler la concurrence dans un langage impératif." Phd thesis, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00751444.

Full text
Abstract:
La plupart des programmes informatiques sont concurrents : ils doivent effectuer plusieurs tâches en même temps. Les threads et les événements sont deux techniques usuelles d'implémentation de la concurrence. Les événements sont généralement plus légers et efficaces que les threads, mais aussi plus difficiles à utiliser. De plus, ils sont souvent trop limités ; il est alors nécessaire d'écrire du code hybride, encore plus complexe, utilisant à la fois des threads ordonnancés préemptivement et des événements ordonnancés coopérativement. Nous montrons dans cette thèse que des programmes concurrents écrits dans un style à threads sont traduisibles automatiquement en programmes à événements équivalents et efficaces par une suite de transformations source-source prouvées. Nous proposons d'abord Continuation-Passing C, une extension du langage C pour l'écriture de systèmes concurrents qui offre des threads très légers et unifiés (coopératifs et préemptifs). Les programmes CPC sont transformés par le traducteur CPC pour produire du code à événements séquentialisé efficace, utilisant des threads natifs pour les parties préemptives. Nous définissons et prouvons ensuite la correction de ces transformations, en particulier le lambda lifting et la conversion CPS, pour un langage impératif. Enfin, nous validons la conception et l'implémentation de CPC en le comparant à d'autres bibliothèques de threads et en exhibant notre seeder BitTorrent Hekate. Nous justifions aussi notre choix du lambda lifting en implémentant eCPC, une variante de CPC utilisant les environnements, et en comparant ses performances à celles de CPC.
APA, Harvard, Vancouver, ISO, and other styles
24

Renaud, Fabien. "Les ressources explicites vues par la théorie de la réécriture." Phd thesis, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00697408.

Full text
Abstract:
Cette thèse s'articule autour de la gestion de ressources explicites dans les langages fonctionnels, en mettant l'accent sur des propriétés de calculs avec substitutions explicites raffinant le lambda-calcul. Dans une première partie, on s'intéresse à la propriété de préservation de la beta-normalisation forte (PSN) pour le calcul lambda s. Dans une seconde partie, on étudie la propriété de confluence pour un large ensemble de calculs avec substitutions explicites. Après avoir donné une preuve générique de confluence basée sur une série d'axiomes qu'un calcul doit satisfaire, on se focalise sur la métaconfluence de lambda j, un calcul où le mécanisme de propagation des substitutions utilise la notion de multiplicité, au lieu de celle de structure. Dans la troisième partie de la thèse on définit un prisme des ressources qui généralise de manière paramétrique le lambda-calcul dans le sens où non seulement la substitution peut être explicite, mais également la contraction et l'affaiblissement. Cela donne un ensemble de huit calculs répartis sur les sommets du prisme pour lesquels on prouve de manière uniforme plusieurs propriétés de bon comportement comme par exemple la simulation de la beta-réduction, la PSN, la confluence, et la normalisation forte pour les termes typés. Dans la dernière partie de la thèse on montre différentes ouvertures vers des domaines plus pratiques. On s'intéresse à la complexité d'un calcul avec substitutions en premier lieu. On présente des outils de recherche et on conjecture des bornes maximales. Enfin, on finit en donnant une spécification formelle du calcul lambda j dans l'assistant à la preuve Coq.
APA, Harvard, Vancouver, ISO, and other styles
25

Martin, Cyrille. "Composition flexible par planification automatique." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00864000.

Full text
Abstract:
Nous nous positionnons dans un contexte d'informatique ambiante dans lequel il arrive que les besoins de l'utilisateur n'aient pas été prévus, notamment en situation exceptionnelle. Dans ce cas, il peut ne pas exister de système préconçu qui réponde exactement à ces besoins. Pour les satisfaire, il faut alors pouvoir composer les systèmes disponibles dans l'environnement, et le système composé doit permettre à l'utilisateur de faire des choix à l'exécution. Ainsi, l'utilisateur a la possibilité d'adapter l'exécution de la composition à son contexte. Cela signifie que la composition intègre des structures de contrôle de l'exécution, destinées à l'utilisateur : la composition est dite flexible. Dans cette thèse, nous proposons de répondre au problème de la composition flexible en contexte d'intelligence ambiante avec un planificateur produisant des plans flexibles. Dans un premier temps, nous proposons une modélisation de la planification flexible. Pour cela, nous définissons les opérateurs de séquence et d'alternative, utilisés pour caractériser les plans flexibles. Nous définissons deux autres opérateurs au moyen de la séquence et de l'alternative : l'entrelacement et l'itération. Nous nous référons à ce cadre théorique pour délimiter la flexibilité traitée par notre planificateur Lambda-Graphplan. L'originalité de Lambda-Graphplan est de produire des itérations en s'appuyant sur une approche par graphe de planification. Nous montrons notamment que Lambda-Graphplan est très performant avec les domaines se prêtant à la construction de structures itératives.
APA, Harvard, Vancouver, ISO, and other styles
26

Crubillé, Raphaëlle. "Behavioural distances for probabilistic higher-order programs." Thesis, Sorbonne Paris Cité, 2019. http://www.theses.fr/2019USPCC084.

Full text
Abstract:
Cette thèse est consacrée à l’étude d’équivalences et de distances comportementales destinées à comparer des programmes probabilistes d’ordre supérieur. Le manuscrit est divisé en trois parties. La première partie consiste en une présentation des langages probabilistes d’ordre supérieur, et des notions d’équivalence et de distance contextuelles pour de tels langages.Dans une deuxième partie, on suit une approche opérationnelle pour construire des notions d’équivalences et de métriques plus simples à manipuler que les notions contextuelles : on prend comme point de départ les deux équivalences comportementales pour le lambda-calcul probabiliste équipé d’une stratégie d’évaluation basée sur l’appel par nom introduites par Dal Lago, Sangiorgi and Alberti : ces derniers définissent deux équivalences–la trace équivalence, et la bisimulation probabiliste, et montrent que pour ce langage, la trace équivalence permet de complètement caractériser–i.e. est pleinement abstraite– l’équivalence contextuelle, tandis que la bisimulation probabiliste est une approximation correcte de l’équivalence contextuelle, mais n’est pas pleinement abstraite. Dans la partie opérationnelle de cette thèse, on montre que la bisimulation probabiliste redevient pleinement abstraite quand on remplace la stratégie d’évaluation par nom par une stratégie d’évaluation par valeur. Le reste de cette partie est consacrée à une généralisation quantitative de la trace équivalence, i.e. une trace distance sur les programmes. On introduit d’abord une trace distance pour un λ-calcul probabiliste affine, i.e. où le contexte peut utiliser son argument au plus une fois, et ensuite pour un λ-calcul probabiliste où les contextes ont la capacité de copier leur argument; dans ces deux cas, on montre que les distances traces obtenues sont pleinement abstraites.La troisième partie considère deux modèles dénotationnels de langages probabilistes d’ordre supérieur : le modèle des espaces cohérents probabiliste, dû à Danos et Ehrhard, qui interprète le langage obtenu en équipant PCF avec des probabilités discrètes, et le modèle des cônes mesurables et des fonctions stables et mesurables, développé plus récemment par Ehrhard, Pagani and Tasson pour le langage obtenu en enrichissant PCF avec des probabilités continues. Cette thèse établit deux résultats sur la structure de ces modèles. On montre d’abord que l’exponentielle de la catégorie des espaces cohérents peut être exprimée en utilisant le comonoide commutatif libre : il s’agit d’un résultat de généricité de cette catégorie vue comme un modèle de la logique linéaire. Le deuxième résultat éclaire les liens entre ces deux modèles : on montre que la catégorie des cônes mesurables et des fonctions stables et mesurable est une extension conservatrice de la catégorie de co-Kleisli des espaces cohérents probabilistes. Cela signifie que le modèle récemment introduit par Ehrhard, Pagani et Tasson peut être vu comme la généralisation au cas continu du modèle de PCF équipé avec des probabilités discrètes dans les espaces cohérents probabilistes
The present thesis is devoted to the study of behavioral equivalences and distances for higher-order probabilistic programs. The manuscript is divided into three parts. In the first one, higher-order probabilistic languages are presented, as well as how to compare such programs with context equivalence and context distance.The second part follows an operational approach in the aim of building equivalences and metrics easier to handle as their contextual counterparts. We take as starting point here the two behavioral equivalences introduced by Dal Lago, Sangiorgi and Alberti for the probabilistic lambda-calculus equipped with a call-by-name evaluation strategy: the trace equivalence and the bisimulation equivalence. These authors showed that for their language, trace equivalence completely characterizes context equivalence—i.e. is fully abstract, while probabilistic bisimulation is a sound approximation of context equivalence, but is not fully abstract. In the operational part of the present thesis, we show that probabilistic bisimulation becomes fully abstract when we replace the call-by-name paradigm by the call-by-value one. The remainder of this part is devoted to a quantitative generalization of trace equivalence, i.e. a trace distance on programs. We introduce first e trace distance for an affine probabilistic lambda-calculus—i.e. where a function can use its argument at most once, and then for a more general probabilistic lambda-calculus where functions have the ability to duplicate their arguments. In these two cases, we show that these trace distances are fully abstract.In the third part, two denotational models of higher-order probabilistic languages are considered: the Danos and Ehrhard's model based on probabilistic coherence spaces that interprets the language PCF enriched with discrete probabilities, and the Ehrhard, Pagani and Tasson's one based on measurable cones and measurable stable functions that interpret PCF equipped with continuous probabilities. The present thesis establishes two results on these models structure. We first show that the exponential comonad of the category of probabilistic coherent spaces can be expressed using the free commutative comonoid: it consists in a genericity result for this category seen as a model of Linear Logic. The second result clarify the connection between these two models: we show that the category of measurable cones and measurable stable functions is a conservative extension of the co-Kleisli category of probabilistic coherent spaces. It means that the recently introduced model of Ehrhard, Pagani and Tasson can be seen as the generalization to the continuous case of the model for PCF with discrete probabilities in probabilistic coherent spaces
APA, Harvard, Vancouver, ISO, and other styles
27

Simnara, Komi. "L’expression des émotions en Lama (Gur, Togo)." Thesis, Paris 3, 2019. http://www.theses.fr/2019PA030023.

Full text
Abstract:
Cette thèse propose une étude des différents procédés utilisés par les locuteurs du lama (langue Gur parlée au Togo) pour exprimer verbalement leurs émotions. Les données analysées proviennent d’un corpus de première main recueilli sur le terrain à Kantè (Togo). Il consiste en une trentaine d’heures d’enregistrement de conversations spontanées et naturelles recueillies sur des places publiques comme les marchés, les lieux d’activités ludiques, ou de manifestations culturelles, tantôt au moyen d’enregistrements impromptus, tantôt par des prises de notes. Il en ressort que l’émotion peut se manifester selon trois modes d’expression : la dénotation, la connotation et l’inférence. Ces modes mettent en lumière une diversité de ressources et de stratégies : vocabulaire du champ émotionnel, marqueurs lexicaux et syntaxiques chargés de connotations émotionnelles, métaphores rendant compte de la conceptualisation des émotions, construction de l’émotion par la schématisation discursive d’une situation ou par la mise en place de l’ethos et du pathos dans le discours, etc. L’examen de ces différents procédés montre qu’il n’existe pas un marquage propre au langage de l’émotion en lama. Il ressort également de cette étude que la manifestation de l’émotion n’est pas codifiée par des normes sociales. La comparaison du lama avec d’autres langues à travers de nombreux exemples fait apparaître des similitudes et des différences dans la façon dont les émotions sont exprimées, aussi bien au niveau linguistique que culturel. L’expression émotionnelle dans la langue lama participe ainsi à la fois de l’universalité et de la spécificité culturelle
This thesis proposes a study of various linguistic processes used by the speakers of Lama (a Gur language spoken in Togo) to express their emotions. The data analyzed here come from a first-hand corpus collected during fieldwork in Kantè (Togo). It consists of thirty hours of recorded spontaneous and natural discourse, collected in public places such as markets, places of leisure activities, or cultural events, sometimes through unplanned recordings, sometimes through note-taking. It is found that emotion can be expressed in three modes of expression : denotation, connotation and inference. These modes of expression highlight a diversity of resources and strategies : vocabulary related to emotions, lexical and syntactic markers charged with emotional connotations, metaphors accounting for the conceptualization of emotions, construction of emotion by discursive schematization of a situation or by the establishment of ethos and pathos in discourse, etc. Examination of these processes shows that there is no marking specific to the language of emotion in Lama. It also appears from this study that the manifestation of emotion is not codified by social norms. The comparison of Lama with other languages through numerous examples reveals similarities and differences in the way emotions are expressed, both linguistically and culturally. Emotional expression in Lama is thus at once universal and culture-specific
APA, Harvard, Vancouver, ISO, and other styles
28

"An Inverse Lambda Calculus Algorithm for Natural Language Processing." Master's thesis, 2010. http://hdl.handle.net/2286/R.I.8667.

Full text
Abstract:
abstract: Natural Language Processing is a subject that combines computer science and linguistics, aiming to provide computers with the ability to understand natural language and to develop a more intuitive human-computer interaction. The research community has developed ways to translate natural language to mathematical formalisms. It has not yet been shown, however, how to automatically translate different kinds of knowledge in English to distinct formal languages. Most of the recent work presents the problem that the translation method aims to a specific formal language or is hard to generalize. In this research, I take a first step to overcome this difficulty and present two algorithms which take as input two lambda-calculus expressions G and H and compute a lambda-calculus expression F. The expression F returned by the first algorithm satisfies F@G=H and, in the case of the second algorithm, we obtain G@F=H. The lambda expressions represent the meanings of words and sentences. For each formal language that one desires to use with the algorithms, the language must be defined in terms of lambda calculus. Also, some additional concepts must be included. After doing this, given a sentence, its representation and knowing the representation of several words in the sentence, the algorithms can be used to obtain the representation of the other words in that sentence. In this work, I define two languages and show examples of their use with the algorithms. The algorithms are illustrated along with soundness and completeness proofs, the latter with respect to typed lambda-calculus formulas up to the second order. These algorithms are a core part of a natural language semantics system that translates sentences from English to formulas in different formal languages.
Dissertation/Thesis
M.S. Computer Science 2010
APA, Harvard, Vancouver, ISO, and other styles
29

Valiron, Benoît. "Semantics for a Higher Order Functional Programming Language for Quantum Computation." Phd thesis, 2008. http://tel.archives-ouvertes.fr/tel-00483944.

Full text
Abstract:
L'objectif de cette thèse est de développer une sémantique d'ordre supérieur pour l'information quantique. S'appuyant sur les travaux de master (M.Sc.) de l'auteur, nous étudions un lambda-calcul pour le calcul quantique avec contrôle classique. Le langage comporte deux aspects. Le premier, émanant du théorème dit de « no-cloning » de l'information quantique, est le besoin de distinguer entre les données duplicables et celles non-duplicables. Pour tenir compte de la duplicabilité à l'ordre supérieur, nous utilisons un système de types inspiré par la logique linéaire, logique sensible à la notion de ressource. Le deuxième aspect important est l'effet de bord probabiliste émanant de la mesure, seule opération permettant de récupérer une information classique à partir de données quantiques. Cet effet de bord nous oblige à choisir une stratégie de réduction pour pouvoir être en mesure de définir une sémantique opérationnelle. Nous résolvons le problème de la sémantique dénotationnelle de deux façons. D'abord, en restreignant l'étude du langage au fragment strictement linéaire. Ce faisant, on supprime le besoin de distinguer entre structure duplicable et structure non-duplicable. Il est alors possible de se concentrer sur la description des caractéristiques du calcul quantique. En utilisant la catégorie des fonctions strictement positives (CPM), nous construisons un modèle dénotationnel « fully-abstract », c'est-à-dire caractérisant exactement l'équivalence opérationnelle du fragment strictement linéaire. L'étude du langage au complet est plus compliquée. Pour tenir compte de l'aspect probabiliste du langage, nous utilisons une méthode développée par Moggi et construisons un modèle distinguant la notion de résultat, ou valeur, de la notion de calcul (« computational model »). Pour traiter la distinction entre donnée duplicable et donnée non-duplicable, nous adaptons la notion de catégorie linéaire développée par Bierman, où la notion de duplication est interprétée comme une comonade avec des propriétés particulières. Le modèle issu de ce travail est ce que nous avons appelé une catégorie linéaire pour la duplication. Dans un dernier temps, le langage est restreint en ne considérant que la notion d'effet de bord et la distinction éléments duplicables – éléments non-duplicables pour obtenir un lambda-calcul linéaire générique. Dans ce contexte, nous montrons que la notion de catégorie linéaire de duplication est une interprétation « full and complete » pour le langage.
APA, Harvard, Vancouver, ISO, and other styles
30

Patrick, Thévenon. "Vers un assistant à la preuve en langue naturelle." Phd thesis, 2006. http://tel.archives-ouvertes.fr/tel-00414773.

Full text
Abstract:
Cette Thèse est la conclusion de trois ans de travail sur un projet nommé DemoNat. Le but de ce projet est la conception d'un système d'analyse et de vérification de démonstrations mathématiques écrites en langue naturelle.

L'architecture générale du système se décrit en 4 phases :
- analyse de la démonstration par des outils linguistiques ;
- traduction de la démonstration dans un langage restreint ;
- interprétation du texte traduit en un arbre de règles de déduction ;
- validation des règles de déduction à l'aide d'un démonstrateur automatique.

Ce projet a mobilisé des équipes de linguistes et de logiciens, les deux premières phases étant la tâche des linguistes, et les deux dernières étant la tâche des logiciens.

Cette thèse présente plus en détail ce projet et développe principalement les points suivants :
- définition du langage restreint et de son interprétation ;
- propriétés du type principal de termes d'un lambda-calcul typé avec deux flèches entrant dans le cadre d'un outil linguistique, les ACGs ;
- description du démonstrateur automatique.
APA, Harvard, Vancouver, ISO, and other styles
31

Rodríguez, Leonardo Matías. "Generación de código intermedio usando semántica funtorial." Bachelor's thesis, 2010. http://hdl.handle.net/11086/41.

Full text
Abstract:
Tesis (Lic. en Ciencias de la Computación)--Universidad Nacional de Córdoba. Facultad de Matemática, Astronomía y Física, 2010.
Este trabajo consiste en la implementación de un front-end para un lenguaje de programación Algol-like. El front-end es la primera etapa del proceso de compilación; cuyo objetivo es generar código en un lenguaje intermedio a partir del programa fuente.La generación de código intermedio se realiza a partir de la semántica denotacional del lenguaje, es decir, se elige un modelo que permite pensar las ecuaciones semánticas como traducciones al lenguaje intermedio. El modelo semántico que se elige es una categoría funtorial que permite explicitar en las ecuaciones algunas propiedades deseadas del lenguaje. La implementación se realiza en Agda, un lenguaje funcional con tipos dependientes.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography