Academic literature on the topic 'Simplification syntaxique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Simplification syntaxique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Simplification syntaxique"

1

Koptient, Anaïs, and Natalia Grabar. "Typologie de transformations dans la simplification de textes." SHS Web of Conferences 78 (2020): 11006. http://dx.doi.org/10.1051/shsconf/20207811006.

Full text
Abstract:
L’objectif de la simplification automatique de textes est de transformer un texte technique ou difficile à comprendre en un document plus compréhensible. Le sens doit être préservé lors de cette transformation. La simplification automatique peut être effectuée à plusieurs niveaux (lexical, syntaxique, sémantique, ou encore stylistique) et repose sur des connaissances et ressources correspondantes (lexique, règles, …). Notre objectif consiste à proposer des méthodes et le matériel pour la création de règles de transformation acquis à partir d'un échantillon de paires de phrases parallèles différenciées par leur technicité. Nous proposons également une typologie de transformations et les quantifions. Nous travaillons avec des données en langue française liées au domain médical, même si nous estimons que notre méthode peut s'appliquer à n'importe quelle langue et n'importe quel domaine de spécialité.
APA, Harvard, Vancouver, ISO, and other styles
2

Dolbec, Denise. "Le répertoire de vedettes-matière : outil du XXIe siècle." Documentation et bibliothèques 52, no. 2 (April 20, 2015): 99–108. http://dx.doi.org/10.7202/1030013ar.

Full text
Abstract:
L’évolution du Répertoire de vedettes-matière (RVM) de la Bibliothèque de l’Université Laval, créé en 1946, est fortement influencée par le développement des ressources électroniques. Après une brève présentation du RVM, l’auteure abordera son rôle dans le catalogage dérivé, ses liens avec les répertoires sources, les impacts de la technologie sur son développement et de ce développement sur l’analyse documentaire, les efforts de l’équipe du RVM pour répondre aux besoins des utilisateurs et les projets de simplification syntaxique présentement à l’étude aux États-Unis. Poursuivant son évolution au tournant du XXIe siècle, le RVM contribue encore et toujours au partage des ressources.
APA, Harvard, Vancouver, ISO, and other styles
3

Coyos, Jean-Baptiste. "Pour une évaluation des critères internes de fragilisation d'une langue: le cas du basque souletin." Fontes Linguae Vasconum, no. 75 (August 31, 1997): 233–40. http://dx.doi.org/10.35462/flv75.5.

Full text
Abstract:
Les langues menacées ont surtout été étudiées du point de vue de ce que l’on appelle les causalités externes. L’approche est donc généralement ethnolinguistique, sociolinguistique ou psycholinguistique. Relever les faits linguistiques qui pourraient être des indices de fragilisation, de déclin de ces langues permettra d’améliorer, d’affiner la grille des critères internes. Ceci dans la perspective d’une typologie. Dans cette optique le basque souletin, dialecte en danger, se caractérise par les traits suivants: absence de création lexicale, recours au français au détriment du terme équivalent basque, simplification de la syntaxe, calque syntaxique, perte dans l’expressivité, la modalisation. Au contraire l’emprunt lexical, l’existence de fluctuations et de flottements de phonèmes, l’évolution du système phonologique ne sont pas dans le cas précis des critères probants.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Simplification syntaxique"

1

Chebaro, Omar. "Classification de menaces d'erreurs par analyse statique, simplification syntaxique et test structurel de programmes." Phd thesis, Université de Franche-Comté, 2011. http://tel.archives-ouvertes.fr/tel-00839151.

Full text
Abstract:
La validation des logiciels est une partie cruciale dans le cycle de leur développement. Deux techniques de vérification et de validation se sont démarquées au cours de ces dernières années : l'analyse statique et l'analyse dynamique. Les points forts et faibles des deux techniques sont complémentaires. Nous présentons dans cette thèse une combinaison originale de ces deux techniques. Dans cette combinaison, l'analyse statique signale les instructions risquant de provoquer des erreurs à l'exécution, par des alarmes dont certaines peuvent être de fausses alarmes, puis l'analyse dynamique (génération de tests) est utilisée pour confirmer ou rejeter ces alarmes. L'objectif de cette thèse est de rendre la recherche d'erreurs automatique, plus précise, et plus efficace en temps. Appliquée à des programmes de grande taille, la génération de tests, peut manquer de temps ou d'espace mémoire avant de confirmer certaines alarmes comme de vraies erreurs ou conclure qu'aucun chemin d'exécution ne peut atteindre l'état d'erreur de certaines alarmes et donc rejeter ces alarmes. Pour surmonter ce problème, nous proposons de réduire la taille du code source par le slicing avant de lancer la génération de tests. Le slicing transforme un programme en un autre programme plus simple, appelé slice, qui est équivalent au programme initial par rapport à certains critères. Quatre utilisations du slicing sont étudiées. La première utilisation est nommée all. Elle consiste à appliquer le slicing une seule fois, le critère de simplification étant l'ensemble de toutes les alarmes du programme qui ont été détectées par l'analyse statique. L'inconvénient de cette utilisation est que la génération de tests peut manquer de temps ou d'espace et les alarmes les plus faciles à classer sont pénalisées par l'analyse d'autres alarmes plus complexes. Dans la deuxième utilisation, nommée each, le slicing est effectué séparément par rapport à chaque alarme. Cependant, la génération de tests est exécutée pour chaque programme et il y a un risque de redondance d'analyse si des alarmes sont incluses dans d'autres slices. Pour pallier ces inconvénients, nous avons étudié les dépendances entre les alarmes et nous avons introduit deux utilisations avancées du slicing, nommées min et smart, qui exploitent ces dépendances. Dans l'utilisation min, le slicing est effectué par rapport à un ensemble minimal de sous-ensembles d'alarmes. Ces sous-ensembles sont choisis en fonction de dépendances entre les alarmes et l'union de ces sous-ensembles couvre l'ensemble de toutes les alarmes. Avec cette utilisation, on a moins de slices qu'avec each, et des slices plus simples qu'avec all. Cependant, l'analyse dynamique de certaines slices peut manquer de temps ou d'espace avant de classer certaines alarmes, tandis que l'analyse dynamique d'une slice éventuellement plus simple permettrait de les classer. L'utilisation smart consiste à appliquer l'utilisation précédente itérativement en réduisant la taille des sous-ensembles quand c'est nécessaire. Lorsqu'une alarme ne peut pas être classée par l'analyse dynamique d'une slice, des slices plus simples sont calculées. Nous prouvons la correction de la méthode proposée. Ces travaux sont implantés dans sante, notre outil qui relie l'outil de génération de tests PathCrawler et la plate-forme d'analyse statique Frama-C. Des expérimentations ont montré, d'une part, que notre combinaison est plus performante que chaque technique utilisée indépendamment et, d'autre part, que la vérification devient plus rapide avec l'utilisation du slicing. De plus, la simplification du programme par le slicing rend les erreurs détectées et les alarmes restantes plus faciles à analyser
APA, Harvard, Vancouver, ISO, and other styles
2

Chebaro, Omar. "Classification de menaces d’erreurs par analyse statique, simplification syntaxique et test structurel de programmes." Thesis, Besançon, 2011. http://www.theses.fr/2011BESA2021/document.

Full text
Abstract:
La validation des logiciels est une partie cruciale dans le cycle de leur développement. Deux techniques de vérification et de validation se sont démarquées au cours de ces dernières années : l’analyse statique et l’analyse dynamique. Les points forts et faibles des deux techniques sont complémentaires. Nous présentons dans cette thèse une combinaison originale de ces deux techniques. Dans cette combinaison, l’analyse statique signale les instructions risquant de provoquer des erreurs à l’exécution, par des alarmes dont certaines peuvent être de fausses alarmes, puis l’analyse dynamique (génération de tests) est utilisée pour confirmer ou rejeter ces alarmes. L’objectif de cette thèse est de rendre la recherche d’erreurs automatique, plus précise, et plus efficace en temps. Appliquée à des programmes de grande taille, la génération de tests, peut manquer de temps ou d’espace mémoire avant de confirmer certaines alarmes comme de vraies erreurs ou conclure qu’aucun chemin d’exécution ne peut atteindre l’état d’erreur de certaines alarmes et donc rejeter ces alarmes. Pour surmonter ce problème, nous proposons de réduire la taille du code source par le slicing avant de lancer la génération de tests. Le slicing transforme un programme en un autre programme plus simple, appelé slice, qui est équivalent au programme initial par rapport à certains critères. Quatre utilisations du slicing sont étudiées. La première utilisation est nommée all. Elle consiste à appliquer le slicing une seule fois, le critère de simplification étant l’ensemble de toutes les alarmes du programme qui ont été détectées par l’analyse statique. L’inconvénient de cette utilisation est que la génération de tests peut manquer de temps ou d’espace et les alarmes les plus faciles à classer sont pénalisées par l’analyse d’autres alarmes plus complexes. Dans la deuxième utilisation, nommée each, le slicing est effectué séparément par rapport à chaque alarme. Cependant, la génération de tests est exécutée pour chaque programme et il y a un risque de redondance d’analyse si des alarmes sont incluses dans d’autres slices. Pour pallier ces inconvénients, nous avons étudié les dépendances entre les alarmes et nous avons introduit deux utilisations avancées du slicing, nommées min et smart, qui exploitent ces dépendances. Dans l’utilisation min, le slicing est effectué par rapport à un ensemble minimal de sous-ensembles d’alarmes. Ces sous-ensembles sont choisis en fonction de dépendances entre les alarmes et l’union de ces sous-ensembles couvre l’ensemble de toutes les alarmes. Avec cette utilisation, on a moins de slices qu’avec each, et des slices plus simples qu’avec all. Cependant, l’analyse dynamique de certaines slices peut manquer de temps ou d’espace avant de classer certaines alarmes, tandis que l’analyse dynamique d’une slice éventuellement plus simple permettrait de les classer. L’utilisation smart consiste à appliquer l’utilisation précédente itérativement en réduisant la taille des sous-ensembles quand c’est nécessaire. Lorsqu’une alarme ne peut pas être classée par l’analyse dynamique d’une slice, des slices plus simples sont calculées. Nous prouvons la correction de la méthode proposée. Ces travaux sont implantés dans sante, notre outil qui relie l’outil de génération de tests PathCrawler et la plate-forme d’analyse statique Frama-C. Des expérimentations ont montré, d’une part, que notre combinaison est plus performante que chaque technique utilisée indépendamment et, d’autre part, que la vérification devient plus rapide avec l’utilisation du slicing. De plus, la simplification du programme par le slicing rend les erreurs détectées et les alarmes restantes plus faciles à analyser
Software validation remains a crucial part in software development process. Two major techniques have improved in recent years, dynamic and static analysis. They have complementary strengths and weaknesses. We present in this thesis a new original combination of these methods to make the research of runtime errors more accurate, automatic and reduce the number of false alarms. We prove as well the correction of the method. In this combination, static analysis reports alarms of runtime errors some of which may be false alarms, and test generation is used to confirm or reject these alarms. When applied on large programs, test generation may lack time or space before confirming out certain alarms as real bugs or finding that some alarms are unreachable. To overcome this problem, we propose to reduce the source code by program slicing before running test generation. Program slicing transforms a program into another simpler program, which is equivalent to the original program with respect to certain criterion. Four usages of program slicing were studied. The first usage is called all. It applies the slicing only once, the simplification criterion is the set of all alarms in the program. The disadvantage of this usage is that test generation may lack time or space and alarms that are easier to classify are penalized by the analysis of other more complex alarms. In the second usage, called each, program slicing is performed with respect to each alarm separately. However, test generation is executed for each sliced program and there is a risk of redundancy if some alarms are included in many slices. To overcome these drawbacks, we studied dependencies between alarms on which we base to introduce two advanced usages of program slicing : min and smart. In the min usage, the slicing is performed with respect to subsets of alarms. These subsets are selected based on dependencies between alarms and the union of these subsets cover the whole set of alarms. With this usage, we analyze less slices than with each, and simpler slices than with all. However, the dynamic analysis of some slices may lack time or space before classifying some alarms, while the dynamic analysis of a simpler slice could possibly classify some. Usage smart applies previous usage iteratively by reducing the size of the subsets when necessary. When an alarm cannot be classified by the dynamic analysis of a slice, simpler slices are calculated. These works are implemented in sante, our tool that combines the test generation tool PathCrawler and the platform of static analysis Frama-C. Experiments have shown, firstly, that our combination is more effective than each technique used separately and, secondly, that the verification is faster after reducing the code with program slicing. Simplifying the program by program slicing also makes the detected errors and the remaining alarms easier to analyze
APA, Harvard, Vancouver, ISO, and other styles
3

Hijazi, Rita. "Simplification syntaxique de textes à base de représentations sémantiques exprimées avec le formalisme Dependency Minimal Recursion Semantics (DMRS)." Electronic Thesis or Diss., Aix-Marseille, 2022. http://theses.univ-amu.fr.lama.univ-amu.fr/221214_HIJAZI_602vzfxdu139bxtesm225byk629aeqyvw_TH.pdf.

Full text
Abstract:
La simplification de textes consiste à transformer un texte en une version plus simple à lire et/ou à comprendre et plus accessible à un public cible, tout en conservant son information, son contenu et son sens originaux. Cette thèse se concentre sur la simplification syntaxique de textes en anglais, une tâche pour laquelle les systèmes automatiques existants présentent certaines limites. Pour les dépasser, nous proposons tout d’abord une nouvelle méthode de simplification syntaxique exploitant des dépendances sémantiques exprimées en DMRS (Dependency Minimal Recursion Semantics), une représentation sémantique profonde sous forme de graphes combinant sémantique et syntaxe. La simplification syntaxique consiste alors à représenter la phrase complexe en un graphe DMRS, transformer selon des stratégies spécifiques ce graphe en d’autres graphes DMRS qui généreront des phrases plus simples. Cette méthode permet la simplification syntaxique de constructions complexes, en particulier des opérations de division basées sur des appositives, sur des coordinations et sur des subordinations ; ainsi que la transformation de formes passives en formes actives. Les résultats obtenus par ce système de simplification syntaxique sur ce corpus de référence sur les opérations de division de phrases surpassent ceux des systèmes existants du même type dans la production de phrases simples, grammaticales et conservant le sens, démontrant ainsi tout l’intérêt de notre approche de la simplification syntaxique à base de représentations sémantiques en DMRS
Text simplification is the task of making a text easier to read and understand and more accessible to a target audience. This goal can be reached by reducing the linguistic complexity of the text while preserving the original meaning as much as possible. This thesis focuses on the syntactic simplification of texts in English, a task for which these automatic systems have certain limitations. To overcome them, we first propose a new method of syntactic simplification exploiting semantic dependencies expressed in DMRS (Dependency Minimal Recursion Semantics), a deep semantic representation in the form of graphs combining semantics and syntax. Syntactic simplification enables to represent the complex sentence in a DMRS graph, transforming this graph according to specific strategies into other DMRS graphs, which will generate simpler sentences. This method allows the syntactic simplification of complex constructions, in particular division operations such as subordinate clauses, appositive clauses, coordination and also the transformation of passive forms into active forms. The results obtained by this system of syntactic simplification surpass those of the existing systems of the same type in the production of simple, grammatical sentences and preserving the meaning, thus demonstrating all the interest of our approach to syntactic simplification based on semantic representations in DMRS
APA, Harvard, Vancouver, ISO, and other styles
4

Minard, Anne-Lyse. "Extraction de relations en domaine de spécialité." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00777749.

Full text
Abstract:
La quantité d'information disponible dans le domaine biomédical ne cesse d'augmenter. Pour que cette information soit facilement utilisable par les experts d'un domaine, il est nécessaire de l'extraire et de la structurer. Pour avoir des données structurées, il convient de détecter les relations existantes entre les entités dans les textes. Nos recherches se sont focalisées sur la question de l'extraction de relations complexes représentant des résultats expérimentaux, et sur la détection et la catégorisation de relations binaires entre des entités biomédicales. Nous nous sommes intéressée aux résultats expérimentaux présentés dans les articles scientifiques. Nous appelons résultat expérimental, un résultat quantitatif obtenu suite à une expérience et mis en relation avec les informations permettant de décrire cette expérience. Ces résultats sont importants pour les experts en biologie, par exemple pour faire de la modélisation. Dans le domaine de la physiologie rénale, une base de données a été créée pour centraliser ces résultats d'expérimentation, mais l'alimentation de la base est manuelle et de ce fait longue. Nous proposons une solution pour extraire automatiquement des articles scientifiques les connaissances pertinentes pour la base de données, c'est-à-dire des résultats expérimentaux que nous représentons par une relation n-aire. La méthode procède en deux étapes : extraction automatique des documents et proposition de celles-ci pour validation ou modification par l'expert via une interface. Nous avons également proposé une méthode à base d'apprentissage automatique pour l'extraction et la classification de relations binaires en domaine de spécialité. Nous nous sommes intéressée aux caractéristiques et variétés d'expressions des relations, et à la prise en compte de ces caractéristiques dans un système à base d'apprentissage. Nous avons étudié la prise en compte de la structure syntaxique de la phrase et la simplification de phrases dirigée pour la tâche d'extraction de relations. Nous avons en particulier développé une méthode de simplification à base d'apprentissage automatique, qui utilise en cascade plusieurs classifieurs.
APA, Harvard, Vancouver, ISO, and other styles
5

Tremblay, Christian. "L' apport de la modélisation des connaissances à la codification et à la simplification des textes normatifs : Analyse sémantico-syntaxique des textes normatifs ou la linguistique générale au service du droit." Paris 2, 2002. http://www.theses.fr/2002PA020115.

Full text
Abstract:
La présente recherche explore les voies d'une lecture automatisée des textes normatifs et de la construction de bases de connaissances juridiques interrogeables en langage naturel. Après avoir étudié les problèmes théoriques de l'interprétation du droit (première partie) et des structures syntaxiques, sémantiques et conceptuelles du langage (seconde partie), la recherche, en faisant appel aux ressources de la linguistique générale, de la sémantique interprétative et de la logique naturelle, a mis en évidence les structures spécifiques des textes normatifs, qualifiées dans le contexte de la recherche, d'opérations normatives, opérations correspondant à une spécialisation, dans le champ du droit, des opérations logico-discursives de la logique naturelle (troisième partie). La recherche débouche (quatrième partie) sur un modèle général de gestion des connaissances juridiques tendant à une compréhension automatisée des textes normatifs.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography