Dissertations / Theses on the topic 'Génération automatique de benchmarks'

To see the other types of publications on this topic, follow the link: Génération automatique de benchmarks.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Génération automatique de benchmarks.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Schmitt, Maxime. "Génération automatique de codes adaptatifs." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD029.

Full text
Abstract:
Dans cette thèse nous proposons une interface de programmation pour aider les développeurs dans leur tâche d'optimisation de programme par calcul approché. Cette interface prend la forme d'extensions aux langages de programmation pour indiquer au compilateur quelles parties du programme peuvent utiliser ce type de calcul. Le compilateur se charge alors de transformer les parties du programme visées pour rendre l'application adaptative, allouant plus de ressources aux endroits où une précision importante est requise et utilisant des approximations où la précision peut être moindre. Nous avons automatisé la découverte des paramètres d'optimisation que devrait fournir l'utilisateur pour les codes à stencil, qui sont souvent rencontrés dans des applications de traitement du signal, traitement d'image ou simulation numérique. Nous avons exploré des techniques de compression automatique de données pour compléter la génération de code adaptatif. Nous utilisons la transformée en ondelettes pour compresser les données et obtenir d'autres informations qui peuvent être utilisées pour trouver les zones avec des besoins en précision plus importantes
In this thesis we introduce a new application programming interface to help developers to optimize an application with approximate computing techniques. This interface is provided as a language extension to advise the compiler about the parts of the program that may be optimized with approximate computing and what can be done about them. The code transformations of the targeted regions are entirely handled by the compiler to produce an adaptive software. The produced adaptive application allocates more computing power to the locations where more precision is required, and may use approximations where the precision is secondary. We automate the discovery of the optimization parameters for the special class of stencil programs which are common in signal/image processing and numerical simulations. Finally, we explore the possibility of compressing the application data using the wavelet transform and we use information found in this basis to locate the areas where more precision may be needed
APA, Harvard, Vancouver, ISO, and other styles
2

Thiéblin, Elodie. "Génération automatique d'alignements complexes d'ontologies." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30135.

Full text
Abstract:
Le web de données liées (LOD) est composé de nombreux entrepôts de données. Ces données sont décrites par différents vocabulaires (ou ontologies). Chaque ontologie a une terminologie et une modélisation propre ce qui les rend hétérogènes. Pour lier et rendre les données du web de données liées interopérables, les alignements d'ontologies établissent des correspondances entre les entités desdites ontologies. Il existe de nombreux systèmes d'alignement qui génèrent des correspondances simples, i.e., ils lient une entité à une autre entité. Toutefois, pour surmonter l'hétérogénéité des ontologies, des correspondances plus expressives sont parfois nécessaires. Trouver ce genre de correspondances est un travail fastidieux qu'il convient d'automatiser. Dans le cadre de cette thèse, une approche d'alignement complexe basée sur des besoins utilisateurs et des instances communes est proposée. Le domaine des alignements complexes est relativement récent et peu de travaux adressent la problématique de leur évaluation. Pour pallier ce manque, un système d'évaluation automatique basé sur de la comparaison d'instances est proposé. Ce système est complété par un jeu de données artificiel sur le domaine des conférences
The Linked Open Data (LOD) cloud is composed of data repositories. The data in the repositories are described by vocabularies also called ontologies. Each ontology has its own terminology and model. This leads to heterogeneity between them. To make the ontologies and the data they describe interoperable, ontology alignments establish correspondences, or links between their entities. There are many ontology matching systems which generate simple alignments, i.e., they link an entity to another. However, to overcome the ontology heterogeneity, more expressive correspondences are sometimes needed. Finding this kind of correspondence is a fastidious task that can be automated. In this thesis, an automatic complex matching approach based on a user's knowledge needs and common instances is proposed. The complex alignment field is still growing and little work address the evaluation of such alignments. To palliate this lack, we propose an automatic complex alignment evaluation system. This system is based on instances. A famous alignment evaluation dataset has been extended for this evaluation
APA, Harvard, Vancouver, ISO, and other styles
3

El, Amrani Younès. "Génération automatique d'interfaces pour langages fonctionnels." Orléans, 1996. http://www.theses.fr/1996ORLE2074.

Full text
Abstract:
Cette thèse est une étude sur l'extensibilité des langages fonctionnels dans les environnements multi-applicatifs. Elle présente un panorama de toutes les approches permettant cette extensibilité tant au niveau structurel des langages fonctionnels qu'au niveau des choix d'implantations de ces derniers. Les différentes techniques d'implantations y sont aussi passées en revue. Nous proposons dans cette thèse des techniques d'interfaçage efficaces, puissantes et produites automatiquement à l'aide d'un générateur. Ce générateur se distingue par sa portabilité maximale et par son aspect multicible. Un exemple complet d'une bibliothèque graphique munie d'un protocole pour des applications distribuées est pris pour illustrer les différents aspects de l'extensibilité. Une modélisation des différentes approches et une systématisation des méthodes proposées sont explicitées puis expérimentées.
APA, Harvard, Vancouver, ISO, and other styles
4

Tachon, Thibaut. "Génération automatique de code parallèle isochrone." Thesis, Orléans, 2019. http://www.theses.fr/2019ORLE3098.

Full text
Abstract:
Depuis la stagnation de la fréquence d’horloge des processeurs, l’accroissement de la puissance de calcul a dépendu entièrement de l’accroissement du nombre d’unités de calcul. Plus que la difficulté algorithmique impliquée par l’écriture de tout programme séquentiel, la programmation parallèle demande au programmeur de gérer de nombreuses unités de calcul, incluant leurs tâches et leurs interactions. Pour alléger le fardeau du programmeur, cette thèse propose deux approches différentes de génération automatique de code parallèle. Le modèle parallèle isochrone BSP possède des propriétés intéressantes telles que son modèle de coût qui en font la cible de notre génération de code parallèle. Les automates et expressions régulières sont souvent choisis pour modéliser les calculs séquentiels et leurs parallélisation devrait, à long terme, aboutir à de solides fondations pour la génération de code parallèle. Pour notre approche principale, nous développons la théorie des automates BSP avec leur génération et détermination. Cette théorie est utilisée dans une nouvelle méthode pour la recherche de motif à l’aide d’expressions régulières. Notre autre approche propose un langage spécifique au domaine des réseaux de neurones où la composition fonctionnelle d’un petit nombre de primitives facilite le développement, la maintenance et la définition formelle du langage par rapport aux approches existantes
Since we are in an era of processor clock stagnation, computing power growth has been relying on parallel computing. More than the algorithmic difficulty involved in any program writing, parallel computing additionally requires the programmer to manage numerous processing units including their tasks and interactions. In order to alleviate the parallel programmer’s burden, this thesis proposes two different approaches for automatic parallel code generation. The bulk-synchronous parallel (BSP) model provides good properties such as its cost model and is therefore chosen as the target of our parallel code generation.Automata and regular expressions are often chosen to model sequential computation and their parallelization will lead to a strong foundation for general parallel code generation. For our main approach, we develop the theory of BSP automata with their generation and determinization. This theory is used in a novel method for parallel regular expression matching.As another approach, we propose a domain specific language for programming neural nets where the functional composition of only a few primitives eases development, maintenance and formal definition of the language compared to existing approaches
APA, Harvard, Vancouver, ISO, and other styles
5

Abdollahi, Nika. "B cell receptor repertoire analysis in clinical context : new approaches for clonal grouping, intra-clonal diversity studies, and repertoire visualization." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS063.

Full text
Abstract:
Le séquençage de nouvelle génération a permis aux chercheurs de réaliser des analyses approfondies du paysage du répertoire immunologique. Cependant, une préoccupation importante dans ces études est le coût informatique de l'analyse de millions de séquences avec une complexité, une variabilité et une capacité de mutation inhérentes, imposant des défis informatiques et nécessitant le développement de méthodes efficaces. Ce défi est encore plus évident dans le contexte clinique qui n'a pas nécessairement accès à des professionnels ayant des compétences informatiques ou des ressources informatiques robustes. Ainsi, l'objectif principal de cette thèse est de développer un ensemble d'outils dédiés qui seront utilisés dans l'environnement clinique, pour le diagnostic médical et les soins aux patients, et dans l'environnement de recherche, pour effectuer une analyse approfondie et à grande échelle du répertoire. Nous avons conçu et implémenté de multiples algorithmes et les avons rassemblés dans un pipeline interactif de visualisation du répertoire BCR afin de faciliter le processus d'intégration de l'analyse du répertoire BCR dans les pratiques médicales
Next-generation sequencing has enabled researchers to conduct in-depth analyses of the immunological repertoire landscape. However, a significant concern in these studies is the computational cost of analyzing millions of sequences with inherent complexity, variability, and mutational capacity, imposing computational challenges and necessitating the development of efficient methods. This challenge is even more evident in the clinical context that does not necessarily have access to professionals with computing skills or robust computational resources. Thus, the main goal of this thesis is to develop a set of dedicated and integrated tools to be used in the clinical environment, for medical diagnostic and patient care, and in the research environment, to perform large-scale and in-depth repertoire analysis. We have designed and implemented multiple algorithms and gathered them in a user-friendly interactive BCR repertoire visualization pipeline to facilitate the process of integrating BCR repertoire analysis into medical practices
APA, Harvard, Vancouver, ISO, and other styles
6

Colin, Émilie. "Traitement automatique des langues et génération automatique d'exercices de grammaire." Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0059.

Full text
Abstract:
Le thème support de cette thèse la génération de paraphrases sur support neuronal. Nos perspectives sont éducatives : créer des exercices de grammaire pour le français. La paraphrase est une opération de reformulation. Nos travaux tendent à attester que les modèles séquence vers séquence ne sont pas de simples répétiteurs mais peuvent apprendre la syntaxe. Nous avons montré, en combinant divers modèles, que la représentation de l'information sous de multiples formes (en utilisant de la donnée formelle (RDF), couplée à du texte pour l'étendre ou le réduire, ou encore seulement du texte) permet d'exploiter un corpus sous différents angles, augmentant la diversité des sorties, exploitant les leviers syntaxiques mis en place. Nous nous sommes penchée sur un problème récurrent, celui de la qualité des données, et avons obtenu des paraphrases avec une haute adéquation syntaxique (jusqu'à 98% de couverture de la demande) et un très bon niveau linguistique. Nous obtenons jusqu'à 83.97 points de BLEU*, 78.41 de plus que la moyenne de nos lignes de base, sans levier syntaxique. Ce taux indique un meilleur contrôle des sorties, pourtant variées et de bonne qualité en l'absence de levier. Nous avons ensuite travaillé depuis du texte brut en passant, pour la génération de phrases, par la production d'une représentation du sens de ce texte qui puisse servir d'entrée à la génération de paraphrases. Le passage à du texte en français était aussi pour nous un impératif. Travailler depuis du texte brut, en automatisant les procédures, nous a permis de créer un corpus de plus de 450 000 couples représentations/phrases, grâce auquel nous avons appris à générer des textes massivement corrects (92% sur la validation qualitative). Anonymiser ce qui n'est pas fonctionnel a participé notablement à la qualité des résultats (68.31 de BLEU, soit +3.96 par rapport à la ligne de base, qui était la génération depuis des données non anonymisées). La représentation formelle de l'information dans un cadre linguistique particulier à une langue est une tâche ardue. Cette thèse offre des pistes de méthodes pour automatiser cette opération. Par ailleurs, nous n'avons pu traiter que des phrases relativement courtes. L'utilisation de modèles neuronaux plus récents permettrait sans doute d'améliorer les résultats. Enfin, l'usage de traits adéquats en sortie permettrait des vérifications poussées. *BLEU (Papineni et al., 2002) : qualité d'un texte sur une échelle de 0 (pire) à 100 (meilleur)
Our perspectives are educational, to create grammar exercises for French. Paraphrasing is an operation of reformulation. Our work tends to attest that sequence-to-sequence models are not simple repeaters but can learn syntax. First, by combining various models, we have shown that the representation of information in multiple forms (using formal data (RDF), coupled with text to extend or reduce it, or only text) allows us to exploit a corpus from different angles, increasing the diversity of outputs, exploiting the syntactic levers put in place. We also addressed a recurrent problem, that of data quality, and obtained paraphrases with a high syntactic adequacy (up to 98% coverage of the demand) and a very good linguistic level. We obtain up to 83.97 points of BLEU-4*, 78.41 more than our baseline average, without syntax leverage. This rate indicates a better control of the outputs, which are varied and of good quality in the absence of syntax leverage. Our idea was to be able to work from raw text : to produce a representation of its meaning. The transition to French text was also an imperative for us. Working from plain text, by automating the procedures, allowed us to create a corpus of more than 450,000 sentence/representation pairs, thanks to which we learned to generate massively correct texts (92% on qualitative validation). Anonymizing everything that is not functional contributed significantly to the quality of the results (68.31 of BLEU, i.e. +3.96 compared to the baseline, which was the generation of text from non-anonymized data). This second work can be applied the integration of a syntax lever guiding the outputs. What was our baseline at time 1 (generate without constraint) would then be combined with a constrained model. By applying an error search, this would allow the constitution of a silver base associating representations to texts. This base could then be multiplied by a reapplication of a generation under constraint, and thus achieve the applied objective of the thesis. The formal representation of information in a language-specific framework is a challenging task. This thesis offers some ideas on how to automate this operation. Moreover, we were only able to process relatively short sentences. The use of more recent neural modelswould likely improve the results. The use of appropriate output strokes would allow for extensive checks. *BLEU : quality of a text (scale from 0 (worst) to 100 (best), Papineni et al. (2002))
APA, Harvard, Vancouver, ISO, and other styles
7

Saggion, Horacio. "Génération automatique de résumés par analyse sélective." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0017/NQ55476.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Terrillon, Guillaume. "Spécification et génération automatique de sites Internet." Mémoire, Université de Sherbrooke, 2005. http://savoirs.usherbrooke.ca/handle/11143/4702.

Full text
Abstract:
La démocratisation d'Internet a entraîné l'émergence de sites Web de plus en plus complexes. Ainsi, les coûts de maintenance et de développement ont subi une constante augmentation. L'objectif du projet DCI-Web (Description Comportementale d'Interfaces Web) est de définir un langage de spécification capable de modéliser les différents aspects d'un site Web puis de le générer. Cette génération doit donc permettre de diminuer les coûts de développement tout en fournissant un système plus fiable et donc plus facile à maintenir. L'apport majeur de notre méthode est la possibilité de modéliser facilement et de manière exhaustive les parties dynamiques et le comportement des sites Web générés. La navigation, vue sous forme de menu, est alors simplifiée par l'utilisation des dites parties dynamiques. Contrairement aux autres approches existantes, notre spécification se base sur des systèmes d'informations déjà existants. L'impact de ce choix sur la spécification et le développement des interfaces générées est étudié dans la suite de ce mémoire.
APA, Harvard, Vancouver, ISO, and other styles
9

Martin, Kevin. "Génération automatique d'extensions de jeux d'instructions de processeurs." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00526133.

Full text
Abstract:
Les processeurs à jeux d'instructions spécifiques (ASIP) sont des processeurs spécialisés qui combinent la flexibilité d'un processeur programmable avec la performance d'un processeur dédié. L'une des approches de conception de tels processeurs consiste à spécialiser un cœur de processeur existant en y ajoutant des instructions spécialisées, mises en œuvre dans un module matériel fortement couplé au chemin de données du processeur. C'est l'extension de jeu d'instructions. La conception d'un ASIP nécessite des méthodologies et des outils logiciels appropriés garantissant une maîtrise des contraintes de conception et de la complexité grandissante des applications. Dans ce contexte, cette thèse vise à proposer une méthodologie de génération automatique d'extensions de jeux d'instructions. Celle-ci consiste à tout d'abord identifier l'ensemble des instructions candidates qui satisfont les contraintes architecturales et technologiques, afin de garantir leurs mises en œuvre. Ensuite, les instructions candidates qui minimisent le temps d'exécution séquentielle de l'application sont sélectionnées. Les ressources matérielles de l'extension, telles que les registres et les multiplexeurs, sont optimisées. Enfin, la dernière étape génère la description matérielle et le modèle de simulation de l'extension. Le code applicatif est adapté pour tenir compte des nouvelles instructions. Cette thèse propose des techniques basées sur la programmation par contraintes pour résoudre les problèmes difficiles (voir intraitables) que sont l'identification d'instructions, la sélection d'instructions et l'allocation de registres.
APA, Harvard, Vancouver, ISO, and other styles
10

Hankach, Pierre. "Génération automatique de textes par satisfaction de contraintes." Paris 7, 2009. http://www.theses.fr/2009PA070027.

Full text
Abstract:
Nous nous intéressons dans cette thèse à la construction d'un système de génération automatique - un logiciel informatique capable de transformer une représentation formelle de l'information en un texte en langage naturel. Dans notre approche, nous définissons la génération comme un problème de satisfaction de contraintes (CSP). Le système résultant garantit un traitement intégré des opérations de la génération car les différentes dépendances sont prises en compte et aucune priorité n'est donnée à un type d'opération par rapport aux autres. Pour définir le problème de satisfaction de contraintes, nous représentons les opérations de construction du texte par des variables de décision. Les opérations individuelles qui réalisent un même type d'expressions minimales dans le texte sont groupées ensemble et constituent une tâche de la génération. Nous classons les variables de décision selon les types d'opérations qu'elles représentent (e. G. Variables de sélection du contenu, variables de structuration du document. . . ). Les règles linguistiques régissant les opérations sont représentées par des contraintes sur les variables. Une contrainte peut être définie sur des variables d'un ou plusieurs type(s), marquant la dépendance entre les opérations correspondantes. La production d'un texte consiste en la résolution du système global des contraintes, c'est-à-dire trouver une affectation complète des variables qui ne viole pas les contraintes. Dans le cadre de la définition de la grammaire de contraintes, nous formulons notamment la partie qui régit les opérations de structuration du document. Nous modélispns par des contraintes la structure rhétorique développée par la SORT afin d'aboutir à des textes cohérents à la sortie du générateur. Auparavant, afin d'augmenter les capacités de génération de notre système, nous étendons cette structure rhétorique pour couvrir les textes non canoniques. En plus de la définition de ces contraintes pour la cohérence, nous formulons un ensemble de contraintes qui permettent de façonner la macrostructure en fonction des buts communicatifs afin de favoriser leur réalisation. Enfin, nous proposons une solution au problème de la complexité de calcul de la génération de textes de grande taille. Cette solution repose sur la génération de ces textes par paquet de propositions. Le problème de génération du texte global est ainsi défini comme plusieurs problèmes de génération de parties du texte. Ces parties sont de taille limitée et la complexité associée à leur génération reste raisonnable. Le partitionnement proposé est motivé par des considérations linguistiques
We address in this thesis the construction of a natural language generation System - computer software that transforms a formal representation of information into a text in natural language. In our approach, we define the generation problem as a constraint satisfaction problem (CSP). The implemented System ensures an integrated processing of generation operations as their different dependencies are taken into account and no priority is given to any type of operation over the others. In order to define the constraint satisfaction problem, we represent the construction operations of a text by decision variables. Individual operations that implement the same type of minimal expressions in the text form a generation task. We classify decision variables according to the type of operations they represent (e. G. Content selection variables, document structuring variables. . . ). The linguistic rules that govern the operations are represented as constraints on the variables. A constraint can be defined over variables of the same type or different types, capturing the dependency between the corresponding operations. The production of a text consists of resolving the global System of constraints, that is finding an evaluation of the variables that satisfies all the constraints. As part of the grammar of constraints for generation, we particularly formulate the constraints that govern document structuring operations. We model by constraints the rhetorical structure of SORT in order to yield coherent texts as the generator's output. Beforehand, in order to increase the generation capacities of our System, we extend the rhetorical structure to cover texts in the non-canonical order. Furthermore, in addition to defining these coherence constraints, we formulate a set of constraints that enables controlling the form of the macrostructure by communicative goals. Finally, we propose a solution to the problem of computational complexity of generating large texts. This solution is based on the generation of a text by groups of clauses. The problem of generating a text is therefore divided into many problems of reduced complexity, where each of them is concerned with generating a part of the text. These parts are of limited size so the associated complexity to their generation remains reasonable. The proposed partitioning of generation is motivated by linguistic considerations
APA, Harvard, Vancouver, ISO, and other styles
11

Osselin, Jean-François. "Génération automatique d'armures de grand rapport. Algorithme génétique." Mulhouse, 2001. http://www.theses.fr/2001MULH0668.

Full text
Abstract:
Cette thèse a un double objectif. Tout d'abord, il s'agit de formaliser mathématiquement le processus de tissage ainsi que les méthodes de construction des armures, jusqu'alors traitées uniquement empiriquement. Dans un second temps, on envisage de générer automatiquement des armures de grandes dimensions présentant l'aspect très particulier- du crêpe, en développant un algorithme génétique, dédié à codage non binaire. Le premier chapitre de cet ouvrage propose une formalisation des différents processus de transformation fréquemment appliqués à une ou plusieurs armures. Après avoir présenté quelques opérateurs, nous explicitons formellement ce que sont l'intercalation, le rayonnement on encore la transposition. Certaines des notions introduites concernant le tissage, les armures et leur lien avec les algèbres de Boole sont regroupées en annexe. Le chapitre deux présente quelques notions relatives aux problèmes de satisfaction de contraintes, pins traduit le problème de génération d'armures dans ce contexte. Le chapitre trois expose brièvement fondant sur un ce qu'est un algorithme génétique, dans sa version la plus classique en se fondant sur un exemple. Le chapitre quatre est entièrement consacré à l'analyse d'images, et plus particulièrement à l'analyse de l'aspect crêpé d'une armure. Dans le cinquième et dernier- chapitre sont exposés les processus et opérateurs génétiques propres à la résolution notre problème. On y trouve également une optimisation de l'algorithme. Suivie d'une très brève, analyse de son comportement en fonction de différents paramètres. Enfin, nous concluons sur ce travail et envisageons quelques extensions de nos travaux.
APA, Harvard, Vancouver, ISO, and other styles
12

Martin, Kévin. "Génération automatique d'extensions de jeux d'instructions de processeurs." Rennes 1, 2010. https://tel.archives-ouvertes.fr/tel-00526133.

Full text
Abstract:
Les processeurs à jeux d'instructions spécifiques (ASIP) sont des processeurs spécialisés qui combinent la flexibilité d'un processeur programmable avec la performance d'un processeur dédié. L'une des approches de conception de tels processeurs consiste à spécialiser un cœur de processeur existant en y ajoutant des instructions spécialisées, mises en œuvre dans un module matériel fortement couplé au chemin de données du processeur. C'est l'extension de jeu d'instructions. La conception d'un ASIP nécessite des méthodologies et des outils logiciels appropriés garantissant une maîtrise des contraintes de conception et de la complexité grandissante des applications. Dans ce contexte, cette thèse vise à proposer une méthodologie de génération automatique d'extensions de jeux d'instructions. Celle-ci consiste à tout d'abord identifier l'ensemble des instructions candidates qui satisfont les contraintes architecturales et technologiques, afin de garantir leurs mises en œuvre. Ensuite, les instructions candidates qui minimisent le temps d'exécution séquentielle de l'application sont sélectionnées. Les ressources matérielles de l'extension, telles que les registres et les multiplexeurs, sont optimisées. Enfin, la dernière étape génère la description matérielle et le modèle de simulation de l'extension. Le code applicatif est adapté pour tenir compte des nouvelles instructions. Cette thèse propose des techniques basées sur la programmation par contraintes pour résoudre les problèmes difficiles (voir intraitables) que sont l'identification d'instructions, la sélection d'instructions et l'allocation de registres
ASIPs (/Application Specific Instruction set Processors/) are custom processors that offer a good trade-off between performance and flexibility. A common processor customization approach is to augment its standard instruction set with application-specific instructions that are implemented on specifically designed hardware extensions (reconfigurable cells). These extensions are often directly connected to the processor's data-path. The design of the ASIP processor must rely on dedicated methodologies and software tools that manage both the design constraints and the growing complexity of applications. In this context, the aims of this thesis were to propose a new methodology for the automatic generation of instruction-set extensions. In the first step of our proposed design flow, we generate the instruction candidates that satisfy some architectural and technological constraints. In the second step, we identify the set of standard and customized instructions that minimizes the sequential application's execution time. In the next step, optimized hardware extensions and the corresponding application program including new instructions are generated. During the hardware generation, the optimizations of the hardware resources such as registers and multiplexers are simultaneously carried out. In our proposed design flow we used the constraint-based approach to solve the computationally complex problems of instruction identification, instruction selection and register allocation
APA, Harvard, Vancouver, ISO, and other styles
13

Perez, Laura Haide. "Génération automatique de phrases pour l'apprentissage des langues." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0062/document.

Full text
Abstract:
Dans ces travaux, nous explorons comment les techniques de Générations Automatiques de Langue Naturelle (GLN) peuvent être utilisées pour aborder la tâche de génération (semi-)automatique de matériel et d'activités dans le contexte de l'apprentissage de langues assisté par ordinateur. En particulier, nous montrons comment un Réalisateur de Surface (RS) basé sur une grammaire peut être exploité pour la création automatique d'exercices de grammaire. Notre réalisateur de surface utilise une grammaire réversible étendue, à savoir SemTAG, qui est une Grammaire d'Arbre Adjoints à Structure de Traits (FB-TAG) couplée avec une sémantique compositionnelle basée sur l'unification. Plus précisément, la grammaire FB-TAG intègre une représentation plate et sous-spécifiée des formules de Logique de Premier Ordre (FOL). Dans la première partie de la thèse, nous étudions la tâche de réalisation de surface à partir de formules sémantiques plates et nous proposons un algorithme de réalisation de surface basé sur la grammaire FB-TAG optimisé, qui supporte la génération de phrases longues étant donné une grammaire et un lexique à large couverture. L'approche suivie pour l'optimisation de la réalisation de surface basée sur FB-TAG à partir de sémantiques plates repose sur le fait qu'une grammaire FB-TAG peut être traduite en une Grammaire d'Arbres Réguliers à Structure de Traits (FB-RTG) décrivant ses arbres de dérivation. Le langage d'arbres de dérivation de la grammaire TAG constitue un langage plus simple que le langage d'arbres dérivés, c'est pourquoi des approches de génération basées sur les arbres de dérivation ont déjà été proposées. Notre approche se distingue des précédentes par le fait que notre encodage FB-RTG prend en compte les structures de traits présentes dans la grammaire FB-TAG originelle, ayant de ce fait des conséquences importantes par rapport à la sur-génération et la préservation de l'interface syntaxe-sémantique. L'algorithme de génération d'arbres de dérivation que nous proposons est un algorithme de type Earley intégrant un ensemble de techniques d'optimisation bien connues: tabulation, partage-compression (sharing-packing) et indexation basée sur la sémantique. Dans la seconde partie de la thèse, nous explorons comment notre réalisateur de surface basé sur SemTAG peut être utilisé pour la génération (semi-)automatique d'exercices de grammaire. Habituellement, les enseignants éditent manuellement les exercices et leurs solutions et les classent au regard de leur degré de difficulté ou du niveau attendu de l'apprenant. Un courant de recherche dans le Traitement Automatique des Langues (TAL) pour l'apprentissage des langues assisté par ordinateur traite de la génération (semi-)automatique d'exercices. Principalement, ces travaux s'appuient sur des textes extraits du Web, utilisent des techniques d'apprentissage automatique et des techniques d'analyse de textes (par exemple, analyse de phrases, POS tagging, etc.). Ces approches confrontent l'apprenant à des phrases qui ont des syntaxes potentiellement complexes et du vocabulaire varié. En revanche, l'approche que nous proposons dans cette thèse aborde la génération (semi-)automatique d'exercices du type rencontré dans les manuels pour l'apprentissage des langues. Il s'agit, en d'autres termes, d'exercices dont la syntaxe et le vocabulaire sont faits sur mesure pour des objectifs pédagogiques et des sujets donnés. Les approches de génération basées sur des grammaires associent les phrases du langage naturel avec une représentation linguistique fine de leur propriété morpho-syntaxiques et de leur sémantique grâce à quoi il est possible de définir un langage de contraintes syntaxiques et morpho-syntaxiques permettant la sélection de phrases souches en accord avec un objectif pédagogique donné. Cette représentation permet en outre d'opérer un post-traitement des phrases sélectionées pour construire des exercices de grammaire
In this work, we explore how Natural Language Generation (NLG) techniques can be used to address the task of (semi-)automatically generating language learning material and activities in Camputer-Assisted Language Learning (CALL). In particular, we show how a grammar-based Surface Realiser (SR) can be usefully exploited for the automatic creation of grammar exercises. Our surface realiser uses a wide-coverage reversible grammar namely SemTAG, which is a Feature-Based Tree Adjoining Grammar (FB-TAG) equipped with a unification-based compositional semantics. More precisely, the FB-TAG grammar integrates a flat and underspecified representation of First Order Logic (FOL) formulae. In the first part of the thesis, we study the task of surface realisation from flat semantic formulae and we propose an optimised FB-TAG-based realisation algorithm that supports the generation of longer sentences given a large scale grammar and lexicon. The approach followed to optimise TAG-based surface realisation from flat semantics draws on the fact that an FB-TAG can be translated into a Feature-Based Regular Tree Grammar (FB-RTG) describing its derivation trees. The derivation tree language of TAG constitutes a simpler language than the derived tree language, and thus, generation approaches based on derivation trees have been already proposed. Our approach departs from previous ones in that our FB-RTG encoding accounts for feature structures present in the original FB-TAG having thus important consequences regarding over-generation and preservation of the syntax-semantics interface. The concrete derivation tree generation algorithm that we propose is an Earley-style algorithm integrating a set of well-known optimisation techniques: tabulation, sharing-packing, and semantic-based indexing. In the second part of the thesis, we explore how our SemTAG-based surface realiser can be put to work for the (semi-)automatic generation of grammar exercises. Usually, teachers manually edit exercises and their solutions, and classify them according to the degree of dificulty or expected learner level. A strand of research in (Natural Language Processing (NLP) for CALL addresses the (semi-)automatic generation of exercises. Mostly, this work draws on texts extracted from the Web, use machine learning and text analysis techniques (e.g. parsing, POS tagging, etc.). These approaches expose the learner to sentences that have a potentially complex syntax and diverse vocabulary. In contrast, the approach we propose in this thesis addresses the (semi-)automatic generation of grammar exercises of the type found in grammar textbooks. In other words, it deals with the generation of exercises whose syntax and vocabulary are tailored to specific pedagogical goals and topics. Because the grammar-based generation approach associates natural language sentences with a rich linguistic description, it permits defining a syntactic and morpho-syntactic constraints specification language for the selection of stem sentences in compliance with a given pedagogical goal. Further, it allows for the post processing of the generated stem sentences to build grammar exercise items. We show how Fill-in-the-blank, Shuffle and Reformulation grammar exercises can be automatically produced. The approach has been integrated in the Interactive French Learning Game (I-FLEG) serious game for learning French and has been evaluated both based in the interactions with online players and in collaboration with a language teacher
APA, Harvard, Vancouver, ISO, and other styles
14

Mognol, Pascal. "Contribution à la génération automatique de gammes en tournage : génération dirigée par évaluation progressive." Cachan, Ecole normale supérieure, 1994. http://www.theses.fr/1994DENS0019.

Full text
Abstract:
Ce travail de recherche porte sur la génération automatique de gammes d'usinage en tournage. La complexité de ces recherches porte principalement sur deux points: il faut, d'une part, formaliser la connaissance de l'expert en gammes d'usinage (connaissance basée sur des calculs scientifiques mais aussi principalement sur l'expérience) et d'autre part, utiliser cette connaissance au mieux pour obtenir un système de génération automatique de gammes d'usinage (expertise cogniticienne). Il faut mettre en œuvre une méthode qui évite l'explosion combinatoire du nombre de solutions possibles, tout en ne réduisant pas l'espace des solutions envisagées. Pour répondre a ces exigences, nous avons mis en place un nouveau concept base sur la construction d'un graphe de résolution. Ce principe est du type ascendant. L'étude de la pièce finie permet, par habillages successifs, d'obtenir la forme brute. Des critères technologiques, qui traduisent l'expertise du gammiste, évaluent et éliminent progressivement les solutions peu fiables, tout en ne réduisant pas l'espace des solutions valides. De plus, l'analyse des critères défaillants permet de diriger l'élaboration du graphe vers des solutions répondant aux problèmes décelés. Le principe même d'élaboration du graphe garantit la non explosion combinatoire du nombre de solutions. Le graphe finalement obtenu, ne contient qu'un nombre restreint de gammes technologiquement faisables, sur lesquelles une étude finale et complète (étude de cout, par exemple) est menée. L'utilisateur peut ainsi choisir, en toutes connaissances de cause, la gamme qu'il va mettre en œuvre. Une maquette informatique a été réalisée. Les résultats obtenus ont permis de valider ces concepts dans le cadre du tournage
APA, Harvard, Vancouver, ISO, and other styles
15

Chaisemartin, Philippe. "Contribution à la génération automatique de plans de masse." Phd thesis, Grenoble 1, 1986. http://tel.archives-ouvertes.fr/tel-00322531.

Full text
Abstract:
Cette thèse présente l'introduction de méthodes nouvelles dans le domaine de la conception assistée par ordinateur de circuits à haute intégration. A partir de la description d'un ensemble d'individus par la liste de leurs corrélations (ou distances) deux à deux, l'analyse factorielle de données se propose d'en fournir une représentation planaire. Le but de cette thèse est de décrire le cheminement parcouru pour pouvoir utiliser ces méthodes connues depuis longtemps des statisticiens, dans le domaine de la génération de plans de masse. Ainsi, plusieurs idées originales permettant l'utilisation d'algorithmes classiques d'analyse factorielle de données dans le cadre de la CAO de circuits sont présentées. Ces idées sont concrétisées par la réalisation et la présentation d'un logiciel de génération de plans de masse
APA, Harvard, Vancouver, ISO, and other styles
16

Rebaa, El-Hadi. "Génération automatique et optimisation de systèmes à inférence floue." Paris 12, 2003. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990002111060204611&vid=upec.

Full text
Abstract:
La synthèse d’un système à inférence flou (SIF) pour l’identification et la commande d’un système MIMO, constitue une problématique de recherche non trivial qui nécessite l’emploi une méthodologie pour la génération de la base de connaissances. L’objectif de cette thèse est de proposer une algorithmique pour l’induction automatique de contrôleurs flous MIMO. Pour ce faire, un modèle hybride neuro-flou est utilisé pour représenter le SIF, compte tenu de l’avantage qu’il présente au niveau de l’unicité de la structure. L’approche proposée comprend deux étapes essentielles. La première concerne l’identification des paramètres du modèle, partir de la méthode de la rétropropagation du gradient. La seconde consiste en une optimisation structurelle du SIF basée sur une nouvelle algorithmique de classification. Une nouvelle formulation de la méthode de classification FCM (Fuzzy C-Means), introduisant une nouvelle contrainte basée sur un indice d’inclusion des sous-ensembles flous, au sens de la similarité, est proposée. Cette approche a été validée sur deux applications. La première concerne la commande dynamique d’un robot série 2 ddl et la seconde, l’identification des efforts non linéaires dans l’espace libre d’un robot parallèle à liaisons C5. Les performances obtenues montrent une bonne précision d’approximation d’un système MIMO non linéaire. De plus, cette approche a permis de réduire d’un facteur 10 le nombre de règles floues générées par rapport à l’approche FCM, basée sur l’utilisation d’une partition à grilles
Fuzzy inference system (FIS) synthesis for identification and control of MIMO systems represents a non trivial research problematic which requires a knowledge base generation methodology. The aim of this thesis is to propose a new algorithmic for automatic induction of MIMO fuzzy controllers. For this purpose, a neuro-fuzzy hybrid model is used to model the FIS, due to its structure unicity. The proposed approach includes two main steps. The first one concerns the model parameters identification using a back-propagation method. The second one consists of an optimization of the FIS structure based on a new classification algorithmic. A new formulation of the FCM (Fuzzy C-Means) clustering method, tacking into account a new constraint based on a fuzzy sets inclusion index from similarity point of view, is proposed. This approach has been validated on two applications. The first one concerns the dynamic control of a 2-DOF serial robot and the second one, the free space non-linear efforts identification of a C5 parallel robot. The obtained performances show a good approximation accuracy of a non-linear MIMO system. Moreover, this approach has allowed the reduction of the generated fuzzy rules number with a factor of 10, compared to the FCM approach using a grids partition
APA, Harvard, Vancouver, ISO, and other styles
17

Ciguene, Richardson. "Génération automatique de sujets d'évaluation individuels en contexte universitaire." Electronic Thesis or Diss., Amiens, 2019. http://www.theses.fr/2019AMIE0046.

Full text
Abstract:
Ce travail de thèse s'intéresse à l'évaluation des apprentissages et notamment à la génération automatique de sujets d'évaluations dans les universités. Nous nous appuyons sur une base de questions sources pour créer les questions des sujets grâce à des algorithmes qui sont en mesure de construire des tests d'évaluation différenciés. Ces recherches ont permis d'élaborer une métrique qui mesure cette différenciation et de proposer des algorithmes visant à maximiser la différenciation totale sur des collections de tests, tout en minimisant le nombre de patterns nécessaires. Les performances en moyenne de ces derniers dépendent du nombre de patterns disponibles dans la base source (en regard du nombre d'items souhaités dans les tests), et de la taille des collections générées. On s'est focalisé sur la différenciation possible dans de très petites collections de sujets, et propose des pistes méthodologiques pour optimiser la distribution de ces sujets différenciés à des cohortes d'étudiants en respectant les contraintes de l'enseignant. La suite de ce travail sera éventuellement de prendre en compte le niveau de difficulté d'un Test comme nouvelle contrainte, en s'appuyant en partie sur les données statistiques et sémantiques récoltées après chaque Épreuve. Le but est de pouvoir maximiser la différenciation en gardant l'équité entre les Tests d'une Collection, pour une distribution optimisée lors des Épreuves
This PhD work focuses on the evaluation of learning and especially the automatic generation of evaluation topics in universities. We rely on a base of source questions to create topic questions through algorithms that are able to construct differentiated assessment tests. This research has made it possible to develop a metric that measures this differentiation and to propose algorithms aimed at maximizing total differentiation on test collections, while minimizing the number of necessary patterns. The average performance of the latter depends on the number of patterns available in the source database (compared to the number of items desired in the tests), and the size of the generated collections. We focused on the possible differentiation in very small collections of subjects, and proposes methodological tracks to optimize the distribution of these differentiated subjects to cohorts of students respecting the constraints of the teacher. The rest of this work will eventually take into account the level of difficulty of a test as a new constraint, relying in part on the statistical and semantic data collected after each test. The goal is to be able to maximize the differentiation by keeping the equity between the Tests of a Collection, for an optimized distribution during the Events
APA, Harvard, Vancouver, ISO, and other styles
18

Assia, Soukane. "Génération automatique des requêtes de médiation dans un environnement hétérogène." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2005. http://tel.archives-ouvertes.fr/tel-00324482.

Full text
Abstract:
Les systèmes de médiation sont aujourd'hui largement développés et connus. Cependant, leur mise en œuvre pose un certain nombre de problèmes, en particulier la définition de requêtes de médiation en présence d'un grand nombre de sources de données, et d'un volume important de méta-données les décrivant. Ce problème est d'autant plus complexe que les sources sont hétérogènes.
Face a cette problématique, nous proposons dans cette thèse pour le contexte relationnel, une approche de génération automatique de requêtes de médiation. A partir de la description d'un ensemble de sources de données distribuées et hétérogènes et de méta-données, notre algorithme produit un ensemble de requêtes de médiation possibles. Nous avons développé un outil qui permet de générer automatiquement des requêtes de médiation dans un environnement hétérogène. Notre objectif principal étant de fournir à l'utilisateur un outil adapté aux petits et grands systèmes, nous avons réalisé une série de tests d'évaluation des performances pour mesurer son passage à l'échelle. Ces tests montrent la faisabilité de notre approche.
APA, Harvard, Vancouver, ISO, and other styles
19

Dufour, Kévin. "Génération automatique et sécuritaire de trajectoires pour un robot collaboratif." Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11810.

Full text
Abstract:
Parce que la robotique collaborative vise à libérer les robots des barrières physiques les séparant des opérateurs humains, de nouveaux défis apparaissent autour de la sécurité de ces derniers. S'il est possible de diminuer la dangerosité des robots en amont de leur conception, les logiciels qui les contrôlent doivent impérativement intégrer des mesures de sécurité, afin d'être compatibles avec des environnements humains dynamiques. Les algorithmes classiques de planification de trajectoire nécessitant de lourds calculs, il est avantageux de modifier la trajectoire en temps réel pour l'adapter à l'environnement dangereux. Dans ce projet de recherche, un algorithme de cinématique inverse, sous forme de problème d'optimisation, est utilisé afin de générer la commande du robot à partir d'une trajectoire définie hors-ligne. L'ajout de contraintes de sécurité à ce problème est particulièrement étudié : dans un premier temps, l'indice de manipulabilité, qui traduit la distance du robot à une configuration singulière, est considéré. Ainsi, il doit être maximisé tout au long de la trajectoire afin d'assurer la meilleure mobilité disponible. Dans un deuxième temps, le facteur humain a été intégré par la prise en compte du confort de celui-ci : afin de réduire le stress éprouvé par l'opérateur face à un robot aux mouvements imprévisibles, on s'assure de minimiser la distance entre l'effecteur et le regard de l'humain pour garantir une plus grande visibilité de la tâche. Dans les deux cas, nous avons présenté une formulation originale de ces critères afin de les intégrer dans le problème d'optimisation. Par ailleurs la contrainte d'évitement d'obstacles a aussi été utilisée, de même que la relaxation de la trajectoire, qui permet au robot de dévier un peu de cette dernière pendant une portion de la durée de la tâche. Enfin des tests en simulation et avec le robot réel Baxter de Rethink Robotics ont permis de valider notre approche et de vérifier les performances en conditions réelles, en utilisant une caméra RGB-D et un logiciel de détection d'humain en temps réel.
Abstract : Because collaborative robots are aimed at working in the vicinity of human workers without physical security fences, they bring new challenges about security. Even if robots can be conceived to be less harmful, their software has to integrate security features in order to be suitable for dynamic human environments. Since classical path planning algorithms require heavy calculations, it is interesting to modify the trajectory in real time to adapt it to the dangerous environment. In this research project, an inverse kinematics solver, in the form of an optimization problem, is used to generate the command of the robot to follow a trajectory defined offline. The addition of security constraints is studied: first, the manipulability index, which reflects the distance of the robot to singular configurations, is considered. Thus, it should be maximized all along the trajectory to ensure the best mobility available. Then the human is integrated by taking into account its comfort: in order to reduce the stress of working near an unpredictable moving robot, the distance between the end-effector and the human gaze is minimized to guarantee a greater visibility of the task. In both cases, we have presented a new formulation of those criteria to integrate them into the optimization problem. Moreover, the collision avoidance constraint is used, as well as the trajectory relaxation, which allows the robot to deviate from its trajectory for a certain amount of time during the task. Finally tests in simulation and with the real Baxter robot from Rethink Robotics validated our approach and the performance has been evaluated in real conditions, using a RGB-D camera and a real time human tracker software.
APA, Harvard, Vancouver, ISO, and other styles
20

Bellefeuille, Philipe. "Génération automatique de démonstrations de tâche pour le Canadarm II." Mémoire, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/4766.

Full text
Abstract:
Le présent mémoire présente une solution à la génération automatique de démonstrations de tâche impliquant le bras robotique canadien (BRC), connu aussi sous le nom de Canadarm II, sur la station spatiale internationale. Plus précisément, il tente de résoudre le problème de la planification de caméras virtuelles afin de filmer la tâche agréablement et permettant à l'observateur de comprendre les manipulations effectuées le mieux possible afin d'être éventuellement capable de les reproduire. Ces démonstrations doivent en effet pouvoir être utilisées par l'équipe au sol afin d'expliquer à un astronaute de la station spatiale les manipulations qu'il doit accomplir. Le générateur de démonstrations pourra aussi être utilisé dans un système tuteur intelligent permettant d'entraîner les astronautes à la manipulation du BRC. Après avoir analysé les différentes techniques de planification automatique de caméras proposées dans la littérature, nous avons choisi un algorithme à base d'idiomes que nous avons amélioré et adapté à notre situation et que nous avons implémenté grâce à un système de planification nommé TLPlan. Le générateur automatique de démonstrations a été intégré au système Roman Tutor, système qui permet de simuler les mouvements du BRC dans un environnement 3D virtuel. Ce mémoire explique donc notre choix de l'algorithme, les différentes innovations que nous avons apportées à la planification de caméras, la structure de notre système et termine en exposant les résultats de nos expérimentations à l'intérieur de Roman Tutor.
APA, Harvard, Vancouver, ISO, and other styles
21

Tka, Mouna. "Génération automatique de test pour les contrôleurs logiques programmables synchrones." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM020/document.

Full text
Abstract:
Ce travail de thèse, effectué dans la cadre du projet FUI Minalogic Bluesky, porte sur le test fonctionnel automatisé d'une classe particulière de contrôleurs logiques programmables (em4) produite par InnoVista Sensors. Ce sont des systèmes synchrones qui sont programmés au moyen d'un environnement de développement intégré (IDE). Les personnes qui utilisent et programment ces contrôleurs ne sont pas nécessairement des programmeurs experts. Le développement des applications logicielles doit être par conséquent simple et intuitif. Cela devrait également être le cas pour les tests. Même si les applications définies par ces utilisateurs ne sont pas nécessairement très critiques, il est important de les tester d'une manière adéquate et efficace. Un simulateur inclu dans l'IDE permet aux programmeurs de tester leurs programmes d'une façon qui reste à ce jour informelle et interactive en entrant manuellement des données de test. En se basant sur des recherches précédentes dans le domaine du test des programmes synchrones, nous proposons un nouveau langage de spécification de test, appelé SPTL (Synchronous Programs Testing Language) qui rend possible d'exprimer simplement des scénarios de test qui peuvent être exécutées à la volée pour générer automatiquement des séquences d'entrée de test. Il permet aussi de décrire l'environnement où évolue le système pour mettre des conditions sur les entrées afin d'arriver à des données de test réalistes et de limiter celles qui sont inutiles. SPTL facilite cette tâche de test en introduisant des notions comme les profils d'utilisation, les groupes et les catégories. Nous avons conçu et développé un prototype, nommé "Testium", qui traduit un programme SPTL en un ensemble de contraintes exploitées par un solveur Prolog qui choisit aléatoirement les entrées de test. La génération de données de test s'appuie ainsi sur des techniques de programmation logique par contraintes. Pour l'évaluer, nous avons expérimenté cette méthode sur des exemples d'applications EM4 typiques et réels. Bien que SPTL ait été évalué sur em4, son utilisation peut être envisagée pour la validation d'autres types de contrôleurs ou systèmes synchrones
This thesis work done in the context of the FUI project Minalogic Bluesky, concerns the automated functional testing of a particular class of programmable logic controllers (em4) produced by InnoVista Sensors. These are synchronous systems that are programmed by means of an integrated development environment (IDE). People who use and program these controllers are not necessarily expert programmers. The development of software applications should be as result simple and intuitive. This should also be the case for testing. Although applications defined by these users need not be very critical, it is important to test them adequately and effectively. A simulator included in the IDE allows programmers to test their programs in a way that remains informal and interactive by manually entering test data.Based on previous research in the area of synchronous test programs, we propose a new test specification language, called SPTL (Synchronous Testing Programs Language) which makes possible to simply express test scenarios that can be executed on the fly to automatically generate test input sequences. It also allows describing the environment in which the system evolves to put conditions on inputs to arrive to realistic test data and limit unnecessary ones. SPTL facilitates this testing task by introducing concepts such as user profiles, groups and categories. We have designed and developed a prototype named "Testium", which translates a SPTL program to a set of constraints used by a Prolog solver that randomly selects the test inputs. So, generating test data is based on constraint logic programming techniques.To assess this, we experimented this method on realistic and typical examples of em4 applications. Although SPTL was evaluated on EM4, its use can be envisaged for the validation of other types of synchronous controllers or systems
APA, Harvard, Vancouver, ISO, and other styles
22

Spadoni, Michel. "Etude d'un système de génération automatique de gammes de fabrication." Metz, 1987. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1987/Spadoni.Michel.SMZ8701.pdf.

Full text
Abstract:
Notre étude a porté principalement sur la définition d'une structure de connaissances et le développement d'un système expert SAGGA. L'ensemble des gammes de fabrication apprtenant à chaque famille est représenté par un graphe orienté où les sommets sont les opérations et les branches les conditions géométriques et techniques de réalisation de ces opérations. Cegraphe définit le modèle de fabrication de produits d'une famille. D'un point de vue mathématique, ce modèle est formalisé comme un réseau de Pétri particulier monovalué, où les opérations sont les étapes et les conditions de fabrication des transistions. Les propriétés de ce réseau appelé Grafcet M sont déduites de celles du Grafcet qui est utilisé pour la commande de systèmes séquentiels. Le graphe représentant le modèle de fabrication est défini par une suite de règles de production. Celle-ci est alors exploitée par un mécanisme d'inférence spécifique. Le système expert génère alors la ou les gammes de fabrication correspondant au nouveau produit, à partir de la base de faits composés du code du produit et des renseignements complémentaires donnés par le préparateur. Si la gamme proposée n'est pas satisfaisante, le préparateur modifie celle-ci à l'aide de règles en langage externe qui permettront la mise à jour de la base de connaissances. La gamme est alors complétée à l'aide d'un éditeur de texte spécialisé interactif, qui tient compte de contraintes technologiques de production
Our study mainly concerns the definition of structure of process-planning knowledge and their use by an expert system SAGGA. The different process-planning belonging to such family are you represented by an oriented graph where the nodes are the operations and the branches the geometrical conditions and technical conditions to perform these operations. This graph defines manufacturing process model for the product family. On mathematical point of view, this model is described according to a particular Petri network are the stages and the manufacturing conditions some transitions. The properties of this network called Grafcet which is used in sequential systems control. The graph representing the manufacturing model is defined by productions rules written in an internal language. The expert system then produces the process-planning corresponding to the new product, from part code number and additional information given by user. If the proposed process-planning is not satisfactory, the user may modify then using rules written in an internal language. These rules are then translated in internal language and upted the family knoledge base. Post processor completed the operations defined by the process-planning. It uses an iterative display with technological table and takes into account manufacturing constraints
APA, Harvard, Vancouver, ISO, and other styles
23

He, Bing. "Génération automatique de logiciels d'aide à la communication pour handicapés." Lille 1, 1987. http://www.theses.fr/1987LIL10212.

Full text
Abstract:
Le domaine de l'aide à la communication pour handicapés. Conception du logiciel général. Architecture et principe de fonctionnement du système de génération automatique. Les implémentations du système
APA, Harvard, Vancouver, ISO, and other styles
24

Kedja, Boualem. "Contribution à la génération automatique des gammes d'usinage en tournage." Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0089.

Full text
Abstract:
Le travail présenté a pour objectif de proposer une nouvelle méthodologie d'élaboration automatique de gammes d'usinage basée sur un ensemble de concepts cohérents. Ce problème qui concerne l'intégration de savoir faire est très complexe et fortement couplé compte tenu des contraintes relatives aux procédures possibles et de la diversité des ressources. Ceci implique l'élaboration d'un système ouvert afin de permettre l'introduction aisée de règles spécifiques à un environnement donné. Nous n'avons pas cherché à modéliser le raisonnement du gammiste car à chaque agent correspond une démarche spécifique. En se situant à l'aval d'un modeleur volumique orienté objet (features), la cohérence recherchée a été obtenue dans le cadre d'une approche systémique considérant simultanément produit et spécifications, processus et méthodologies, machines et outillages. La généralisation de la notion d'entité aux différentes applications, le paramétrage des ressources, l'introduction de critères de pondération permettent l'élaboration d'un produit adaptable à la diversité des contextes industriels. Le système de génération automatique est réalisé autour d'un moteur d'inférence spécifique afin de limiter l'explosion combinatoire en associant plusieurs règles sous une seule contrainte d'antériorité
Purpose of the presented work is to find a new automatic elaboration methodology of manufacturing ranges based on a totality of coherent concepts. This problem that concerns the integration to know-how be very complex and strongly coupled held account relative constraints to possible procedures and the diversity of resources. This implies the elaboration of an open system' so as to allow the well-off introduction of specific rules to a given environment. We have not sought to modelize the reasoning of the planner because for each agent corresponds a specific step. By situating at the endorsement of a volumetric modeler oriented object (feature), the researched coherence has been obtained in the framework of a systemic approach considering simultaneously product and specifications, process and methodologies , machines and kits. The generalization of the notion of entity to the different applications) the meter of resources, the introduction of balancing criteria allow the elaboration of an adaptable product to the industrial context diversity. The automatic generation system is realized around a specific inference engine so as to limit the combined explosion by associating several rules under an alone constraint of precedence
APA, Harvard, Vancouver, ISO, and other styles
25

Bishani, Bassam. "Contribution à la génération automatique des gammes d'usinage en perçage." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0083.

Full text
Abstract:
Notre travail est une contribution aux études sur la génération automatique des gammes de perçage des pièces en mécanique. L'exécution de différents types de trous est envisagée par l'emploi d'outils procédant par coupe (à l'exclusion de procédés tels que poinçonnage, électroérosion laser, etc. ). L'objectif principal de notre travail a été de développer une méthodologie spécifique aux opérations de réalisation de trous dotés d'attributs divers (lisses, étagés, filetés…), à l'aval d'un modeleur volumique par entités. Après une étude bibliographique sur la conception et la fabrication intégrées en mécanique et sur l'état de l'art du domaine des gammes d’usinage, nous avons retenu une approche de type générative. Chaque pièce étudiée déclenche un processus d1analyse général. Les règles de production sont manipulées jusqu’ à ce qu’une gamme fiable et optimale soit obtenue. Nous avons établi une représentation des connaissances sous forme de règles de production afin de pouvoir définir le séquencement des opérations et l'utilisation de divers outils de coupe en fonction des formes, des localisations, des dimensions et des états de surface à obtenir. Notre contribution aborde aussi les aspects liés à l'optimisation, d'une part par réduction des déplacements assurant te positionnement, et d'autre part par réduction des temps de changement d outil. La succession des opérations est établie en fonction de la morphologie de la pièce du nombre et de la diversité des trous et de la mise en position dans le système de référence (plan de posage) retenu
Our work is a contribution on the automatic generation of process planning studies, for prismatic machined parts. Realising of different types of holes is considered by using cutting tools (punching, laser, etc. . . ). The main objective has been to develop a specific methodology of operation for machining a different type of holes (smooth, multi-diameter,. . . ) by using a volumic solid modeler. After a bibliographic study on Computer-Aided Design (CAD), Computer-Aided Manufacturing (CAM) and Computer Aided Process Planning (CAPP) which is the vital link between design and manufacturing. As a variant CAPP approach cannot cope with the desire for complete manufacturing automatic, the generative approach has been considered, this approach is the logical creation of a process planning from the information available in a manufacturing data base without intervention by the planner. An expert system that encodes machining practice is used to generate drilling sequence. We have established a knowledge-based representation in the form of production rules to define operations sequences and using machine and cutting tools correspond to surface type, dimension tolerance, and roughness. The optimisation of drilling process is studied in detail, where the optimisation signifies minimising the sum of machining travel and set-up times required to perform ail of drilling operations used for producing a different type of holes
APA, Harvard, Vancouver, ISO, and other styles
26

Morlec, Yann. "Génération multiparamétrique de la prosodie du français par apprentissage automatique." Grenoble INPG, 1997. http://www.theses.fr/1997INPG0221.

Full text
Abstract:
Cette these a pour objet la conception, l'apprentissage automatique et l'evaluation d'un modele de generation de la prosodie du francais. Ce modele, d'inspiration cognitive, suppose un encodage direct des informations linguistiques et para-linguistiques vehiculees par un enonce via des formes prosodiques prototypiques. Ces formes - ou mouvements - sont enchainees au sein d'un meme niveau linguistique (phrase, groupe, mot. . . ) et se superposent a des enchainements encodant les niveaux superieurs. Cette morphologie superpositionnelle opere de maniere multiparametrique. Dans le cadre de cette these, nous avons etudie deux niveaux linguistiques - la phrase et le groupe - et deux dimensions prosodiques - la melodie et le rythme. Pour ces deux niveaux, nous avons elabore un systeme de generation conjoint des contours melodiques et rythmiques, parametre par un apprentissage automatique hierarchique sur des corpus de parole naturelle. L'architecture du modele est un reseau de neurones recurrent a connections partielles. Les corpus de parole ont ete concus de facon a prendre en compte le phenomene linguistique etudie avec une representativite statistique suffisante, et a faire varier systematiquement le contenu des niveaux linguistiques inferieurs. A partir d'un corpus de phrases isolees prononcees par un locuteur selon six consignes attitudinales, nous avons entrepris la generation des prototypes melodiques et rythmiques du niveau de la phrase vehiculant l'attitude du locuteur vis-a-vis de son propos. Nous avons egalement etudie, sur la base d'un corpus de phrases declaratives, les modulations du niveau porte de groupe prenant en charge la fonction de structuration de l'enonce. Chaque etape d'apprentissage de notre modele a ete sanctionnee par un test de perception destine a evaluer sa capacite a capturer les informations necessaires et suffisantes pour communiquer les fonctions linguistiques donne
APA, Harvard, Vancouver, ISO, and other styles
27

Mendoza, Chavez Gustavo. "Approche semi-automatique de génération de modèles bielles-et-tirants." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1030/document.

Full text
Abstract:
Dans le domaine des structures en Béton Armé (BA) et plus spécifiquement, lors de la conception d'éléments non-flexibles tels que les corbeaux, les poutres bayonets et les poutres profondes, la Méthode Bielle-Tirant (MBT) présente des avantages par rapport aux algorithmes classiques de calcul de ferraillage basé sur l'analyse FE (par exemple Wood-Armor ou Capra-Maury).La Methode Bielle-Tirant reste une alternative adaptée pour la conception de structures en béton présentant un comportement élastique ou plastique dont le cadre d'application est bien défini dans les codes de conception des structures en béton comme les EuroCodes et les spécifications de conception des ponts AASHTO-LRFD.Néanmoins, cette méthode présente l'inconvénient majeur de nécessiter un investissement important en ressources humaines ou en capacité de calcul pour, respectivement, son application manuelle ou une approche automatique par optimisation de topologie.Le document propose une alternative légère, en termes d'itérations requises, à l'automatisation de la MBT, qui part de l'affirmation que les entretoises résultantes et les attaches d'un modèle ST approprié peuvent être distribuées selon la direction des contraintes principales, $sigma_{III}$ et $sigma_{I}$, obtenus à partir d'un planaire modèle aux EF
Within the field of Reinforced Concrete (RC) structures and more specifically, at the design of non-flexural elements such as corbels, nibs, and deep beams, the rational procedure of conception and justification referred as Strut-and-Tie Method (STM) has shown some advantages over classical algorithms of reinforcement computation based on FE analysis (eg. Wood-Armer or Capra-Maury).The STM remains a suitable alternative for the design of concrete structures presenting either elastic or plastic behaviour whose application framework is well defined in concrete structures’ design codes like the EuroCodes and the AASHTO-LRFD Bridge Design Specifications.Nevertheless, this method has the main inconvenient of requiring a high amount of resources investment in terms of highly experienced personal or in terms of computational capacity for, respectively, its manual application or an automatic approach through topology optimisation.The document proposes a light alternative, in terms of required iterations, to the automation of the STM, which starts from the statement that the resultant struts and ties of a suitable ST model can be distributed according to the direction of the principal stresses, $sigma_{III}$ and $sigma_{I}$ , obtained from a planar or a three-dimensional FE model
APA, Harvard, Vancouver, ISO, and other styles
28

Almeida, Barbosa Plínio. "Caractérisation et génération automatique de la structuration rythmique du français." Grenoble INPG, 1994. http://www.theses.fr/1994INPG0119.

Full text
Abstract:
Une approche ascendante a permis de reveler la structuration macrorythmique de la phrase lue en francais par l'analyse de corpora de parole naturelle enregistres par un locuteur. L'emergence de cette structure a ete possible grace a un double concours. D'abord, celui du perceptual-center, point d'ancrage acoustique singulier, au voisinage de l'onset de la voyelle: ce paradigme theorique a permis de definir le groupe inter-perceptual-center (gipc), dans lequel les realisations phonemiques s'allongent ou se retrecissent de facon relativement homogene. Ensuite, celui du z-score, duree normalisee qui est calculee pour chaque gipc de la phrase. Ces deux notions ont permis de degager un groupe accentuel qui ralentit des son debut jusqu'a la realisation de l'accent. La force de celui-ci tend a etre proportionnelle a la force du lien syntagmatique qui unit ce groupe accentuel au suivant. Cette structure est generee dynamiquement par un reseau connexionniste, permettant ainsi de conserver la structure rythmique comme mouvement dirige vers un but. Ce mouvement est cadence par une horloge interne, hypothese de travail qui assure le maintien de la tendance a l'isochronisme. Ensuite, un modele de repartition permet de distribuer la duree du gipc entre ses elements phonemiques. Ces deux etapes constituent un modele de generation de la duree segmentale qui peut etre integre dans un systeme de synthese de la parole. Le choix du z-score pour caracteriser la duree du gipc a permis d'integrer au modele de generation l'emergence de la pause au niveau de la substance de l'expression. Cette generation est structuree et tend a conserver la composante macrorythmique de la parole
APA, Harvard, Vancouver, ISO, and other styles
29

Constant, Camille. "Génération automatique de tests pour modèles avec variables ou récursivité." Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/constant.pdf.

Full text
Abstract:
Nous nous intéressons dans ce document à la génération automatique de tests de conformité pour des implémentations réactives. Nous nous attachons dans un premier temps à étendre la méthode de génération de tests, basée sur la théorie du test de conformité à la ioco, en reliant trois niveaux de description (propriétés, spécification et implémentation). Nous combinons pour cela vérification formelle et test de conformité. Nous obtenons ainsi, lors de l'exécution du cas de test sur l'implémentation, des verdicts pouvant indiquer la non-conformité de l'implémentation, mais également la satisfaction/violation de la propriété par l'implémentation et/ou la spécification. Nous étendons dans un deuxième temps la génération de tests par l'expressivité du modèle de spécification en nous intéressant aux spécifications interprocédurales récursives. Notre méthode est basée sur une analyse exacte de co-accessibilité permettant de décider si et comment un objectif de test pourra être atteint. Cependant, l'incapacité des cas de test récursifs à connaître leur propre pile d'exécution ne permet pas d'utiliser la totalité des résultats de l'analyse. Nous discutons de ce problème d'observation partielle et de ses conséquences puis nous proposons un moyen de minimiser son impact. Enfin, nous expérimentons ces méthodes de génération de tests sur quelques exemples et une étude de cas
This thesis adresses the problem of automatic test case generation for testing the conformance of a reactive implementation. We first propose a methodology which extends the testing theory based on the ioco conformance relation by distinguishing three levels of description: properties, specification and implementation. The methogology integrates verification and conformance testing. The execution of the generated test cases on the implementation allows detecting conformance violations between implementation and specification, but also violation/satisfaction of the properties by the implementation or the specification. Secondly, we introduce a more expressive specification model: recursive interprocedural specifications. The test generation method we propose is based on coreachability analysis, which allows deciding whether and how the test purpose can still be satisfied. However, although it is possible to carry out an exact analysis, the inability of test cases to inspect their own stack prevents them from fully using the coreachability information. We discuss this partial observation problem, its consequences, and how to minimise its impact. Finally, we experiment these methods of test generation on several examples and a case study
APA, Harvard, Vancouver, ISO, and other styles
30

Lazzari, Cristiano. "Génération Automatique de circuits durcis aux rayonnements au niveau transistor." Grenoble INPG, 2007. http://www.theses.fr/2007INPG0170.

Full text
Abstract:
Les technologies submicroniques ont inséré des nouveaux défis dans le projet de circuits intégrés à cause de la réduction des géométries, la réduction de la tension d'alimentation, l'augmentation de la fréquence et la densité élevée de la logique. Cette thèse est divisée dans deux contributions principales. La première contribution est liée à l'élaboration d'une nouvelle méthodologie capable de produire des circuits optimisés en ce qui concerne le retard et la puissance. On propose un nouvel flou de conception dans lequel le circuit est optimisé au niveau transistor. La deuxième contribution de cette thèse est reliée avec le développement des techniques pour les circuits durcis aux rayonnements. La technique Code Word State Preserving (CWSP) est utilisé pour appliquer la redondance dans les bascules. On propose aussi une nouvelle méthodologie dans lequel la taille de transistor est dimmensioné pour l'atténuation de faute type Single Event Transient. La méthode de sizing est basée sur un modèle analytique
Deep submicron technologies have increased the challenges in circuit designs due to geometry shrinking, power supply reduction, frequency increasing and high logic density. One of the goals of this thesis is to develop EDA tools able to cope with these DSM challenges. This thesis is divided in two major contributions. The first contribution is related to the development of a new methodology able to generate optimized circuits in respect to timing and power consumption. A new design flow is proposed in which the circuit is optimized at transistor level. The second contribution of this thesis is related with the development of techniques for radiation-hardened circuits. The Code Word State Preserving technique is used to apply timing redundancy into latches and flipflops. Further, a new transistor sizing methodology for Single Event Transient attenuation is proposed. The sizing method is based on an analytic model. The model considers independently pull-up and pull-down blocks
APA, Harvard, Vancouver, ISO, and other styles
31

Soukane, Assia. "Génération automatique des requêtes de médiation dans un environnement hétérogène." Versailles-St Quentin en Yvelines, 2005. http://www.theses.fr/2005VERS0038.

Full text
Abstract:
Les systèmes de médiation sont aujourd'hui largement développes et connus. Cependant, leur mise en œuvre pose un certain nombre de problèmes, en particulier la définition de requêtes de médiation en présence d'un grand nombre de sources de données, et d'un volume important de méta-données les décrivant. Ce problème est d'autant plus crucial lorsque les sources sont hétérogènes. Face a cette problématique, nous proposons dans cette thèse pour le contexte relationnel, une approche de génération automatique de requêtes de médiation. A partir de sources de données distribuées et hétérogènes, notre algorithme produit un ensemble potentiel de requêtes de médiation. Nous avons développé un outil qui permet de générer automatiquement des requêtes de médiation dans un environnement hétérogène. Notre objectif principal étant de fournir à l'utilisateur un outil adapte aux petits et grands systèmes, nous avons réalise une série de tests d'évaluation des performances pour mesurer son passage a l'échelle. Ces tests montrent la faisabilité de notre approche
Nowadays, mediation systems are widely used. However, their implementation raises several problems, especially, the definition of queries when there is a high number of sources, and a great amount of meta data. Furthermore, the problem is particularly important when sources are heterogeneous. We propose in this thesis an approach to automatically generate the mediation queries, in a relational context. Our algorithm produce candidate set of queries since heterogeneous and distributed sources. We develop a tool to automatically generate mediation queries in the heterogeneous context. Our principal goal is to provide an appropriate tool for different sizes of systems; we achieve tests series to perform scalability
APA, Harvard, Vancouver, ISO, and other styles
32

Soguet, David. "Génération automatique d'algorithmes linéairesDécomposition de graphes, logique, stratégies de capture." Paris 11, 2008. http://www.theses.fr/2008PA112067.

Full text
Abstract:
Dans les deux parties qui composent cette thèse, nous utilisons des automates pour résoudre de manière décentralisée certains problèmes de graphes, i. E. Les automates n'ont pas une vision globale du graphe qu'ils parcourent, et chaque automate prend des décisions locales en utilisant l'information présente sur le nœud qu'il occupe. Nous étudions l'impact de cette information sur le nombre d'automates ou la mémoire (états, tableau blanc) nécessaires pour la résolution du problème. Dans la première partie, nous considérons des méthodes de génération d'algorithmes linéaires qui ont été proposées dans la littérature pour résoudre les problèmes exprimés en logique du second ordre monadique sur les graphes de largeur arborescente ou de largeur de clique bornée. Bien que linéaire, les constantes multiplicatives de ces algorithmes générés peuvent cependant être très grandes, rendant ainsi difficile leur utilisation. Nous avons néanmoins implémenté une méthode de génération basée sur les automates, et montré que les algorithmes obtenus pour un certain nombre de propriétés sont utilisables en pratique. Dans la deuxième partie, nous considérons le problème de la capture répartie. Dans un graphe donné, le but est qu'une équipe, utilisant un nombre minimum de chercheurs qui calculent eux-mêmes leur stratégie, capture un fugitif arbitrairement rapide et invisible. Nous étudions notamment le compromis entre le nombre de chercheurs et la quantité d'informations à leur fournir sur l'environnement pour capturer le fugitif
In both parts of this thesis, we use automata to solve in a decentralised manner some graphs problems, i. E. The automata do not have a global vision of the graph in which they move, and each automaton makes local decisions using the information available on the node on which it stands. We study the impact of this information on the number of automata or the memory (state, whiteboard) that are necessary for the resolution of the problem. In the first part, we consider some methods of generation of linear algorithms that have been proposed in the literature to solve the problems expressed in monadic second order logic on graphs of bounded treewidth or of bounded cliquewidth. Although the generated algorithms are linear, the multiplicative constant of these algorithms can be very large, making them difficult to use. We have nevertheless implemented a method of generation based on the automata, and we have proved that, for a certain number of properties, the algorithms obtained are usable in practice. In the second part, we consider the problem of distributed graph searching. In a given graph, the goal is that a team, using a minimum number of searchers who calculate their own strategy, capture a fugitive arbitrarily fast and invisible. We study the compromise between the number of searchers and the quantity of information to provide on the environment to capture the fugitive
APA, Harvard, Vancouver, ISO, and other styles
33

Petitjean, Simon. "Génération modulaire de grammaires formelles." Thesis, Orléans, 2014. http://www.theses.fr/2014ORLE2048/document.

Full text
Abstract:
Les travaux présentés dans cette thèse visent à faciliter le développement de ressources pour le traitement automatique des langues. Les ressources de ce type prennent des formes très diverses, en raison de l’existence de différents niveaux d’étude de la langue (syntaxe, morphologie, sémantique,. . . ) et de différents formalismes proposés pour la description des langues à chacun de ces niveaux. Les formalismes faisant intervenir différents types de structures, un unique langage de description n’est pas suffisant : il est nécessaire pour chaque formalisme de créer un langage dédié (ou DSL), et d’implémenter un nouvel outil utilisant ce langage, ce qui est une tâche longue et complexe. Pour cette raison, nous proposons dans cette thèse une méthode pour assembler modulairement, et adapter, des cadres de développement spécifiques à des tâches de génération de ressources langagières. Les cadres de développement créés sont construits autour des concepts fondamentaux de l’approche XMG (eXtensible MetaGrammar), à savoir disposer d’un langage de description permettant la définition modulaire d’abstractions sur des structures linguistiques, ainsi que leur combinaison non-déterministe (c’est à dire au moyen des opérateurs logiques de conjonction et disjonction). La méthode se base sur l’assemblage d’un langage de description à partir de briques réutilisables, et d’après un fichier unique de spécification. L’intégralité de la chaîne de traitement pour le DSL ainsi défini est assemblée automatiquement d’après cette même spécification. Nous avons dans un premier temps validé cette approche en recréant l’outil XMG à partir de briques élémentaires. Des collaborations avec des linguistes nous ont également amené à assembler des compilateurs permettant la description de la morphologie de l’Ikota (langue bantoue) et de la sémantique (au moyen de la théorie des frames)
The work presented in this thesis aim at facilitating the development of resources for natural language processing. Resources of this type take different forms, because of the existence of several levels of linguistic description (syntax, morphology, semantics, . . . ) and of several formalisms proposed for the description of natural languages at each one of these levels. The formalisms featuring different types of structures, a unique description language is not enough: it is necessary to create a domain specific language (or DSL) for every formalism, and to implement a new tool which uses this language, which is a long a complex task. For this reason, we propose in this thesis a method to assemble in a modular way development frameworks specific to tasks of linguistic resource generation. The frameworks assembled thanks to our method are based on the fundamental concepts of the XMG (eXtensible MetaGrammar) approach, allowing the generation of tree based grammars. The method is based on the assembling of a description language from reusable bricks, and according to a unique specification file. The totality of the processing chain for the DSL is automatically assembled thanks to the same specification. In a first time, we validated this approach by recreating the XMG tool from elementary bricks. Some collaborations with linguists also brought us to assemble compilers allowing the description of morphology and semantics
APA, Harvard, Vancouver, ISO, and other styles
34

Charton, Eric. "Génération de phrases multilingues par apprentissage automatique de modèles de phrases." Phd thesis, Université d'Avignon, 2010. http://tel.archives-ouvertes.fr/tel-00622561.

Full text
Abstract:
La Génération Automatique de Texte (GAT) est le champ de recherche de la linguistique informatique qui étudie la possibilité d'attribuer à une machine la faculté de produire du texte intelligible. Dans ce mémoire, nous présentons une proposition de système de GAT reposant exclusivement sur des méthodes statistiques. Son originalité est d'exploiter un corpus en tant que ressource de formation de phrases. Cette méthode offre plusieurs avantages : elle simplifie l'implémentation d'un système de GAT en plusieurs langues et améliore les capacités d'adaptations d'un système de génération à un domaine sémantique particulier. La production, d'après un corpus d'apprentissage, des modèles de phrases finement étiquetées requises par notre générateur de texte nous a conduit à mener des recherches approfondies dans le domaine de l'extraction d'information et de la classification. Nous décrivons le système d'étiquetage et de classification de contenus encyclopédique mis au point à cette fin. Dans les étapes finales du processus de génération, les modèles de phrases sont exploités par un module de génération de texte multilingue. Ce module exploite des algorithmes de recherche d'information pour extraire du modèle une phrase pré-existante, utilisable en tant que support sémantique et syntaxique de l'intention à communiquer. Plusieurs méthodes sont proposées pour générer une phrase, choisies en fonction de la complexité du contenu sémantique à exprimer. Nous présentons notamment parmi ces méthodes une proposition originale de génération de phrases complexes par agrégation de proto-phrases de type Sujet, Verbe, Objet. Nous envisageons dans nos conclusions que cette méthode particulière de génération puisse ouvrir des voies d'investigations prometteuses sur la nature du processus de formation de phrases
APA, Harvard, Vancouver, ISO, and other styles
35

Jamier, Robert. "Génération automatique de parties opératives de circuits VLSI de type microprocesseur." Phd thesis, Grenoble INPG, 1986. http://tel.archives-ouvertes.fr/tel-00322276.

Full text
Abstract:
Le compilateur de parties opératives Apollon qui est présenté dans cette thèse, génère automatiquement le dessin des masques de parties opératives de circuits VLSI de type microprocesseur à partir d'une description comportementale de niveau transfert de registres constituée d'un ensemble non ordonné d'instructions opératives. Une instruction opérative est formée d'un ensemble d'actions opératives dont le format est prédéfini (transferts - opérations unaires ou binaires et entrées-sorties) devant se dérouler en parallèle en au plus deux cycles opératifs. Un cycle opératif comprend 4 phases qui correspondent aux 4 phases d'exécution d'un transfert entre 2 registres. Apollon est basé sur un modèle dérivé de la partie opérative du MC68000. Ce modèle fournit à la fois: un modèle architectural: la partie opérative est formée d'un ensemble de sous parties opératives alignées à deux bus qui traversent tous les éléments d'une sous partie opérative; un modèle temporel: une opération prend 2 cycles, un transfert un seul; un modèle électrique: les bus sont complémentés et à précharge; un modèle topologique: le plan de masse est basé sur la structure en tranches appelée communément bis slice. Le compilateur génère d'abord l'architecture de la partie opérative, puis les spécification des masques à partir de cette architecture. Pour générer l'architecture de la partie opérative en un temps raisonnable, le compilateur doit recourir à des heuristiques. Pour générer le dessin des masques, le compilateur utilise l'assembleur de silicium Lubrick qui permet d'assembler et de connecter automatiquement les cellules de base des éléments fonctionnels de la partie opérative. Les spécifications des masques sont générées à partir des spécifications des cellules prédéfinies d'une bibliothèque NMOS.
APA, Harvard, Vancouver, ISO, and other styles
36

Ghirvu, Constantin Lucian. "Génération automatique de tests de conformité pour les protocoles de télécommunication." Phd thesis, Université Joseph Fourier (Grenoble), 2002. http://tel.archives-ouvertes.fr/tel-00004457.

Full text
Abstract:
Ce travail se situe dans le cadre de la vérification et de la validation des systèmes répartis, particulièrement les protocoles de télécommunication. Nous nous sommes intéressés au problème de la génération automatique de tests de conformité pour les protocoles de télécommunication et plus précisément à l'utilisation, en amont de TGV (un outil de génération de séquences de test), de techniques d'analyse statique. La génération de test de conformité fondée sur des techniques de vérification par modèles (l'approche employée par TGV) est limitée par le problème d'explosion d'état. Même si ce problème, dans la pratique, peut être contourné (en choisissant le fonctionnement à la volée de TGV), quelque aspects de cette méthode (par exemple la conception des objectifs de test pour un modèle, sans le construire explicitement) posent encore des problèmes. Dans notre thèse on propose une méthodologie de test basée sur des techniques issues des domaines de la vérification et de l'analyse statique. Cette méthodologie consiste en un ensemble de procédures qui ont pour but de simplifier la spécification en tenant compte de sa structure ou de la structure des objectifs de test et cela avant de la génération des cas de test. On réduit ainsi la taille des modèles observables des spécifications. Nous avons étendu aussi le concept de l'objectif de test. Les objectifs de test abstraits ont des contraintes symboliques attachées aux paramètres des signaux d'entrée. À partir des contraintes d'entrée les procédures mentionnées ci-dessus calculent des contraintes pour les paramètres des signaux de sortie des objectifs de test abstraits. Ensuite, des objectifs de test concrets pourront être dérivés et en utilisant l'outil de test existant TGV on pourrait générer des tests de conformité
APA, Harvard, Vancouver, ISO, and other styles
37

Molina, Villegas Alejandro. "Compression automatique de phrases : une étude vers la génération de résumés." Phd thesis, Université d'Avignon, 2013. http://tel.archives-ouvertes.fr/tel-00998924.

Full text
Abstract:
Cette étude présente une nouvelle approche pour la génération automatique de résumés, un des principaux défis du Traitement de la Langue Naturelle. Ce sujet, traité pendant un demi-siècle par la recherche, reste encore actuel car personne n'a encore réussi à créer automatiquement des résumés comparables, en qualité, avec ceux produits par des humains. C'est dans ce contexte que la recherche en résumé automatique s'est divisée en deux grandes catégories : le résumé par extraction et le résumé par abstraction. Dans le premier, les phrases sont triées de façon à ce que les meilleures conforment le résumé final. Or, les phrases sélectionnées pour le résumé portent souvent des informations secondaires, une analyse plus fine s'avère nécessaire.Nous proposons une méthode de compression automatique de phrases basée sur l'élimination des fragments à l'intérieur de celles-ci. À partir d'un corpus annoté, nous avons créé un modèle linéaire pour prédire la suppression de ces fragments en fonction de caractéristiques simples. Notre méthode prend en compte trois principes : celui de la pertinence du contenu, l'informativité ; celui de la qualité du contenu, la grammaticalité, et la longueur, le taux de compression. Pour mesurer l'informativité des fragments,nous utilisons une technique inspirée de la physique statistique : l'énergie textuelle.Quant à la grammaticalité, nous proposons d'utiliser des modèles de langage probabilistes.La méthode proposée est capable de générer des résumés corrects en espagnol.Les résultats de cette étude soulèvent divers aspects intéressants vis-à- vis du résumé de textes par compression de phrases. On a observé qu'en général il y a un haut degré de subjectivité de la tâche. Il n'y a pas de compression optimale unique mais plusieurs compressions correctes possibles. Nous considérons donc que les résultats de cette étude ouvrent la discussion par rapport à la subjectivité de l'informativité et son influence pour le résumé automatique.
APA, Harvard, Vancouver, ISO, and other styles
38

Antoine, Elodie. "Génération automatique d'interfaces Web à partir de spécifications l'outil DCI-Web." Mémoire, Université de Sherbrooke, 2008. http://savoirs.usherbrooke.ca/handle/11143/4746.

Full text
Abstract:
L'expansion du domaine Web a entraîné l'émergence de nouveaux outils, permettant le développement d'applications Web dans différents langages. La complexité de ces langages, et donc du développement des applications Web, est en augmentation. C'est pourquoi beaucoup de générateurs de code existent actuellement. Une application Web, construite sur le modèle"modèle, vue, contrôleur" (MVC), est donc constituée d'éléments principaux qui peuvent être générés ou non par ces différents outils. Ce sont ces éléments générés qui les différencient. En effet, certains outils vont se concentrer sur l'aspect graphique, tandis que d'autres vont également traiter la partie logique métier (modèle). La plupart des outils ne traitent pas ou très peu l'aspect contrôleur, car une des spécificités communes à tous est d'utiliser une architecture de développement pour simplifier la génération. Ce mémoire présente une nouvelle version de l'outil de description comportementale d'interface Web ( DC1-Web ), générateur d'interface graphique en Java (Java Server Page (JSP)). DCI-Web génère la vue et le contrôleur de l'interface web, mais ne génère pas la couche métier d'une application. Le contrôleur est implémenté avec l'architecture de développement Struts (Apache). DCI-Web prend en entrée une spécification de l'interface web à partir de laquelle est générée l'interface. Cette spécification comprend la définition des différentes pages avec pour chacune leur contenu, c'est-à-dire les variables qu'elle contient, la mise en page de ces éléments, les transitions entre les différentes pages qui peuvent contenir des appels au système d'information (SI), et enfin, les données relatives à la navigation (déclaration des menus). Nous présentons une description complète de cet outil, et de son utilisation.
APA, Harvard, Vancouver, ISO, and other styles
39

Bedini, Ivan. "Génération automatique d'ontologie à partir de fichiers XSD appliqué au B2B." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0004.

Full text
Abstract:
Computer mediated networks play a central role in the evolution of Enterprise Information Systems. However the integration of data in networked systems still remains harder than it really should be. In our research we claim that Semantic Web technologies, and specifically ontologies, are well suited to integrate this domain to fulfil current approaches and achieve the needed flexibility. For this we address the first step toward the business semantic communication with a system that overcomes some of the existing lacks in the state of the art and provides a new approach for the automatic generation of ontologies from XML sources. We show the usefulness of our system by applying our theory to the B2B domain and producing automatically ontologies of relevant quality and expressiveness
La communication entre systèmes d'information d'entreprise joue un rôle central dans l'évolution des processus d'affaire. Pourtant l'intégration des données reste compliquée : elle exige un effort humain considérable, surtout pour les connexions d'applications appartenant à différentes entreprises. Dans notre recherche nous affirmons que les technologies du Web Sémantique, et plus particulièrement les ontologies, peuvent permettre l'obtention de la flexibilité nécessaire. Notre système permet de surmonter certains manques dans l'état de l'art actuel et réalise une nouvelle approche pour la génération automatique d'ontologies à partir de sources XML. Nous montrons l'utilité du système en appliquant notre théorie au domaine du B2B pour produire automatiquement des ontologies de qualité et d’expressivité appropriée
APA, Harvard, Vancouver, ISO, and other styles
40

Adam, Mickaël. "Génération automatique d'un observateur réalisé par simulation d'un système de production." Ecole centrale de Nantes, 2013. http://www.theses.fr/2013ECDN0001.

Full text
Abstract:
Dans un contexte concurrentiel avec des produits à durée de vie courte et un besoin de personnalisation croissant, la flexibilité des installations de production permet d’assurer une compétitivité à l’entreprise. Afin de gérer ces systèmes de production, des outils permettant auxpreneurs de décision de les aider ont fait petit à petit leurs apparitions. Ces outils, les systèmes d’aide à la décision (SAD) au niveau opérationnel, suivent la mêmelogique de complexité croissante du système pour lequel ils sontutilisés. Pour pouvoir remplir leur rôle, les SAD ont besoin de données venant du système de production afin de connaitre l’état de ce système et rendre une décision adéquate. À cause de la complexité des systèmes, l’information nécessaire aux SAD n’est plus aussi facilement identifiable au niveau du système. Ainsi un problème d’implémentation et d’intégration de ces SAD commence à apparaitre. Cardin a proposé l’utilisation de l’observateur afin de résoudre ce problème d’intégration des SAD, cependant cette solution souffre d’un problème de complexité de conception. Ces travaux tentent ainsi de proposer une approche afin de permettre de simplifier le processus de conception de l’observateur. Pour cela le premier chapitre présente le contexte de nos travaux et le pilotage d’un système de production. Dans cette optique, la structure du pilotage, les approches de décision ainsi que les SAD seront abordés. Le deuxième chapitre portera sur la problématique d’alimentation en données des SAD et formalisera les différentes approches rencontrées dans la littérature. Le troisième chapitre étudiera la bibliographie portant sur la génération automatique de simulation et de commande. Le quatrième chapitre portera sur notre proposition d’approche de génération automatique de l’observateur, dans un premier temps de manière générique puis adaptée au cas des systèmes transitiques. Enfin le dernier chapitre validera l’approche à travers son déroulement dans un cas concret d’utilisation
In a competitive environment with short-life productsand a growing need for customization, the level of flexibility added to production facilities is a key factor in ensuring business competitiveness. In order to manage such production systems, certain tools helping the decision making process have been gradually coming into sight. These tools, such as the Decision Support Systems (DSS) atthe operational level, follow the same logic of increasing complexity of the system for which they are used. To accomplish their role, DSS need data from the production system in order to know the state of the system and make a proper decision. Due to these increased complexity in today’s systems, the necessary information for the DSS is no longer as easily identified as before. Thus theproblems of implementation and integration of DSS begin to appear. Cardin has proposed the use of the observer to solve the integration problem of DSS, however, this solution suffers of a design complexity problem. These studies try therefore to propose an approach to simplify the process of designing the observer. For this reason, the first chapter presents the context control of production systems addressing control structures, approaches on decision making and DSS. The second chapter focuses on the issue of DSS’s data collection and formalizes different approaches found in literature. The third chapter will review the literature on automatic generation of both; control and simulation. The fourthchapter focuses on the proposed approach for the automatic generation of the observer, first in a generic manner then adapted to conveying systems. The last chapter validates the approach through its performance in an actual utilization case
APA, Harvard, Vancouver, ISO, and other styles
41

Gendreau, Dominique. "Génération automatique des procédures de pilotage d'une cellule flexible de production." Châtenay-Malabry, Ecole centrale de Paris, 1991. http://www.theses.fr/1991ECAP0207.

Full text
Abstract:
La performance des systèmes automatisés de production réside dans leur exploitation optimale, et en particulier dans le choix de nombreuses possibilités offertes pour l'exécution de la production. La conception de la conduite apparait donc comme une phase essentielle dans la conception de la commande de tels systèmes. Notre étude porte sur les cellules flexibles d'usinage pour lesquels nous envisageons une optimisation dans les cycles d'exécution, applicable en temps réel et avec des gains de temps espérés qui vont de la minute à plusieurs heures. Cette préoccupation est celle des entreprises de sous-traitance pour lesquelles les séries de pièces sont petites et les temps de réponse doivent être courts. D’autre part, le programme de production de la cellule est généralement élaboré à la conception du système et donc fige, ce qui ne permet pas de réagir de manière rapide et efficace aux perturbations qui surviennent pendant la production. Enfin, l'aspect générique de la conception de la commande de tels systèmes n'est jamais considéré. Le cas par cas est un état de fait hélas trop souvent constaté. C’est dans ce cadre, constitue par un besoin triple de flexibilité-réactivité-généricité, que se situent nos travaux, et nous nous intéressons plus précisément au module de pilotage, élément clé du système de conduite, puisque décideur de la meilleure stratégie d'exécution de la production applicable sur la cellule
APA, Harvard, Vancouver, ISO, and other styles
42

Boussema, Kaouther. "Système de génération automatique de programmes d'entrées-sorties : le système IO." Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090048.

Full text
Abstract:
Cette thèse présente le système IO et ses principaux composants. Ce système est un générateur automatique de programmes d’entrées-sorties pour les données présentes dans des fichiers séquentiels. A partir d’une spécification de la forme et du contenu d’un fichier d’entrée-sortie (syntaxe, modèle conceptuel et liens entre modèle conceptuel et syntaxe), IO produit un programme d’entrée-sortie. Le programme d’entrée transforme un fichier de sa représentation textuelle en sa représentation dite conceptuelle, commune à IO et Descartes (générateur automatique de programmes développé à la Direction des Etudes et Recherches d’Electricité de France, Clamart). Inversement, le programme de sortie transforme un fichier de sa représentation conceptuelle en sa représentation textuelle. 10 comporte deux parties : Un composant loin assurant la génération des programmes d’entrées et un composant IOOut produisant les programmes de sorties. IO est essentiellement écrit en Yacc, C et Descartes
APA, Harvard, Vancouver, ISO, and other styles
43

Godbout, Mathieu. "Approches par bandit pour la génération automatique de résumés de textes." Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69488.

Full text
Abstract:
Ce mémoire aborde l'utilisation des méthodes par bandit pour résoudre la problématique de l'entraînement de modèles de générations de résumés extractifs. Les modèles extractifs, qui bâtissent des résumés en sélectionnant des phrases d'un document original, sont difficiles à entraîner car le résumé cible correspondant à un document n'est habituellement pas constitué de manière extractive. C'est à cet effet que l'on propose de voir la production de résumés extractifs comme différents problèmes de bandit, lesquels sont accompagnés d'algorithmes pouvant être utilisés pour l'entraînement. On commence ce document en présentant BanditSum, une approche tirée de la litérature et qui voit la génération des résumés d'un ensemble de documents comme un problème de bandit contextuel. Ensuite, on introduit CombiSum, un nouvel algorithme qui formule la génération du résumé d'un seul document comme un bandit combinatoire. En exploitant la formule combinatoire, CombiSum réussit à incorporer la notion du potentiel extractif de chaque phrase à son entraînement. Enfin, on propose LinCombiSum, la variante linéaire de CombiSum qui exploite les similarités entre les phrases d'un document et emploie plutôt la formulation en bandit linéaire combinatoire.
This thesis discusses the use of bandit methods to solve the problem of training extractive abstract generation models. The extractive models, which build summaries by selecting sentences from an original document, are difficult to train because the target summary of a document is usually not built in an extractive way. It is for this purpose that we propose to see the production of extractive summaries as different bandit problems, for which there exist algorithms that can be leveraged for training summarization models.In this paper, BanditSum is first presented, an approach drawn from the literature that sees the generation of the summaries of a set of documents as a contextual bandit problem. Next,we introduce CombiSum, a new algorithm which formulates the generation of the summary of a single document as a combinatorial bandit. By exploiting the combinatorial formulation,CombiSum manages to incorporate the notion of the extractive potential of each sentence of a document in its training. Finally, we propose LinCombiSum, the linear variant of Com-biSum which exploits the similarities between sentences in a document and uses the linear combinatorial bandit formulation instead
APA, Harvard, Vancouver, ISO, and other styles
44

Charton, Éric. "Génération de phrases multilingues par apprentissage automatique de modèles de phrases." Thesis, Avignon, 2010. http://www.theses.fr/2010AVIG0175/document.

Full text
Abstract:
La Génération Automatique de Texte (GAT) est le champ de recherche de la linguistique informatique qui étudie la possibilité d’attribuer à une machine la faculté de produire du texte intelligible. Dans ce mémoire, nous présentons une proposition de système de GAT reposant exclusivement sur des méthodes statistiques. Son originalité est d’exploiter un corpus en tant que ressource de formation de phrases. Cette méthode offre plusieurs avantages : elle simplifie l’implémentation d’un système de GAT en plusieurs langues et améliore les capacités d’adaptations d’un système de génération à un domaine sémantique particulier. La production, d’après un corpus d’apprentissage, des modèles de phrases finement étiquetées requises par notre générateur de texte nous a conduit à mener des recherches approfondies dans le domaine de l’extraction d’information et de la classification. Nous décrivons le système d’étiquetage et de classification de contenus encyclopédique mis au point à cette fin. Dans les étapes finales du processus de génération, les modèles de phrases sont exploités par un module de génération de texte multilingue. Ce module exploite des algorithmes de recherche d’information pour extraire du modèle une phrase pré-existante, utilisable en tant que support sémantique et syntaxique de l’intention à communiquer. Plusieurs méthodes sont proposées pour générer une phrase, choisies en fonction de la complexité du contenu sémantique à exprimer. Nous présentons notamment parmi ces méthodes une proposition originale de génération de phrases complexes par agrégation de proto-phrases de type Sujet, Verbe, Objet. Nous envisageons dans nos conclusions que cette méthode particulière de génération puisse ouvrir des voies d’investigations prometteuses sur la nature du processus de formation de phrases
Natural Language Generation (NLG) is the natural language processing task of generating natural language from a machine representation system. In this thesis report, we present an architecture of NLG system relying on statistical methods. The originality of our proposition is its ability to use a corpus as a learning resource for sentences production. This method offers several advantages : it simplifies the implementation and design of a multilingual NLG system, capable of sentence production of the same meaning in several languages. Our method also improves the adaptability of a NLG system to a particular semantic field. In our proposal, sentence generation is achieved trough the use of sentence models, obtained from a training corpus. Extracted sentences are abstracted by a labelling step obtained from various information extraction and text mining methods like named entity recognition, co-reference resolution, semantic labelling and part of speech tagging. The sentence generation process is achieved by a sentence realisation module. This module provide an adapted sentence model to fit a communicative intent, and then transform this model to generate a new sentence. Two methods are proposed to transform a sentence model into a generated sentence, according to the semantic content to express. In this document, we describe the complete labelling system applied to encyclopaedic content to obtain the sentence models. Then we present two models of sentence generation. The first generation model substitute the semantic content to an original sentence content. The second model is used to find numerous proto-sentences, structured as Subject, Verb, Object, able to fit by part a whole communicative intent, and then aggregate all the selected proto-sentences into a more complex one. Our experiments of sentence generation with various configurations of our system have shown that this new approach of NLG have an interesting potential
APA, Harvard, Vancouver, ISO, and other styles
45

Hamdi, Belgacem. "Outils CAO pour la génération automatique de parties opératives auto-controlables." Grenoble INPG, 1994. http://www.theses.fr/1994INPG0041.

Full text
Abstract:
Le travail presente dans cette these concerne l'etude et l'implementation d'outils cao pour la generation des circuits auto-controlables. Une bibliotheque de cellules dediees aux implementations auto-controlables est developpee. Un outil cao de generation automatique de parties operative (po) auto-controlables est realise autour de cette bibliotheque et integre a un outil cao standard en l'occurence cadence. Pour la realisation d'un tel outil, plusieurs approches ont ete envisagees. L'approche qui combinant l'utilisation de cellules standards et de cellules predefinies a ete retenue, car elle offre un meilleur compromis optimisation/flexibilite. L'un des points essentiels de cette these est qu'elle s'appuie sur une implementation efficace de po auto-controlables. Cette implementation repose sur trois techniques essentielles. La premiere consiste a combiner le code double-rail (pour les additionneurs, uals) et le code de parite (pour les autres blocs de la po). Avec cette approche, les convertisseurs de code sont evites. La deuxieme technique consiste en l'utilisation de portes differentielles specifiques qui sont concues de facon a inclure leurs duales. Leur duplication est ainsi evitee. Enfin, ce schema beneficie de l'approche appelee controle de la retenue et prediction de la parite (cr/pp). Cette approche evite la duplication des registres d'entree et des blocs complexes tels que celui de l'anticipation de retenue ou de retenue bondissante. Notre outil permet ainsi, l'implementation de po auto-controlables efficaces avec un minimum d'augmentation materielle. La generation est automatique. Elle offre, toutefois, au concepteur le choix de plusieurs parametres de la po (taille et type de l'ua/ual, nombre de bus de la po, taille de la memoire locale, etc). L'interet de ce travail reside dans le fait que, dans l'etat actuel des choses, les techniques de test en ligne ont un handicap majeur a savoir le temps de conception considerable en l'absence d'outils cao adequats. Les outils du type presentes dans cette these permettent de combler ce manque et de surmonter cet handicap
APA, Harvard, Vancouver, ISO, and other styles
46

Tzoukermann, Evelyne. "Morphologie et génération automatique du verbe français : implémentation d'un module conversationnel." Paris, INALCO, 1986. http://www.theses.fr/1986INAL0004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Bidal, Samuel. "Reconstruction tridimensionnelle d'éléments anatomiques et génération automatique de maillage éléments finis optimisés." Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2003. http://tel.archives-ouvertes.fr/tel-00545018.

Full text
Abstract:
Ce travail a été motive par la volonté d'obtenir rapidement des modèles fidèles du corps humain. Nous avons créé et implémenté un ensemble de méthodes permettant de générer des maillages éléments finis en se basant sur une imagerie sériée (coupes anatomiques, scanner, irm). La génération de maillages a été décomposée en trois grandes parties : extraction de contours, reconstruction 3d, maillage surfacique ou volumique. Les méthodes de détection de contours ont été choisies afin d'être applicables sur tout type d'imagerie sériée dans le but d'être d'un emploi le plus large possible. Les méthodes de reconstruction 3d et maillage sont originales et basées sur une décomposition octaédrique de l'espace. Elles génèrent directement des éléments quads et hexas. La validation de la chaîne de traitement et des modèles obtenus a été effectuée sur le segment céphalique. Divers autres segments ont aussi été abordés même si leur étude n'est ici aborde qu'en guise d'illustration.
APA, Harvard, Vancouver, ISO, and other styles
48

Kalla, Hamoudi. "Génération automatique de distributions/ordonnancements temps réel, fiables et tolérants aux fautes." Phd thesis, Grenoble INPG, 2004. http://tel.archives-ouvertes.fr/tel-00008413.

Full text
Abstract:
Les systèmes réactifs sont de plus en plus présents dans de nombreux secteurs d´activité tels que l´automobile, les télécommunications et l´aéronautique. Ces systèmes réalisent des tâches complexes qui sont souvent critiques. Au vu des conséquences catastrophiques que pourrait entraîner une défaillance dans ces systèmes, suite à la présence de fautes matérielles (processeurs et média de communication), il est essentiel de prendre en compte la tolérance aux fautes dans leur conception. En outre, plusieurs domaines exigent une évaluation quantitative du comportement de ces systèmes par rapport à l'occurrence et à l'activation des fautes. Afin de concevoir des systèmes sûrs de fonctionnement, j'ai proposé dans cette thèse trois méthodologies de conception basées sur la théorie d'ordonnancement et la redondance active et passive des composants logiciels du système. Ces trois méthodologies permettent de résoudre le problème de la génération automatique de distribution et d'ordonnancements temps réel, fiables et tolérants aux fautes. Ce problème étant NP-difficile, ces trois méthodologies sont basées sur des heuristiques de type ordonnancement de liste. Plus particulièrement, les deux premières méthodologies traitent le problème de la tolérance aux fautes matérielles des processeurs et des media de communication, respectivement pour des architectures à liaisons point-à-point et des architectures à liaison bus. La troisième méthodologie traite le problème de l'évaluation quantitative d'une distribution/ordonnancement en terme de fiabilité à l'aide d'une heuristique bi-critère originale. Ces méthodologies offrent de bonnes performances sur des graphes d'algorithme et d'architecture générés aléatoirement.
APA, Harvard, Vancouver, ISO, and other styles
49

Vassy, Jérôme. "Génération automatique de cas de test guidée par les propriétés de sûreté." Phd thesis, Université Joseph Fourier (Grenoble), 2004. http://tel.archives-ouvertes.fr/tel-00007373.

Full text
Abstract:
Ce travail porte sur le problème de la validation des logiciels réactifs synchrones par rapport à des propriétés de sûreté. Les propriétés de sûreté permettent de spécifier les comportements sûrs d'un logiciel. D'une manière générale, notre approche aborde la validation par le test. Dans ce cadre, nous avons défini une technique qui permet de déterminer, à partir des propriétés de sûreté seulement, toutes les données de test favorisant l'observation d'une violation de ces propriétés. Cette technique permet d'anticiper une violation future. Différentes heuristiques ont été implantées pour sélectionner les données de test de façon efficace. Notre proposition a été intégrée à l'outil Lutess. Ce dernier est capable de générer automatiquement et dynamiquement des données de test en s'appuyant sur divers guides. La capacité de nos heuristiques à guider le test vers des situations où la propriété de sûreté peut être violée a été évaluée sur une étude de cas significative proposée par un consortium d'industriels du secteur des télécommunications.
APA, Harvard, Vancouver, ISO, and other styles
50

Bidal, Samuel. "Reconstruction tridimensionnelle d'éléments anatomiques et génération automatique de maillages éléments finis optimisés." Aix-Marseille 2, 2003. http://www.theses.fr/2003AIX20673.

Full text
Abstract:
Ce travail a été motivé par la volonté d'obtenir rapidement des modèles fidèles du corps humain. Nous avons créé et implémenté un ensemble de méthodes permettant de générer des maillages éléments finis en se basant sur une imagerie sériée (coupes anatomiques, scanner, IRM). La génération de maillages a été décomposée en trois grandes parties : extraction de contours, reconstruction 3D et maillage surfacique ou volumique. Les méthodes de détection de contours ont été choisies afin d'être applicables sur tout type d'imagerie sériée dans le but d'être d'un emploi le plus large possible. Les méthodes de reconstruction 3D et de maillage sont originales et basées sur une décomposition octaédrique de l'espace. Elles génèrent directement des éléments quads et hexas. La validation de la chaîne de traitement et des modèles obtenus a été effectuée sur le segment céphalique. Divers autres segments ont aussi été étudiés même si leur étude n'est ici abordée qu'en guise d'illustration
The aim of this work is to quickly generate good quality models of the human body. We created a method package which generates finite element meshes from pictures of serial slices (taken from anatomic slices, X-ray sanner or MRI). The mesh generation is divided into three main steps : contours detection, 3D reconstruction and meshing. Contour detection methods were chosen to be applicable on a wide range of pictures. 3D reconstruction and meshing methods are new and based on an octahedral lattice. They allow to generate quadrangular or hexahedral elements. The heads organs were chosen to validate the package. We studied other organs too but these work are just given here as examples
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography