To see the other types of publications on this topic, follow the link: Transformation automatique.

Dissertations / Theses on the topic 'Transformation automatique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Transformation automatique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Mesbahi, Larbi. "Transformation automatique de la parole : étude des transformations acoustiques." Rennes 1, 2010. https://tel.archives-ouvertes.fr/tel-00547088.

Full text
Abstract:
Le travail effectué dans cette thèse présente une évaluation des techniques de transformation de voix à base de GMM. Ces techniques de transformation linéaires malgré leurs qualités obtenues, elles ne manquent pas de quelques défauts, on peut noter le sur-lissage, le problème de distorsion spectrale et le sur-apprentissage. Dans un premier volet, nous avons pris en compte ces questions pour adapter la stratégie d'apprentissage des fonctions de conversion. La première c'est la réduction du nombre des paramètres libres de la fonction de conversion. La deuxième considère que les solutions par transformation linéaire sont instables face au peu de données d'apprentissage, d'où le recours aux modèles de transformation non-linéaire de type RBF. Dans un deuxième volet, pour aligner les données non-parallèles des locuteurs source et cible, une solution consiste à correspondre ces données via une représentation récursive d'un arbre binaire. Dans un dernier volet, pour obtenir une haute qualité de voix, l'utilisation d'un modèle de true-envelope est nécessaire. Pour cela, le recours aux techniques de réduction de dimension par PCA est indispensable avant d'appliquer les méthodes de conversion
This work presents an experimental evaluation of various voice transformation techniques based on GMM models. These linear transforms, despite their quality obtained, they fail to some defects specially the oversmoothing effect, the problem of spectral distortion and the overfitting. In a first part, we proposed taking these issues into account to adapt the learning strategy of the conversion functions. The first main idea is to reduce the number of parameters describing the conversion function. The second idea considers the solutions based on linear transform are unstable face to the lack of the training data, hence the recourse to non-linear transform model like RBF. In a second part in some situations, we need to align non-parallel data from the source and target speakers, one solution consists to use a recursive representation of binary tree, whose depth depends on the learning data size. In the last part, to get a high voice quality, we have proposed a model of parameters issued from the PCA projection on the true envelope before applying the conversion methods
APA, Harvard, Vancouver, ISO, and other styles
2

Mesbahi, Larbi. "Transformation automatique de la parole - Etude des transformations acoustiques." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00547088.

Full text
Abstract:
Le travail effectué dans cette thèse s'insère dans le cadre de la conversion automatique de la voix. La problématique générale est de modifier le signal d'un énoncé pour qu'il soit perçu comme prononcé par une autre personne. Les Systèmes de Conversion de Voix (SCV) de l'état de l'art utilisent pour la plupart des modèles de voix probabilistes GMM (Gaussian Mixture Models). Ces SCV utilisent des fonctions de conversion linéaires apprises à partir des GMMs. Elles permettent d'obtenir des voix converties de bonne qualité. Cependant, elles sont soumises à des défauts de conception liées à l'apprentissage de ces modèles. On peut ainsi noter le surlissage (oversmoothing) qui est une généralisation trop poussée et son opposé, le sur-apprentissage (overfitting) qui est une spécialisation trop poussée. Un aspect de cette thèse explore différentes stratégies d'apprentissage des fonctions de conversion. La première piste suivie est la réduction du nombre des paramètres libres de la fonction de conversion. La deuxième propose une alternative aux fonctions de conversion linéaires basées sur des GMMs en recourant aux modèles de transformation non-linéaire à base de réseaux de Neurones (RBF, Radial Basis Functions). Cette thèse s'intéresse d'autre part aux données utilisées pour apprendre les modèles de voix et les transformations. En effet, pour apprendre la fonction de conversion, les données issues des locuteurs source et cible doivent être mises en correspondance. Or, dans la plupart des cas d'utilisation, ces données ne sont pas parallèles. Autrement dit, les deux locuteurs n'ont pas prononcé suffisamment de phrases similaires. Notre proposition consiste à faire correspondre ces données lacunaires en les décomposant en classes acoustiques et en s'appuyant sur l'appariement, classique, des classes acoustiques cibles et sources. Enfin, notre intérêt se porte sur la paramètrisation de la voix car, pour obtenir une haute qualité de voix, il est nécessaire que cette paramètrisation conserve un maximum d'information sur le locuteur. Il s'agit en l'occurrence de l'enveloppe de son signal, obtenue fidèlement par la méthode de True-Envelope. Or, les premières études ont montré que ces données doivent être réduites pour nourrir un modèle probabiliste efficace. Pour cela, nous avons recours à la technique de réduction de dimension d'analyse par composantes principales (PCA, Principal componant analysis). Cette solution s'avère plus efficace lorsqu'on différencie les fonctions de transformation selon la classe phonétique.
APA, Harvard, Vancouver, ISO, and other styles
3

Lolive, Damien Boëffard Olivier Barbot Nelly. "Transformation de l'intonation application à la synthèse de la parole et à la transformation de voix /." Rennes : [s.n.], 2008. ftp://ftp.irisa.fr/techreports/theses/2008/lolive.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Lolive, Damien. "Transformation de l'intonation : application à la synthèse de la parole et à la transformation de voix." Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/lolive.pdf.

Full text
Abstract:
Les travaux de cette thèse se situent dans le cadre de la transformation de la prosodie en se focalisant sur la fréquence fondamentale, F0, facteur jugé proéminent dans le traitement de la prosodie. En particulier, nous nous intéressons aux différentes étapes nécessaires à la construction d'un tel système : la stylisation, la classification et la transformation des contours mélodiques. Pour chaque étape, nous proposons une méthodologie qui tient compte des problèmes qui se sont posés à l'étape précédente. Tout d'abord, un modèle B-spline est proposé pour la stylisation des contours mélodiques. Ensuite, pour représenter l'espace mélodique du locuteur, une approche par modèles de Markov est introduite. Enfin, une méthodologie de transformation de la prosodie à partir de corpus non parallèles par une technique d'adaptation au locuteur est présentée. Les résultats obtenus tendent à montrer qu'il est nécessaire de traiter la dynamique du F0 et de piloter la transformation par des informations d'ordre morphosyntaxique
The work presented in this thesis lies within the scope of prosody conversion and more particularly the fundamental frequency conversion which is considered as a prominent factor in prosody processing. This document deals with the different steps necessary to build such a conversion system : stylization, clustering and conversion of melodic contours. For each step, we propose a methodology that takes into account the issues and difficulties encountered in the previous one. A B-spline based approach is first proposed to model the melodic contours. Then to represent the melodic space of a speaker, a HMM based approach is introduced. To finish, a prosody transformation methodology using non-parallel corpora based on a speaker adaptation technique is derived. The results we obtain tend to show that it is necessary to model the evolution of the melody and to drive the transformation system by using morpho-syntactic information
APA, Harvard, Vancouver, ISO, and other styles
5

Bonhomme, Stéphane. "Transformation de documents structurés, une combinaison des approches explicite et automatique." Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00010471.

Full text
Abstract:
Les travaux présentés dans cette thèse ont pour thème la transformation des documents structurés. Un document structuré est une collection d'éléments typés organisée par un ensemble de relations logiques définissant une structure hiérarchique. Ces relations sont définies par des grammaires hors-contexte qui décrivent des classes de documents. L'utilisation des documents structurés permet d'automatiser une partie des traitements effectués sur les documents et contribue également à améliorer leur portabilité en proposant une syntaxe commune définie par des normes (SGML, XML). Les applications utilisant cette représentation souffrent néanmoins de limites liées aux contraintes impliquées par la structuration des documents. L'objectif de ce travail est de répondre à ces limites par des techniques de transformation. Ces techniques ont pour but de modifier la structure d'un ensemble d'éléments typés pour le conformer à d'autres types ou à une nouvelle classe de documents. Cette thèse est articulée en trois parties : 1. Une étude des applications de traitement de documents identifiant les besoins de transformation, plus particulièrement dans le domaine de l'édition interactive. 2. Une évaluation des techniques et outils existant conduisant à une classific- ation des approches (filtres, transformation explicite ou automatique). Chaque classe fait l'objet d'une étude théorique, d'une étude des systèmes disponibles et d'une expérimentation. 3. Une proposition de méthode de transformation combinant les différentes techniques pour tirer parti de leurs points forts et répondre aux limitations de chacune. Cette méthode est fondée sur un algorithme de transformation automatique paramétré à l'aide de pré-couples explicites. Ce travail a conduit au développement des systèmes de transformation aujourd'h- ui intégrés dans des logiciels du projet Opéra (Thot, Byzance) et du consortiu- m W3C (Amaya).
APA, Harvard, Vancouver, ISO, and other styles
6

Bonhomme, Stéphane. "Transformation de documents structurés, une combinaison des approches explicite et automatique." Phd thesis, Grenoble 1, 1998. http://www.theses.fr/1998GRE10241.

Full text
Abstract:
Les travaux presentes dans cette these ont pour theme la transformation des documents structures. Un document structure est une collection d'elements types organisee par un ensemble de relations logiques definissant une structure hierarchique. Ces relations sont definies par des grammaires hors-contexte qui decrivent des classes de documents. L'utilisation des documents structures permet d'automatiser une partie des traitements effectues sur les documents et contribue egalement a ameliorer leur portabilite en proposant une syntaxe commune definie par des normes (sgml, xml). Les applications utilisant cette representation souffrent neanmoins de limites liees aux contraintes impliquees par la structuration des documents. L'objectif de ce travail est de repondre a ces limites par des techniques de transformation. Ces techniques ont pour but de modifier la structure d'un ensemble d'elements types pour le conformer a d'autres types ou a une nouvelle classe de documents. Cette these est articulee en trois parties : 1. Une etude des applications de traitement de documents identifiant les besoins de transformation, plus particulierement dans le domaine de l'edition interactive. 2. Une evaluation des techniques et outils existant conduisant a une classification des approches (filtres, transformation explicite ou automatique). Chaque classe fait l'objet d'une etude theorique, d'une etude des systemes disponibles et d'une experimentation. 3. Une proposition de methode de transformation combinant les differentes techniques pour tirer parti de leurs points forts et repondre aux limitations de chacune. Cette methode est fondee sur un algorithme de transformation automatique parametre a l'aide de pre-couples explicites. Ce travail a conduit au developpement des systemes de transformation aujourd'hui integres dans des logiciels du projet opera (thot, byzance) et du consortium w3c (amaya).
APA, Harvard, Vancouver, ISO, and other styles
7

Azibi, Nadia. "Trequasi : un système pour la transformation automatique de programmes PROLOG récursifs en quasi-itératifs." Paris 11, 1987. http://www.theses.fr/1987PA112415.

Full text
Abstract:
TREQUASI est un système de transformation de programmes Prolog REcursifs en QUASI-Itératifs implémenté en Prolog. Un programme Prolog récursif linéaire est un programme dont une de ses clauses est une clause récursive linéaire de la forme [ P :- Q1 , Pr, Q2. ]. Un programme Prolog quasi-itératif (itératif au sens de Mac Canhy) est un programme dont toutes les clauses récursives qui constituent ce programme ont des appels récursifs terminaux de la forme [ P :- Q1, Pr. ] Q1 est une conjonction de littéraux qui peut être éventuellement vide, Q2 est une conjonction d'atomes qui peut être réduite à un seul atome et Prest l'appel récursif du prédicat P. La méthode de transformation construite est basée sur le principe de Pliage/Dépliage de Burstall-Darlington appliqué à la programmation logique. La transformation s'effectue en deux phases. Premièrement, on détermine le prédicat généralisé appelé EUREKA qui doit répondre aux critères de transformation afin de le transformer en un ensemble de clauses quasi-itératives. Ceci, implique que l'EUREKA en question est soumis à des contraintes permettant de réaliser le Pliage et le Dépliage de Burstall-Darlington. La deuxième phase, consiste donc à transformer l'EUREKA en question en un ensemble de clauses quasi-itératives. Dans cette phase, on est amené à développer une stratégie qui permet d'une part de choisir une règle à appliquer afin d'éviter d'utiliser les règles qui risquent de faire boucler le système et d'autre part de construire (partiellement ou entièrement selon les cas) les règles (propriétés) nécessaires pour faire aboutir la transformation. TREQUASI n'a pas besoin d'avoir une base de connaissances complète, en cas de besoin, TREQUASI fournir la règle qu'il faut et qui sera validée par l'utilisateur.
APA, Harvard, Vancouver, ISO, and other styles
8

Barreaud, Vincent. "Reconnaissance automatique de la parole continue : compensation des bruits par transformation de la parole." Nancy 1, 2004. http://docnum.univ-lorraine.fr/public/SCD_T_2004_0175_BARREAUD.pdf.

Full text
Abstract:
Les performances d'un système de reconnaissance automatique de la parole se dégradent lorsque les conditions de test et d'entraînement diffèrent. L'approche classique du Stochastic Matching (SM) propose une estimation en temps-différé d'une fonction de compensation qui maximise la vraisemblance de la parole compensée par rapport à la séquence de modèles proposée par le processus de reconnaissance. Nous proposons des techniques temps-réel basées sur SM : la compensation s'effectue en parallèle avec le processus de reconnaissance. Cela permet de compenser dans un environnement variant lentement. Deux améliorations ont été apportées: -Une structure arborescente de transformations permet de construire une fonction de compensation non-linéaire dépendant du type acoustique de la parole. -Un processus surveillant les changements dans l'environnement déclenche la réinitialisation du processus de compensation. Cela permet à notre algorithme de fonctionner dans des environnements variant abruptement
Performances of an automatic speech recognition system degrade when test and training conditions do not match. Classical Stochastic Matching (SM) method proposes an off-line estimation of a compensation function that maximizes the likelihood of the compensated speech, given the optimal sequence of models proposed by the recognition process. We developed a new frame-synchronous technic based on SM : compensation is performed in parallel with the recognition. This is suitable to cope with slowly varying noise. We proposed two additional versions of our approach: -a tree structure of transformations is used to build a state-dependant non-linear compensation function. This is motivated by the fact that similar observations will be affected similarly by the environment. -a surveillance process monitoring the fluctuations in the environment is used to trigger the reinitialisation of the compensation process. This enables our algorithm to cope with environments experiencing sudden occurrences of noise
APA, Harvard, Vancouver, ISO, and other styles
9

Azibi, Nadia. "TREQUASI un système pour la transformation automatique de programmes PROLOG récursifs en quasi-itératifs /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37602493s.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Barreaud, Vincent Haton Jean-Paul. "Reconnaissance automatique de la parole continue compensation des bruits par transformation de la parole /." (S.l.) : (s.n.), 2004. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2004_0175_BARREAUD.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Wisniewski, Guillaume. "Apprentissage dans les espaces structurés : application à l'étiquetage de séquences et à la transformation automatique de documents." Paris 6, 2007. http://www.theses.fr/2007PA066525.

Full text
Abstract:
De nombreux problèmes d'apprentissage consiste à prédire des séquences, des arbres ou des graphes. Contrairement aux problèmes de classification usuels, ces sorties sont structurées et se décomposent en un ensemble d'éléments étiquetés interdépendants. L'apprentissage structuré est domaine de l'apprentissage statistique proposé récément pour développer des méthodes d'apprentissage capables de découvrir et d'exploiter ces dépendances entre étiquettes pour améliorer les performances en prédiction. L'étude des différents cadres et méthodes d'apprentissage structuré constitue la première partie de cette thèse. Nous y décrivons notamment l'application de ces méthodes sur une tâche d'étiquetage de séquences et sur une tâche de prédiction d'arbres. Cette dernière tâche est directement motivée par la problématique générale d'automatisation de la transformation de documents structurés qui est, aujourd'hui, au cœur de plusieurs problématiques d'accès à l'information. Dans une deuxième partie de ce travail, nous nous sommes intéressé à deux limites des modèles existants qui rendent ceux-ci inapplicables à de nombreux problèmes pratiques~: leur complexité élevée et leur expressivité limitée qui ne leur permet de ne considérer que des dépendances locales. Nous proposons d'aborder ce problème sous l'angle de la sélection de caractéristiques et décrivons une méthode d'étiquetage de séquences représentant les dépendances par des contraintes, ce qui lui permet d'extraire efficacement les dépendances non locales et de les utiliser en inférence tout en conservant une complexité faible.
APA, Harvard, Vancouver, ISO, and other styles
12

Pennequin, Jean-Claude. "Reconnaissance automatique de formes dans des images de simulation et de traitement en radiothérapie." Vandoeuvre-les-Nancy, INPL, 1995. http://www.theses.fr/1995INPL018N.

Full text
Abstract:
La radiothérapie externe est une thérapeutique utilisant les radiations ionisantes pour traiter les cancers locorégionaux. Afin de permettre le contrôle du bon positionnement du patient, des caches de protection et du champ d'irradiation, des images de simulation et de traitement sont comparées. Les limites du champ d'irradiation sont détectées par la méthode de sommation et les limites des caches de protection par la transformée de Hough. Les formes repérées du patient sont traitées comme une chaine de caractères code suivant la technique de Freeman. Afin de réduire les temps de calcul, la technique de corrélation est appliquée dans une seconde période. La corrélation entre les deux images se fait sur des images brutes, de contours et squelettisées. Le maximum de corrélation permet de localiser les coordonnées du meilleur rapport entre l'image de simulation et de traitement. Les résultats sont satisfaisants puisqu'ils permettent de localiser des différences de quelques millimètres
APA, Harvard, Vancouver, ISO, and other styles
13

Oum, Oum Sack Pierre Marie. "Contribution à l'étude de la qualité du logiciel : approche à base d'apprentissage automatique et de transformation de modèles." Littoral, 2009. http://www.theses.fr/2009DUNK0221.

Full text
Abstract:
Cette thèse propose des travaux liés à la définition et l’évaluation de la qualité du logiciel. Nous considérons la qualité comme un concept transversal devant être pris en charge par toutes les activités du développement du logiciel. Il devient donc important de fournir des mécanismes et outils assurant l’interopérabilité de ces activités. Ainsi, une partie importante de nos travaux est consacrée à l’adoption de GXL (Graph eXchange Language) comme médium d’échange d’objets ou artefacts logiciels. GXL sert donc comme support technologique de mise en œuvre de notre approche de modélisation et d’évaluation de la qualité qui est basée sur une démarche combinant l’ingénierie dirigée par les modèles et des techniques d’apprentissage automatique. Notre but étant de fournir une plate-forme opérationnelle permettant une définition précise des modèles de la qualité en utilisant les algorithmes d’apprentissage automatique et une construction incrémentale de ces modèles à l’aide de la transformation des modèles, implantée par les systèmes de réécriture de graphes
This thesis shows the various works we perform in the area of software quality definition and evaluation. We consider the software quality as a key and transversal concept that must be considered by all the software development activities. We must then provide tools dealing with interoperability of such activities. So, an important part of our work has been devoted to this topic by the means of the adoption of GXL (Graph eXchange Language). GXL is, in fact the medium allowing software objects or artefacts interchange. GXL is then used as a technological support in order to implement our approach that consists of defining and evaluating the software quality by combining concepts of the Model Driven Engineering and the machine learning. Our aim is to provide an operational platform allowing a precise definition of software quality by means of machine learning algorithms and an incremental quality models construction by means of model transformation operations that are implemented by a graph transformation system
APA, Harvard, Vancouver, ISO, and other styles
14

Lecerf, Jason. "Designing language-agnostic code transformation engines." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I077.

Full text
Abstract:
Les transformations automatiques de code apparaissent dans diverses situations, les refactorings, les migrations inter-langages ou encore la spécialisation de code. Les moteurs supportant ces transformations cherchent dans le code source les occurrences de motifs spécifiés par l’utilisateur, puis les réécrivent grâce à une transformation. Cette transformation peut soit modifier les occurrences elles-mêmes, des éléments de la représentation intermédiaire (IR) du langage, en nouveaux éléments ou réécrire leur code source. Nous nous concentrons sur la réécriture de code source qui offre une meilleure flexibilité grâce à des transformations arbitraires particulièrement utiles à la migration et à la spécialisation de code. Les motifs sont divisés en deux catégories : les motifs explicites et syntaxiques. Les premiers demandent que l’utilisateur connaisse l’IR du langage, un effort d’apprentissage non négligeable. Les seconds demandent seulement de connaître la syntaxe du langage et non son IR, mais requièrent un effort d’implémentation supplémentaire pour les back-ends de langage du moteur. Tandis que les experts en langage connaissent l’IR et la syntaxe du langage, les autres utilisateurs connaissent seulement la syntaxe. Nous proposons un moteur de reconnaissance de motifs offrant une représentation hybride des motifs : les motifs peuvent être à la fois explicites et syntaxiques. Par défaut, le moteur se rabat sur un fonctionnement syntaxique, car la barrière à l’entrée est plus basse. Pour pallier au coup d’implémentation des back-ends de langage pour la reconnaissance syntaxique, nous prenons une approche générative. Le moteur de reconnaissance hybride est couplé avec un moteur de génération d’analyseurs syntaxiques. Ce dernier génère des analyseurs syntaxiques LR généralisés (GLR) capables d’analyser non seulement le code source à réécrire, mais également le motif à reconnaitre. L’implémenteur du back-end de langage n’a alors qu’à ajouter une ligne à la grammaire pour avoir accès au moteur de reconnaissance de motifs pour ce langage. L’approche est basée sur des analyseurs syntaxiques GLR pouvant se dupliquer et traquant ses sous-analyseurs. Ces implémentations particulières de GLR ne passent pas à l’échelle quand trop de duplications sont nécessaires pour gérer les ambiguïtés et notre approche ajoute de la duplication. Pour éviter une explosion du temps d’exécution, nos analyseurs syntaxiques FGLR fusionnent plus régulièrement et permettent une désambiguïsation à la volée pendant l’analyse via des effets de bord
Code transformations are needed in various cases: refactorings, migrations, code specialization, and so on. Code transformation engines work by finding a pattern in the source code and rewriting its occurrences according to the transformation. The transformation either rewrites the occurrences, elements of the intermediate representation (IR) of the language, into new elements or directly rewrites the source code. In this work, we focused on source rewriting since it offers more flexibility through arbitrary transformations, especially for migrations and specializations. Matching patterns come in two different flavors, explicit and syntactic. The former requires the user to know the IR of the language, a heavy knowledge burden. The latter only relies on the syntax of the matched language and not its IR, but requires significantly more work to implement the language back-ends. Language experts tend to know the IR and the syntax of a language, while other users know only the syntax. We propose a pattern matching engine offering a hybrid pattern representation: both explicit and syntactic matching are available in the same pattern. The engine always defaults to syntactic as it is the lowest barrier to entry for patterns. To counterbalance the implementation cost of language back-ends for syntactic pattern matching, we take a generative approach. We combine the hybrid pattern matching engine with a parser generator. The parser generator generates generalized LR (GLR) parsers capable of not only parsing the source but also the hybrid pattern. The back-end implementer only needs to add one line to the grammar of the language to activate the pattern matching engine. This approach to pattern matching requires GLR parsers capable of forking and keeping track of each individual fork. These GLR implementations suffer the more forking is done to handle ambiguities and patterns require even more forking. To prevent an explosion, our Fibered-GLR parsers merge more often and allow for classic disambiguation during the parse through side-effects
APA, Harvard, Vancouver, ISO, and other styles
15

Drira, Khalil. "Transformation et composition de graphes de refus : analyse de la testabilité." Toulouse 3, 1992. http://www.theses.fr/1992TOU30142.

Full text
Abstract:
Les techniques de description formelle (tdf) pour la specification de systemes communicants sont utilisees pour valider et tester des implementations de ces systemes. Dans le cas de systemes constitues de modules, il est interessant de savoir evaluer la testabilite de chacun des composants a travers l'environnement de test que constitue les autres composants interconnectes. Cette these presente deux contributions principales aux approches de validation et de test dans le cadre des tdf: 1) une caracterisation operationnelle des relations de conformite, avec derivation automatique de tests de conformite; 2) une approche d'analyse de la testabilite des systemes partiellement observables et commandables. Les deux contributions sont basees sur une structure de graphe doublement etiquete: le graphe de refus. La verification automatique de conformite est basee sur un calcul de bissimulation adapte a cette structure. L'analyse de testabilite est basee sur l'ordonnancement de modeles d'implementations erronees. La definition des operateurs de composition et restriction sur les graphes de refus permet d'ameliorer l'efficacite de la recherche des limites de testabilite. Un environnement logiciel a ete developpe sous environnement unix pour (1) la verification des relations de conformite dans le cas des systemes a etats finis; 2) la generation de tests de conformite, et pour; 3) la mise en uvre de l'analyse de testabilite d'un systeme a travers un environnement
APA, Harvard, Vancouver, ISO, and other styles
16

Garchery, Quentin. "Certification de la transformation de tâches de preuve." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG006.

Full text
Abstract:
De nombreux prouveurs et outils de vérification font un usage instensif des transformations logiques afin de ramener un problème exprimé sous la forme d'une tâche de preuve à un certain nombre de tâches de preuve plus simples à valider. Les transformations font souvent partie de la base de confiance de l'outil de vérification. Cette thèse a pour objectif de renforcer la confiance accordée aux transformations logiques. Les transformations sont instrumentées pour produire des certificats puis ceux-ci sont vérifiés par un outil externe: c'est l'approche sceptique. De ce fait, notre méthode est incrémentale et robuste aux modifications apportées au code des transformations. Nous définissons deux formats de certificats; les transformations génèrent des certificats de surface et ces certificats sont traduits en des certificats de noyau qui sont destinés à la vérification finale. L'accent est mis sur la facilité de production des certificats de surface et nous avons fait en sorte qu'ils soient, autant que possible, indépendants des tâches de preuve, facilitant ainsi leur composition et rendant la certification plus modulaire. Les certificats de noyau, au contraire, incluent de nombreux détails tout en restant élémentaires, de sorte que leur vérification est réalisable par un outil simple, dont la confiance est facile à établir. Nous proposons une procédure de traduction d'un certificat de surface en un certificat de noyau qui n'a pas besoin d'être certifiée. Les transformations logiques sont considérées dans une logique d'ordre supérieur avec polymorphisme de type, ce formalisme pouvant être étendu avec des théories interprétées telles que l'égalité ou l'arithmétique entière. Nous appliquons notre méthode à Why3, et notamment à des transformations complexes qui pré-existent à notre travail. Nous implémentons également deux vérificateurs de certificats, le premier reposant sur une approche calculatoire efficace et l'autre s'appuyant sur un encodage superficiel des tâches de preuve dans le framework logique Lambdapi, donnant ainsi de fortes garanties de sa correction
In various provers and deductive verification tools, logical transformations are used extensively in order to reduce a proof task into a number of simpler tasks. Logical transformations are often part of the trusted base of such tools. In this thesis, we develop a framework to improve confidence in their results. We follow a skeptical} approach: transformations are instrumented to produce certificates that are checked by a third-party tool. Thus, we benefit from a modular approach that is also robust to changes in the source code of the transformations. We design two kinds of certificates. Transformations produce surface certificates} that are then translated to kernel certificates} which are destined for final verification. We made sure that surface certificates are easy to produce. Moreover, surface certificates are as independent of the transformation application as possible and this makes for a modular certification. On the contrary, kernel certificates include numerous details about the transformation application and are kept elementary. This helps to define simpler checkers and establish their correctness. We propose a translation procedure from surface certificates to kernel certificates which does not need to be trusted. Logical transformations are considered in a higher-order logic, with type polymorphism and built-in theories such as equality and integer arithmetic. We apply our framework to Why3 and use it to instrument pre-existing and complex transformations. Additionally, we implement two certificate checkers. The first one follows an efficient computational approach while the second is based on a shallow embedding of proof tasks inside the logical framework Lambdapi, thus exhibiting formal guaranties of its correctness
APA, Harvard, Vancouver, ISO, and other styles
17

Moreau, Aurélien. "Mise en œuvre automatique de processus métier dans le domaine des architectures orientées services." Paris 6, 2009. http://www.theses.fr/2009PA066660.

Full text
Abstract:
Ces deux contributions ont été mises en oeuvre dans un prototype opérationnel offrant un atelier complet de projection de processus métier dans une architecture SOA. Enfin nous rapportons des expériences qui ont été menées pour dépasser le cadre de l'atelier de création statique de composition de services et amener les premières briques de résolution à l'exécution de ces problèmes.
APA, Harvard, Vancouver, ISO, and other styles
18

Degottex, Gilles. "Glottal source and vocal-tract separation : estimation of glottal parameters, voice transformation and synthesis using a glottal model." Paris 6, 2010. http://www.theses.fr/2010PA066399.

Full text
Abstract:
Cette étude s'intéresse au problème de l'inversion d'un modèle de production de la voix étant donné un enregistrement audio de parole pour obtenir une représentation de le source sonore qui est générée au niveau de la glotte, la source glottique, ainsi qu'un représentation des résonances et anti-résonances créées par les cavités du conduit vocal. Cette séparation des éléments composants la voix donne la possibilité de manipuler indépendamment les caractéristiques de la source et le timbre des résonances. Nous supposons que la source glottique est un signal à phase mixte et que la réponse impulsionnelle du filtre du conduit vocal est un signal à minimum de phase. Puis, considérant ces propriétés, différentes méthodes sont proposées pour estimer les paramètres d'un modèle glottique qui minimisent la phase carrée moyenne du résiduel convolutif d'un spectre de parole observé et de son modèle. Une dernière méthode est décrite où un unique paramètre de forme est solution d'une forme quasi fermée du spectre observé. Ces méthodes sont évaluées et comparées avec des méthodes de l'état de l'art en utilisant des signaux synthétiques et electro-glotto-graphiques. Nous proposons également une procédure d'analyse/synthèse qui estime le filtre du conduit vocal en utilisant un spectre observé et sa source estimée. Des tests de préférences ont été menés et leurs résultats sont présentés dans cette étude pour comparer la procédure décrite et d'autres méthodes existantes.
APA, Harvard, Vancouver, ISO, and other styles
19

Decoster, Jean. "Programmation logique inductive pour la classification et la transformation de documents semi-structurés." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10046/document.

Full text
Abstract:
L’échange d’informations entre périphériques variés et sur internet soulève de nombreux problèmes par le volume et l’hétéroclisme des données échangées. La plupart de ces échanges utilisent le format XML. Afin de les faciliter, des traitements intelligents, comme la classification et la transformation automatiques, ont été développés. Le but de cette thèse est double : proposer un framework d'apprentissage pour la classification de documents XML et étudier l'apprentissage de transformations de documents XML. Le choix d’utiliser la Programmation Logique Inductive a été fait. Même si les méthodes d'apprentissage ont alors un surcoût algorithmique non négligeable (certaines opérations deviennent NP-dures), la représentation relationnelle semble adaptée aux documents XML de par son expressivité. Notre framework pour la classification fait suite à l'étude de familles de clauses pour la représentation de structures arborescentes. Il repose sur une réécriture des opérations de base de la PLI que sont la theta-subsomption et le moindre généralisé [Plotkin1971]. Nos algorithmes sont polynomiaux en temps dans la taille de leur entrée là où ceux standards sont exponentiels. Ils permettent une identification à la limite [Gold1967] de nos familles de clauses. Notre seconde contribution débute par la modélisation d’une famille de clauses dans la lignée des programmes fonctionnels [Paulson91]. Ces clauses sont une adaptation à la PLI des scripts d'édition et prennent en compte un contexte. Elles permettent la représentation de transformations de documents XML. Leurs apprentissages sont possibles grâce à deux algorithmes de type A*, approche courante en PLI (HOC-Learner [Santos2009])
The recent proliferation of XML documents in databases and web applications rises some issues due to the numerous data exchanged and their diversity. To ease their uses, some smart means have been developed such as automatic classification and transformation. This thesis has two goals:• To propose a framework for the XML documents classification task.• To study the XML documents transformation learning.We have chosen to use Inductive Logic Programming. The expressiveness of logic programs grants flexibility in specifying the learning task and understandability to the induced theories. This flexibility implies a high computational cost, constraining the applicability of ILP systems. However, XML documents being trees, a good concession can be found.For our first contribution, we define clauses languages that allow encoding xml trees. The definition of our classification framework follows their studies. It stands on a rewriting of the standard ILP operations such as theta-subsumption and least general generalization [Plotkin1971]. Our algorithms are polynomials in time in the input size whereas the standard ones are exponentials. They grant an identification in the limit [Gold1967] of our languages.Our second contribution is the building of methods to learn XML documents transformations. It begins by the definition of a clauses class in the way of functional programs [Paulson91]. They are an ILP adaptation of edit scripts and allow a context. Their learning is possible thanks to two A*-like algorithms, a common ILP approach (HOC-Learner [Santos2009])
APA, Harvard, Vancouver, ISO, and other styles
20

Serrano, Lucas. "Automatic inference of system software transformation rules from examples." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS425.

Full text
Abstract:
Le noyau Linux est aujourd'hui présent dans tous les types de systèmes informatiques, des smartphones aux supercalculateurs, comprenant à la fois le matériel le plus récent et les systèmes "anciens". Cette diversité d'environnement a pour conséquence une base de code importante, d'une dizaine de millions de lignes de code, pour les pilotes matériels. Cependant par souci d'introduction de nouvelles fonctionnalités, ou pour des raisons de performance ou de sécurité, certaines interfaces de programmation (APIs) internes doivent être parfois revues, ce qui peut impliquer des changements pour des milliers de pilotes les utilisant.Cette thèse propose une nouvelle approche, Spinfer, permettant d'effectuer ces migrations d'utilisation d'APIs de manière automatique. Cette nouvelle approche, basée sur l'assemblage de motifs en suivant des contraintes de flot de contrôle, est capable d'apprendre à partir d'exemples, même imparfaits, des règles de transformations adaptées aux enjeux des migrations d'utilisations d'APIs dans le noyau Linux
The Linux kernel is present today in all kinds of computing environments, from smartphones to supercomputers, including both the latest hardware and "ancient" systems. This multiplicity of environments has come at the expense of a large code size, of approximately ten million lines of code, dedicated to device drivers. However, to add new functionalities, or for performance or security reasons, some internal Application Programming Interfaces (APIs) can be redesigned, triggering the need for changes of potentially thousands of drivers using them.This thesis proposes a novel approach, Spinfer, that can automatically perform these API usage updates. This new approach, based on pattern assembly constrained by control-flow relationships, can learn transformation rules from even imperfect examples. Learned rules are suitable for the challenges found in Linux kernel API usage updates
APA, Harvard, Vancouver, ISO, and other styles
21

Chkouri, Mohamed Yassin. "Modélisation des systèmes temps-réel embarqués en utilisant AADL pour la génération automatique d'applications formellement vérifiées." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00516152.

Full text
Abstract:
Le langage d'analyse et de description d'architectures (AADL) fait l'objet d'un intérêt croissant dans l'industrie des systèmes embarqués tempsréel. Il définit plusieurs catégories de composants, réparties en trois grandes familles (logiciel, matériel, système). Le travail réalisé durant cette thèse exploite les fonctionnalités offertes par AADL pour spécifier les besoins exacts d'une application et exprimer toutes les caractéristiques tant fonctionnelles que non fonctionnelles dimensions temporelle et spatiale), afin de la produire automatiquement. La méthodologie de production que nous proposons génère automatiquement, à partir d'une application décrite en AADL, une application décrite en BIP. BIP permet de mettre en place des systèmes robustes et sûrs en produisant un contrôleur d'exécution correct par construction et en fournissant un modèle formel. Les objectifs de ce processus de production sont : (1) fournir à AADL une sémantique formelle définie en termes de systèmes de transitions étiquetés ; (2) permettre l'analyse et la validation, c'est à dire, l'exploration exhaustive de l'espace des états du système, la détection des blocages potentiels et la vérification de certaines propriétés ; (3) permettre la génération d'une application exécutable pour simuler et déboguer les modèles AADL. Ces trois derniers points jouent en faveur de l'utilisation de méthodes formelles dans le cycle de développement.
APA, Harvard, Vancouver, ISO, and other styles
22

Chkouri, Mohamed Yassin. "Modélisation des systèmes temps-réel embarqués en utilisant AADL pour la génération automatique d'applications formellement vérifiées." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM013.

Full text
Abstract:
Le langage d'analyse et de description d'architectures (AADL) fait l'objet d'un jeu d'intérêt croissant dans l'industrie des systèmes embarqués temps-réel. Il définit plusieurs catégories de composants, réparties en trois grandes familles (logiciel, matériel, système). Le travail réalisé durant cette thèse exploite les fonctionnalités offertes par AADL pour spécifier les besoins exacts d'une application et exprimer toutes les caractéristiques tant fonctionnelles que non fonctionnelles (dimensions temporelle et spatiale), afin de la produire automatiquement. La méthodologie de production que nous proposons génère automatiquement, à partir d'une application décrite en AADL, une application décrite en BIP. BIP permet de mettre en place des systèmes robustes et sûrs en produisant un contrôleur d'exécution correct par construction et en fournissant un modèle formel. Les objectifs de ce processus de production sont : (1) fournir à AADL une sémantique formelle définie en termes de systèmes de transistions étiquetés ; (2) permettre l'analyse et la validation, c'est à dire, l'exploration exhaustive de l'espace des états du système, la détection des blocages potentiels et la vérification de certaines propriétés ; (3) permettre la génération d'une application exécutable pour simuler et déboguer les modèles AADL. Ces trois derniers points jouent en faveur de l'utilisation de méthodes formelles dans le cycle de développement
The Architecture Analysis & Design Language (AADL) is the subject of increasing interest in the industry of real-time embedded systems. It defines several categories of components, grouped into three major categories (software, hardware, systems). This work exploits the features offered by AADL to specify the exact requirements of an application and to express all the features both functional and nonfunctional (temporal and spatial dimensions) to produce automatically the application. The production methodology that we propose generates automatically from an application described in AADL, an application described in BIP. BIP allows to implement robust and safe systems by producing a correct execution controller design and providing a formal model. The objectives of this production process are : (1) provide to AADL a formal semantics defined in terms of labeled transition systems ; (2) allow the analysis and validation, ie, the exhaustive exploration of state space system, the detection of potential deadlocks and verification of certain properties ; (3) allow the generation of an executable application to simulate and debug the AADL models. These last three play a cental rule for the use of such formal methods in the development cycle
APA, Harvard, Vancouver, ISO, and other styles
23

Pillet, Constance-Aurore. "Transformation progressive du texte en données à l'aide de méthodes linguistiques et évaluation de cet apport de la linguistique sur l'efficacité du Text Mining." Paris 9, 2003. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2003PA090007.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Dubois, David. "Introduction à la commande non entière des systèmes linéaires par la transformée de Mellin." Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50376-1998-109.pdf.

Full text
Abstract:
La theorie des moments temporels est utilisee dans la synthese d'une commande entiere des systemes lineaires a reponse indicielle aperiodique. Il est cependant necessaire que les modeles choisis possedent un developpement en serie entiere dans le domaine de laplace. Or l'elaboration d'une commande faisant intervenir des operateurs d'ordre non entier ou des systemes non developpables en serie entiere ne peut pas etre menee par cette theorie. Il est alors indispensable d'utiliser un operateur similaire mais a valeurs non entieres : la transformee de mellin. En premier lieu, les notions elementaires relatives a la theorie des moments temporels sont rappelees. Deux methodes pratiques permettant de determiner les moments temporels d'un systeme sont elaborees a partir de la reponse indicielle de celui-ci. Ensuite, les moments temporels sont utilises dans l'elaboration d'une commande entiere. Il est montre que les parametres du correcteur peuvent etre determines par une relation de recurrence liant les moments temporels du systeme a ceux du modele choisi. Etant donnes que certains systemes ne sont pas developpables en serie entiere ou que des correcteurs font intervenir des operateurs d'ordre non entier, la theorie de la transformee de mellin est alors developpee dans l'elaboration d'une commande non entiere. Elle permet d'aboutir a une relation de recurrence, a pas non constant, liant le systeme au modele choisi. Une etude suivante montre la difficulte d'obtenir les moments temporels de facon pratique. Ils permettent cependant d'identifier les parametres d'un systeme possedant ou non un retard. Enfin, la commande entiere et non entiere est appliquee. Elle met en evidence des resultats permettant de conclure quant a l'utilisation correcte de la transformee de mellin dans l'elaboration d'une commande non entiere. Une etude frequentielle permet ensuite de verifier a posteriori les resultats obtenus afin de valider la commande elaboree.
APA, Harvard, Vancouver, ISO, and other styles
25

Bergerot, Pierre. "Contribution à la reconstitution d'objets 2D par observations coplanaires et transformation géométrique inverse : essai d'application à la pose automatique des gobelets trayeurs." Bordeaux 1, 1990. http://www.theses.fr/1990BOR10517.

Full text
Abstract:
Ce travail apporte une contribution a la reconstruction d'objets 2d. Apres une etude approfondie des principes de la tomographie et une tentative d'application de ces methodes aux objets opaques, nous presentons la theorie des enveloppes de courbes pour la reconstruction du contour de l'objet. Une formalisation mathematique et une simulation numerique du principe de reconstruction sont developpees. Une tentative d'application a la detection-localisation des trayons est exposee dans la deuxieme partie en comparaison avec un procede de stereovision
APA, Harvard, Vancouver, ISO, and other styles
26

Durand, Jean-Claude. "Ttedit : un système interactif d'édition et de transformation d'arbres décorés." Grenoble 1, 1988. http://www.theses.fr/1988GRE10028.

Full text
Abstract:
TTEDIT est le premier éditeur d'arbres décores qui utilise un formalisme de réécriture. Les commandes prédéfinies d’édition sont analogues à celles d'un éditeur de texte. Grace a la possibilité d'exécuter des règles de réécriture comme des commandes, et des grammaires sous forme de macros, TTEDIT est aussi un système de transformation d'arbres interactif
APA, Harvard, Vancouver, ISO, and other styles
27

Charpentier, Patrick. "Contribution à la conception d'une cellule flexible d'usinage dediée à l'industrie de seconde transformation du bois." Nancy 1, 1991. http://www.theses.fr/1991NAN10269.

Full text
Abstract:
Les systèmes flexibles sont à l'heure actuelle quasiment inexistants dans les industries du bois massif. Il existe en effet un certain nombre de particularités, liées au materiau, à sa transformation et au contexte industriel, qui donnent naissance à des difficultés aux origines multiples. La méthodologie proposée dans ce mémoire tente de répondre à l'ensemble de ces problèmes particuliers et fédère les différentes participations à l'ensemble des phases de l'étude. L'application de cette méthodologie permet la mise en évidence des différentes fonctions opératives de la cellule, puis de les organiser et de valider cette organisation par simulation. Les fonctions de contrôle de la cellule sont étudiées par l'intermédiaire de deux démarches complémentaires : 1) une démarche ascendante prenant en compte l'existant physique du système et aboutissant à la proposition d'un modèle comportemental générique des acteurs participants ou subissants des procédés manufacturiers ; 2) une démarche d'analyse fonctionnelle descendante prenant en compte l'environnement du système, en cohérence avec les résultats obtenus lors de l'analyse ascendante. L'ensemble des concepts étudiés confère au système des qualités de flexibilité, réutilisabilité et d'ouverture.
APA, Harvard, Vancouver, ISO, and other styles
28

Lasalle, Jonathan. "Génération automatique de tests à partir de modèles SysML pour la validation fonctionnelle de systèmes embarqués." Phd thesis, Université de Franche-Comté, 2012. http://tel.archives-ouvertes.fr/tel-00762053.

Full text
Abstract:
Les travaux présentés dans ce mémoire proposent une méthode originale de génération automatique de tests à partir de modèles SysML pour la validation de systèmes embarqués. Un sous-ensemble du langage SysML (appelé SysML4MBT) regroupant les éléments de modélisation pris en compte dans notre approche a été défini et une stratégie de génération de tests dédiée (intitulée ComCover) a été créée. Cette stratégie, basée sur les principes du critère de couverture de modèles bien connu Def-Use, s'intéresse à la couverture des communications (envois / réceptions) au sein du système et entre le système et son environnement.La mise en œuvre opérationnelle d'un prototype, basé sur un générateur de tests à partir de modèle UML, a nécessité la définition de règles de réécriture permettant la transformation du modèle SysML4MBT vers le format d'entrée natif du générateur de tests tout en conservant l'expressivité de SysML4MBT. Finalement, les étapes de concrétisation des tests en scripts exécutables et l'établissement automatique du verdict lors de l'exécution sur banc de test définis durant le projet VETESS permettent l'établissement d'une chaîne outillée opérationnelle de génération et d'exécution automatique de tests à partir de spécifications SysML. Cette chaîne outillée a été étrennée sur plusieurs cas d'étude automobile tels que l'éclairage avant, les essuie-glaces ou la colonne de direction de véhicule. Sur ce dernier exemple, nous avons eu l'opportunité d'exécuter les tests sur un banc de test physique. Ces cas d'étude ont permis de valider chacune des étapes de l'approche proposée.
APA, Harvard, Vancouver, ISO, and other styles
29

DEGREZE, PHILIPPE. "Reconstruction d'images d'irm. Un algorithme de transformation de fourier surechantillonneur. Analyse automatique d'images par morphologie mathematique. La viscosite en ligne de partage des eaux." Paris 7, 1994. http://www.theses.fr/1994PA077227.

Full text
Abstract:
Ce memoire est decompose en trois parties: une partie acquisition d'images, une partie analyse d'images, enfin une partie publication de resultats. Un procede de reconstruction d'images d'irm a partir des donnees brutes est presente, de sa conception a son implantation en langage c. Une etude de sa complexite informatique est realisee. Le procede est illustre sur des simulations et sur des donnees brutes d'acquisition. La segmentation d'images par ligne de partage des eaux est presentee tout d'abord par sa definition formelle. Une modification de la ligne de partage des eaux est presentee pour prendre en compte la notion de viscosite du fluide d'inondation. La construction de la fluidite est presentee. Dans la derniere partie, la methodologie de segmentation en morphologie mathematique est presentee sur deux situations: l'elimination de la parois thoracique dans les angiographies pulmonaires par irm et la segmentation de la cavite ventriculaire gauche dans les examens fonctionnels cardiaques en irm
APA, Harvard, Vancouver, ISO, and other styles
30

Levointurier, Christophe. "De la nécessité d'une vision holistique du code pour l'analyse statique et la correction automatique des Applications Web." Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00688117.

Full text
Abstract:
L'omniprésence de l'informatique a comme conséquences, parmi d'autres, la multiplication du volume logiciel existant et en cours de développement pour répondre à une demande toujours croissante. Cette course à la productivité implique une industrialisation de la production de code sous contrôle qualitatif de plus en plus exigeante.Cette thèse tend à repousser des limites constatées dans le domaine de la qualité logicielle. Ces limites perceptibles dans les outils actuels concernent (1) le périmètre d'analyse, (2) l'ergonomie et les contextes d'utilisation, ainsi que (3) les solutions de correction du code proposées.Le point prépondérant de cette étude est la valorisation de l'ensemble des contenus qui entrentdans la composition d'une application pour améliorer les performances de l'analyse statique.Cette approche nous a permis d'obtenir des réponses plus complètes pour les problématiques déjà couvertes par l'existant. Cette diversité des sources nous a également permis de formuler des nouvelles analyses plus spécifiques et mieux adaptées aux caractéristiques de l'application cible. Nous avons aussi montré que la parallélisation de l'exécution et la possible automatisation de corrections aux problèmes trouvés lors de l'analyse permettent d'appliquer rapidement un nombre important de transformations sur un code volumineux.
APA, Harvard, Vancouver, ISO, and other styles
31

Jousse, Florent. "Transformations d'Arbres XML avec des Modèles Probabilistes pour l'Annotation." Phd thesis, Université Charles de Gaulle - Lille III, 2007. http://tel.archives-ouvertes.fr/tel-00342649.

Full text
Abstract:
Cette thèse traite de l'apprentissage supervisé de transformations d'arbres XML. Le langage XML permet de décrire des données sous forme d'arbres dont la structure est définie par un schéma. Il est par conséquent devenu le standard en termes d'échanges de données, que ce soit sur le Web ou entre plusieurs applications. Toutefois, les documents XML peuvent avoir des structures très variables. La grande variété de ces structures nécessite alors d'être capable de transformer de tels arbres. Nous proposons d'effectuer de telles transformations d'arbres XML en annotant les arbres d'entrée, c'est-à-dire en associant un label à chacun de ses noeuds, la sémantique associée aux labels permettant de transformer l'arbre.
Afin d'apprendre à effectuer ces transformations, nous adaptons donc dans un premier temps au cas des arbres XML le modèle des champs aléatoires conditionnels ou Conditional Random Fields (CRF). Les CRFs sont un modèle graphique non dirigé conditionnel pour l'annotation : ils modélisent la probabilité conditionnelle d'une annotation sachant une observation. Ils ont, jusqu'à présent, été essentiellement utilisés dans le cadre de tâches d'annotation de séquences, à la fois dans le domaine de l'extraction d'informations ou en traitement automatiques des langues naturelles. Notre adaptation des CRFs au cas de l'annotation d'arbres XML porte à la fois sur le modèle de dépendances et sur les algorithmes d'inférence exacte (recherche de la meilleure annotation) et d'apprentissage.
De plus, nous proposons deux méthodes d'amélioration de la complexité de ces algorithmes afin de permettre l'utilisation des champs aléatoires conditionnels dans le cadre d'applications à grande échelle. Ces méthodes s'appuient toutes deux sur l'utilisation des connaissances du domaine. La première consiste en l'intégration de contraintes sur l'annotation. Celles-ci viennent restreindre l'espace des annotations possibles d'un arbre en interdisant des configurations de labels. La seconde technique d'amélioration de la complexité que nous proposons consiste en l'approximation d'un CRF par la composition de plusieurs CRFs de complexité moindre, définis sur des sous-parties de l'alphabet des labels.
Ces travaux ont été validés par diverses expériences sur des données artificielles et réelles, montrant ainsi non seulement la qualité des transformations effectuées à l'aide de nos méthodes, mais aussi leur intérêt dans des tâches réelles. Ces bons résultats nous ont conduit à réaliser une application de génération automatique de flux RSS à partir de pages Web. Celle-ci permet à son utilisateur d'apprendre un générateur de flux RSS en annotant une ou plusieurs pages d'un site Web. Ce générateur consiste en un CRF qui annote les pages Web de ce site de façon à transformer l'arbre XHTML en un arbre XML au format RSS. Il permet alors de créer automatiquement des flux RSS pour toute autre page du même site. Cette application est disponible à l'adresse suivante : http://r2s2.futurs.inria.fr/
APA, Harvard, Vancouver, ISO, and other styles
32

Damouche, Nasrine. "Improving the Numerical Accuracy of Floating-Point Programs with Automatic Code Transformation Methods." Thesis, Perpignan, 2016. http://www.theses.fr/2016PERP0032/document.

Full text
Abstract:
Les systèmes critiques basés sur l’arithmétique flottante exigent un processus rigoureux de vérification et de validation pour augmenter notre confiance en leur sureté et leur fiabilité. Malheureusement, les techniques existentes fournissent souvent une surestimation d’erreurs d’arrondi. Nous citons Arian 5 et le missile Patriot comme fameux exemples de désastres causés par les erreurs de calculs. Ces dernières années, plusieurs techniques concernant la transformation d’expressions arithmétiques pour améliorer la précision numérique ont été proposées. Dans ce travail, nous allons une étape plus loin en transformant automatiquement non seulement des expressions arithmétiques mais des programmes complets contenant des affectations, des structures de contrôle et des fonctions. Nous définissons un ensemble de règles de transformation permettant la génération, sous certaines conditions et en un temps polynômial, des expressions pluslarges en appliquant des calculs formels limités, au sein de plusieurs itérations d’une boucle. Par la suite, ces larges expressions sont re-parenthésées pour trouver la meilleure expression améliorant ainsi la précision numérique des calculs de programmes. Notre approche se base sur les techniques d’analyse statique par interprétation abstraite pour sur-rapprocher les erreurs d’arrondi dans les programmes et au moment de la transformation des expressions. Cette approche est implémenté dans notre outil et des résultats expérimentaux sur des algorithmes numériques classiques et des programmes venant du monde d’embarqués sont présentés
Critical software based on floating-point arithmetic requires rigorous verification and validation process to improve our confidence in their reliability and their safety. Unfortunately available techniques for this task often provide overestimates of the round-off errors. We can cite Arian 5, Patriot rocket as well-known examples of disasters. These last years, several techniques have been proposed concerning the transformation of arithmetic expressions in order to improve their numerical accuracy and, in this work, we go one step further by automatically transforming larger pieces of code containing assignments, control structures and functions. We define a set of transformation rules allowing the generation, under certain conditions and in polynomial time, of larger expressions by performing limited formal computations, possibly among several iterations of a loop. These larger expressions are better suited to improve, by re-parsing, the numerical accuracy of the program results. We use abstract interpretation based static analysis techniques to over-approximate the round-off errors in programs and during the transformation of expressions. A tool has been implemented and experimental results are presented concerning classical numerical algorithms and algorithms for embedded systems
APA, Harvard, Vancouver, ISO, and other styles
33

Bous, Frederik. "A neural voice transformation framework for modification of pitch and intensity." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS382.

Full text
Abstract:
La voix humaine est une grande source de fascination et un objet de recherche depuis plus de 100 ans. Pendant ce temps, de nombreuses technologies ont germées autour de la voix, comme le vocodeur, qui fournit une représentation paramétrique de la voix, couramment utilisée pour la transformation de la voix. Dans cette tradition, les limites des approches basées uniquement sur le traitement du signal sont évidentes : Pour créer des transformations cohérentes, les dépendances entre les différentes propriétés vocales doivent être bien comprises et modélisées avec précision. Modéliser ces corrélations avec des heuristiques obtenues par des études empiriques ne suffit pas à créer des résultats naturels. Il est nécessaire d'extraire systématiquement des informations sur la voix et d'utiliser automatiquement ces informations lors du processus de transformation. Les progrès récents de la puissance de calcul permettent cette analyse systématique des données au moyen de l'apprentissage automatique. Cette thèse utilise donc l'apprentissage automatique pour créer un système neuronal de transformation de la voix. Le système neuronal de transformation de la voix, présenté ici, fonctionne en deux étapes : Tout d'abord, un vocodeur neuronal permet d'établir une correspondance entre la forme d'onde et une représentation mel-spectrogramme des signaux vocaux. Ensuite, un auto-encodeur avec un goulot d'étranglement permet de démêler différentes propriétés de la voix du reste de l'information. L'auto-encodeur permet de modifier une propriété de la voix tout en ajustant automatiquement d'autres caractéristiques de façon à en conserver le réalisme. Dans la première partie de cette thèse, nous comparons différentes approches du vocodage neuronal et nous expliquons pourquoi la représentation mel-spectrogramme est plus adapté pour la transformation neuronale de la voix plutôt que les espaces paramétriques du vocodeur conventionnels. Dans la deuxième partie, nous présentons l'auto-encodeur avec goulot d'étranglement de l'information. L'auto-encodeur crée un code latent indépendant du conditionnement en entrée. En utilisant ce code latent, le synthétiseur peut effectuer la transformation en combinant le code latent original avec une courbe de paramètres modifiée. Nous transformons la voix en utilisant deux paramètres de contrôle : la fréquence fondamentale et le niveau sonore vocal. La transformation de la fréquence fondamentale est un problème qui a longtemps été abordé : Notre approche est comparable aux techniques existantes puisqu'elles utilisent la fréquence fondamentale comme paramètre. Cela nous permet également d'étudier comment l'auto-encodeur modélise les dépendances entre la fréquence fondamentale et d'autres propriétés de la voix dans un environnement connu. Quant au niveau sonore vocal, nous sommes confrontés au problème de la rareté des annotations. Par conséquent, nous proposons d'abord une nouvelle technique d'estimation du niveau sonore vocal dans de grandes bases de données de voix ; puis nous utilisons ces annotations pour entraîner un auto-encodeur avec goulot d'étranglement permettant de modifier le niveau sonore vocal
Human voice has been a great source of fascination and an object of research for over 100 years. During that time numerous technologies have sprouted around the voice, such as the vocoder, which provides a parametric representation of the voice, commonly used for voice transformation. From this tradition, the limitations of purely signal processing based approaches are evident: To create meaningful transformations the codependencies between different voice properties have to be understood well and modelled precisely. Modelling these correlations with heuristics obtained by empiric studies is not sufficient to create natural results. It is necessary to extract information about the voice systematically and use this information during the transformation process automatically. Recent advances in computer hardware permit this systematic analysis of data by means of machine learning. This thesis thus uses machine learning to create a neural voice transformation framework. The proposed neural voice transformation framework works in two stages: First a neural vocoder allows mapping between a raw audio and a mel-spectrogram representation of voice signals. Secondly, an auto-encoder with information bottleneck allows disentangling various voice properties from the remaining information. The auto-encoder allows changing one voice property while automatically adjusting the remaining voice properties. In the first part of this thesis, we discuss different approaches to neural vocoding and reason why the mel-spectrogram is better suited for neural voice transformations than conventional parametric vocoder spaces. In the second part we discuss the information bottleneck auto-encoder. The auto-encoder creates a latent code that is independent of its conditional input. Using the latent code the synthesizer can perform the transformation by combining the original latent code with a modified parameter curve. We transform the voice using two control parameters: the fundamental frequency and the voice level. Transformation of the fundamental frequency is an objective with a long history. Using the fundamental frequency allows us to compare our approach to existing techniques and study how the auto-encoder models the dependency on other properties in a well known environment. For the voice level, we face the problem that annotations hardly exist. Therefore, first we provide a new estimation technique for voice level in large voice databases, and subsequently use the voice level annotations to train a bottleneck auto-encoder that allows changing the voice level
APA, Harvard, Vancouver, ISO, and other styles
34

Coupez, Thierry. "Grandes transformations et remaillage automatique." Paris, ENMP, 1991. http://www.theses.fr/1991ENMP0615.

Full text
Abstract:
Des conditions d'incompressibilite incrementale non lineaire et linearisee sont proposees dans le chapitre 1. Elles permettent d'assurer la conservation du volume dans les formulations incrementales dites lagrangiennes reactualisees. Le chapitre 2 est consacre a la prise en compte de l'incompressibilite dans les methodes elements finis appliquees a la viscoplasticite. Un mailleur automatique bi-dimensionnel, basee sur l'algorithme de la triangulation de delaunay est presente dans le chapitre 3. On decrit l'algorithme d'un generateur de contour. On applique ces outils au remaillage automatique dans la simulation numerique bi-dimensionnel et axisymetrique du forgeage. Une nouvelle methode de generation de maillage est proposee dans le chapitre 4. Elle est basee sur l'amelioration de topologie de maillage generalisee et un principe de volume minimal. Un mailleur de surface gauche permettant de traiter la surface des maillages est propose, qui assure la preservation de la geometrie a l'aide d'une mesure angulaire de la courbure concentree au nuds de la triangulation. L'application de ces outils au remaillage automatique 3d est presentee et illustree par les exemples de cas industriels du chapitre 5
APA, Harvard, Vancouver, ISO, and other styles
35

Mtopi, Fotso Blaise Eugène. "Contribution à une méthodologie de conception modulaire : modélisation de la diversité dans les familles de produits." Phd thesis, Université de Franche-Comté, 2006. http://tel.archives-ouvertes.fr/tel-00241342.

Full text
Abstract:
Les travaux présentés dans cette thèse portent sur la modélisation des familles de produits. Ces travaux se placent fondamentalement dans le domaine de l'Ingénierie Intégrée ou du Concurrent Engineering et portent sur la conception intégrée modulaire de famille de produits, ils sont une suite des travaux développés au LAB par l'équipe Méthodologie de l'Assemblage. Dans ce mémoire, nous proposons une modélisation de famille de produits s'appuyant sur des concepts de modularité, les grammaires de graphe et sur les transformations matricielles.
Dans le chapitre 1, nous présentons les concepts et les problèmatiques liés aux nouvelles formes et organisation de conception ainsi que l'orientation de nos travaux.
Le chapitre 2 présente les concepts liéa à l'architecture modulaire. Des principes d'organisation d'une architecture de famille de produits sont proposés.
Le chapitre 3 utilise les grammaires de graphe pour la modélisation de familles de produits. Cet outil a le double avantage de s'appuyer sur une formulation mathématique et des représentations graphiques. Son choix pour la modélisation d'une famille de produits se justifie car il permet de mettre en évidence les liaisons complexes entre les modules et les composants de la famille, ceci à travers la manipulation de la génération des variantes. Le développement et l'application du modèle sur une étude de cas industrielle démontrent le potentiel apporté par ce type de modélisation.
Le chapitre 4 contribue à une réflexion sur la complexité en conception par une approche matricielle. A partir d'une analyse structurelle des familles de produits, nous proposons des matrices de décomposition reliant les exigences fonctionnelles aux composants génériques constants, partiels et variants. A partir d'un exemple, nous montrons comment structurer les solutions technologiques associées aux fonctions sous forme de matrices diagonales par bloc. Chacun de ces blocs peut être vu comme un module d'une famille de produits et permet de regrouper les solutions technologiques associées à la fonction de ce module. Cette représentation permet de traduire le passage du fonctionnel à l'organique.
APA, Harvard, Vancouver, ISO, and other styles
36

Jouvelot, Pierre. "Parallelisation semantique : une approche denotationnelle non-standard pour la parallelisation de programmes imperatifs sequentiels." Paris 6, 1986. http://www.theses.fr/1986PA066559.

Full text
Abstract:
Notre principe consiste a voir les transformations de programmes introduites par la parllelisation comme definissant des semantiques denotationnelles non-standards du langage de programmation. Nous montrons comment utiliser ce concept pour detecter, dans un langage imperatif simplifie all, des instructions complexes parallelisables, reconnaitre des reductions et prendre en compte certains programmes avec indirections
APA, Harvard, Vancouver, ISO, and other styles
37

Richa, Elie. "Qualification des générateurs de code source dans le domaine de l'avionique : le test automatisé des chaines de transformation de modèles." Thesis, Paris, ENST, 2015. http://www.theses.fr/2015ENST0082/document.

Full text
Abstract:
Dans l’industrie de l’avionique, les Générateurs Automatiques de Code (GAC) sont de plus en plus utilisés pour produire des parties du logiciel embarqué. Puisque le code généré fait partie d’un logiciel critique, les standards de sûreté exigent une vérification approfondie du GAC: la qualification. Dans cette thèse en collaboration avec AdaCore, nous cherchons à réduire le coût des activités de test par des méthodes automatiques et efficaces.La première partie de la thèse aborde le sujet du test unitaire qui assure une exhaustivité élevée mais qui est difficile à réaliser pour les GACs. Nous proposons alors une méthode qui garantit le même niveau d’exhaustivité en n’utilisant que des tests d’intégration de mise en œuvre plus facile. Nous proposons tout d’abord une formalisation du langage ATL de définition du GAC dans la théorie des Transformations Algébriques de Graphes. Nous définissons ensuite une traduction de postconditions exprimant l’exhaustivité du test unitaire en des préconditions équivalentes qui permettent à terme de produire des tests d’intégration assurant le même niveau d’exhaustivité. Enfin, nous proposons d’optimiser l’algorithme complexe de notre analyse à l’aide de stratégies de simplification dont nous mesurons expérimentalement l’efficacité.La seconde partie du travail concerne les oracles de tests du GAC, c’est à dire le moyen de valider le code généré par le GAC lors d’un test. Nous proposons un langage de spécification de contraintes textuelles capables d’attester automatiquement de la validité du code généré. Cette approche est déployée expérimentalement à AdaCore pour le projet QGen, un générateur de code Ada/C à partir de Simulink®
In the avionics industry, Automatic Code Generators (ACG) are increasingly used to produce parts of the embedded software. Since the generated code is part of critical software, safety standards require a thorough verification of the ACG called qualification. In this thesis in collaboration with AdaCore, we seek to reduce the cost of testing activities by automatic and effective methods.The first part of the thesis addresses the topic of unit testing which ensures exhaustiveness but is difficult to achieve for ACGs. We propose a method that guarantees the same level of exhaustiveness by using only integration tests which are easier to carry out. First, we propose a formalization of the ATL language in which the ACG is defined in the Algebraic Graph Transformation theory. We then define a translation of postconditions expressing the exhaustiveness of unit testing into equivalent preconditions that ultimately support the production of integration tests providing the same level of exhaustiveness. Finally, we propose to optimize the complex algorithm of our analysis using simplification strategies that we assess experimentally.The second part of the work addresses the oracles of ACG tests, i.e. the means of validating the code generated by the ACG during a test. We propose a language for the specification of textual constraints able to automatically check the validity of the generated code. This approach is experimentally deployed at AdaCore for a Simulink® to Ada/C ACG called QGen
APA, Harvard, Vancouver, ISO, and other styles
38

Machado, Javam de Castro. "Parallélisme et transactions dans les bases de données à objets." Université Joseph Fourier (Grenoble), 1995. https://tel.archives-ouvertes.fr/tel-00005039.

Full text
Abstract:
Notre travail cherche à exploiter le parallélisme dans le contexte des systèmes de gestion de bases de données a objets a d'autres niveaux d'abstraction que celui d'une requête SQL, à savoir le parallélisme intra-transaction et le parallélisme intra-application. Notre approche pour parallélisassions des transactions considère un modèle de transactions classiques, ou une transaction est une séquence d’Operations. Le parallélisme intra-transaction consiste à transformer le code d'une transaction pour pouvoir exécuter ses opérations en parallèle. Notre approche pour l'exploitation du parallélisme intra-application étend tout d'abord le modèle de parallélisme intra-transaction de manière à considérer la transaction comme unité de parallélisassions. Deuxièmement nous avons considère l'exploitation du parallélisme intra-application dans un contexte ou le modèle de transaction fournit des transactions emboitées. Nous avons développé un modèle de parallélisassions des applications où nous associons le parallélisme offert par le modèle des transactions emboitées avec le parallélisme par transformation de notre approche de parallélisation des transactions
Nous avons implanté un premier prototype qui met en œuvre le modèle de parallélisation des transactions. Pour cela, nous avons utilisé le système de bases de données à objet 02. Notre prototype introduit le parallélisme par la création et la synchronisation des activités parallèles au sein du processus client 02 qui exécute une application. Le système étant développé sur une machine monoprocesseur, les fonctions liées au parallélisme utilisent de processus légers. Nous avons applique ensuite notre modèle de parallélisations au système de règles NAOS. Notre approche considère l'ensemble de règles d'un cycle d'exécution, dites règles candidates, pour la parallélisation. Nous construisons un plan d'exécution pour les règles candidates d'un cycle qui détermine l'exécution séquentielle ou parallèle pour les règles
APA, Harvard, Vancouver, ISO, and other styles
39

Gasti, Wahida. "Etude et realisation d'un processeur rapide de transformations geometriques d'images numeriques." Université Louis Pasteur (Strasbourg) (1971-2008), 1986. http://www.theses.fr/1986STR13131.

Full text
Abstract:
Les transformations geometriques d'images sont essentiellement utilisees pour: corriger les erreurs de parallaxe dues aux conditions de prise de vues, comparer des images provenant de capteurs differents, superposer des images reelles et des images conceptuelles, realiser des effets speciaux
APA, Harvard, Vancouver, ISO, and other styles
40

Richa, Elie. "Qualification des générateurs de code source dans le domaine de l'avionique : le test automatisé des chaines de transformation de modèles." Electronic Thesis or Diss., Paris, ENST, 2015. http://www.theses.fr/2015ENST0082.

Full text
Abstract:
Dans l’industrie de l’avionique, les Générateurs Automatiques de Code (GAC) sont de plus en plus utilisés pour produire des parties du logiciel embarqué. Puisque le code généré fait partie d’un logiciel critique, les standards de sûreté exigent une vérification approfondie du GAC: la qualification. Dans cette thèse en collaboration avec AdaCore, nous cherchons à réduire le coût des activités de test par des méthodes automatiques et efficaces.La première partie de la thèse aborde le sujet du test unitaire qui assure une exhaustivité élevée mais qui est difficile à réaliser pour les GACs. Nous proposons alors une méthode qui garantit le même niveau d’exhaustivité en n’utilisant que des tests d’intégration de mise en œuvre plus facile. Nous proposons tout d’abord une formalisation du langage ATL de définition du GAC dans la théorie des Transformations Algébriques de Graphes. Nous définissons ensuite une traduction de postconditions exprimant l’exhaustivité du test unitaire en des préconditions équivalentes qui permettent à terme de produire des tests d’intégration assurant le même niveau d’exhaustivité. Enfin, nous proposons d’optimiser l’algorithme complexe de notre analyse à l’aide de stratégies de simplification dont nous mesurons expérimentalement l’efficacité.La seconde partie du travail concerne les oracles de tests du GAC, c’est à dire le moyen de valider le code généré par le GAC lors d’un test. Nous proposons un langage de spécification de contraintes textuelles capables d’attester automatiquement de la validité du code généré. Cette approche est déployée expérimentalement à AdaCore pour le projet QGen, un générateur de code Ada/C à partir de Simulink®
In the avionics industry, Automatic Code Generators (ACG) are increasingly used to produce parts of the embedded software. Since the generated code is part of critical software, safety standards require a thorough verification of the ACG called qualification. In this thesis in collaboration with AdaCore, we seek to reduce the cost of testing activities by automatic and effective methods.The first part of the thesis addresses the topic of unit testing which ensures exhaustiveness but is difficult to achieve for ACGs. We propose a method that guarantees the same level of exhaustiveness by using only integration tests which are easier to carry out. First, we propose a formalization of the ATL language in which the ACG is defined in the Algebraic Graph Transformation theory. We then define a translation of postconditions expressing the exhaustiveness of unit testing into equivalent preconditions that ultimately support the production of integration tests providing the same level of exhaustiveness. Finally, we propose to optimize the complex algorithm of our analysis using simplification strategies that we assess experimentally.The second part of the work addresses the oracles of ACG tests, i.e. the means of validating the code generated by the ACG during a test. We propose a language for the specification of textual constraints able to automatically check the validity of the generated code. This approach is experimentally deployed at AdaCore for a Simulink® to Ada/C ACG called QGen
APA, Harvard, Vancouver, ISO, and other styles
41

Bourgeois, Christian. "Approximation par préondelettes d'équations intégrales." Valenciennes, 1999. https://ged.uphf.fr/nuxeo/site/esupversions/0d630fd4-aa50-46e0-b3e2-4dbbfd7042cc.

Full text
Abstract:
La résolution de problèmes aux limites par la méthode des équations intégrales permet de réduire la dimension du domaine d'étude et donc de diminuer la place mémoire nécessaire à l'implémentation de ces méthodes. Néanmoins, la décomposition de la solution dans une base nodale classique conduit à des matrices de raideur pleines et mal conditionnées. D'où l'idée de changer la base utilisée et de construire une base de préondelettes qui caractérise l'espace de Sobolev introduit dans la formulation variationnelle. Le préconditionnement est alors très simple. De plus, une procédure de compression de la matrice de raideur peut être effectuée, en remplaçant de nombreux coefficients par zéro. La solution du système compressé converge alors vers la solution exacte du problème initial, quand le maillage tend vers zéro. Les inconvénients essentiels de la méthode des équations intégrales sont alors supprimés. On applique cette méthode à deux équations aux dérivées partielles : le problème de la plaque à bords libres dans un domaine polygonal et l'équation de la chaleur dans un domaine régulier du plan. Dans ces deux exemples, de nombreuses précautions et adaptations doivent être prises pour que la stratégie décrite ci-dessus soit appliquée.
APA, Harvard, Vancouver, ISO, and other styles
42

Kader, Mahamane. "Contributions à la modélisation et au contrôle des systèmes intelligents distribués : application au contrôl des vibrations d'une poutre." Université de Besançon, 2000. http://www.theses.fr/2000BESA2018.

Full text
Abstract:
Nous présentons une approche nouvelle pour la conception des systèmes intelligents distribués dans le cadre du contrôle des vibrations d’une poutre. Nous construisons un circuit analogique distribué qui réalise une approximation d’une loi de contrôle optimale, avec un système d’observation et de contrôle utilisant des transducteurs piézoélectiques distribués. […] Nous proposons une paramétrisation des contrôleurs dynamiques H infini pour des équations d’ état linéaires de dimension finie. […]Une étude de stabilisation a été réalisée sur le modèle à coefficients constants. Les résultats théoriques obtenus ont été validés par des calculs numériques
We present a new approach for the design of intelligent distributed systems for the control of beam vibrations. We construct a distributed analog circuit that approximates an optimal control law, with an observation and control system using distributed piezoelectric transducers. […] We propose a parameterization of the dynamic controllers H infinite for linear equations of state of finite dimension. […] A stabilization study was carried out on the model with constant coefficients. The theoretical results obtained were validated by numerical calculations
APA, Harvard, Vancouver, ISO, and other styles
43

Verfaille, Vincent. "Effets audionumériques adaptatifs : théorie, mise en œuvre et usage en création musicale numérique." Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2003. http://tel.archives-ouvertes.fr/tel-00004448.

Full text
Abstract:
Ce travail de thèse porte sur la théorie, la mise en œuvre et les applications musicales des effets audionumériques adaptatifs. Dans la première partie, nous plaçons le sujet dans le contexte des transformations sonores. Un grand nombre de techniques de traitement du signal sonore numérique se complètent et fournissent un ensemble d'algorithmes permettant de transformer le son. Ces transformations sont appliquées selon les dimensions perceptives du son musical, à savoir la dynamique, la durée, la hauteur, la spatialisation et le timbre. Pour quelques effets, les contrôles évoluent de manière automatique ou périodique, et ce contrôle est intégré à l'algorithme. Le contrôle offert à l'utilisateur porte sur les valeurs de certains paramètres de l'algorithme. Il se réalise à l'aide de contrôleurs réels, tels des potentiomètres, des interrupteurs, ou à l'aide de contrôleurs virtuels, telles les interfaces graphiques sur écran d'ordinateur. En synthèse sonore, l'un des sujets majeurs d'étude à l'heure actuelle est le mapping : il s'agit de savoir comment mettre en correspondance les paramètres d'un contrôleur gestuel et les paramètres d'un algorithme de synthèse. Notre étude se situe à l'intersection entre les effets audionumériques, le contrôle adaptatif et gestuel, et la description de contenu sonore. Dans la seconde partie, nous présentons les effets audionumériques adaptatifs tels que nous les avons formalisés et développés. Ce sont des effets dont le contrôle est automatisé en fonction de descripteurs sonores. Nous avons étudié puis utilisé de nombreux algorithmes de traitement, certains en temps-réel et d'autres hors temps-réel. Nous les avons améliorés afin de permettre l'utilisation de valeurs de contrôle variables. Une réflexion a été menée pour choisir une classification des effets qui ait du sens pour le musicien ; elle a logiquement abouti à la taxonomie perceptive. Parallèlement, nous avons étudié les descripteurs sonores et les moyens de contrôle d'un effet, par le son et par le geste. Nous avons rassemblé de nombreux descripteurs sonores, utilisés en psychoacoustique, en analyse-synthèse, pour la segmentation et la classification d'extraits sonores, et pour la transcription automatique de partition. Nous proposons un contrôle généralisé pour les effets adaptatifs, hiérarchisé en deux niveaux. Le premier niveau de contrôle est le niveau d'adaptation : le contrôle de l'effet est effectué par des descripteurs du son, à l'aide de fonctions de mapping. Nous indiquons des fonctions de conformation (fonctions de transfert non linéaires) permettant de transformer la courbe d'évolution temporelle d'un descripteur, des fonctions de combinaisons des descripteurs ainsi que des fonctions de conformations spécifiques des paramètres de contrôle. Le second niveau de contrôle est celui du contrôle gestuel : le geste agit sur les fonctions de mapping, soit sur la combinaison, soit sur la conformation spécifique des contrôles. De cette étude, il ressort non seulement une généralisation du contrôle des effets audionumériques, mais aussi la réalisation d'outils pour la composition, et leur utilisation en situation musicale. De nombreuses expériences et illustrations sonores ont été réalisées, parmi lesquelles une spatialisation adaptative contrôlée par une danseuse, et un équalisateur stéréophonique adaptatif. Les expériences confirment l'intérêt d'un tel contrôle adaptatif et gestuel, notamment pour modifier l'expressivité d'une phrase musicale, ou pour créer des sons inouïs.
APA, Harvard, Vancouver, ISO, and other styles
44

Malik, Muhammad Ghulam Abbas. "Méthodes et outils pour les problèmes faibles de traduction." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00502192.

Full text
Abstract:
Étant données une langue source L1 et une langue cible L2, un segment (phrase ou titre) S de n mots écrit en L1 peut avoir un nombre exponentiel N=O(kn) de traductions valides T1...TN. Nous nous intéressons au cas où N est très faible en raison de la proximité des formes écrites de L1 et L2. Notre domaine d'investigation est la classe des paires de combinaisons de langue et de système d'écriture (Li-Wi, Lj-Wj) telles qu'il peut y avoir une seule traduction valide, ou un très petit nombre de traductions valides, pour tout segment S de Li écrit en Wi. Le problème de la traduction d'une phrase hindi/ourdou écrite en ourdou vers une phrase équivalente en devanagari tombe dans cette classe. Nous appelons le problème de la traduction pour une telle paire un problème faible de traduction. Nous avons conçu et expérimenté des méthodes de complexité croissante pour résoudre des instances de ce problème, depuis la transduction à états finis simple jusqu'à à la transformation de graphes de chaînes d'arbres syntaxiques partiels, avec ou sans l'inclusion de méthodes empiriques (essentiellement probabilistes). Cela conduit à l'identification de la difficulté de traduction d'une paire (Li-Wi, Lj-Wj) comme le degré de complexité des méthodes de traduction atteignant un objectif souhaité (par exemple, moins de 15% de taux d'erreur). Considérant la translittération ou la transcription comme un cas spécial de traduction, nous avons développé une méthode basée sur la définition d'une transcription intermédiaire universelle (UIT) pour des groupes donnés de couples Li-Wi, et avons utilisé UIT comme un pivot phonético-graphémique. Pour traiter la traduction interdialectale dans des langues à morphologie flexionnelle riche, nous proposons de faire une analyse de surface sur demande et limitée, produisant des arbres syntaxiques partiels, et de l'employer pour mettre à jour et propager des traits tels que le genre et le nombre, et pour traiter les phénomènes aux limites des mots. A côté d'expériences à grande échelle, ce travail a conduit à la production de ressources linguistiques telles que des corpus parallèles et annotés, et à des systèmes opérationnels, tous disponibles gratuitement sur le Web. Ils comprennent des corpus monolingues, des lexiques, des analyseurs morphologiques avec un vocabulaire limité, des grammaires syntagmatiques du hindi, du punjabi et de l'ourdou, des services Web en ligne pour la translittération entre hindi et ourdou, punjabi (shahmukhi) et punjabi (gurmukhi), etc. Une perspective intéressante est d'appliquer nos techniques à des paires distantes LW, pour lesquelles elles pourraient produire efficacement des présentations d'apprentissage actif, sous la forme de sorties pidgin multiples.
APA, Harvard, Vancouver, ISO, and other styles
45

Saint-James, Emmanuel. "De la meta-recursivite comme outil d'implementation." Paris 6, 1987. http://www.theses.fr/1987PA066612.

Full text
Abstract:
Il est montre comment il est possible et pourquoi il est souhaitable d'implementer un langage de programmation exclusivement par autointerpretation. En effet, il est montre qu'un sous ensemble d'un langage de programmation peut etre considere comme sa propre machine virtuelle, et que l'acces interactif au code source du systeme donne au langage une clarte et une puissance d'expression inegalees. Cette technique, nommee metarecursivite, a ete utilisee pour mettre en oeuvre le systeme meta lisp, operationnel sur plusieurs machines
APA, Harvard, Vancouver, ISO, and other styles
46

Dymetman, Marc. "Transformations de grammaires logiques et réversibilité en traduction automatique." Grenoble 1, 1992. http://www.theses.fr/1992GRE10097.

Full text
Abstract:
L'objet de ce travail est de décrire des conditions et des techniques permettant de transformer des grammaires logiques en des programmes d'analyse et de génération: - directement exécutables par l'interpréteur standard de Prolog; - corrects, c'est-à-dire dénotationnellement équivalents à la grammaire logique qu'ils implémentent, et complets, c'est-à-dire tels que toutes les solutions soient énumérées par retour-arrière et que le programme termine. Dans une première partie, l'accent porte sur l'utilisation bidirectionnelle (analyse et génération) d'une même grammaire dans le cadre de la traduction automatique. Nous commençons par décrire une réalisation concrète de la réversibilité dans le contexte du système de traduction CRITTER. Puis nous cherchons à éclaircir le statut théorique de certains problèmes rencontrés en pratique, et proposons une définition formelle du concept même de réversibilité. Sur cette base nous présentons un prototype de grammaire réversible plus satisfaisant des points de vue linguistique et algorithmique. Dans une seconde partie, nous étudions en détail un problème particulier important apparu dans la première partie, celui de l'élimination de la récursion gauche dans une grammaire à clauses définies (DCG). Nous proposons une solution générale à ce problème: la forme normale de Greibach généralisée (GGNF). Ce résultat, qui semble être le premier énoncé de forme normale pour les grammaires logiques (ou plus généralement d'unification), est une extension au cas des DCGs de la forme normale de Greibach classique des grammaires hors-contexte. La transformation est basée sur une généralisation des concepts mathématiques de série formelle et de système algébrique introduits par M. Schützenberger dans l'étude des grammaires régulières et hors-contexte. Cette généralisation a l'intérêt de faire apparaître clairement l'origine algébrique de la souplesse transformationnelle des grammaires logiques, et laisse plus généralement entrevoir les développements intéressants dans l'étude mathématique de la programmation logique
APA, Harvard, Vancouver, ISO, and other styles
47

Charpentier, Francis. "Traitement de la parole par analyse-synthese de fourier : application a la synthese par diphones." Paris, ENST, 1988. http://www.theses.fr/1988ENST0009.

Full text
Abstract:
Ces techniaues sont utilisees dans le but d'obtenir une meilleure qualite de son que celle obtenue par les methodes paramagnetiques habituelles. L'accent est mis sur la double approche suivante: 1) interpretation de la transformee de fourier a court terme comme un banc de filtres et synthese par addition des sorties de ce banc filtre; 2) synthese par superposition et addition de signaux a court terme
APA, Harvard, Vancouver, ISO, and other styles
48

Guermonprez, Philippe. "Inspection automatique des matériaux plans texturés." Valenciennes, 1994. https://ged.uphf.fr/nuxeo/site/esupversions/e4329f80-b368-4f43-a639-0f80c3bb838d.

Full text
Abstract:
Qualité et flexibilité sont les deux atouts de l'industrie textile des pays industrialisés pour faire face à la concurrence. Pour jouer son rôle de référence, le contrôle qualité doit être automatisé. Insuffisantes, les machines actuelles doivent être améliorées tant au niveau des méthodes que des matériels: c'est ce qui a été fait dans le cadre d'un programme BRITE. Les travaux ont porté sur les méthodes et particulièrement sur l'extraction des défauts de leur contexte texture. La méthode proposée s'appuie sur un principe connu, la transformée de Fourier et débouche sur un filtrage nouveau permettant une détection de parties de défaut, qu'il faut donc compléter par une procédure spécifique de chainage intra et intercamera. Étendue aux tissus tissés teints, la méthode offre de nouvelles possibilités en matière de segmentation d'image colorée. La réalisation d'un prototype correspondant de machine d'inspection a permis de constater (pour des tissus monochromes) la qualité des résultats, à un type de défaut près et de garantir la faisabilité industrielle de cette machine. Pour les tisses teints, les tests sont probants mais demandent une validation industrielle.
APA, Harvard, Vancouver, ISO, and other styles
49

Gorecki, Christophe. "Classification par échantillonnage de la densité spectrale d'énergie : Application à l'étude statistique des surfaces et à l'analyse de particules." Besançon, 1989. http://www.theses.fr/1989BESA2015.

Full text
Abstract:
Etude d'un profilometre optique base sur la defocalisation d'un faisceau de lumiere blanche. Etude de deux dispositifs optonumeriques d'analyse statistique utilisant les techniques de fourier optiques: un analyseur de particules et un dispositif de classement automatique des surfaces non polies
APA, Harvard, Vancouver, ISO, and other styles
50

Hascoët, Laurent. "Transformations automatiques de spécifications sémantiques : application : un vérificateur de types." Nice, 1987. http://www.theses.fr/1987NICE4091.

Full text
Abstract:
Pour le problème de la vérification de types incrémentale, nous commençons par exposer et justifier certaines contraintes sur le vérificateur de types à traiter. Lorsque ces contraintes sont vérifiées, nous fournissons un système en grande partie automatique qui génère un vérificateur de types incrémental à partir d'un vérificateur de types ordinaire. La méthode employée consiste d'une part à transformer une vérification de types comportant plusieurs passes, montantes et descendantes, sur l'arbre, pour obtenir un mécanisme en une seule passe montante. D'autre part, nous introduisons une notion de "delta", par laquelle on s'efforce de ne détecter que les erreurs de type qui sont apparues depuis la dernière vérification
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography