To see the other types of publications on this topic, follow the link: Modèle génératifs.

Dissertations / Theses on the topic 'Modèle génératifs'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèle génératifs.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Azeraf, Elie. "Classification avec des modèles probabilistes génératifs et des réseaux de neurones. Applications au traitement des langues naturelles." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. https://theses.hal.science/tel-03880848.

Full text
Abstract:
Un nombre important de modèles probabilistes connaissent une grande perte d'intérêt pour la classification avec apprentissage supervisé depuis un certain nombre d'années, tels que le Naive Bayes ou la chaîne de Markov cachée. Ces modèles, qualifiés de génératifs, sont critiqués car leur classificateur induit doit prendre en compte la loi des observations, qui peut s'avérer très complexe à apprendre quand le nombre de features de ces derniers est élevé. C'est notamment le cas en Traitement des Langues Naturelles, où les récents algorithmes convertissent des mots en vecteurs numériques de grande taille pour atteindre de meilleures performances.Au cours de cette thèse, nous montrons que tout modèle génératif peut définir son classificateur sans prendre en compte la loi des observations. Cette proposition remet en question la catégorisation connue des modèles probabilistes et leurs classificateurs induits - en classes générative et discriminante - et ouvre la voie à un grand nombre d'applications possibles. Ainsi, la chaîne de Markov cachée peut être appliquée sans contraintes à la décomposition syntaxique de textes, ou encore le Naive Bayes à l'analyse de sentiments.Nous allons plus loin, puisque cette proposition permet de calculer le classificateur d'un modèle probabiliste génératif avec des réseaux de neurones. Par conséquent, nous « neuralisons » les modèles cités plus haut ainsi qu'un grand nombre de leurs extensions. Les modèles ainsi obtenus permettant d'atteindre des scores pertinents pour diverses tâches de Traitement des Langues Naturelles tout en étant interprétable, nécessitant peu de données d'entraînement, et étant simple à mettre en production
Many probabilistic models have been neglected for classification tasks with supervised learning for several years, as the Naive Bayes or the Hidden Markov Chain. These models, called generative, are criticized because the induced classifier must learn the observations' law. This problem is too complex when the number of observations' features is too large. It is especially the case with Natural Language Processing tasks, as the recent embedding algorithms convert words in large numerical vectors to achieve better scores.This thesis shows that every generative model can define its induced classifier without using the observations' law. This proposition questions the usual categorization of the probabilistic models and classifiers and allows many new applications. Therefore, Hidden Markov Chain can be efficiently applied to Chunking and Naive Bayes to sentiment analysis.We go further, as this proposition allows to define the classifier induced from a generative model with neural network functions. We "neuralize" the models mentioned above and many of their extensions. Models so obtained allow to achieve relevant scores for many Natural Language Processing tasks while being interpretable, able to require little training data, and easy to serve
APA, Harvard, Vancouver, ISO, and other styles
2

Hadjeres, Gaëtan. "Modèles génératifs profonds pour la génération interactive de musique symbolique." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS027/document.

Full text
Abstract:
Ce mémoire traite des modèles génératifs profonds appliqués à la génération automatique de musique symbolique. Nous nous attacherons tout particulièrement à concevoir des modèles génératifs interactifs, c'est-à-dire des modèles instaurant un dialogue entre un compositeur humain et la machine au cours du processus créatif. En effet, les récentes avancées en intelligence artificielle permettent maintenant de concevoir de puissants modèles génératifs capables de générer du contenu musical sans intervention humaine. Il me semble cependant que cette approche est stérile pour la production artistique dans le sens où l'intervention et l'appréciation humaines en sont des piliers essentiels. En revanche, la conception d'assistants puissants, flexibles et expressifs destinés aux créateurs de contenus musicaux me semble pleine de sens. Que ce soit dans un but pédagogique ou afin de stimuler la créativité artistique, le développement et le potentiel de ces nouveaux outils de composition assistée par ordinateur sont prometteurs. Dans ce manuscrit, je propose plusieurs nouvelles architectures remettant l'humain au centre de la création musicale. Les modèles proposés ont en commun la nécessité de permettre à un opérateur de contrôler les contenus générés. Afin de rendre cette interaction aisée, des interfaces utilisateurs ont été développées ; les possibilités de contrôle se manifestent sous des aspects variés et laissent entrevoir de nouveaux paradigmes compositionnels. Afin d'ancrer ces avancées dans une pratique musicale réelle, je conclue cette thèse sur la présentation de quelques réalisations concrètes (partitions, concerts) résultant de l'utilisation de ces nouveaux outils
This thesis discusses the use of deep generative models for symbolic music generation. We will be focused on devising interactive generative models which are able to create new creative processes through a fruitful dialogue between a human composer and a computer. Recent advances in artificial intelligence led to the development of powerful generative models able to generate musical content without the need of human intervention. I believe that this practice cannot be thriving in the future since the human experience and human appreciation are at the crux of the artistic production. However, the need of both flexible and expressive tools which could enhance content creators' creativity is patent; the development and the potential of such novel A.I.-augmented computer music tools are promising. In this manuscript, I propose novel architectures that are able to put artists back in the loop. The proposed models share the common characteristic that they are devised so that a user can control the generated musical contents in a creative way. In order to create a user-friendly interaction with these interactive deep generative models, user interfaces were developed. I believe that new compositional paradigms will emerge from the possibilities offered by these enhanced controls. This thesis ends on the presentation of genuine musical projects like concerts featuring these new creative tools
APA, Harvard, Vancouver, ISO, and other styles
3

Hadjeres, Gaëtan. "Modèles génératifs profonds pour la génération interactive de musique symbolique." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS027.

Full text
Abstract:
Ce mémoire traite des modèles génératifs profonds appliqués à la génération automatique de musique symbolique. Nous nous attacherons tout particulièrement à concevoir des modèles génératifs interactifs, c'est-à-dire des modèles instaurant un dialogue entre un compositeur humain et la machine au cours du processus créatif. En effet, les récentes avancées en intelligence artificielle permettent maintenant de concevoir de puissants modèles génératifs capables de générer du contenu musical sans intervention humaine. Il me semble cependant que cette approche est stérile pour la production artistique dans le sens où l'intervention et l'appréciation humaines en sont des piliers essentiels. En revanche, la conception d'assistants puissants, flexibles et expressifs destinés aux créateurs de contenus musicaux me semble pleine de sens. Que ce soit dans un but pédagogique ou afin de stimuler la créativité artistique, le développement et le potentiel de ces nouveaux outils de composition assistée par ordinateur sont prometteurs. Dans ce manuscrit, je propose plusieurs nouvelles architectures remettant l'humain au centre de la création musicale. Les modèles proposés ont en commun la nécessité de permettre à un opérateur de contrôler les contenus générés. Afin de rendre cette interaction aisée, des interfaces utilisateurs ont été développées ; les possibilités de contrôle se manifestent sous des aspects variés et laissent entrevoir de nouveaux paradigmes compositionnels. Afin d'ancrer ces avancées dans une pratique musicale réelle, je conclue cette thèse sur la présentation de quelques réalisations concrètes (partitions, concerts) résultant de l'utilisation de ces nouveaux outils
This thesis discusses the use of deep generative models for symbolic music generation. We will be focused on devising interactive generative models which are able to create new creative processes through a fruitful dialogue between a human composer and a computer. Recent advances in artificial intelligence led to the development of powerful generative models able to generate musical content without the need of human intervention. I believe that this practice cannot be thriving in the future since the human experience and human appreciation are at the crux of the artistic production. However, the need of both flexible and expressive tools which could enhance content creators' creativity is patent; the development and the potential of such novel A.I.-augmented computer music tools are promising. In this manuscript, I propose novel architectures that are able to put artists back in the loop. The proposed models share the common characteristic that they are devised so that a user can control the generated musical contents in a creative way. In order to create a user-friendly interaction with these interactive deep generative models, user interfaces were developed. I believe that new compositional paradigms will emerge from the possibilities offered by these enhanced controls. This thesis ends on the presentation of genuine musical projects like concerts featuring these new creative tools
APA, Harvard, Vancouver, ISO, and other styles
4

Vandewalle, Vincent. "Estimation et sélection en classification semi-supervisée." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2009. http://tel.archives-ouvertes.fr/tel-00447141.

Full text
Abstract:
Le sujet de cette thèse est la classification semi-supervisée qui est considérée d'un point de vue décisionnel. Nous nous intéressons à la question de choix de modèles dans ce contexte où les modèles sont estimés en utilisant conjointement des données étiquetées et des données non étiquetées plus nombreuses. Nous concentrons notre recherche sur les modèles génératifs où la classification semi-supervisée s'envisage sans difficulté, contrairement au cadre prédictif qui nécessite des hypothèses supplémentaires peu naturelles. Après avoir dressé un état de l'art de la classification semi-supervisée, nous décrivons l'estimation des paramètres d'un modèle de classification à l'aide de données étiquetées et non étiquetées par l'algorithme EM. Nos contributions sur la sélection de modèles font l'objet des deux chapitres suivants. Au chapitre 3, nous présentons un test statistique où les données non étiquetées sont utilisées pour mettre à l'épreuve le modèle utilisé. Au chapitre 4 nous présentons un critère de sélection de modèles AIC_cond, dérivé du critère AIC d'un point de vue prédictif. Nous prouvons la convergence asymptotique de ce critère particulièrement bien adapté au contexte semi-supervisé et ses bonnes performances pratiques comparé à la validation croisée et à d'autres critères de vraisemblance pénalisée. Une deuxième partie de la thèse, sans rapport direct avec le contexte semi-supervisé, présente des modèles multinomiaux pour la classification sur variables qualitatives. Nous avons conçu ces modèles pour répondre à des limitations des modèles multinomiaux parcimonieux proposés dans le logiciel MIXMOD. À cette occasion, nous proposons un critère type BIC qui prend en compte de manière spécifique la complexité de ces modèles multinomiaux contraints.
APA, Harvard, Vancouver, ISO, and other styles
5

Caillon, Antoine. "Hierarchical temporal learning for multi-instrument and orchestral audio synthesis." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS115.

Full text
Abstract:
Les progrès récents en matière d'apprentissage automatique ont permis l'émergence de nouveaux types de modèles adaptés à de nombreuses tâches, ce grâce à l'optimisation d'un ensemble de paramètres visant à minimiser une fonction de coût. Parmi ces techniques, les modèles génératifs probabilistes ont permis des avancées notables dans la génération de textes, d'images et de sons. Cependant, la génération de signaux audio musicaux reste un défi. Cela vient de la complexité intrinsèque des signaux audio, une seule seconde d'audio brut comprenant des dizaines de milliers d'échantillons individuels. La modélisation des signaux musicaux est plus difficile encore, étant donné que d'importantes informations sont structurées sur différentes échelles de temps, allant du micro (timbre, transitoires, phase) au macro (genre, tempo, structure). La modélisation simultanée de toutes ces échelles implique l'utilisation de larges architectures de modèles, rendant impossible leur utilisation en temps réel en raison de la complexité de calcul. Dans cette thèse, nous proposons une approche hiérarchique de la modélisation du signal audio musical, permettant l'utilisation de modèles légers tout en offrant différents niveaux de contrôle à l'utilisateur. Notre hypothèse principale est que l'extraction de différents niveaux de représentation d'un signal audio permet d'abstraire la complexité des niveaux inférieurs pour chaque étape de modélisation. Dans un premier temps, nous proposons un modèle audio combinant Auto Encodeur Variationnel et Réseaux Antagonistes Génératifs, appliqué directement sur la forme d'onde brute et permettant une synthèse audio neuronale de haute qualité à 48 kHz, tout en étant 20 fois plus rapide que le temps réel sur CPU. Nous étudions ensuite l'utilisation d'approches autoregressives pour modéliser le comportement temporel de la représentation produite par ce modèle audio bas niveau, tout en utilisant des signaux de conditionnement supplémentaires tels que des descripteurs acoustiques ou le tempo. Enfin, nous proposons une méthode pour utiliser tous les modèles proposés directement sur des flux audio, ce qui les rend utilisables dans des applications temps réel que nous avons développées au cours de cette thèse. Nous concluons en présentant diverses collaborations créatives menées en parallèle de ce travail avec plusieurs compositeurs et musiciens, intégrant directement l'état actuel des technologies proposées au sein de pièces musicales
Recent advances in deep learning have offered new ways to build models addressing a wide variety of tasks through the optimization of a set of parameters based on minimizing a cost function. Amongst these techniques, probabilistic generative models have yielded impressive advances in text, image and sound generation. However, musical audio signal generation remains a challenging problem. This comes from the complexity of audio signals themselves, since a single second of raw audio spans tens of thousands of individual samples. Modeling musical signals is even more challenging as important information are structured across different time scales, from micro (e.g. timbre, transient, phase) to macro (e.g. genre, tempo, structure) information. Modeling every scale at once would require large architectures, precluding the use of resulting models in real time setups for computational complexity reasons.In this thesis, we study how a hierarchical approach to audio modeling can address the musical signal modeling task, while offering different levels of control to the user. Our main hypothesis is that extracting different representation levels of an audio signal allows to abstract the complexity of lower levels for each modeling stage. This would eventually allow the use of lightweight architectures, each modeling a single audio scale. We start by addressing raw audio modeling by proposing an audio model combining Variational Auto Encoders and Generative Adversarial Networks, yielding high-quality 48kHz neural audio synthesis, while being 20 times faster than real time on CPU. Then, we study how autoregressive models can be used to understand the temporal behavior of the representation yielded by this low-level audio model, using optional additional conditioning signals such as acoustic descriptors or tempo. Finally, we propose a method for using all the proposed models directly on audio streams, allowing their use in realtime applications that we developed during this thesis. We conclude by presenting various creative collaborations led in parallel of this work with several composers and musicians, directly integrating the current state of the proposed technologies inside musical pieces
APA, Harvard, Vancouver, ISO, and other styles
6

Pagliarini, Silvia. "Modeling the neural network responsible for song learning." Thesis, Bordeaux, 2021. http://www.theses.fr/2021BORD0107.

Full text
Abstract:
Pendant la première période de leur vie, les bébés et les jeunes oiseaux présentent des phases de développement vocal comparables : ils écoutent d'abord leurs parents/tuteurs afin de construire une représentation neurale du stimulus auditif perçu, puis ils commencent à produire des sons qui se rapprochent progressivement du chant de leur tuteur. Cette phase d'apprentissage est appelée la phase sensorimotrice et se caractérise par la présence de babillage. Elle se termine lorsque le chant se cristallise, c'est-à-dire lorsqu'il devient semblable à celui produit par les adultes.Il y a des similitudes entre les voies cérébrales responsables de l'apprentissage sensorimoteur chez l'homme et chez les oiseaux. Dans les deux cas, une voie s’occupe de la production vocale et implique des projections directes des zones auditives vers les zones motrices, et une autre voie s’occupe de l’apprentissage vocal, de l'imitation et de la plasticité.Chez les oiseaux, ces circuits cérébraux sont exclusivement dédiés à l'apprentissage du chant, ce qui en fait un modèle idéal pour explorer les mécanismes neuronaux de l’apprentissage vocal par imitation.Cette thèse vise à construire un modèle de l'apprentissage du chant des oiseaux par imitation. De nombreuses études antérieures ont tenté de mettre en œuvre l'apprentissage par imitation dans des modèles informatiques et partagent une structure commune. Ces modèles comprennent des mécanismes d'apprentissage et, éventuellement, des stratégies d'exploration et d'évaluation.Dans ces modèles, une fonction de contrôle moteur permet la production de sons et une réponse sensorielle modélise soit la façon dont le son est perçu, soit la façon dont il façonne la récompense. Les entrées et les sorties de ces fonctions sont dans plusieurs espaces: l'espace moteur (paramètres moteurs), l'espace sensoriel (sons réels), l'espace perceptif (représentation à faible dimension du son) ou l’espace des objectifs (représentation non perceptive du son cible).Le premier modèle proposé est un modèle théorique inverse basé sur un modèle d'apprentissage vocal simplifié où l'espace sensoriel coïncide avec l'espace moteur (c'est-à-dire qu'il n'y a pas de production sonore). Une telle simplification permet d'étudier comment introduire des hypothèses biologiques (par exemple, une réponse non linéaire) dans un modèle d'apprentissage vocal et quels sont les paramètres qui influencent le plus la puissance de calcul du modèle.Afin de disposer d'un modèle complet (capable de percevoir et de produire des sons), nous avions besoin d'une fonction de contrôle moteur capable de reproduire des sons similaires à des données réelles. Nous avons analysé la capacité de WaveGAN (un réseau de génération) à produire des chants de canari réalistes. Dans ce modèle, l'espace d'entrée devient l'espace latent après l'entraînement et permet la représentation d'un ensemble de données à haute dimension dans une variété à plus basse dimension. Nous avons obtenu des chants de canari réalistes en utilisant seulement trois dimensions pour l'espace latent. Des analyses quantitatives et qualitatives démontrent les capacités d'interpolation du modèle, ce qui suggère que le modèle peut être utilisé comme fonction motrice dans un modèle d'apprentissage vocal.La deuxième version du modèle est un modèle d'apprentissage vocal complet avec une boucle action-perception complète (il comprend l'espace moteur, l'espace sensoriel et l'espace perceptif). La production sonore est réalisée par le générateur GAN obtenu précédemment. Un réseau neuronal récurrent classant les syllabes sert de réponse sensorielle perceptive. La correspondance entre l'espace perceptuel et l'espace moteur est apprise par un modèle inverse. Les résultats préliminaires montrent l'impact du taux d'apprentissage lorsque différentes fonctions de réponse sensorielle sont mises en œuvre
During the first period of their life, babies and juvenile birds show comparable phases of vocal development: first, they listen to their parents/tutors in order to build a neural representation of the experienced auditory stimulus, then they start to produce sound and progressively get closer to reproducing their tutor song. This phase of learning is called the sensorimotor phase and is characterized by the presence of babbling, in babies, and subsong, in birds. It ends when the song crystallizes and becomes similar to the one produced by the adults.It is possible to find analogies between brain pathways responsible for sensorimotor learning in humans and birds: a vocal production pathway involves direct projections from auditory areas to motor neurons, and a vocal learning pathway is responsible for imitation and plasticity. The behavioral studies and the neuroanatomical structure of the vocal control circuit in humans and birds provide the basis for bio-inspired models of vocal learning.In particular, birds have brain circuits exclusively dedicated to song learning, making them an ideal model for exploring the representation of vocal learning by imitation of tutors.This thesis aims to build a vocal learning model underlying song learning in birds. An extensive review of the existing literature is discussed in the thesis: many previous studies have attempted to implement imitative learning in computational models and share a common structure. These learning architectures include the learning mechanisms and, eventually, exploration and evaluation strategies. A motor control function enables sound production and sensory response models either how sound is perceived or how it shapes the reward. The inputs and outputs of these functions lie (1)~in the motor space (motor parameters’ space), (2)~in the sensory space (real sounds) and (3)~either in the perceptual space (a low dimensional representation of the sound) or in the internal representation of goals (a non-perceptual representation of the target sound).The first model proposed in this thesis is a theoretical inverse model based on a simplified vocal learning model where the sensory space coincides with the motor space (i.e., there is no sound production). Such a simplification allows us to investigate how to introduce biological assumptions (e.g. non-linearity response) into a vocal learning model and which parameters influence the computational power of the model the most. The influence of the sharpness of auditory selectivity and the motor dimension are discussed.To have a complete model (which is able to perceive and produce sound), we needed a motor control function capable of reproducing sounds similar to real data (e.g. recordings of adult canaries). We analyzed the capability of WaveGAN (a Generative Adversarial Network) to provide a generator model able to produce realistic canary songs. In this generator model, the input space becomes the latent space after training and allows the representation of a high-dimensional dataset in a lower-dimensional manifold. We obtained realistic canary sounds using only three dimensions for the latent space. Among other results, quantitative and qualitative analyses demonstrate the interpolation abilities of the model, which suggests that the generator model we studied can be used as a motor function in a vocal learning model.The second version of the sensorimotor model is a complete vocal learning model with a full action-perception loop (i.e., it includes motor space, sensory space, and perceptual space). The sound production is performed by the GAN generator previously obtained. A recurrent neural network classifying syllables serves as the perceptual sensory response. Similar to the first model, the mapping between the perceptual space and the motor space is learned via an inverse model. Preliminary results show the influence of the learning rate when different sensory response functions are implemented
APA, Harvard, Vancouver, ISO, and other styles
7

Kenmei, Youta Bénédicte Ramelie. "Génération de programmes modèles pour la représentation et l'analyse de profils d'exécution : Le modèle périodique-linéaire." Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/KENMEI_YOUTA_Benedicte_Ramelie_2006.pdf.

Full text
Abstract:
Cette thèse présente une nouvelle technique de représentation et d'analyse de traces d'exécution de programmes. Après une étude de quelques méthodes générales d'analyse de données, l'accent est mis sur une nouvelle modélisation qui consiste à exprimer le comportement à l'exécution d'un programme par un autre programme. Le programme qui exprime le comportement est constitué d'une séquence de nids de boucles dans lesquelles les fonctions de niveau les plus internes expriment les valeurs de la trace d'entrée à partir des indices de boucles. Chaque séquence de nids de boucles correspond à une définition particulière d'une phase de programme, c'est à dire un ensemble d'intervalles dépendants les uns des autres, et ces intervalles sont identifiés grâce à une méthode d'interpolation périodique et linéaire. A partir de cette représentation, on montre qu'on est en mesure d'effectuer un assez grand nombre d'analyses et d'optimisations, en s'aidant notamment des outils comme le modèle polyédrique d'analyse statique. Au final, on vérifie bien que les informations obtenues suite à notre modélisation et à l'analyse statique des nids de boucles résultants sont plus précises, mieux adaptées, et plus exploitables qu'avec des méthodes générales d'analyse de données
This work presents a novel approach for program execution traces analysis and modeling. After a short introduction where it is shown that general methods for data analysis are not well-adapted to understand the behavior of programs, we focus on the design of our model, called the Periodic Linear Model. It is based on the representation of a program behavior by another program. The program that models the behavior of the first one is made of sequences of nested loops, in which the functions of the innermost level compute the values of the input program trace from the loop indices. Each sequence of nested loops correspond to a particular definition of a program phase, that is a set of linearly linked intervals; these intervals are identifed through our periodic linear interpolation method. From this representation, we show that many analysis ans optimizations are possible in conjunction with some static analysis methods like the polytope model, and also that the information resulting from our model are more precise, adapted and exploitable than those obtained by general data analysis methods
APA, Harvard, Vancouver, ISO, and other styles
8

Lucas, Thomas. "Modèles génératifs profonds : sur-généralisation et abandon de mode." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM049.

Full text
Abstract:
Cette dissertation explore le sujet des modèles génératifs appliqués aux images naturelles.Cette tâche consiste a modéliser la distribution des données observées, et peut permettre de générer des données artificielles semblables aux données d'origine, où de compresser des images.Les modèles à variable latentes, qui sont au cœur de cette thèse, cherchent a résumer les principaux facteurs de variation d'une image en une variable qui peut être manipulée.En particulier, nos contributions sont basées sur deux modèles génératifs a variable latentes: le modèle génératif adversarial (GAN) et l' encodeur variationel (VAE).Récemment, les GAN ont significativement amélioré la qualité des images générées par des modèles profonds, générant des images très convaincantes.Malheureusement ces modèles ont du mal à modéliser tous les modes de la distribution d'origine, ie ils ne couvrent pas les données dans toute leur variabilité.A l'inverse, les modèles basés sur le maximum de vraisemblance tels que les VAEs couvrent typiquement toute la variabilité des données, et en offrent une mesure objective.Mais ces modèles produisent des échantillons de qualité visuelle inférieure, qui sont plus facilement distingués de vrais images.Le travail présenté dans cette thèse a pour but d'obtenir le meilleur des deux mondes: des échantillons de bonne qualité tout en modélisant tout le support de la distribution.La première contribution de ce manuscrit est un modèle génératif profond qui encode la structure globale des images dans une variable latente, basé sur le VAE, et utilise un modèle autoregressif pour modéliser les détails de bas niveau.Nous proposons une procédure d'entrainement qui utilise une fonction de perte auxiliaire pour contrôler quelle information est capturée par la variable latent et quelle information est laissée à un décodeur autoregressif.Au contraire des précédentes approches pour construire des modèles hybrides de ce genre, notre modèle de nécessite pas de contraindre la capacité du décodeur autoregressif pour empêcher des modèles dégénérés qui ignorent la variable latente.La deuxième contribution est bâtie sur le modèle du GAN standard, qui utilise un discriminateur pour guider le modèle génératif.Le discriminateur évalue généralement la qualité d'échantillons individuels, ce qui rend la tache d'évaluer la variabilité des données difficile.A la place, nous proposons de fournir au discriminateur des ensembles de données, ou batches, qui mélangent des vraies images et des images générées.Nous l'entrainons à prédire le ratio de vrais et de faux éléments dans l'ensemble.Ces batches servent d'approximation de la vrai distribution des images générées et permettent au discriminateur d'approximer des statistiques sur leur distributionLes lacunes mutuelles des VAEs et des GANs peuvent, en principe, être réglées en entrainant des modèles hybrides qui utilisent les deux types d'objectif.Dans notre troisième contribution, nous montrons que les hypothèses paramétriques habituelles faites par les VAE produisent un conflit entre les deux, menant à des performances décevantes pour les modèles hybrides.Nous proposons une solution basée sur des modèles profonds inversibles, qui entraine un espace de features dans lequel les hypothèses habituelles peuvent être faites sans poser problème.Notre approche fourni des évaluations e vraisemblance dans l'espace des images tout en étant capable de tirer profit de l'entrainement adversaire.Elle obtient des échantillons de qualité équivalente au modèle pleinement adversaires tout en améliorant les scores de maximum de vraisemblance au moment de la publication, ce qui constitue une amélioration significative
This dissertation explores the topic of generative modelling of natural images,which is the task of fitting a data generating distribution.Such models can be used to generate artificial data resembling the true data, or to compress images.Latent variable models, which are at the core of our contributions, seek to capture the main factors of variations of an image into a variable that can be manipulated.In particular we build on two successful latent variable generative models, the generative adversarial network (GAN) and Variational autoencoder (VAE) models.Recently GANs significantly improved the quality of images generated by deep models, obtaining very compelling samples.Unfortunately these models struggle to capture all the modes of the original distribution, ie they do not cover the full variability of the dataset.Conversely, likelihood based models such as VAEs typically cover the full variety of the data well and provide an objective measure of coverage.However these models produce samples of inferior visual quality that are more easily distinguished from real ones.The work presented in this thesis strives for the best of both worlds: to obtain compelling samples while modelling the full support of the distribution.To achieve that, we focus on i) the optimisation problems used and ii) practical model limitations that hinder performance.The first contribution of this manuscript is a deep generative model that encodes global image structure into latent variables, built on the VAE, and autoregressively models low level detail.We propose a training procedure relying on an auxiliary loss function to control what information is captured by the latent variables and what information is left to an autoregressive decoder.Unlike previous approaches to such hybrid models, ours does not need to restrict the capacity of the autoregressive decoder to prevent degenerate models that ignore the latent variables.The second contribution builds on the standard GAN model, which trains a discriminator network to provide feedback to a generative network.The discriminator usually assesses the quality of individual samples, which makes it hard to evaluate the variability of the data.Instead we propose to feed the discriminator with emph{batches} that mix both true and fake samples, and train it to predict the ratio of true samples in the batch.These batches work as approximations of the distribution of generated images and allows the discriminator to approximate distributional statistics.We introduce an architecture that is well suited to solve this problem efficiently,and show experimentally that our approach reduces mode collapse in GANs on two synthetic datasets, and obtains good results on the CIFAR10 and CelebA datasets.The mutual shortcomings of VAEs and GANs can in principle be addressed by training hybrid models that use both types of objective.In our third contribution, we show that usual parametric assumptions made in VAEs induce a conflict between them, leading to lackluster performance of hybrid models.We propose a solution based on deep invertible transformations, that trains a feature space in which usual assumptions can be made without harm.Our approach provides likelihood computations in image space while being able to take advantage of adversarial training.It obtains GAN-like samples that are competitive with fully adversarial models while improving likelihood scores over existing hybrid models at the time of publication, which is a significant advancement
APA, Harvard, Vancouver, ISO, and other styles
9

Loyauté, Gautier. "Un modèle génératif pour le développement de serveurs Internet." Phd thesis, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00470539.

Full text
Abstract:
Les serveurs Internet sont des logiciels particuliers. Ils doivent répondre aux demandes d'un grand nombre de clients distants, supporter leur évolution et être robustes car ils ne s'arrêtent jamais. Les modèles de concurrence permettent d'entrelacer les traitements d'un grand nombre de clients. Aucun consensus ne se dégage sur un meilleur modèle. Pour s'abstraire du modèle de concurrence, je propose un modèle de développement de serveurs Internet. Les outils de vérification formelle permettent d'accroître la sûreté des logiciels mais il est nécessaire de leur fournir un modèle simple du logiciel. Le modèle de développement que je propose est utilisé pour générer le serveur et son modèle formel. Le décodage d'une requête cliente dépend du modèle de concurrence. Je propose d'utiliser un générateur d'analyseur syntaxique qui s'abstrait de ce problème et automatise le développement du décodage
APA, Harvard, Vancouver, ISO, and other styles
10

Maugé, Rudy. "Modèles de génération des marées internes." Brest, 2006. http://www.theses.fr/2006BRES2040.

Full text
Abstract:
Cette thèse étudie les processus de génération des marées internes et leur propagation vers les régions abyssales de l’océan. Nous proposons de mettre en évidence l’importance des interactions entre les modes, et notamment leur influence sur l’évolution non linéaire et non hydrostatique de la marée interne et sa désintégration en solitons. Les modèles de marées internes développés abordent au fur et à mesure une représentation plus réaliste de la topographie et de la stratification. Un modèle de génération de marées internes faiblement non linéaire et faiblement non hydrostatique à trois couches homogènes est présenté pour étudier l’influence d’une double thermocline (e. G. à la fois une saisonnière et une permanente) sur l’émergence des solitons. Les résultats montrent le rôle crucial d’une deuxième interface pour accélérer et amplifier la formation des solitons. Pour une représentation continue de la stratification de l’océan, un modèle de génération et de propagation des marées internes linéaire et hydrostatique est développé. Ce modèle est basé sur une approche modale où l’on suppose que la topographie varie lentement par rapport à l’échelle horizontale de la marée interne. Les résultats numériques montrent, pour une configuration proche du golfe de Gascogne, une propagation de l’énergie de la marée interne vers les régions profondes de l’océan qui affecte toute la colonne d’eau. Ce modèle offre le bénéfice d’étre généralisés au cas faiblement non linéaire et faiblement non hydrostatique et montre pour la première fois le processus de génération locale de solitons dans le centre du golfe de Gascogne
This thesis studies the generation of internal tides and their propagation toward the deep ocean. We emphasize the major rote of interactions between the modes, and more particularly their influence on the nonlinear and nonhydrostatic internal-tide evolution and its subsequent disintegration in solitons. The sequence of internal tide generation models derived here, gradually leads to a more realistic representation of stratification and topography. A weakly nonlinear and nonhydrostatic internal tide model with three homogeneous layers is developed to study the influence of a double thermocline (e. G. Both a seasonal and a permanent one) on the generation of solitons. The results show the crucial rote of the second, deeper interface as it accelerates and intensifies the formation of solitons. For a continuous representation of stratification, a linear and hydrostaic model for the generation and propagation of internal tide is presented. It's derived using a modal approach, in which the topography is assumed to be slowly varying with respect to the horizontal internal-tide length scale. For parameters representative of the Gay of Biscay, the model shows how the internal-tide energy propagates toward the deep ocean, affecting the whole water column. This model offers the benefit of allowing a straightforward extension to a weakly nonlinear and nonhydrostatic internal-tide generation model, and is shown to be able to describe the local generation of solitons in the central Gay of Biscay, in accordance with observations
APA, Harvard, Vancouver, ISO, and other styles
11

Webanck, Antoine. "Génération procédurale d'effets atmosphériques." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1109/document.

Full text
Abstract:
Cette thèse s’intéresse à la synthétisation de paysages naturels, et plus particulièrement, à leur portion céleste. L’aspect du ciel est gouverné par de nombreux phénomènes atmosphériques parmi lesquels les nuages jouent un rôle prépondérant car ils sont fréquemment présents et couvrent de grandes étendues. Même sans considérer directement le ciel, la densité des nuages leur permet de modifier intensément l’illumination globale d’un paysage. Les travaux de cette thèse se concentrent donc principalement sur l’édition, la modélisation et l’animation d’étendues nuageuses aux dimensions d’un paysage. Comme la simulation thermodynamique de la formation des nuages est difficilement contrôlable et que les détails du volume simulés sont rapidement limités, nous proposons plutôt une méthode par génération procédurale. Nous érigeons un modèle léger de paysage nuageux sous forme d’une hiérarchie de fonctions. Les détails les plus fins sont obtenus par composition de bruits procéduraux et reproduisent les formes de différents genres de nuages. La présence nuageuse à grande échelle est quant à elle décrite à haut niveau et à différents instants par des cartes dessinées par l’utilisateur. Ces cartes discrètes sont transformées en primitives implicites statiques ensuite interpolées par métamorphose en prenant en compte le relief et les vents pour produire des trajectoires cohérentes. Le champ implicite obtenu par mélange des primitives interpolantes constitue le champ spatiotemporel de densité nuageuse. Des images sont finalement synthétisées par rendu du milieu participatif atmosphérique selon notre propre implémentation exécutée en parallèle sur carte graphique
This thesis focusses on the synthetization of natural landscapes, and more particularly on their celestial part. The aspect of the sky is governed by plenty of atmospheric phenomena, among which clouds play a major role for they are recurrent and widespread. Even without directly considering the sky, the density of the clouds allows them to intensely modify the global illumination of a landscape. The work of this thesis thus focuses mainly on the editing, modelling and animation of cloud areas of landscape dimensions.Because the thermodynamic simulation of cloud formation is hard to control and its maximum resolution quickly limits the details of the simulated volume, we propose instead a procedural generation method. We build a lightweight cloudscape model as a hierarchy of functions. The finest details are obtained by composing procedural noises and reproduce the specific shapes of different kinds of clouds. The large-scale cloud presence is described at a high level and at different times by maps drawn by the user. These discrete maps are transformed into implicit static primitives and then interpolated by morphing, accounting for relief and winds in order to produce coherent trajectories. The implicit field obtained by mixing the interpolating primitives represents the spatiotemporal field of cloud density. Images are finally synthesized by rendering of the atmospheric participative medium according to our own implementation, executed in parallel on a graphic card
APA, Harvard, Vancouver, ISO, and other styles
12

Thomas, Frédéric. "Contribution à la prise en compte des plates-formes logicielles d'exécution dans une ingénierie générative dirigée par les modèles." Phd thesis, Université d'Evry-Val d'Essonne, 2008. http://tel.archives-ouvertes.fr/tel-00382556.

Full text
Abstract:
Face à la complexité inhérente des logiciels multitâches, une approche prometteuse est l'automatisation des développements. En pratique, cette automatisation se concrétise par des générateurs capables de produire des applications logicielles s'exécutant sur des plates-formes d'exécution multitâche (par exemple des systèmes d'exploitation multitâches). De tels générateurs constituent alors des ingénieries génératives dirigées par les modèles de ces plates-formes. Aujourd'hui, ces ingénieries décrivent implicitement ces plates-formes dans les générateurs eux-mêmes. Ces générateurs sont alors efficaces pour un ensemble de préoccupations homogènes, figées et répétitives. Dans le cas des systèmes multitâches, les besoins sont certes répétitifs, cependant, ils sont majoritairement hétérogènes et évolutifs. Les ingénieries mise en œuvre doivent alors être adaptables et flexibles. Pour y parvenir, cette étude consiste à modéliser explicitement les plates-formes logicielles d'exécution en entrée des générateurs afin de les capitaliser et de les réutiliser. Pour cela, elle définit un motif dédié à la modélisation des plates-formes logicielles d'exécution, une extension au langage UML destiné à la modélisation des plates-formes logicielles d'exécution multitâche (le profil Software Resource Modeling) et un style architecturale de transformation de modèle intégrant ces modèles de plates-formes explicites. Les deux premières contributions constituent l'extension UML de l'Object Management Group pour la modélisation et l'analyse des systèmes embarqués temps réel (MARTE).
APA, Harvard, Vancouver, ISO, and other styles
13

Genevaux, Jean-David. "Représentation, modélisation et génération procédurale de terrains." Thesis, Lyon 2, 2015. http://www.theses.fr/2015LYO22013/document.

Full text
Abstract:
Cette thèse (qui a pour intitulé "Représentation, modélisation et génération procédurale de terrains") a pour cadre la génération de contenus numériques destinés aux films et aux jeux-vidéos, en particulier les scènes naturelles. Nos travaux visent à représenter et à générer des terrains. Nous proposons, en particulier, un nouveau modèle de représentation qui s'appuie sur un arbre de construction et qui va permettre à l'utilisateur de manipuler des morceaux de terrain de façon intuitive. Nous présentons également des techniques pour visualiser ce modèle avec un maximum d'efficacité. Enfin nous développons un nouvel algorithme de génération de terrains qui construit de très grands reliefs possédant des structures hiérarchiques découlant d'un réseau hydrographique : le relief généré est conforme aux grands principes d'écoulement des eaux sans avoir besoin d'utiliser de coûteuses simulations d'érosion hydrique
This PhD (entitled "Representation, modelisation and procedural generation of terrains") is related to movie and videogames digital content creation, especially natural scenes.Our work is dedicated to handle and to generate landscapes efficently. We propose a new model based on a construction tree inside which the user can handle parts of the terrain intuitively. We also present techniques to efficently visualize such model. Finally, we present a new algorithm for generating large-scale terrains exhibiting hierarchical structures based on their hydrographic networks: elevation is generated in a broad compliance to water-tansport principles without having to resort on costly hydraulic simulations
APA, Harvard, Vancouver, ISO, and other styles
14

Rabesandratana, Paul Eliot. "Health spending and labor productivity in an aging economy." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL12021/document.

Full text
Abstract:
La population française vieillit et continuera de vieillir dans l'avenir. Les conséquences négatives de cette mutation démographique sur l'économie sont bien connues. Cependant, l'ampleur de ces conséquences dépendra entre autre de l'évolution de la productivité du travail. Afin d'analyser l'évolution future de la productivité du travail en France, cette thèse s'est focalisée sur le rôle des dépenses de santé dans l'économie. En effet, d'un côté, les dépenses de santé, en améliorant la santé de la population, accroissent la productivité du travail. D'un autre côté, elles favorisent le vieillissement de la population en allongeant son espérance de vie. Ainsi, cette thèse vise à vérifier si les gains de productivité générés par les dépenses de santé sont suffisants pour annihiler les effets négatifs du vieillissement de la population. Nous démontrons théoriquement que les dépenses de santé privées génèrent une externalité positive améliorant l'efficacité du travail et par voie de conséquence la productivité du travail (Chapitre I). Cependant, nos résultats empiriques soulignent que cet effet positif n'est pas significatif dès lors que nous considérons les dépenses de santé qui restent à la charge des patients (Chapitre II). Les gains de productivité permis par l'amélioration future de la santé des français sont ensuite mesurés grâce à un modèle de comptabilité générationnelle. Les gains de productivité apparaissent non négligeables mais insuffisants pour annihiler les effets négatifs du vieillissement démographique (Chapitre III). Ce constat est confirmé par les résultats fournis par notre modèle d'équilibre général (Chapitre IV)
French population is aging and this demographic mutation should also occur in the coming decades. The negative economic effects of population aging are well-known but the magnitude of these effects depends partially on the evolution of labor productivity. To determine the evolution of labor productivity in France, this dissertation focuses on the economic effects of health spending. Indeed, on one side, health spending, by improving population’s health status, affect positively labor productivity. On the other side, these health expenditures foster the aging process by extending population longevity. This dissertation aims then to check if productivity gains from health spending are enough to annihilate the negative economic effects of population aging. We demonstrate theoretically that private health spending generate a positive externality affecting positively labor productivity (Chapter I). However, our empirical results underline that this positive effect is limited when we consider the out-of-pocket expenditure on health (Chapter II). Thereafter, we assess the productivity gains resulting from the health status enhancement of French population by using a generational accounting model. It appears that the productivity gains should be significant but not enough to annihilate the negative economic effects of population aging (Chapter III). The simulation outcomes provided by our applied general equilibrium model confirm this result (Chapter IV)
APA, Harvard, Vancouver, ISO, and other styles
15

Bienvenu, Meghyn. "La génération de conséquences en logique modale." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/923/.

Full text
Abstract:
La notion clé de la génération de conséquences est celle de l'impliqué premier, qui désigne une clause qui est impliquée par une formule et telle qu'il n'existe pas de clause logiquement plus forte impliquée par la formule. La notion d'impliqué premier s'est montrée très utile en intelligence artificielle, notamment pour la compilation de connaissances et le raisonnement abductif. Dans cette thèse nous étudions comment cette notion, jusqu'à présent étudiée en logique propositionnelle, peut être étendue à la logique modale Kn. Nous commençons par comparer plusieurs definitions plausibles d'impliqués premiers dans Kn, avant d'en selectionner une. Ensuite, nous proposons des algorithmes pour générer et reconnaître des impliqués premiers, et nous étudions la complexité de ces deux tâches. Puis, nous utilisons notre notion d'impliqué premier pour élaborer une forme normale pour Kn qui est dotée de propriétés intéressantes du point de vue de la compilation de connaissances
The key notion in consequence finding is that of prime implicates, which are defined to be the logically strongest clausal consequences of a formula. Prime implicates have proven useful in artificial intelligence, especially in knowledge compilation and abductive reasoning. In this thesis, we extend the investigation of prime implicates from propositional logic to the basic multi-modal logic Kn. We begin by comparing the properties of several plausible definitions of prime implicates in Kn in order to isolate the most suitable definition. We next study the computational aspects of the selected definition. Specifically, we provide algorithms for prime implicate generation and recognition, and we study the complexity of these tasks. Finally, we show how our notion of prime implicates can be used to define a normal form for Kn with interesting knowledge compilation properties
APA, Harvard, Vancouver, ISO, and other styles
16

Augeraud-Veron, Emmanuelle. "L'anticipation dans les modèles à générations imbriquées." La Rochelle, 2000. http://www.theses.fr/2000LAROS059.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Ameur-Boulifa, Rabéa. "Génération de modèles comportementaux des applications réparties." Nice, 2004. http://www.theses.fr/2004NICE4094.

Full text
Abstract:
Nous nous intéressons dans ce document à la vérification de propriétés comportementales d’applications distribuées par la technique du model-checking. En particulier, nous étudions le problème de génération de modèles à partir de programmes Java répartis et représentés par systèmes de transitions communiquant. A partir de la sémantique formelle de programmes ProActive – une librairie 100 % Java pour la programmation parallèle, distribuée et concurrente – nous construisons, de manière compositionnelle et hiérarchique, des modèles comportementaux finis pour des abstractions finies d’applications. Ces modèles sont décrits mathématiquement et graphiquement. Et la procédure de construction, dont nous prouvons la terminaison, est décrite par des règles sémantiques s’appliquant à une forme intermédiaire des programmes obtenue par analyse statique. Ces règles sont ensuite étendues afin de générer des modèles paramétrés pour des applications possiblement infinies. La construction de modèles paramétrés a été, d’abord, faite sur un noyau de Java et la bibliothèque ProActive, puis étendue à des constructions communication de groupe. Des exemples de modèles, générés directement à partir de ces règles implémentées par un prototype, sont également étudiés
From the formal semantics of ProActive – 100 % Java library for concurrent, distributed, and mobile computing -, we build, in a compositional way, finite models of finite abstract applications. These models are described mathematically and graphically. The procedure for building, of which we guaranty the ending, is described by semantics rules applied to an intermediate form of programs obtained by static analysis. Afterwards, these rules are extended so as to build parameterized models of infinite applications. Practically, a prototype for analysing a core of Java and ProActive library is constructed. Moreover, some realistic examples are studied
APA, Harvard, Vancouver, ISO, and other styles
18

Ferdjoukh, Adel. "Une approche déclarative pour la génération de modèles." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT325/document.

Full text
Abstract:
Disposer de données dans le but de valider ou tester une approche ou un concept est d'une importance primordiale dans beaucoup de domaines différents. Malheureusement, ces données ne sont pas toujours disponibles, sont coûteuses à obtenir, ou bien ne répondent pas à certaines exigences de qualité ce qui les rend inutiles dans certains cas de figure.Un générateur automatique de données est un bon moyen pour obtenir facilement et rapidement des données valides, de différentes tailles, pertinentes et diversifiées. Dans cette thèse, nous proposons une nouvelle approche complète, dirigée par les modèles et basée sur la programmation par contraintes pour la génération de données
Owning data is useful in many different fields. Data can be used to test and to validate approaches, algorithms and concepts. Unfortunately, data is rarely available, is cost to obtain, or is not adapted to most of cases due to a lack of quality.An automated data generator is a good way to generate quickly and easily data that are valid, in different sizes, likelihood and diverse.In this thesis, we propose a novel and complete model driven approach, based on constraint programming for automated data generation
APA, Harvard, Vancouver, ISO, and other styles
19

Franceschi, Jean-Yves. "Apprentissage de représentations et modèles génératifs profonds dans les systèmes dynamiques." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS014.

Full text
Abstract:
L'essor de l'apprentissage profond trouve notamment sa source dans les avancées scientifiques qu'il a permises en termes d'apprentissage de représentations et de modèles génératifs. Dans leur grande majorité, ces progrès ont cependant été obtenus sur des données textuelles et visuelles statiques, les données temporelles demeurant un défi pour ces méthodes. Compte tenu de leur importance pour l'automatisation croissante de multiples tâches, de plus en plus de travaux en apprentissage automatique s'intéressent aux problématiques d'évolution temporelle. Dans cette thèse, nous étudions ainsi plusieurs aspects de la temporalité et des systèmes dynamiques dans les réseaux de neurones profonds pour l'apprentissage non supervisé de représentations et de modèles génératifs. Premièrement, nous présentons une méthode générale d'apprentissage de représentations non supervisée pour les séries temporelles prenant en compte des besoins pratiques d'efficacité et de flexibilité. Dans un second temps, nous nous intéressons à l'apprentissage pour les séquences structurées de nature spatio-temporelle, couvrant les vidéos et phénomènes physiques. En les modélisant par des équations différentielles paramétrisées par des réseaux de neurones, nous montrons la corrélation entre la découverte de représentations pertinentes d'un côté, et de l'autre la fabrique de modèles prédictifs performants sur ces données. Enfin, nous analysons plus généralement dans une troisième partie les populaires réseaux antagonistes génératifs dont nous décrivons la dynamique d'apprentissage par des équations différentielles, nous permettant d'améliorer la compréhension de leur fonctionnement
The recent rise of deep learning has been motivated by numerous scientific breakthroughs, particularly regarding representation learning and generative modeling. However, most of these achievements have been obtained on image or text data, whose evolution through time remains challenging for existing methods. Given their importance for autonomous systems to adapt in a constantly evolving environment, these challenges have been actively investigated in a growing body of work. In this thesis, we follow this line of work and study several aspects of temporality and dynamical systems in deep unsupervised representation learning and generative modeling. Firstly, we present a general-purpose deep unsupervised representation learning method for time series tackling scalability and adaptivity issues arising in practical applications. We then further study in a second part representation learning for sequences by focusing on structured and stochastic spatiotemporal data: videos and physical phenomena. We show in this context that performant temporal generative prediction models help to uncover meaningful and disentangled representations, and conversely. We highlight to this end the crucial role of differential equations in the modeling and embedding of these natural sequences within sequential generative models. Finally, we more broadly analyze in a third part a popular class of generative models, generative adversarial networks, under the scope of dynamical systems. We study the evolution of the involved neural networks with respect to their training time by describing it with a differential equation, allowing us to gain a novel understanding of this generative model
APA, Harvard, Vancouver, ISO, and other styles
20

Xia, Qing. "modèles et méthodes pour le génération de processus de fabrication reconfigurables." Thesis, Paris, ENSAM, 2017. http://www.theses.fr/2017ENAM0004/document.

Full text
Abstract:
Les approches conventionnelles pour la génération de processus de fabrication sont inefficaces pour gérer la complexité induite par la variété des produits et la dynamique de fabrication. La génération des processus de fabrication reconfigurables (RPP) est une nouvelle méthode de CAPP qui vise à générer des processus de fabrication pour une famille de produits / pièces. Cette thèse vise à apporter une contribution majeure aux modèles de représentation et aux méthodes de génération permettant la génération des processus de fabrication reconfigurables à deux niveaux de granularité : famille de produits et famille de pièces. Les approches proposées pour le RPP sont compatibles avec une extension du concept de famille de produits / pièces qui est défini en utilisant le concept de domaine. Un modèle pour une variété fonctionnelle de produit / pièce basé sur des entités est développé afin de représenter les informations nécessaires à la gestion des processus reconfigurables en utilisant des techniques modulaires. Des modèles mathématiques et des modèles de représentation sont proposés pour décrire le processus de fabrication reconfigurable à deux niveaux de granularité. Sur la base des modèles de représentation, les méthodes de génération et les algorithmes sont ensuite détaillés dans ce cadre. En outre, un cadre global est proposé pour décrire comment les modèles et les méthodes proposés collaborent pour gérer la variété de produit / pièce et la dynamique de fabrication. Pour illustrer la faisabilité des modèles et méthodes proposés, deux familles de pompes (l’une à engrenage et l’autre à huile) sont utilisées à titre d'exemples illustratifs tout au long de ce mémoire de thèse
Conventional manufacturing process planning approaches are inefficient to handle the process planning complexity induced by product variety and manufacturing dynamics. Reconfigurable process planning (RPP) is an emerging CAPP approach targeting to the generation of process plans for a product/part family. This thesis aims to give major contributions to the representation models and generation methods to support reconfigurable process planning at two granularity levels: product family and part family. The proposed approaches for RPP are compatible with an extended concept of product/part family which is defined by using the concept of “domain”. A feature-based product/part variety model is developed to represent the required information for RPP by using modular and platform-based techniques. Mathematical models and graph-based representation models are proposed to describe the reconfigurable process plan at two granularity levels. Based on the representation models, the generation methods and algorithms are then developed for RPP. In addition, a global framework is proposed to describe how the proposed RPP models and methods work together to handle the product/part variety and manufacturing dynamics. To test the feasibility of the proposed models and methods, a gear pump family and an oil pump body family are used as illustrative examples throughout this thesis
APA, Harvard, Vancouver, ISO, and other styles
21

Paquette, Luc. "Un modèle pour la génération d'indices par une plateforme de tuteurs par traçage de modèle." Thèse, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6560.

Full text
Abstract:
La présente thèse décrit des travaux de recherche effectués dans le domaine des systèmes tutoriels intelligents (STI). Plus particulièrement, elle s'intéresse aux tuteurs par traçage de modèle (MTT). Les MTTs ont montré leur efficacité pour le tutorat de la résolution de tâches bien définies. Par contre, les interventions pédagogiques qu'ils produisent doivent être incluses, par l'auteur du tuteur, dans le modèle de la tâche enseignée. La recherche effectuée répond à cette limite en proposant des méthodes et algorithmes permettant la génération automatique d'interventions pédagogiques. Une méthode a été développée afin de permettre à la plateforme Astus de générer des indices par rapport à la prochaine étape en examinant le contenu du modèle de la tâche enseignée. De plus, un algorithme a été conçu afin de diagnostiquer les erreurs des apprenants en fonction des actions hors trace qu'ils commettent. Ce diagnostic permet à Astus d'offrir une rétroaction par rapport aux erreurs sans que l'auteur du tuteur ait à explicitement modéliser les erreurs. Cinq expérimentations ont été effectuées lors de cours enseignés au département d'informatique de l'Université de Sherbrooke afin de valider de façon empirique les interventions générées par Astus. Le résultat de ces expérimentations montre que 1) il est possible de générer des indices par rapport à la prochaine étape qui sont aussi efficaces et aussi appréciés que ceux conçus par un enseignant et que 2) la plateforme Astus est en mesure de diagnostiquer un grand nombre d'actions hors trace des apprenants afin de fournir une rétroaction par rapport aux erreurs.
APA, Harvard, Vancouver, ISO, and other styles
22

Roussel, Olivier. "Génération aléatoire de structures ordonnées par le modèle de Boltzmann." Paris 6, 2012. http://www.theses.fr/2012PA066282.

Full text
Abstract:
Dans le domaine de la combinatoire, la génération aléatoire d’objets est un problème central relié à de nombreux aspects de la science combinatoire, que ce soit à l’énumération exacte ou asymptotique, ou à la vérification de conjectures. De nombreuses méthodes ont été proposées afin de résoudre efficacement ce problème, dont le modèle de Boltzmann. Ce modèle, au prix d’un contrôle moindre sur la taille des objets générés, assure les propriétés de complexité linéaire dans beaucoup de cas réels, et de facilité d’automatisation pour de larges classes d’objets. Cette thèse vise à étendre encore les classes d’objets combinatoires sur lesquelles ce modèle de Boltzmann peut s’appliquer, tout en conservant les propriétés d’efficacité et d’automatisation. La première partie est une étude des algorithmes de générations de Boltzmann existants, ainsi que de leur propriétés et leurs fondations mathématiques sous-jacentes. Dans une seconde partie, nous présentons notre idée de biaiser ces algorithmes pour étendre leur domaine de validité. Nous proposons une extension très générale, avant de l’appliquer à plusieurs opérateurs combinatoires tels que la dérivation, le produit de shuffle et l’opération de dépointage. Enfin, nous présentons un algorithme de génération uniforme pour le produit de Hadamard. Nous appuyons nos algorithmes et résultats par des exemples et données expérimentales illustrant le bien fondé de nos méthodes
Uniform random generation is a central issue in combinatorics. Indeed, random sampling is virtually connected to all parts of combinatorics, whether to exact or asymptotic enumeration, or to the experimental verification of conjectures. Various methods have been developed in order to efficiently solve that issue. Boltzmann model is among them. This method, relaxing some constraints about the size of the object being currently generated, ensures a linear complexity in many actual cases, and can easily be automatized for various combinatorial classes. This thesis aims at enlarging the set of such admissible classes, while keeping the nice properties of linear complexity and ease of automation. The first part is devoted to the presentation of the Boltzmann model and existing Boltzmann samplers, and the study of their properties and mathematical foundations. In the second part, we introduce our idea of biasing those samplers in order to enlarge their range of validity. Firstly, we present a general extension, and then specialize it to several combinatorial operations such as the derivation, the shuffle product or the unpointing operation. Finally, we present a uniform random sampler for the Hadamard product. We highlight our algorithms through this thesis with examples and experimental results, illustrating the efficiency of our methods
APA, Harvard, Vancouver, ISO, and other styles
23

Le, Riche Antoine. "Commerce international dans le modèle bi-sectoriel à générations imbriquées." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM2023/document.

Full text
Abstract:
Cette thèse comporte trois essais sur l'existence de cycles endogènes sous efficacité dynamique et compte deux thèmes. Le premier thème est traité dans le chapitre 2 et aborde la relation entre la structure industrielle et l'émergence de fluctuations endogènes. Le deuxième sujet est examiné dans les chapitres 3 et 4, et tente d'améliorer notre compréhension du rôle du commerce international sur l'existence de cycles endogènes.La première contribution analyse dans quelle mesure l'existence de bien durable et non-durable est associée à l'occurrence de cycles endogènes sous efficacité dynamique. Les résultats indiquent que des cycles endogènes existent si la part de la consommation des jeunes allouée au bien non durable est assez petite. Nous démontrons qu'une politique de stabilisation basée sur des taxes et transferts forfaitaires permet dans un même temps d'augmenter le bien-être des agents et de supprimer l'existence des cycles.La seconde contribution considère un modèle à générations imbriquées à deux facteurs, deux biens et deux pays. Cette approche est basée sur l'hypothèse d'immobilité des facteurs de production entre pays. On suppose également que les pays sont identiques en tout point excepté en leur taux d'escompte. Nous établissons à l'aide d'une simulation numérique que des cycles à deux périodes se propagent d'un pays à l'autre.La troisième contribution se situe dans un cadre proche du modèle du chapitre 3 mais se focalise sur des différences technologiques entre pays. Nous mettons en évidence par le biais de simulations numériques que le commerce international peut générer des cycles à deux périodes qui n'existaient pas en économie fermée
This dissertation consists of three essays on the existence of endogenous cycles under dynamic efficiency and covers two different topics. The first one developed in chapter 2 addresses the relation between the structure of production and the occurrence of endogenous fluctuations. The second topic is developed in chapters 3 and 4, and tries to better understand the role of international trade on the emergence of sunspot cycles. These chapters explain that international trade may have a destabilizing effect.Chapter 2 examines how the existence of durable and non-durable goods are associated with the occurrence of endogenous cycles with dynamic efficiency. Main results indicate that sunspot fluctuations exist if young agents consume less non-durable goods than old agents. In this context, we show that a stabilization policy based on lump-sum taxes and lump-sum transfers allows to increase the welfare of agents and eliminate the existence of endogenous cycles.Chapter 3 analyzes a two-factor, two-good, two-country overlapping generations model. We assume that countries differ only with respect to their discount rate. We suppose that the factor of production are immobile across countries. Using a numerical simulation, we show that period-two cycles spread from one country to another.Chapter 4 considers a framework similar to the model of chapter 3 but with focus on asymmetric technology. We show through numerical simulations that the opening to international trade can create two-period cycles that can exist in the world economy even though the closed-economy equilibrium in each country is saddle-point stable
APA, Harvard, Vancouver, ISO, and other styles
24

Jacques, Julien. "Contribution à l'apprentissage statistique à base de modèles génératifs pour données complexes." Habilitation à diriger des recherches, Université des Sciences et Technologie de Lille - Lille I, 2012. http://tel.archives-ouvertes.fr/tel-00761184.

Full text
Abstract:
Ce mémoire synthétise les activités de recherche que j'ai menées de 2005 à 2012, sur la thématique de l'apprentissage statistique des données complexes, abordée par le biais de modèles probabilistes paramétriques génératifs. Plusieurs types de données complexes sont considérées. Les données issues de populations différentes ont été abordées en proposant des modèles de lien paramétriques entre populations, permettant d'adapter les modèles statistiques d'une population vers l'autre, en évitant une lourde collecte de nouvelles données. Les données de rang, définissant un classement d'objets selon un ordre de préférence, les données ordinales, qui sont des données qualitatives ayant des modalités ordonnées, et les données fonctionnelles, où l'observation statistique consiste en une ou plusieurs courbes, ont également été étudies. Pour ces trois types de données, des modèles génératifs probabilistes ont été définis et utilisés en classification automatique de données multivariées. Enfin les données de grande dimension, que l'on rencontre lorsque le nombre de variables du problème dépasse celui des observations, ont été étudiées dans un cadre de régression. Deux approches, fruits de deux thèses de doctorat que je co-encadre, sont proposés: l'une utilisant des algorithmes d'optimisation combinatoire pour explorer de façon efficace l'espace des variables, et l'autre définissant un modèle de régression regroupant ensemble les variables ayant un effet similaire.
APA, Harvard, Vancouver, ISO, and other styles
25

Ricard, Ludovic. "Génération de modèles de réservoir sur maillage flexible." Paris 11, 2005. http://www.theses.fr/2005PA112342.

Full text
Abstract:
Le changement d'échelle de la perméabilité absolue est une étape essentielle de la modélisation numérique du sous-sol. Il est envisagé pour intégrer les données disponibles à différentes échelles, mais aussi pour réduire les temps de calcul des simulations d'écoulement. La problématique de changement d'échelle est différente selon qu'elle agisse d'une grande échelle vers une petite (downscaling) ou d'une petite vers une grande (upscaling). Les méthodes numériques s'appuient sur des simulations d'écoulement très coûteuses en termes de temps calcul. Pour réduire ces temps de calculs, il est nécessaire de développer de nouveaux algorithmes de simulations d'écoulement. La méthode de downscaling proposée permet d'arriver à une description fine du milieu. Une étude comparative montre que, de façon générale, les méthodes heuristiques ne sont pas adaptées à la résolution du problème de downscaling. L'approche que nous proposons pour répondre à la problématique de l'upscaling est numérique et repose sur une perturbation des conditions aux limites. Celle-ci a été étendue à des maillages flexibles via le calcul direct du tenseur de perméabilité inter-maille. Une étude comparative entre diverses méthodes heuristiques et numériques montre que les méthodes numériques ne sont nécessairement plus précises et que les méthodes heuristiques sont souvent des approximations de bon aloi. Enfin, nous développons une nouvelle technique pour simuler l'écoulement, en régime permanent, d'un fluide unique et incompressible dans un milieu poreux. Cette approche permet de traiter des tenseurs complets de perméabilité et ne passe pas par l'estimation approchée de perméabilités inter-mailles
The high level geostatistic description of the subsurface are often far too detailed for use in routine flow simulators. To make flow simulations tractable, the number of grid blocks has to be reduced: an approximation, still relevant with flow description, is necessary. In this work, we place the emphasis on the scaling procedure from the fine scale model to the multi-scale reservoir model. Two main problems appear: Near wells, faults and channels, the volume of flexible cells may be less than fine ones, so we need to solve a downscaling problem; Far from these regions, the volume of cells are bigger than fine ones so we need to solve an upscaling problem. In this work, research has been done on each of these three areas: downscaling, upscaling and fluid flow simulation. For each of these subjects, a review, some news improvements and comparative study are proposed. The proposed downscaling method is build to be compatible with existing data integration methods. The comparative study shows that empirical methods are not enough accurate to solve the problem. Concerning the upscaling step, the proposed approach is based on an existing method: the perturbed boundary conditions. An extension to unstructured mesh is developed for the inter-cell permeability tensor. The comparative study shows that numerical methods are not always as accurate as expected and the empirical model can be sufficient in lot of cases. A new approach to single-phase fluid flow simulation is developed. This approach can handle with full tensorial permeability fields with source or sink terms
APA, Harvard, Vancouver, ISO, and other styles
26

Grechka, Asya. "Image editing with deep neural networks." Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS683.pdf.

Full text
Abstract:
L'édition d'images a une histoire riche remontant à plus de deux siècles. Cependant, l'édition "classique" des images requiert une grande maîtrise artistique et nécessitent un temps considérable, souvent plusieurs heures, pour modifier chaque image. Ces dernières années, d'importants progrès dans la modélisation générative ont permis la synthèse d'images réalistes et de haute qualité. Toutefois, l'édition d'une image réelle est un vrai défi nécessitant de synthétiser de nouvelles caractéristiques tout en préservant fidèlement une partie de l'image d'origine. Dans cette thèse, nous explorons différentes approches pour l'édition d'images en exploitant trois familles de modèles génératifs : les GANs, les auto-encodeurs variationnels et les modèles de diffusion. Tout d'abord, nous étudions l'utilisation d'un GAN pré-entraîné pour éditer une image réelle. Bien que des méthodes d'édition d'images générées par des GANs soient bien connues, elles ne se généralisent pas facilement aux images réelles. Nous analysons les raisons de cette limitation et proposons une solution pour mieux projeter une image réelle dans un GAN afin de la rendre éditable. Ensuite, nous utilisons des autoencodeurs variationnels avec quantification vectorielle pour obtenir directement une représentation compacte de l'image (ce qui faisait défaut avec les GANs) et optimiser le vecteur latent de manière à se rapprocher d'un texte souhaité. Nous cherchons à contraindre ce problème, qui pourrait être vulnérable à des exemples adversariaux. Nous proposons une méthode pour choisir les hyperparamètres en fonction de la fidélité et de l'édition des images modifiées. Nous présentons un protocole d'évaluation robuste et démontrons l'intérêt de notre approche. Enfin, nous abordons l'édition d'images sous l'angle particulier de l'inpainting. Notre objectif est de synthétiser une partie de l'image tout en préservant le reste intact. Pour cela, nous exploitons des modèles de diffusion pré-entraînés et nous appuyons sur la méthode classique d'inpainting en remplaçant, à chaque étape du processus de débruitage, la partie que nous ne souhaitons pas modifier par l'image réelle bruitée. Cependant, cette méthode peut entraîner une désynchronisation entre la partie générée et la partie réelle. Nous proposons une approche basée sur le calcul du gradient d'une fonction qui évalue l'harmonisation entre les deux parties. Nous guidons ainsi le processus de débruitage en utilisant ce gradient
Image editing has a rich history which dates back two centuries. That said, "classic" image editing requires strong artistic skills as well as considerable time, often in the scale of hours, to modify an image. In recent years, considerable progress has been made in generative modeling which has allowed realistic and high-quality image synthesis. However, real image editing is still a challenge which requires a balance between novel generation all while faithfully preserving parts of the original image. In this thesis, we will explore different approaches to edit images, leveraging three families of generative networks: GANs, VAEs and diffusion models. First, we study how to use a GAN to edit a real image. While methods exist to modify generated images, they do not generalize easily to real images. We analyze the reasons for this and propose a solution to better project a real image into the GAN's latent space so as to make it editable. Then, we use variational autoencoders with vector quantification to directly obtain a compact image representation (which we could not obtain with GANs) and optimize the latent vector so as to match a desired text input. We aim to constrain this problem, which on the face could be vulnerable to adversarial attacks. We propose a method to chose the hyperparameters while optimizing simultaneously the image quality and the fidelity to the original image. We present a robust evaluation protocol and show the interest of our method. Finally, we abord the problem of image editing from the view of inpainting. Our goal is to synthesize a part of an image while preserving the rest unmodified. For this, we leverage pre-trained diffusion models and build off on their classic inpainting method while replacing, at each denoising step, the part which we do not wish to modify with the noisy real image. However, this method leads to a disharmonization between the real and generated parts. We propose an approach based on calculating a gradient of a loss which evaluates the harmonization of the two parts. We guide the denoising process with this gradient
APA, Harvard, Vancouver, ISO, and other styles
27

Mounsif, Mehdi. "Exploration of Teacher-Centered and Task-Centered paradigms for efficient transfer of skills between morphologically distinct robots." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC065.

Full text
Abstract:
Récemment, il a été possible d’observer l’accélération du déploiement de robots dans des domaines dépassant l’habituel cadre industriel et manufacturier. Cependant, pour la majorité des tâches autonomes, la définition d’un modèle analytique ou la recherche d’une solution optimale requiert des ressources rarement accessibles en temps-réel, favorisant par conséquent des techniques basées sur l’apprentissage. Ces dernières, présentant l’avantage de ne pas nécessiter de modèle ainsi que de présenter un temps de calcul en exécution relativement constant, permettent d’appréhender des configurations et tâches hautement complexes. Les techniques basées sur les données font cependant état de temps d’entraînement considérables, nécessitant fréquemment des millions d’exemples et d’interaction avec leur environnement pour construire des politiques de contrôle admissibles. Le transfert de connaissance entre modèles est crucial pour le déploiement à grande échelle des méthodes d’apprentissage et bien que des stratégies de transmission aient été au coeur des récentes préoccupations, elles sont essentiellement dirigées vers les domaines de vision ou de compréhension du langage et ne sont pas directement applicables à des problématiques de transfert de compétences entre robots présentant des structures cinématique différentes. Les travaux présentés dans ce manuscrit de thèse se focalisent précisément sur ce point et visent à déterminer dans quelle mesure la compréhension entre deux entités morphologiquement distinctes est possible. Cette question est explorée via l’introduction de deux paradigmes distincts: Task-Centered et Teacher-Centered. La famille de techniques dite Task-Centered est basée sur l’idée de la séparation du savoir-faire relatif àune tâche des stratégies de contrôle du robot. A la manière d’une notice d’instruction, un tel noyau indépendant peut par conséquent être passé à d’autres robots de morphologie différentes et idéalement rendre possible la réalisation de la tâche par ce nouvel agent. Dans ce contexte, plusieurs procédures de création de ce noyau sont proposées et évaluées sur un large panel d’environnements simulés. Cependant, en dépit des perspectives attractives de cette formulation, le caractère "onesize-fits-all" des techniques Task-Centered n’est pas exempte de limitations qui sont extensivement discutées. C’est dans ce contexte que les approches Teacher-Centered sont introduites. Poursuivant le même objectif, ces démarches innovantes font intervenir un agent expert à partir duquel le savoir relatif à la tâche doit être distillé dans l’agent cible. Pour ce faire, une métrique originale est utilisée pour contourner la différence de structure entre l’agent cible et l’agent expert et permettre,malgré cette distinction, la rétro-propagation de l’erreur afin d’optimiser l’agent
Recently, it has been possible to observe the acceleration of robot deployment in domains beyondthe usual industrial and manufacturing framework. However, for the majority of autonomoustasks, the definition of an analytical model or the search for an optimal (or acceptable) solutionrequires resources that are seldom available in real-time, thus favoring learning-based techniques.Indeed, learned models present the advantage of being model-free as well as having a constantexecution time, consequently enabling the realization of highly complex trajectories and tasks.Data-driven techniques, however, are hindered by considerable training time, frequently requiringmillions of examples and interactions with their environment to build acceptable control policies.As such, knowledge transfer, also known as transfer learning, between models is crucial for largescaledeployment of learned policies. Although transmission strategies have been the focus ofrecent concerns, they are mainly directed towards the fields of vision or language understandingand are not directly applicable to control environments where skill transfer is likely to happenbetween robots with different kinematic structures. The works presented in this thesis manuscriptfocus precisely on this point and aims at determining to what extent understanding between twomorphologically distinct entities is possible. This question is explored through the introductionof two distinct paradigms: Task-Centered and Teacher-Centered. The Task-Centered family oftechniques is based on the idea of the separation of task-related know-how from robot control policy.Such an independent kernel can therefore be passed on to other robots of different morphology andideally make it possible for the new agent to perform the task. In this context, several blueprintsfor creating this kernel are proposed and evaluated on a wide range of simulated environments.However, despite the attractive prospects of this formulation, the "one-size-fits-all" character ofTask-Centered techniques is not free of limitations which are extensively discussed. It is in thiscontext that Teacher-Centered approaches are introduced. Pursuing the same objective, theseinnovative procedure involve an expert agent from which the knowledge related to the task mustbe distilled into the target agent. To do this, an original metric is used to circumvent the structuraldifferences between the target agent and the expert agent and allow, despite this distinction, theerror to be back-propagated in order to optimize the agent
APA, Harvard, Vancouver, ISO, and other styles
28

Muraro, Alain. "Génération de mouvements optimaux pour un robot quadrupède." Nantes, 2002. http://www.theses.fr/2002NANT2091.

Full text
Abstract:
Le sujet traité dans le cadre de cette thèse est la génération de mouvements optimaux rapides d'un robot quadrupède. Le robot marcheur est composé d'une plate-forme et de quatre pattes sans pieds articulés par des liaisons rotoi͏̈des aux hanches et aux genoux. Le contact patte/sol est ponctuel et passif. Cette recherche prend en compte les dimensions d'un prototype de robot quadrupède mis en place au sein du laboratoire et les caractéristiques de ses actionneurs. Des mouvements optimaux sont conçus pour trois allures : la courbette, l'amble et le trot. Ces dernières sont composées dans un premier temps de phases de double support séparées par des phases de quadruple support instantanées (impacts) puis complétés par des phases de vol. Les mouvements étudiés correspondent à un mouvement simultané de deux pattes. Le principe des pattes virtuelles est introduit pour la courbette et le trot : une patte virtuelle représente deux pattes ayant un mouvement simultané. Ces deux allures peuvent être étudiées en 2D. Cette simplification n'est que partiellement possible pour l'amble. . .
APA, Harvard, Vancouver, ISO, and other styles
29

Cisneros, Iturbe Héctor Leonardo. "Modèle de génération de champs d'averses sur la région de Mexico." Montpellier 2, 2001. http://www.theses.fr/2001MON20055.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Chavoya, Pena Arturo. "Un modèle de développement artificiel pour la génération de structures cellulaires." Toulouse 1, 2007. http://publications.univ-tlse1.fr/681/.

Full text
Abstract:
La formation de structures cellulaires a un rôle crucial dans le développement tant artificiel que naturel. Cette thèse présente un modèle de développement artificiel pour la génération de structures cellulaires basé sur le paradigme des automates cellulaires (AC). La croissance cellulaire est contrôlée par un génome comportant un réseau de régulation artificiel (RRA) et une série de gènes structurels. Ce génome a subi une évolution par algorithme génétique (AG) afin de produire des structures cellulaires en 2D grâce à l'activation et inhibition sélective des gènes. De plus des gradients morphogénétiques ont été utilisés pour fournir aux cellules une information de position permettant de contraindre leur reproduction. Après évolution d'un génome par algorithme génétique, une cellule unique est placée au milieu de la grille de l'AC où sa reproduction, contrôlée par le RRA, produit une structure cellulaire cible. Le modèle a été appliqué avec succès au problème classique de génération de la structure d'un drapeau français (French flag problem)
Cell pattern formation has a crucial role in both artificial and natural development. This thesis presents an artificial development model for cell pattern generation based on the cellular automata (CA) paradigm. Cellular growth is controlled by a genome consisting of an artificial ragulatory network (ARN) and a series of structural genes. The genome was evolved by a genetic algorithm (GA) in order to produce 2D cell patterns through the selective activation and inhibition of genes. Morphogenetic gradients were used to provide cells with positional information that constrained cellular replication. After a genome was evolved, a single cell in the middle of the CA lattice was allowed to reproduce controlled by the ARN until a cell pattern was formed. The model was applied to the canonical problem of growing a french flag pattern
APA, Harvard, Vancouver, ISO, and other styles
31

Boulifa, Rabea. "Génération de modèles comportemementaux des applications des applications réparties." Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00008927.

Full text
Abstract:
Dans notre travail nous nous sommes intéressés à la vérification
automatique de propriétés comportementales d'applications réparties par des
méthodes fondées sur les
modèles. En particulier, nous étudions le problème de
génération de modèles
à partir de programmes Java répartis et représentés par des systèmes de transitions
communiquants.

Pour ce faire, nous définissons une sémantique comportementale de programmes ProActive, une
librairie Java pour la programmation parallèle, distribuée et
concurrente. À partir de cette sémantique nous construisons des modèles
comportementaux pour
des abstractions finies d'applications écrites dans ce langage. Ces
modèles sont basés sur la sémantique des algèbres de
processus et peuvent donc être construits de manière compositionnelle et
hiérarchique.
La construction de modèles finis n'est pas toujours possible. Pour
pouvoir traiter des problèmes prenant en compte des données, ainsi que
des problèmes concernant des topologies non bornées d'objets
répartis, nous définissons une nouvelle notion de modèleles
hiérarchiques, à base de systèmes de transitions paramétrés et de
réseau de synchronisation paramétrés. Moyennant des abstractions ces modèles permettent de
spécifier des applications possiblement infinies par des représentations
expressives, finies, et plus proche de la structure du code.
Par ailleurs, nous définissons un système de règles sémantiques
permettant de générer automatiquement ces modèles (finis ou
paramétrés) à partir d'une forme intermédiaire, obtenue par analyse statique,
des programmes analysés.
Les modèles ainsi générés sont exploitables directement ou après
instantiation par des outils de vérification.
APA, Harvard, Vancouver, ISO, and other styles
32

Job, Isabelle. "La dette publique dans les modèles à générations imbriquées." Paris 10, 1996. http://www.theses.fr/1996PA100007.

Full text
Abstract:
L'objet de cette these est d'analyser, d'un point de vue theorique, l'impact a long terme de la dette publique sur l'economie. Plus precisement, nous etudions dans le cadre des modeles a generations imbriquees, le role de cet actif, comme un instrument de politique economique, utilise soit a des fins redistributives, soit en tant qu'outil de financement de depenses publiques productives. Dans une premiere partie, nous etudions la dette publique sans se soucier de sa contrepartie reelle que representent les depenses de l'etat et ce afin de mettre l'accent sur l'aspect redistributif d'une telle politique. Dans ce cadre, nous discutons l'hypothese de neutralite du mode de financement et ses critiques. Nous nous interessons egalement au probleme de la soutenabilite des politiques budgetaires en etudiant les conditions pour lesquelles l'etat peut s'engager dans un jeu de ponzi lorsqu'il est soumis a une contrainte de solvabilite. Dans la seconde partie de ce travail nous abandonnons la vision simpliste d'une politique financiere deconnectee de toute contrepartie reelle. Nous envisageons alors la dette publique comme un moyen de financement de depenses ayant des implications a long terme sur l'activite economique. Lorsque l'on reconnait une telle utilite a la depense publique alors la politique budgetaire est un instrument supplementaire pouvant aider a resorber les desequilibres economiques. Nous construisons deux modeles a generations imbriquees afin d'etudier l'impact du niveau et du mode de financement de ce type de depenses sur le taux de croissance, les niveaux d'emploi et de bien etre dans l'economie
The goal of this thesis is to examine, from a theoric point of view, the long term implications of public debt. We base our analysis on the overlapping generation models to study public indebteness which can be used for redistributive transfers or for financing public "productive" spending. In the first part, we examine the public debt without taking into account its real counterpart, that is public spending, to focus on the redistributive effects of this financial policy. We discuss the theorem of debt-neutrality and developp its critics. We are also interested in the problem of sustainability and particularly, we examine the conditions for which the government can run a ponzi game when he faces a solvability constraint. In the second part, we give up this simple way of thinking about a financial policy completely disconnected of its real counterpart. Then, we focus on the role of public debt as a political tool using for financing public spending with long term implications on economic activity. When we recognize an utility for public spending, fiscal policy can be an additional instrument for policy makers to reduce economic problems. We build two overlapping generation models where public investment has positive effects on the productivity of private factors. We examine how the level and the way of financing this kind of spending can affect the rate of growth, the unemployment level and the welfare in the economy
APA, Harvard, Vancouver, ISO, and other styles
33

Uribe, Lobello Ricardo. "Génération de maillages adaptatifs à partir de données volumiques de grande taille." Thesis, Lyon 2, 2013. http://www.theses.fr/2013LYO22024.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés au problème de l'extraction d'une surface à partir de la représentation volumique d'un objet. Dans ce but, nous nous sommes concentrés sur les méthodes de division spatiale. Ces approches divisent le volume afin de construire une approximation par morceaux de la surface de l'objet. L'idée générale consiste à faire des approximations surfaciques locales qui seront ensuite combinées pour extraire une surface unique représentant l'objet. Les approches basées sur l'algorithme " Marching Cubes " (MC) présentent des défaut par rapport à la qualité et l'adaptativité de la surface produite. Même si une considérable quantité d'améliorations ont été apportées à la méthode originale, la plus grande partie des algorithmes fournissent la solution à un ou deux défauts mais n'arrivent pas à surmonter toutes ses limitations.Les méthodes duales sont plus adaptées pour utiliser un échantillonnage adaptatif sur le volume d'intérêt. Ces méthodes reposent sur la génération de surfaces duales à celles construites par MC ou se basent sur des grilles duales. Elles construisent des maillages moins denses et en même temps capables de mieux approcher les détails de l'objet. De plus, des améliorations récentes garantissent que les maillages extraits ont de bonnes propriétés topologiques et géométriques.Nous avons étudié les caractéristiques spécifiques des objets volumiques par rapport à leur géométrie et à leur topologie. Nous avons exploré l'état de l'art sur les approches de division spatiale afin d'identifier leurs avantages et leurs inconvénients ainsi que les implications de leur utilisation sur des objets volumiques. Nous avons conclu qu'une approche duale était la mieux adaptée pour obtenir un bon compromis entre qualité du maillage et qualité de l'approximation. Dans un second temps, nous avons proposé et développé un pipeline de génération de surfaces basé sur une combinaison d'une approche duale et de la recherche de composantes connexes n-dimensionnels pour mieux reproduire la topologie et la géométrie des objets originels. Dans un troisième temps, nous avons présenté une extension "out-of-core" de notre chaîne de traitements pour l'extraction des surfaces à partir de grands volumes. Le volume est divisé pour générer des morceaux de surface de manière indépendante et garde l'information nécessaire pour les connecter afin de produire une surface unique topologiquement correcte.L'approche utilisée permet de paralléliser le traitement pour accélérer l'obtention de la surface. Les tests réalisés ont permis de valider la méthode sur des données volumiques massives
In this document, we have been interested in the surface extraction from the volumetric representation of an object. With this objective in mind, we have studied the spatial subdivision surface extraction algorithms. This approaches divide the volume in order to build a piecewise approximation of the surface. The general idea is to combine local and simple approximations to extract a complete representation of the object's surface.The methods based on the Marching Cubes (MC) algorithm have problems to produce good quality and to handle adaptive surfaces. Even if a lot of improvements to MC have been proposed, these approaches solved one or two problems but they don't offer a complete solution to all the MC drawbacks. Dual methods are more adapted to use adaptive sampling over volumes. These methods generate surfaces that are dual to those generated by the Marching Cubes algorithm or dual grids in order to use MC methods. These solutions build adaptive meshes that represent well the features of the object. In addition, recent improvements guarantee that the produced meshes have good geometrical and topological properties.In this dissertation, we have studied the main topological and geometrical properties of volumetric objects. In a first stage, we have explored the state of the art on spatial subdivision surface extraction methods in order to identify theirs advantages, theirs drawbacks and the implications of theirs application on volumetric objects. We have concluded that a dual approach is the best option to obtain a good compromise between mesh quality and geometrical approximation. In a second stage, we have developed a general pipeline for surface extraction based on a combination of dual methods and connected components extraction to better capture the topology and geometry of the original object. In a third stage, we have presented an out-of-core extension of our surface extraction pipeline in order to extract adaptive meshes from huge volumes. Volumes are divided in smaller sub-volumes that are processed independently to produce surface patches that are later combined in an unique and topologically correct surface. This approach can be implemented in parallel to speed up its performance. Test realized in a vast set of volumes have confirmed our results and the features of our solution
APA, Harvard, Vancouver, ISO, and other styles
34

Ressencourt, Hervé. "Diagnostic hors-ligne à base de modèles : approche multi-modèle pour la génération automatique de séquences de tests : application au domaine de l'automobile." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/2151/.

Full text
Abstract:
Le travail de cette thèse s'intéresse au problème du diagnostic débarqué dans le domaine automobile. Il a consisté à proposer et à mettre en œuvre une méthode opérationnelle à base de modèles qui détermine les meilleures séquences de tests que doit réaliser le garagiste afin de localiser un composant défaillant sur un véhicule. Nous proposons une approche de représentation multi-modèle des systèmes mécatronique afin de prendre en compte la complexité fonctionnelle des architectures embarquées actuelles et de relier des symptômes fonctionnels de haut niveau à un ensemble de défauts portant sur des composants matériels et logiciels. Le séquencement des tests est réalisé à partir d'un critère du prochain meilleur test. Cette stratégie interactive laisse l'initiative à l'opérateur humain d'accepter ou de refuser le test proposé. Un prototype logiciel a été développé et testé avec succès sur la fonction essuyage arrière de véhicules réels. Cette thèse a été réalisée dans le cadre d'une convention CIFRE entre le LAAS-CNRS et la société ACTIA ainsi que dans le cadre du Laboratoire Commun Autodiag (LAAS, IRIT, ACTIA) dont l'objectif est de développer de nouvelles méthodes de diagnostic pour le domaine automobile
This thesis deals with the problem of off-board diagnosis in the automotive domain. The work has consisted in proposing and implementing an operational model based approach that determines the best sequences of tests to be performed by the garage mechanic to localise a faulty component on a vehicle. A multi-model approach is proposed for the description of mechatronic systems, which allows us to handle the functional complexity of embedded systems and to match functional symptoms with a set of faults on hardware / software components. The test sequencing problem is approached along a next best test strategy based on a local heuristic. This strategy enables an interactive diagnostic session, allowing more flexibility and leaving with the human operator the initiative to accept or reject the proposed test. A software prototype has been developed and tested on the rear wiper system of real vehicles. This thesis, supported by a CIFRE grant, is the result of collaboration between the company ACTIA and the research center LAAS-CNRS in the framework of the common laboratory Autodiag (LAAS, IRIT, ACTIA) which aims at developing new methods for diagnosis in the automotive domain
APA, Harvard, Vancouver, ISO, and other styles
35

Sidibe, Modibo. "Structural empirical models of spatial inequalities: housing choices, policies and generational consequences." Phd thesis, Université Lumière - Lyon II, 2011. http://pastel.archives-ouvertes.fr/pastel-00702737.

Full text
Abstract:
Cette thèse présente trois articles où des agents optimisateurs tiennent compte dans leurs choix présents de leurs situations futures. Dans le premier essai, nous estimons un modèle dynamique de choix de logement. Nous nous intéressons à la disponibilité à payer pour les caractéristiques du logement en estimant un modèle hédonique dynamique. Notre méthode d'estimation tient compte des caractéristiques inobservables du logement, qui peuvent être de surcroît corrélées aux caractéristiques observées. Nous utilisons la régulation des loyers comme principale source d'identification, qui rend les loyers indépendants des conditions locales du marché du logement. Les résultats indiquent une corrélation négative entre l'hétérogénéité non observée et les paramètres. L'impossibilité de tenir compte de cette hétérogénéité biaiserait les paramètres. Dans le deuxième essai, nous proposons un modèle d'appariement sur le marché du travail pour évaluer la politique publique des zones franches urbaines. Nous modélisons chaque aire urbaine comme un marché local du travail composé d'une localisation centrale et d'une banlieue. Les firmes font des choix de localisation en fonction de leur productivité. La segmentation ainsi générée crée une différence entre les taux d'arrivée des offres des deux localisations. Les résultats démontrent que la politique a un effet très faible sur le chômage. De plus, le modèle suggère qu'il faudrait multiplier par 20 le nombre de firmes en ZFUs afin d'avoir un effet sur le chômage. Enfin, dans le troisième essai, nous analysons la contribution respective des différences individuelles et entre localisations à la dynamique de la ségrégation et des inégalités. Nous développons un modèle dans l'esprit de Bewley-Huggett-Aiyagari où plusieurs frictions sont présentes. Plus précisément, nous introduisons une segmentation entre les propriétaires et les locataires, l'imperfection du marché du crédit et la mobilité au cours du cycle de vie. De plus, la localisation des individus affecte leur productivité, leur accumulation de capital via la dynamique des prix des logements, et le processus d'acquisition de capital humain de la génération. Nous analysons ainsi la mobilité individuelle à partir de ce cadre de travail.
APA, Harvard, Vancouver, ISO, and other styles
36

Grondin, Pierre. "Génération de code ciblant un microcontrôleur MPC555 à partir d'un modèle Simulink." Mémoire, École de technologie supérieure, 2003. http://espace.etsmtl.ca/738/1/GRONDIN_Pierre.pdf.

Full text
Abstract:
Le but de ce projet est de permettre la génération d'un modèle Simulink en code C afin de l'exécuter sur une carte de développement avec un MPC555. L'hypothèse de base est que les générateurs de code actuels sont suffisamment configurables pour le ciblage de processeurs embarqués. Une des applications futures visées par ce projet est le contrôle d'un robot à cinq degrés de liberté. Le générateur de code Real-Time Workshop (RTW) de MathWorks a été sélectionné pour ce projet. Lors du développement, on doit d'abord mettre en place un modèle de génération de code et un séquenceur. Ensuite, on développe des blocs Simulink utilisant les entrées-sorties du MPC555. Une application de contrôle en position d'un moteur DC et une interface graphique Labview permettent de confirmer le bon fonctionnement du projet. On arrive à la conclusion que cette solution est très intéressante pour le prototypage rapide d'applications de contrôle.
APA, Harvard, Vancouver, ISO, and other styles
37

Costa, Catherine. "Harmonisation fiscale européenne : utilisation d'un modèle à générations imbriquées à deux pays." Aix-Marseille 2, 1998. http://www.theses.fr/1998AIX24019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Kral, Quentin. "Etude des disques de débris avec un modèle numérique de nouvelle génération." Observatoire de Paris (1667-....), 2014. https://hal.science/tel-02095162.

Full text
Abstract:
Ce travail de recherche a porté sur la réalisation et l'exploitation d'un code numérique de nouvelle génération, permettant de modéliser, de manière auto-cohérente, l'évolution des disques de débris. Ces diques de poussières, optiquement fins, pouvant être âgés, sont présents autour de 30 [pour cent] des étoiles. De nombreuses observations avec des instruments tels que Herschel, Hubble, le VLT, le LBTI, ALMA et bientôt l'EELT ou le JWST donnent des images de plus en plus précises de ces objets, dont les formes et structures variées que l'on y repère, recèlent encore bien des mystères. Une pléthore de modèles tente de mettre à jour le lien entre les structures détectées, le spectre du système, la photométrie et les interactions avec l'environnement proche. En effet, la présence de planètes, par l'entremise de ses résonances ou de ses perturbations gravitationnelles diverses, peut induire des structures dans les disques (gauchissement, asymétrie de brillance, amas de poussière,. . . ). De même, la présence de gaz, d'un compagnon stellaire, ou une collision massive peuvent expliquer une partie des asymétries observées. Néanmoins, il faut développer des modèles robustes qui soient capables de prendre en compte la complexité de la physique inhérente à ces diques, en particulier les interactions entre les collisions et la dynamique, pour donner les meilleures observables possibles. Notre équipe a d'abord développé un modèle nommé DyCoSS capable de coupler partiellement les collisions à la dynamique. Néanmoins, à cause de multiples limitations inhérentes à ce modèle, nous avons opté pour le développement de LIDT-DD : le premier modèle auto-cohérent couplant, de manière totale, les collisions et la dynamique et prenant en compte l'évolution de la poussière dans les disques de débris. De plus, le code a été couplé à GRaTer, un modèle de transfert de rayonnement permettant de bien traiter la dynamique des grains suivant leur taille, leur composition, le type d'étoile. . . Une fois ce modèle mis au point, en essayant d'être le plus générique possible, nous avons effectué une panoplie de tests pour valider son fonctionnement. Dans une deuxième partie, nous avons analysé les collisions massives dans les disques de débris à l'aide de LIDT-DD. Ces collisions sont des marqueurs de la formation planétaire et méritent une attention particulière afin de nous aider à valider les modèles de formation planétaire ou même d'optimiser nos chances de voir des planètes en formation. Avec notre modèle, nous mettons à jour la signature observationnelle de ces collisions massives et sommes capables de suivre l'évolution du système de l'ensemble de sa durée de vie. Ainsi, nous distinguons différentes phases et donnons les échelles de temps associés. Nous prédisons que ces explosions sont détectables pour Spitzer/MIPS à 24 microns, et nous montrons que pour des systèmes assez proches (environ 10 pc), nous sommes même capables de résoudre de tels événements avec des instruments tels que SPHERE/VLT en lumière diffusée ou MIRI/JWST en émission thermique. Enfin, nous livrons au lecteur des études en cours, et montrons par la même, l'ensemble des perspectives qui s'offrent à nous grâce à ce nouveau modèle LIDT-DD
The present work was dedicated to the development and use of a new generation numerical code, able to model in a self-consistent was debris discs' evolution. These dust discs, optically thin, sometimes very old, are present around at least 30 [percent] of stars. Numerous observations with Herschel, the VLT, the LBTI, ALMA and soon the EELT or the JWST give images that are always more accurate of these objects, for which, the visible structures that are observed are astonishingly different from each other, leaving often a mystery to be solved. Various models attempt to reveal the link between the observed structures, the system spectra, its photometry and the interactions with the close- environment. Indeed, the presence of planets, through its resonances or gravitational perturbations, can induce the production of structures in these discs (warp, brightness asymetry, dust clump. . . ). Like wise, the presence of gas, of a stellar companion or a massive collision could explain a part of observed asymmetries. Nonetheless, robust models have to be developed, that are able to take into account the complexity of the physics associated with these discs, especially the interactions between the collisions and dynamics, in order to give the closest outputs to observations. Firstly, our team developed a model named DyCoSS able to partially couple the collisions and dynamics. Hoewer, because of numerous limitations of this model, we decided to develop a totally new, stand alone code, called LIDT-DD : the first self-consistent model fully coupling the collisions and dynamics and taking into account the evolution of dust in debris discs. Moreover, the code has been coupled to GRaTer, a radiative transfer code, able to treat the dynamics of grains according to their size, composition, stellar type,. . . Once the model, trying to be as generic as possible, was implemented, we carried out a huge number of tests to validate it. In a second part, we analyzed massive collisions in debris discs with LIDT-DD. These collisions are planetary formation markers and deserve a special attention, to help to test the planetary formation models or even to optimize our chances to detect forming planets. With our model, we explore the observational signatures of these massive collisions and are able to follow the system evolution on most of its lifetime. Hence, we distinguish different phases and give the timescales associated. We predict that these collisisions are detectable by Spitzer/MIPS at 24 microns and show that for nearby systems (about 10 pc), we are able to resolve such events with instruments such as SPHERE/VLT in scattered light or MIRI/JWST in thermal emission
APA, Harvard, Vancouver, ISO, and other styles
39

Baelde, Maxime. "Modèles génératifs pour la classification et la séparation de sources sonores en temps-réel." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I058/document.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de l'entreprise A-Volute, éditrice de logiciels d'amélioration d'expérience audio. Elle propose un radar qui transpose l'information sonore multi-canale en information visuelle en temps-réel. Ce radar, bien que pertinent, manque d'intelligence car il analyse uniquement le flux audio en terme d'énergie et non en termes de sources sonores distinctes. Le but de cette thèse est de développer des algorithmes de classification et de séparation de sources sonores en temps-réel. D'une part, la classification de sources sonores a pour but d'attribuer un label (par exemple voix) à un son monophonique (un label) ou polyphonique (plusieurs labels). La méthode développée utilise un attribut spécifique, le spectre de puissance normalisé, utile à la fois dans le cas monophonique et polyphonique de part sa propriété d'additivité des sources sonores. Cette méthode utilise un modèle génératif qui permet de dériver une règle de décision basée sur une estimation non paramétrique. Le passage en temps-réel est réalisé grâce à un pré-traitement des prototypes avec une classification hiérarchique ascendante. Les résultats sont encourageants sur différentes bases de données (propriétaire et de comparaison), que ce soit en terme de précision ou de temps de calcul, notamment dans le cas polyphonique. D'autre part, la séparation de sources consiste à estimer les sources en terme de signal dans un mélange. Deux approches de séparation ont été considérées dans la thèse. La première considère les signaux à retrouver comme des données manquantes et à les estimer via un schéma génératif et une modélisation probabiliste. L'autre approche consiste, à partir d'exemples sonores présent dans une base de données, à calculer des transformations optimales de plusieurs exemples dont la combinaison tends vers le mélange observé. Les deux propositions sont complémentaires, avec chacune des avantages et inconvénients (rapidité de calcul pour la première, interprétabilité du résultat pour la deuxième). Les résultats expérimentaux semblent prometteurs et nous permettent d'envisager des perspectives de recherches intéressantes pour chacune des propositions
This thesis is part of the A-Volute company, an audio enhancement softwares editor. It offers a radar that translates multi-channel audio information into visual information in real-time. This radar, although relevant, lacks intelligence because it only analyses the audio stream in terms of energy and not in terms of separate sound sources. The purpose of this thesis is to develop algorithms for classifying and separating sound sources in real time. On the one hand, audio source classification aims to assign a label (e.g. voice) to a monophonic (one label) or polyphonic (several labels) sound. The developed method uses a specific feature, the normalized power spectrum, which is useful in both monophonic and polyphonic cases due to its additive properties of the sound sources. This method uses a generative model that allows to derive a decision rule based on a non-parametric estimation. The real-time constraint is achieved by pre-processing the prototypes with a hierarchical clustering. The results are encouraging on different databases (owned and benchmark), both in terms of accuracy and computation time, especially in the polyphonic case. On the other hand, source separation consists in estimating the sources in terms of signal in a mixture. Two approaches to this purpose were considered in this thesis. The first considers the signals to be found as missing data and estimates them through a generative process and probabilistic modelling. The other approach consists, from sound examples present in a database, in computing optimal transformations of several examples whose combination tends towards the observed mixture. The two proposals are complementary, each having advantages and drawbacks (computation time for the first, interpretability of the result for the second). The experimental results seem promising and allow us to consider interesting research perspectives for each of the proposals
APA, Harvard, Vancouver, ISO, and other styles
40

Beller, Grégory. "Analyse et modèle génératif de l'expressivité : application à la Parole et à l'Interprétation musicale." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00431104.

Full text
Abstract:
Cette thèse s'inscrit dans les recherches actuelles sur les émotions et les réactions émotionnelles, sur la modélisation et la transformation de la parole, ainsi que sur l'interprétation musicale. Il semble que la capacité d'exprimer, de simuler et d'identifier des émotions, des humeurs, des intentions ou des attitudes, est fondamentale dans la communication humaine. La facilité avec laquelle nous comprenons l'état d'un personnage, à partir de la seule observation du comportement des acteurs et des sons qu'ils émettent, montre que cette source d'information est essentielle et, parfois même, suffisante dans nos relations sociales. Si l'état émotionnel présente la particularité d'être idiosyncrasique, c'est-à-dire particulier à chaque individu, il n'en va pas de même de la réaction associée qui se manifeste par le geste (mouvement, posture, visage, ...), le son (voix, musique, ...), et qui, elle, est observable par autrui. Ce qui nous permet de penser qu'il est possible de transformer cette réaction dans le but de modifier la perception de l'émotion associée. C'est pourquoi le paradigme d'analyse-transformation-synthèse des réactions émotionnelles est, peu à peu, introduit dans les domaines thérapeutique, commercial, scientifique et artistique. Cette thèse s'inscrit dans ces deux derniers domaines et propose plusieurs contributions. D'un point de vue théorique, cette thèse propose une définition de l'expressivité (et de l'expression neutre), un nouveau mode de représentation de l'expressivité, ainsi qu'un ensemble de catégories expressives communes à la parole et à la musique. Elle situe l'expressivité parmi le recensement des niveaux d'information disponibles dans l'interprétation qui peut être vu comme un modèle de la performance artistique. Elle propose un modèle original de la parole et de ses constituants, ainsi qu'un nouveau modèle prosodique hiérarchique. D'un point de vue expérimental, cette thèse fournit un protocole pour l'acquisition de données expressives interprétées. Collatéralement, elle rend disponible trois corpus pour l'observation de l'expressivité. Elle fournit une nouvelle mesure statistique du degré d'articulation ainsi que plusieurs résultats d'analyses concernant l'influence de l'expressivité sur la parole. D'un point de vue technique, elle propose un algorithme de traitement du signal permettant la modification du degré d'articulation. Elle présente un système de gestion de corpus novateur qui est, d'ores et déjà, utilisé par d'autres applications du traitement automatique de la parole, nécessitant la manipulation de corpus. Elle montre l'établissement d'un réseau bayésien en tant que modèle génératif de paramètres de transformation dépendants du contexte. D'un point de vue technologique, un système expérimental de transformation, de haute qualité, de l'expressivité d'une phrase neutre, en français, synthétique ou enregistrée, a été produit, ainsi qu'une interface web pour la réalisation d'un test perceptif en ligne. Enfin et surtout, d'un point de vue prospectif, cette thèse propose différentes pistes de recherche pour l'avenir, tant sur les plans théorique, expérimental, technique que technologique. Parmi celles-ci, la confrontation des manifestations de l'expressivité dans les interprétations verbales et musicales semble être une voie prometteuse.
APA, Harvard, Vancouver, ISO, and other styles
41

Mendoza, Chavez Gustavo. "Approche semi-automatique de génération de modèles bielles-et-tirants." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1030/document.

Full text
Abstract:
Dans le domaine des structures en Béton Armé (BA) et plus spécifiquement, lors de la conception d'éléments non-flexibles tels que les corbeaux, les poutres bayonets et les poutres profondes, la Méthode Bielle-Tirant (MBT) présente des avantages par rapport aux algorithmes classiques de calcul de ferraillage basé sur l'analyse FE (par exemple Wood-Armor ou Capra-Maury).La Methode Bielle-Tirant reste une alternative adaptée pour la conception de structures en béton présentant un comportement élastique ou plastique dont le cadre d'application est bien défini dans les codes de conception des structures en béton comme les EuroCodes et les spécifications de conception des ponts AASHTO-LRFD.Néanmoins, cette méthode présente l'inconvénient majeur de nécessiter un investissement important en ressources humaines ou en capacité de calcul pour, respectivement, son application manuelle ou une approche automatique par optimisation de topologie.Le document propose une alternative légère, en termes d'itérations requises, à l'automatisation de la MBT, qui part de l'affirmation que les entretoises résultantes et les attaches d'un modèle ST approprié peuvent être distribuées selon la direction des contraintes principales, $sigma_{III}$ et $sigma_{I}$, obtenus à partir d'un planaire modèle aux EF
Within the field of Reinforced Concrete (RC) structures and more specifically, at the design of non-flexural elements such as corbels, nibs, and deep beams, the rational procedure of conception and justification referred as Strut-and-Tie Method (STM) has shown some advantages over classical algorithms of reinforcement computation based on FE analysis (eg. Wood-Armer or Capra-Maury).The STM remains a suitable alternative for the design of concrete structures presenting either elastic or plastic behaviour whose application framework is well defined in concrete structures’ design codes like the EuroCodes and the AASHTO-LRFD Bridge Design Specifications.Nevertheless, this method has the main inconvenient of requiring a high amount of resources investment in terms of highly experienced personal or in terms of computational capacity for, respectively, its manual application or an automatic approach through topology optimisation.The document proposes a light alternative, in terms of required iterations, to the automation of the STM, which starts from the statement that the resultant struts and ties of a suitable ST model can be distributed according to the direction of the principal stresses, $sigma_{III}$ and $sigma_{I}$ , obtained from a planar or a three-dimensional FE model
APA, Harvard, Vancouver, ISO, and other styles
42

Constant, Camille. "Génération automatique de tests pour modèles avec variables ou récursivité." Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/constant.pdf.

Full text
Abstract:
Nous nous intéressons dans ce document à la génération automatique de tests de conformité pour des implémentations réactives. Nous nous attachons dans un premier temps à étendre la méthode de génération de tests, basée sur la théorie du test de conformité à la ioco, en reliant trois niveaux de description (propriétés, spécification et implémentation). Nous combinons pour cela vérification formelle et test de conformité. Nous obtenons ainsi, lors de l'exécution du cas de test sur l'implémentation, des verdicts pouvant indiquer la non-conformité de l'implémentation, mais également la satisfaction/violation de la propriété par l'implémentation et/ou la spécification. Nous étendons dans un deuxième temps la génération de tests par l'expressivité du modèle de spécification en nous intéressant aux spécifications interprocédurales récursives. Notre méthode est basée sur une analyse exacte de co-accessibilité permettant de décider si et comment un objectif de test pourra être atteint. Cependant, l'incapacité des cas de test récursifs à connaître leur propre pile d'exécution ne permet pas d'utiliser la totalité des résultats de l'analyse. Nous discutons de ce problème d'observation partielle et de ses conséquences puis nous proposons un moyen de minimiser son impact. Enfin, nous expérimentons ces méthodes de génération de tests sur quelques exemples et une étude de cas
This thesis adresses the problem of automatic test case generation for testing the conformance of a reactive implementation. We first propose a methodology which extends the testing theory based on the ioco conformance relation by distinguishing three levels of description: properties, specification and implementation. The methogology integrates verification and conformance testing. The execution of the generated test cases on the implementation allows detecting conformance violations between implementation and specification, but also violation/satisfaction of the properties by the implementation or the specification. Secondly, we introduce a more expressive specification model: recursive interprocedural specifications. The test generation method we propose is based on coreachability analysis, which allows deciding whether and how the test purpose can still be satisfied. However, although it is possible to carry out an exact analysis, the inability of test cases to inspect their own stack prevents them from fully using the coreachability information. We discuss this partial observation problem, its consequences, and how to minimise its impact. Finally, we experiment these methods of test generation on several examples and a case study
APA, Harvard, Vancouver, ISO, and other styles
43

Govokhina, Oxana. "Modèles de génération de trajectoires pour l'animation de visages parlants." Phd thesis, Grenoble INPG, 2008. http://tel.archives-ouvertes.fr/tel-00363319.

Full text
Abstract:
Le travail réalisé durant cette thèse concerne la synthèse visuelle de la parole pour l'animation d'un humanoïde de synthèse. L'objectif principal de notre étude est de proposer et d'implémenter des modèles de contrôle pour l'animation faciale qui puissent générer des trajectoires articulatoires à partir du texte. Pour ce faire nous avons travaillé sur 2 corpus audiovisuels. Tout d'abord, nous avons comparé objectivement et subjectivement les principaux modèles existants de l'état de l'art. Ensuite, nous avons étudié l'aspect spatial des réalisations des cibles articulatoires, pour les synthèses par HMM (Hidden Markov Model) et par concaténation simple. Nous avons combiné les avantages des deux méthodes en proposant un nouveau modèle de synthèse nommé TDA (Task Dynamics for Animation). Ce modèle planifie les cibles géométriques grâce à la synthèse par HMM et exécute les cibles articulatoires ainsi générées grâce à la synthèse par concaténation. Par la suite, nous avons étudié l'aspect temporel de la synthèse de la parole et proposé un second modèle de synthèse intitulé PHMM (Phased Hidden Markov Model) permettant de gérer les différentes modalités liées à la parole. Le modèle PHMM permet de calculer les décalages des frontières des gestes articulatoires par rapport aux frontières acoustiques des allophones. Ce modèle a été également appliqué à la synthèse automatique du LPC (Langage Parlé Complété). Enfin, nous avons réalisé une évaluation subjective des différentes méthodes de synthèse visuelle étudiées (concaténation, HMM, PHMM et TDA).
APA, Harvard, Vancouver, ISO, and other styles
44

Govokhina, Oxana. "Modèles de génération de trajectoires pour l'animation de visages parlants." Phd thesis, Grenoble INPG, 2008. http://www.theses.fr/2008INPG0105.

Full text
Abstract:
Le travail réalisé durant cette thèse concerne la synthèse visuelle de la parole pour l’animation d’un humanoïde de synthèse. L’objectif principal de notre étude est de proposer et d’implémenter des modèles de contrôle pour l’animation faciale qui puissent générer des trajectoires articulatoires à partir du texte. Pour ce faire nous avons travaillé sur 2 corpus audiovisuels. Tout d’abord, nous avons comparé objectivement et subjectivement les principaux modèles existants de l’état de l’art. Ensuite, nous avons étudié l’aspect spatial des réalisations des cibles articulatoires, pour les synthèses par HMM (Hidden Markov Model) et par concaténation simple. Nous avons combiné les avantages des deux méthodes en proposant un nouveau modèle de synthèse nommé TDA (Task Dynamics for Animation). Ce modèle planifie les cibles géométriques grâce à la synthèse par HMM et exécute les cibles articulatoires ainsi générées grâce à la synthèse par concaténation. Par la suite, nous avons étudié l’aspect temporel de la synthèse de la parole et proposé un second modèle de synthèse intitulé PHMM (Phased Hidden Markov Model) permettant de gérer les différentes modalités liées à la parole. Le modèle PHMM permet de calculer les décalages des frontières des gestes articulatoires par rapport aux frontières acoustiques des allophones. Ce modèle a été également appliqué à la synthèse automatique du LPC (Langage Parlé Complété). Enfin, nous avons réalisé une évaluation subjective des différentes méthodes de synthèse visuelle étudiées (concaténation, HMM, PHMM et TDA)
The work performed during this thesis concerns visual speech synthesis in the context of humanoid animation. Our study proposes and implements control models for facial animation that generate articulatory trajectories from text. We have used 2 audiovisual corpuses in our work. First of all, we compared objectively and subjectively the main state-of-the-art models. Then, we studied the spatial aspect of the articulatory targets generated by HMM-based synthesis and concatenation-based synthesis that combines the advantages of these methods. We have proposed a new synthesis model named TDA (Task Dynamics for Animation). The TDA system plans the geometric targets by HMM synthesis and executes the computed targets by concatenation of articulatory segments. Then, we have studied the temporal aspect of the speech synthesis and we have proposed a model named PHMM (Phased Hidden Markov Model). The PHMM manages the temporal relations between different modalities related to speech. This model calculates articulatory gestures boundaries as a function of the corresponding acoustic boundaries between allophons. It has been also applied to the automatic synthesis of Cued speech in French. Finally, a subjective evaluation of the different proposed systems (concatenation, HMM, PHMM and TDA) is presented
APA, Harvard, Vancouver, ISO, and other styles
45

Leonardis, Eleonora De. "Méthodes pour l'inférence en grande dimension avec des données corrélées : application à des données génomiques." Thesis, Paris, Ecole normale supérieure, 2015. http://www.theses.fr/2015ENSU0033/document.

Full text
Abstract:
La disponibilité de quantités énormes de données a changé le rôle de la physique par rapport aux autres disciplines. Dans cette thèse, je vais explorer les innovations introduites dans la biologie moléculaire grâce à des approches de physique statistique. Au cours des 20 dernières années, la taille des bases de données sur le génome a augmenté de façon exponentielle : l'exploitation des données brutes, dans le champ d'application de l'extraction d'informations, est donc devenu un sujet majeur dans la physique statistique. Après le succès dans la prédiction de la structure des protéines, des résultats étonnamment bons ont été finalement obtenus aussi pour l'ARN. Cependant, des études récentes ont révélé que, même si les bases de données sont de plus en plus grandes, l'inférence est souvent effectuée dans le régime de sous-échantillonnage et de nouveaux systèmes informatiques sont nécessaires afin de surmonter cette limitation intrinsèque des données réelles. Cette thèse va discuter des méthodes d'inférence et leur application à des prédictions de la structure de l'ARN. Nous allons comprendre certaines approches heuristiques qui ont été appliquées avec succès dans les dernières années, même si théoriquement mal comprises. La dernière partie du travail se concentrera sur le développement d'un outil pour l'inférence de modèles génératifs, en espérant qu'il ouvrira la voie à de nouvelles applications
The availability of huge amounts of data has changed the role of physics with respect to other disciplines. Within this dissertation I will explore the innovations introduced in molecular biology thanks to statistical physics approaches. In the last 20 years the size of genome databases has exponentially increased, therefore the exploitation of raw data, in the scope of extracting information, has become a major topic in statistical physics. After the success in protein structure prediction, surprising results have been finally achieved also in the related field of RNA structure characterisation. However, recent studies have revealed that, even if databases are growing, inference is often performed in the under sampling regime and new computational schemes are needed in order to overcome this intrinsic limitation of real data. This dissertation will discuss inference methods and their application to RNA structure prediction. We will discuss some heuristic approaches that have been successfully applied in the past years, even if poorly theoretically understood. The last part of the work will focus on the development of a tool for the inference of generative models, hoping it will pave the way towards novel applications
APA, Harvard, Vancouver, ISO, and other styles
46

Rapelanoro, Rabenja Hériony. "Structure temporelle et stochastique : monnaie et équilibre dans les modèles à génération." Paris, EHESS, 1996. http://www.theses.fr/1996EHES0109.

Full text
Abstract:
Cette these se compose de trois chapitres independants mais complementaires. Le premier developpe une structure stochastique apparue sous la forme d'un arbre evolutif obtenu par l'evolution discrete des aleas et complete la structure intertemporelle deterministe pour lui donner un aspect plus representatif. Cette consideration introduit un cas permettant une formalisation de l'economie a generations monetaire et stochastique. Le second chapitre definit la notion deterministe de l'equilibre competitif pour une economie monetaire a generation. La monnaie, seul moyen de transfert, ne joue pleinement son role que si le prix d'equilibre suppose constant dans le temps est strictement positif ; l'equilibre est alors qualifie de monetaire. L'objet du chapitre consiste a etablir l'existence d'un equilibre sous des hypotheses qui le font une variante de l'article de okuno-zilicha (1981) et ecartant l'hypothese de stricte quasi-concavite des fonctions d'utilite; en revanche, la stricte monotonie des preferences et la stricte positivite des ressources initiales assurent un recouvrement suffisant des generations la demonstration est menee en deux temps : un argument de point fixe demontre l'existence d'un equilibre dans chacune de l'economie a horizon fini que l'on peut associer a l'economie initiale; un passage a la limite sur ces equilibres montre l'existence d'un equilibre dans l'economie initiale. Le dernier chapitre apporte en quelque sorte une reponse a la caracterisation de l'equilibre dans l'aspect stochastique du modele
The principal aim of this work is to develop an aspect of intertemporal model affected by uncertainity denoted "stochastic overlapping generation model. This extendes to infinite the discrete time period and hence states, identified as a "date-event" and eventualy the date of birth for some individuals. In first time, we develop the evolution process of the stochastic structure which there the "date-event" is an essential framework. This consideration is used by radner (1982), scmachtenberg (1988). To simplify the exposition, we assume that each consummer leaves in a number finite of dates or states which develop many markets contingents. For preserving the equilibrium in the differentes states, money is used, this permits to conserve values and to transfer her to a state to another. Secondly, we consider a deterministe formalisation of the intertemporel structure of the model with exchanges that money intervenes or not. This chapter permit to prove the existence of an equilibrium an adopting some assumptions wich defines this model as a version of okuno-zilicha (1981) model. Without stricte quasi-concavity of the utility fonction, but with strict monotony of preference and strict positivity of initial resource, we can assume the recouvrement of generation. Equilibrium existence can be proved with proceding on two stages. The stochastic structure of the problem is introduit by the processus of "event-date" influe the comodities, the initial endowment, the transfers and the individuals preferences or utilities. In this model, equilibrium is obtained where we suppose that exogene monetary system price do not permit no arbitrage
APA, Harvard, Vancouver, ISO, and other styles
47

Chipot, Yveline. "Génération et modification de surfaces triangulées." Vandoeuvre-les-Nancy, INPL, 1991. http://www.theses.fr/1991INPL063N.

Full text
Abstract:
Dans les applications de modélisation géométrique, on a affaire à des surfaces plus ou moins régulières. Dans le domaine particulier de la géologie, elles sont en général très irrégulières, et ne sont pas représentables par des fonctions du type z=f(x,y). Ce travail a été réalisé dans le but précis de fournir des surfaces initiales pour les applications géologiques, et de fabriquer certains outils nécessaires à leur manipulation. La 1ère partie concerne la génération de surfaces triangulées. J'expose tout d'abord une technique permettant de construire une surface triangulée en 3D connaissant un ensemble de points de données repartis de façon quelconque sur la surface, ainsi qu'un ensemble de failles qui le déchirent. Ensuite je présente quelques utilitaires de génération de surfaces triangulées. La 2ème partie est consacrée à la modification des maillages, en particulier on y trouve un outil de raffinement de maillage quelques fonctions destinées à améliorer la régularité des maillages, et enfin un algorithme de calcul de chemin entre 2 nœuds du maillage. En 3ème partie, a été inséré un article paru dans la revue internationale de CFAO et d'infographie (vol 4. No 2/1989-Hermès). Cet article présente une description de la méthode d'interpolation de J. L. Mallet, appelée Discrete Smooth Interpolation, avec en plus une technique de type successive over relaxation pour accélérer la convergence de l'algorithme. Ce travail a été réalisé dans le cadre du projet Gocad développé à l'École Nationale Supérieure de Géologie de Nancy par l'Équipe d'infographie du CRIN
APA, Harvard, Vancouver, ISO, and other styles
48

Marsso, Lina. "Etude de génération de tests à partir d'un modèle pour les systèmes GALS." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM078.

Full text
Abstract:
Cette thèse porte sur la génération de tests à partir d’un modèle pour les systèmes GALS (Globalement Asynchrones et Localement Synchrones). La combinaison des aspects synchrones et asynchrones en font des systèmes complexes, imposant de recourir à de nouvelles méthodes d’analyse. Pour faire face à cette complexité, nous explorons trois directions : (1) techniques pour les composants synchrones ; (2) techniques pour les protocoles de communication entre les composants ; et (3) techniques pour des systèmes GALS complets, combinant les résultats des deux directions précédentes.Dans la première direction, nous explorons des techniques formelles pour le test fonctionnel de composants synchrones. En tant qu’étude de cas, nous reprenons l’algorithme d’authentification de message (MAA), une fonction cryptographique conçue au milieu des années 80. Nous formalisons cet algorithme en tant que flux de données synchrone. La modélisation et la validation du MAA nous ont permis de découvrir diverses erreurs dans les spécifications (informelles et formelles) préalables du MAA, les vecteurs de test et code des normes ISO 1987 et ISO 1990 ; dans les compilateurs et outils de vérification que nous avons utilisés.Dans la seconde direction, nous explorons la formalisation et le test fonctionnel d’un protocole de communication. Dans notre étude de cas, nous évaluons le protocole d’établissement d’une liaison sécurisé au niveau de la couche de transport (TLS), responsable de l’authentification et de l’échange de clés nécessaires pour établir ou reprendre une communication sécurisée. Notre modèle de la version 1.3 TLS a été validé par une approche utilisant notre nouvel outil de génération de cas de test de conformité à la volée, nommé TESTOR, développé à partir de la boı̂te à outils CADP. Cet outil explore le modèle et génère automatiquement un ensemble de cas de tests ou un graphe de test complet (CTG),à exécuter sur une implémentation physique d’un système.Dans la troisième direction, nous proposons une méthodologie de test permettant d’analyser les systèmes GALS dans leur ensemble. Nous tirons parti de la génération de tests de conformité des systèmes asynchrones pour dériver automatiquement des scénarios réalistes (contraintes d’entrées et oracles), qui sont ardus à concevoir manuellement et sujet d’erreurs. Ainsi, notre méthodologie intègre (1) modèles concurrents synchrones et asynchrones; (2) les tests unitaires fonctionnels et les tests de conformité comportementale; et (3) diverses méthodes formelles et leurs outils. Nous illustrons notre méthodologie sur un exemple simple, mais représentatif inspiré des voitures autonomes
This dissertation focuses on the model-based testing of GALS (GloballyAsynchronous and Locally Synchronous) systems, which are inherentlycomplex because of the combination of synchronous and asynchronous aspects.To cope with this complexity, we explore three directions:(1) techniques for synchronous components;(2) techniques for communication protocols between components; and(3) techniques for complete GALS systems, combining theresults of the two previous directions.In the first direction, we explore formal techniques for the functionaltesting of synchronous components.As a case-study, we reconsider the Message Authenticator Algorithm(MAA), a pioneering cryptographic function designed in the mid-80s, andformalize it as a synchronous dataflow.The modeling and validation of the MAA enabled us to discover variousmistakes in prior (informal and formal) specifications of the MAA, thetest vectors and code of the ISO 1987 and ISO 1990 standards, and incompilers and verification tools used by us.In the second direction, we explore the formalization and the functionaltesting of a communication protocol. As a case-study, we reconsider the formalization of the Transport Layer Security (TLS) handshake, a protocol responsible for the authentication and exchange of keys necessary to establish or resume a secure communication.Our model of the TLS version 1.3 has been validated by an approach using our new on-the-fly conformance test case generation tool, named TESTOR, developed on top of the CADP toolbox.TESTOR explores the model and generates automatically a set of controllable testcases or a complete test graph (CTG) to be executed on a physical implementation ofthe system.In the third direction, we propose a testing methodology for GALSsystems combining the two previous directions.We leverage the conformance test generation for asynchronous systems toautomatically derive realistic scenarios (inputs constraints andoracles), which are necessary ingredients for the unit testing of individual synchronouscomponents, and are difficult and error-prone to design manually.Thus our methodology integrates(1) synchronous and asynchronous concurrent models;(2) functional unit testing and behavioral conformance testing;and (3) various formal methods and their tool equipments.We illustrate our methodology on a simple, but relevant example inspiredby autonomous cars
APA, Harvard, Vancouver, ISO, and other styles
49

Lacaze-Labadie, Rémi. "Planification et modèle graphique pour la génération dynamique de scénarios en environnements virtuels." Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2481/document.

Full text
Abstract:
Nos travaux s’inscrivent dans le cadre de la formation à la gestion de crise en environnements virtuels. La scénarisation joue un rôle essentiel pour l’apprentissage humain en environnement virtuel. Cela permet à la fois de proposer et d’orchestrer des situations d’apprentissage personnalisées et également d’amener l’apprenant vers des scénarios pertinents et formateurs. Les travaux présentés dans cette thèse s’intéressent à la génération dynamique de scénarios et à leur exécution en environnements virtuels. Pour cette scénarisation, nous visons un ensemble d’objectifs qui sont souvent contradictoires : la liberté d’action de l’utilisateur, la génération de scénarios variés et fidèles à l’intention de l’auteur, le contrôle scénaristique et la résilience du système de scénarisation. Les différentes approches de la narration interactive favorisent plus ou moins certains de ces objectifs mais il est difficile de tous les concilier, et c’est là l’enjeu de nos travaux. En plus de ces objectifs, nous cherchons également à faciliter la modélisation du contenu scénaristique qui est encore de nos jours un réel enjeu lorsqu’il s’agit de scénariser des environnements complexes comme celui de la gestion de crise. Nous proposons une approche émergente dont le scénario vécu par l’apprenant va émerger des interactions entre l’apprenant, les personnages virtuels et notre système de scénarisation MENTA. MENTA est chargé du contrôle scénaristique en proposant un ensemble d’ajustements (sur la simulation) répondant à des objectifs scénaristiques choisis par le formateur (p. ex., faire travailler certaines compétences en particulier). Ces ajustements prennent la forme d’un scénario prescrit qui est généré par MENTA via un moteur de planification que nous avons couplé avec des cartes cognitives floues au travers d’un macro-opérateur FRAG. Un FRAG permet de modéliser des fragments de scénarios sous la forme de séquence d’actions/événements scriptés. L’originalité de notre approche repose sur un couplage fort entre planification et modèles graphiques qui permet de conserver les propriétés d’exploration et de puissance générative d’un moteur de planification (ce qui favorise la variabilité et la résilience du système), tout en facilitant la modélisation du contenu scénaristique ainsi que l’intention de l’auteur au travers de morceaux de scénario qui vont être scriptés par l’auteur et réutilisés dans la planification. Nous avons travaillé sur un exemple applicatif concret de scénarios portant sur la gestion d’un afflux massif de blessés, puis nous avons implémenté MENTA et généré des scénarios relatifs à cet exemple. Enfin, nous avons testé et analysé les performances de notre système
Our work is related to the training of crisis management in virtual environments. The specification of possible unfoldings of events in a simulation is essential for human learning in a virtual environment. This allows both to propose and orchestrate personalized learning situations and also to bring the learner toward relevant and educative scenarios. The work presented in this thesis focuses on the dynamic generation of scenarios and their execution in a virtual environment. For that, we aim at a set of objectives that are often contradictory : the freedom of action of the user, the generation of various scenarios that respect the authorial intent, the narrative control and the capacity of the system to adapt to deviations fromthe learner. The different approaches of interactive storytelling tackle more or less some of these objectives, but it is difficult to satisfy them all, and this is the challenge of our work. In addition to these objectives, we also aim at facilitating the modeling of the narrative content, which is still a real issue today when it comes to model complex environments such as the ones related to crisis management. We propose an emergent approachwhere the scenario experienced by the learner will emerge fromthe interactions between the learner, the virtual characters and our narrative system MENTA. MENTA is in charge of the narrative control by proposing a set of adjustments (over the simulation) that satisfies narrative objectives chosen by the trainer (e. g., a list of specific skills). These adjustments take the form of a prescribed scenario that is generated by MENTA via a planning engine that we have coupled with fuzzy cognitive maps through a macro-operator FRAG. A FRAG is used to model FRAGment of scenario in the form of scripted sequences of actions/events. The originality of our approach relies on a strong coupling between planning and graphical models which preserves the exploration capability and the generative power of a planning engine (which contributes to the generation of various and adaptable scenarios), while facilitating the modeling of narrative content as well as the authorial intent thanks to fragments of scenario that are scripted by the author and used during the planning process. We have worked on a concrete application example of scenarios dealing with the management of a massive influx of victims. Then, we have implemented MENTA and generated scenarios related to this example. Finally, we have tested and analyzed the performance of our system
APA, Harvard, Vancouver, ISO, and other styles
50

Gombert, Baptiste. "Vers une nouvelle génération de modèles de glissements co-sismiques : analyse stochastique et approche multi-données." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAH016/document.

Full text
Abstract:
L’explosion du nombre et de la variété des données géodésiques, sismologiques et tsunami disponibles est une opportunité exceptionnelle pour produire de nouveaux modèles de la source sismique. Mais ces données n’apportent pas toutes la même information et sont soumises à différentes sources d’incertitudes, rendant la solution au problème inverse non-unique. Dans cette thèse, nous utilisons une méthode d’échantillonnage bayésien pour produire de nouveaux modèles de glissement moins assujettis au sur-ajustement des données et permettant une estimation réaliste de l’incertitude associée aux paramètres estimés. Nous l’appliquons à l’étude du glissement dans trois contextes tectoniques différents : le séisme de Landers (1992, Mw=7.3), la zone de subduction équato-colombienne où s’est produit le séisme de Pedernales (2016, Mw=7.8), et le séisme intra-plaque de Tehuantepec (2017, Mw=8.2). À travers ce travail, nous démontrons l’importance de la considération rigoureuse des incertitudes et les atouts de l’approche bayésienne pour l’étude des différentes phases du cycle sismique
The explosion in the amount and variety of available geodetic, tsunami, and seismological observations offers an outstanding opportunity to develop new seismic source models. But these data are sensitive to different sources of uncertainty and provide heterogeneous information, which makes the solution of the inverse problem non-unique.In this thesis, we use a Bayesian sampling method to propose new slip models, which benefit from an objective weighting of the various datasets by combining observational and modelling errors. These models are less affected by data overfit and allow a realistic assessment of posterior uncertainties. We apply this method to the study of slip processes occurring in three different tectonic contexts: the Landers earthquake (1992, Mw=7.3), the Ecuador-Colombia subduction zone which hosted the Pedernales earthquake (2016, Mw=7.8), and the intraslab Tehuantepec earthquake (2017, Mw=8.2). Through these analyses, we demonstrate how the study of the seismic cycle can benefit from rigorous uncertainty estimates and Bayesian sampling
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography