Dissertations / Theses on the topic 'Comptage de modèles'

To see the other types of publications on this topic, follow the link: Comptage de modèles.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Comptage de modèles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Alaya, Elmokhtar Ezzahdi. "Segmentation de Processus de Comptage et modèles Dynamiques." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066062.

Full text
Abstract:
Dans la première partie de cette thèse, nous cherchons à estimer l'intensité d'un processus de comptage par des techniques d'apprentissage statistique en grande dimension. Nous introduisons une procédure d'estimation basée sur la pénalisation par variation totale avec poids. Un premier ensemble de résultats vise à étudier l'intensité sous une hypothèse a priori de segmentation sparse. Dans une seconde partie, nous étudions la technique de binarisation de variables explicatives continues, pour laquelle nous construisons une régularisation spécifique à ce problème. Cette régularisation est intitulée ``binarsity'', elle pénalise les valeurs différentes d'un vecteur de paramètres. Dans la troisième partie, nous nous intéressons à la régression dynamique pour les modèles d'Aalen et de Cox avec coefficients et covariables en grande dimension, et pouvant dépendre du temps. Pour chacune des procédures d'estimation proposées, nous démontrons des inégalités oracles non-asymptotiques en prédiction. Nous utilisons enfin des algorithmes proximaux pour résoudre les problèmes convexes sous-jacents, et nous illustrons nos méthodes sur des données simulées et réelles
In the first part of this thesis, we deal with the problem of learning the inhomogeneous intensity of a counting process, under a sparse segmentation assumption. We introduce a weighted total-variation penalization, using data-driven weights that correctly scale the penalization along the observation interval. In the second part, we study the binarization technique of continuous features, for which we construct a specific regularization. This regularization is called “binarsity”, it computes the different values of a parameter. In the third part, we are interested in the dynamic regression models of Aalen and Cox with time-varying covariates and coefficients in high-dimensional settings. For each proposed estimation procedure, we give theoretical guaranties by proving non-asymptotic oracle inequalities in prediction. We finally present proximal algorithms to solve the underlying studied convex problems, and we illustrate our methods with simulated and real datasets
APA, Harvard, Vancouver, ISO, and other styles
2

Karaki, Muath. "Opérateurs de composition sur les espaces modèles." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10075/document.

Full text
Abstract:
Cette thèse est consacrée à l'étude des opérateurs de composition sur les espaces modèles. Soit [Phi] une fonction analytique du disque unité dans lui-même et soit [Théta] une fonction intérieure, c'est à dire une fonction holomorphe et bornée par 1 dont les limites radiales sur le cercle sont de module 1 presque partout par rapport à la mesure de Lebesgue. A cette fonction [Théta], on associe l'espace modèle K[Théta], défini comme l'ensemble des fonctions f ∈ H² qui sont orthogonales au sous-espace [Théta]H². Ici H² est l'espace de Hardy du disque unité. Ces sous-espaces sont importants en théorie des opérateurs car ils servent à modéliser une large classe de contractions sur un espace de Hilbert. Le premier problème auquel nous nous intéressons concerne la compacité d'un opérateur de composition C[Phi] vu comme opérateur de K[Théta], dans H². Récemment, Lyubarskii et Malinnikova ont obtenu un joli critère de compacité pour ces opérateurs qui fait intervenir la fonction de comptage de Nevanlinna du symbole [Phi]. Ce critère généralise le critère classique de Shapiro. Dans une première partie de la thèse, nous généralisons ce résultat de Lyubarskii-Malinnikova à une classe plus générale de sous-espaces, à savoir les espaces de de Branges-Rovnyak ou certains de leurs sous-espaces. Les techniques utilisées sont en particulier des inégalités fines de type Bernstein pour ces espaces. Le deuxième problème auquel nous nous intéressons dans cette thèse concerne l'invariance de K[Théta] sous l'action de C [Phi]. Ce problème nous amène à considérer une structure de groupe sur le disque unité du plan complexe via les automorphismes qui fixent le point 1. A travers cette action de groupe, chaque point du disque produit une classe d'équivalence qui se trouve être une suite de Blaschke. On montre alors que les produits de Blaschke correspondant sont des solutions "minimales" d'une équation fonctionnelle [Psi]°[Phi]=[Lambda][Psi], où [Lambda] est une constante unimodulaire et [Phi] un automorphisme du disque unité. Ces résultats sont ensuite appliqués au problème d'invariance d'un espace modèle par un opérateur de composition
This thesis concerns the study of composition operators on model spaces. Let [Phi] be an analytic function on the unit disk into itself and let [Théta] be an inner function, that is a holomorphic function bounded by 1 such that the radial limits on the unit circle are of modulus 1 almost everywhere with respect to Lebesgue measure. With this function [Théta], we associate the model space K[Théta], defined as the set of functions f ∈ H², which are orthogonal to the subspace [Théta]H². Here H² is the Hardy space on the unit disc. These subspaces are important in operator theory because they are used to model a large class of contractions on Hilbert space. The first problem which we are interested in concerns the compactness of the composition operator C[Phi] as an operator on H² into H². Recently, Lyubarskii and Malinnikova have obtained a nice criterion for the compactness of these operators which is related to the Nevanlinna counting function. This criterion generalizes the classical criterion of Shapiro. In the first part of the thesis, we generalize this result of Lyubarskii-Malinnikova to a more general class of subspaces, known as de Branges-Rovnyak spaces or some subspaces of them. The techniques that are used are particular Bernstein type inequalities of these spaces.The second problem in which we are interested in this thesis concerns the invariance of K[Théta] under C[Phi]. We present a group structure on the unit disc via the automorphisms which fix the point 1. Then, through theinduced group action, each point of the unit disc produces an equivalence class which turns out to be a Blaschke sequence. Moreover, the corresponding Blaschke products are minimal solutions of the functional equation [Psi]°[Phi]=[Lambda][Psi] where [Lambda] is a unimodular constant and is an automorphism of the unit disc. These results are applied in the invariance problem of the model spaces by the composition operator
APA, Harvard, Vancouver, ISO, and other styles
3

Diallo, Alpha Oumar. "Inférence statistique dans des modèles de comptage à inflation de zéro. Applications en économie de la santé." Thesis, Rennes, INSA, 2017. http://www.theses.fr/2017ISAR0027/document.

Full text
Abstract:
Les modèles de régressions à inflation de zéros constituent un outil très puissant pour l’analyse de données de comptage avec excès de zéros, émanant de divers domaines tels que l’épidémiologie, l’économie de la santé ou encore l’écologie. Cependant, l’étude théorique dans ces modèles attire encore peu d’attention. Ce manuscrit s’intéresse au problème de l’inférence dans des modèles de comptage à inflation de zéro.Dans un premier temps, nous revenons sur la question de l’estimateur du maximum de vraisemblance dans le modèle binomial à inflation de zéro. D’abord nous montrons l’existence de l’estimateur du maximum de vraisemblance des paramètres dans ce modèle. Ensuite, nous démontrons la consistance de cet estimateur, et nous établissons sa normalité asymptotique. Puis, une étude de simulation exhaustive sur des tailles finies d’échantillons est menée pour évaluer la cohérence de nos résultats. Et pour finir, une application sur des données réelles d’économie de la santé a été conduite.Dans un deuxième temps, nous proposons un nouveau modèle statistique d’analyse de la consommation de soins médicaux. Ce modèle permet, entre autres, d’identifier les causes du non-recours aux soins médicaux. Nous avons étudié rigoureusement les propriétés mathématiques du modèle. Ensuite nous avons mené une étude numérique approfondie à l’aide de simulations informatiques et enfin, nous l’avons appliqué à l’analyse d’une base de données recensant la consommation de soins de plusieurs milliers de patients aux USA.Un dernier aspect de ces travaux de thèse a été de s’intéresser au problème de l’inférence dans le modèle binomial à inflation de zéro dans un contexte de données manquantes sur les covariables. Dans ce cas nous proposons la méthode de pondération par l’inverse des probabilités de sélection pour estimer les paramètres du modèle. Ensuite, nous établissons la consistance et la normalité asymptotique de l’estimateur proposé. Enfin, une étude de simulation sur plusieurs échantillons de tailles finies est conduite pour évaluer le comportement de l’estimateur
The zero-inflated regression models are a very powerful tool for the analysis of counting data with excess zeros from various areas such as epidemiology, health economics or ecology. However, the theoretical study in these models attracts little attention. This manuscript is interested in the problem of inference in zero-inflated count models.At first, we return to the question of the maximum likelihood estimator in the zero-inflated binomial model. First we show the existence of the maximum likelihood estimator of the parameters in this model. Then, we demonstrate the consistency of this estimator, and let us establish its asymptotic normality. Then, a comprehensive simulation study finite sample sizes are conducted to evaluate the consistency of our results. Finally, an application on real health economics data has been conduct.In a second time, we propose a new statistical analysis model of the consumption of medical care. This model allows, among other things, to identify the causes of the non-use of medical care. We have studied rigorously the mathematical properties of the model. Then, we carried out an exhaustive numerical study using computer simulations and finally applied to the analysis of a database on health care several thousand patients in the USA.A final aspect of this work was to focus on the problem of inference in the zero inflation binomial model in the context of missing covariate data. In this case we propose the weighting method by the inverse of the selection probabilities to estimate the parameters of the model. Then, we establish the consistency and asymptotic normality of the estimator offers. Finally, a simulation study on several samples of finite sizes is conducted to evaluate the behavior of the estimator
APA, Harvard, Vancouver, ISO, and other styles
4

Zou, Tingxiang. "Structures pseudo-finies et dimensions de comptage." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1083/document.

Full text
Abstract:
Cette thèse porte sur la théorie des modèles des structures pseudo-finies en mettant l’accent sur les groupes et les corps. Le but est d'approfondir notre compréhension des interactions entre les dimensions de comptage pseudo-finies et les propriétés algébriques de leurs structures sous-jacentes, ainsi que de la classification de certaines classes de structures en fonction de leurs dimensions. Notre approche se fait par l'étude d'exemples. Nous avons examiné trois classes de structures. La première est la classe des H-structures, qui sont des expansions génériques. Nous avons donné une construction explicite de H-structures pseudo-finies comme ultraproduits de structures finies. Le deuxième exemple est la classe des corps aux différences finis. Nous avons étudié les propriétés de la dimension pseudo-finie grossière de cette classe. Nous avons montré qu'elle est définissable et prend des valeurs entières, et nous avons trouvé un lien partiel entre cette dimension et le degré de transcendance transformelle. Le troisième exemple est la classe des groupes de permutations primitifs pseudo-finis. Nous avons généralisé le théorème classique de classification de Hrushovski pour les groupes stables de permutations d'un ensemble fortement minimal au cas où une dimension abstraite existe, cas qui inclut à la fois les rangs classiques de la théorie des modèles et les dimensions de comptage pseudo-finies. Dans cette thèse, nous avons aussi généralisé le théorème de Schlichting aux sous-groupes approximatifs, en utilisant une notion de commensurabilité
This thesis is about the model theory of pseudofinite structures with the focus on groups and fields. The aim is to deepen our understanding of how pseudofinite counting dimensions can interact with the algebraic properties of underlying structures and how we could classify certain classes of structures according to their counting dimensions. Our approach is by studying examples. We treat three classes of structures: The first one is the class of H-structures, which are generic expansions of existing structures. We give an explicit construction of pseudofinite H-structures as ultraproducts of finite structures. The second one is the class of finite difference fields. We study properties of coarse pseudofinite dimension in this class, show that it is definable and integer-valued and build a partial connection between this dimension and transformal transcendence degree. The third example is the class of pseudofinite primitive permutation groups. We generalise Hrushovski's classical classification theorem for stable permutation groups acting on a strongly minimal set to the case where there exists an abstract notion of dimension, which includes both the classical model theoretic ranks and pseudofinite counting dimensions. In this thesis, we also generalise Schlichting's theorem for groups to the case of approximate subgroups with a notion of commensurability
APA, Harvard, Vancouver, ISO, and other styles
5

Sim, Tepmony. "Estimation du maximum de vraisemblance dans les modèles de Markov partiellement observés avec des applications aux séries temporelles de comptage." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0020/document.

Full text
Abstract:
L'estimation du maximum de vraisemblance est une méthode répandue pour l'identification d'un modèle paramétré de série temporelle à partir d'un échantillon d'observations. Dans le cadre de modèles bien spécifiés, il est primordial d'obtenir la consistance de l'estimateur, à savoir sa convergence vers le vrai paramètre lorsque la taille de l'échantillon d'observations tend vers l'infini. Pour beaucoup de modèles de séries temporelles, par exemple les modèles de Markov cachés ou « hidden Markov models »(HMM), la propriété de consistance « forte » peut cependant être dfficile à établir. On peut alors s'intéresser à la consistance de l'estimateur du maximum de vraisemblance (EMV) dans un sens faible, c'est-à-dire que lorsque la taille de l'échantillon tend vers l'infini, l'EMV converge vers un ensemble de paramètres qui s'associent tous à la même distribution de probabilité des observations que celle du vrai paramètre. La consistance dans ce sens, qui reste une propriété privilégiée dans beaucoup d'applications de séries temporelles, est dénommée consistance de classe d'équivalence. L'obtention de la consistance de classe d'équivalence exige en général deux étapes importantes : 1) montrer que l'EMV converge vers l'ensemble qui maximise la log-vraisemblance normalisée asymptotique ; et 2) montrer que chaque paramètre dans cet ensemble produit la même distribution du processus d'observation que celle du vrai paramètre. Cette thèse a pour objet principal d'établir la consistance de classe d'équivalence des modèles de Markov partiellement observés, ou « partially observed Markov models » (PMM), comme les HMM et les modèles « observation-driven » (ODM)
Maximum likelihood estimation is a widespread method for identifying a parametrized model of a time series from a sample of observations. Under the framework of well-specified models, it is of prime interest to obtain consistency of the estimator, that is, its convergence to the true parameter as the sample size of the observations goes to infinity. For many time series models, for instance hidden Markov models (HMMs), such a “strong” consistency property can however be difficult to establish. Alternatively, one can show that the maximum likelihood estimator (MLE) is consistent in a weakened sense, that is, as the sample size goes to infinity, the MLE eventually converges to a set of parameters, all of which associate to the same probability distribution of the observations as for the true one. The consistency in this sense, which remains a preferred property in many time series applications, is referred to as equivalence-class consistency. The task of deriving such a property generally involves two important steps: 1) show that the MLE converges to the maximizing set of the asymptotic normalized loglikelihood; and 2) show that any parameter in this maximizing set yields the same distribution of the observation process as for the true parameter. In this thesis, our primary attention is to establish the equivalence-class consistency for time series models that belong to the class of partially observed Markov models (PMMs) such as HMMs and observation-driven models (ODMs)
APA, Harvard, Vancouver, ISO, and other styles
6

Phi, Tien Cuong. "Décomposition de Kalikow pour des processus de comptage à intensité stochastique." Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4029.

Full text
Abstract:
L'objectif de cette thèse est de construire des algorithmes capables de simuler l'activité d'un réseau de neurones. L'activité du réseau de neurones peut être modélisée par le train de spikes de chaque neurone, qui sont représentés par un processus ponctuel multivarié. La plupart des approches connues pour simuler des processus ponctuels rencontrent des difficultés lorsque le réseau sous-jacent est de grande taille.Dans cette thèse, nous proposons de nouveaux algorithmes utilisant un nouveau type de décomposition de Kalikow. En particulier, nous présentons un algorithme permettant de simuler le comportement d'un neurone intégré dans un réseau neuronal infini sans simuler l'ensemble du réseau. Nous nous concentrons sur la preuve mathématique que notre algorithme renvoie les bons processus ponctuels et sur l'étude de sa condition d'arrêt. Ensuite, une preuve constructive montre que cette nouvelle décomposition est valable pour divers processus ponctuels.Enfin, nous proposons des algorithmes, qui peuvent être parallélisés et qui permettent de simuler une centaine de milliers de neurones dans un graphe d'interaction complet, sur un ordinateur portable. Plus particulièrement, la complexité de cet algorithme semble linéaire par rapport au nombre de neurones à simuler
The goal of this thesis is to construct algorithms which are able to simulate the activity of a neural network. The activity of the neural network can be modeled by the spike train of each neuron, which are represented by a multivariate point processes. Most of the known approaches to simulate point processes encounter difficulties when the underlying network is large.In this thesis, we propose new algorithms using a new type of Kalikow decomposition. In particular, we present an algorithm to simulate the behavior of one neuron embedded in an infinite neural network without simulating the whole network. We focus on mathematically proving that our algorithm returns the right point processes and on studying its stopping condition. Then, a constructive proof shows that this new decomposition holds for on various point processes.Finally, we propose algorithms, that can be parallelized and that enables us to simulate a hundred of thousand neurons in a complete interaction graph, on a laptop computer. Most notably, the complexity of this algorithm seems linear with respect to the number of neurons on simulation
APA, Harvard, Vancouver, ISO, and other styles
7

Saint, Pierre Philippe. "Modèles multi-états de type Markovien et application à l'asthme." Phd thesis, Université Montpellier I, 2005. http://tel.archives-ouvertes.fr/tel-00010146.

Full text
Abstract:
Dans de nombreux domaines, décrire l'évolution des phénomènes dans le temps est d'un intérêt capital, en particulier pour aborder les problématiques de la prédiction et de la recherche de facteurs causaux. En épidémiologie, on dispose de données de cohorte qui renseignent sur un groupe de patients suivis dans le temps. Les modèles multi-états de type Markovien proposent un outil intéressant qui permet d'étudier l'évolution d'un patient à travers les différents stades d'une maladie. Dans ce manuscrit, nous rappelons tout d'abord la méthodologie relative au modèle de Markov homogène. Ce modèle est le moins complexe, il suppose que les intensités de transition entre les états sont constantes dans le temps. Dans un second temps, nous étudions un modèle semi-Markovien homogène qui suppose que les intensités de transition dépendent du temps écoulé dans un état de santé. La théorie des processus de comptage est ensuite présentée afin d'introduire des méthodes d'estimations non-paramétriques dans le cadre d'un modèle de Markov non-homogène. Dans ce modèle, les intensités de transition dépendent du temps depuis l'inclusion dans l'étude. Les méthodes d'estimation supposent que le mécanisme de censure n'apporte aucune information sur l'évolution de la maladie. Cette hypothèse étant rarement vérifiée en pratique, nous proposons une méthode d'estimation permettant de prendre en compte une censure informative. Nous présentons également une méthode de programmation visant à faciliter la mise en œuvre des estimateurs basés sur les processus de comptage. Toutes ces méthodes sont appliquées afin d'étudier une base de données de patients asthmatiques. L'objectif est d'aider les cliniciens à mieux comprendre l'évolution de la maladie. Les résultats permettent de mettre en évidence l'impact négatif du surpoids sur l'évolution de l'asthme.
APA, Harvard, Vancouver, ISO, and other styles
8

Lupeau, Alexandre. "Étude et modélisation du comportement d'un écoulement annulaire dispersé : application à la mesure de débit de gaz humide à l'aide d'un débitmètre à Venturi." École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 2005. http://www.theses.fr/2005ESAE0013.

Full text
Abstract:
Le travail proposé a pour but d'apporter des éléments de compréhension sur le comportement d’un débitmètre gaz sec de type Venturi en configuration d'écoulement annulaire dispersé (gaz humide). Ce type d'écoulement se présente sous la forme d’un mélange gaz/liquide avec des fractions volumiques de gaz supérieures à 99%. Le liquide se répartit à l'intérieur des conduites sous forme de gouttes et d'un film ruisselant sur les parois. Ce sont les interactions entre le gaz et ces différents constituants qui influencent l'erreur de mesure du débitmètre due à la présence du liquide. Pour pouvoir modéliser correctement cette erreur, une étude paramétrique est mise en place en conditions simplifiées (étude à basse pression, avec de l’air et de l'eau, orientation verticale descendante). Des moyens d’essais sont mis en place afin de générer des écoulements parfaitement calibrés en entrée de compteur. Une caractérisation fine de l'écoulement amont (distribution de la phase liquide dans la conduite, épaisseur du film liquide en paroi, forme de l'interface, taille et vitesse des gouttes) couplée a des mesure de pression différentielle entre l'amont du débitmètre et le col, a été réalisée. À partir des informations recueillies, les paramètres et lois de fermetures les plus pertinents sont sélectionnés pour élaborer un modèle physique décrivant le comportement du Venturi. Ce dernier est basé sur une écriture monodimensionnelle des équations de conservations de masse et de quantité de mouvement pour chaque phase. La comparaison entre les résultats du modèle et les données expérimentales donne des résultats satisfaisants. De plus, l'étude de la contribution des différents phénomènes pris en compte par le modèle apporte un éclairage nouveau sur les mécanismes qui contrôlent le comportement du compteur. Ainsi, les phénomènes d’atomisation de film au niveau de la jonction convergent/col apparaît comme déterminants.
APA, Harvard, Vancouver, ISO, and other styles
9

Aubert, Julie. "Analyse statistique de données biologiques à haut débit." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS048/document.

Full text
Abstract:
Les progrès technologiques des vingt dernières années ont permis l’avènement d'une biologie à haut-débit reposant sur l'obtention de données à grande échelle de façon automatique. Les statisticiens ont un rôle important à jouer dans la modélisation et l'analyse de ces données nombreuses, bruitées, parfois hétérogènes et recueillies à différentes échelles. Ce rôle peut être de plusieurs natures. Le statisticien peut proposer de nouveaux concepts ou méthodes inspirées par les questions posées par cette biologie. Il peut proposer une modélisation fine des phénomènes observés à l'aide de ces technologies. Et lorsque des méthodes existent et nécessitent seulement une adaptation, le rôle du statisticien peut être celui d'un expert, qui connaît les méthodes, leurs limites et avantages. Le travail présenté dans cette thèse se situe à l'interface entre mathématiques appliquées et biologie, et relève plutôt des deuxième et troisième type de rôles mentionnés.Dans une première partie, j’introduis différentes méthodes développées pour l'analyse de données biologiques à haut débit, basées sur des modèles à variables latentes. Ces modèles permettent d'expliquer un phénomène observé à l'aide de variables cachées. Le modèle à variables latentes le plus simple est le modèle de mélange. Les deux premières méthodes présentées en sont des exemples: la première dans un contexte de tests multiples et la deuxième dans le cadre de la définition d'un seuil d'hybridation pour des données issues de puces à ADN. Je présente également un modèle de chaînes de Markov cachées couplées pour la détection de variations du nombre de copies en génomique prenant en compte de la dépendance entre les individus, due par exemple à une proximité génétique. Pour ce modèle, nous proposons une inférence approchée fondée sur une approximation variationnelle, l'inférence exacte ne pouvant pas être envisagée dès lors que le nombre d'individus augmente. Nous définissons également un modèle à blocs latents modélisant une structure sous-jacente par bloc de lignes et colonnes adaptées à des données de comptage issue de l'écologie microbienne. Les données issues de méta-codebarres ou de métagénomique correspondent à l'abondance de chaque unité d'intérêt (par exemple micro-organisme) d'une communauté microbienne au sein d'environnement (rhizosphère de plante, tube digestif humain, océan par exemple). Ces données ont la particularité de présenter une dispersion plus forte qu'attendue sous les modèles les plus classiques (on parle de sur-dispersion). La classification croisée est une façon d'étudier les interactions entre la structure des communautés microbiennes et les échantillons biologiques dont elles sont issues. Nous avons proposé de modéliser ce phénomène à l'aide d'une distribution Poisson-Gamma et développé une autre approximation variationnelle pour ce modèle particulier ainsi qu'un critère de sélection de modèle. La flexibilité et la performance du modèle sont illustrées sur trois jeux de données réelles.Une deuxième partie est consacrée à des travaux dédiés à l'analyse de données de transcriptomique issues des technologies de puce à ADN et de séquençage de l’ARN. La première section concerne la normalisation des données (détection et correction de biais techniques) et présente deux nouvelles méthodes que j’ai proposées avec mes co-auteurs et une comparaison de méthodes à laquelle j’ai contribuée. La deuxième section dédiée à la planification expérimentale présente une méthode pour analyser les dispositifs dit en dye-switch.Dans une dernière partie, je montre à travers deux exemples de collaboration, issues respectivement d'une analyse de gènes différentiellement exprimés à partir de données issues de puces à ADN, et d'une analyse du traductome chez l'oursin à partir de données de séquençage de l'ARN, la façon dont les compétences statistiques sont mobilisées et la plus-value apportée par les statistiques aux projets de génomique
The technological progress of the last twenty years allowed the emergence of an high-throuput biology basing on large-scale data obtained in a automatic way. The statisticians have an important role to be played in the modelling and the analysis of these numerous, noisy, sometimes heterogeneous and collected at various scales. This role can be from several nature. The statistician can propose new concepts, or new methods inspired by questions asked by this biology. He can propose a fine modelling of the phenomena observed by means of these technologies. And when methods exist and require only an adaptation, the role of the statistician can be the one of an expert, who knows the methods, their limits and the advantages.In a first part, I introduce different methods developed with my co-authors for the analysis of high-throughput biological data, based on latent variables models. These models make it possible to explain a observed phenomenon using hidden or latent variables. The simplest latent variable model is the mixture model. The first two presented methods constitutes two examples: the first in a context of multiple tests and the second in the framework of the definition of a hybridization threshold for data derived from microarrays. I also present a model of coupled hidden Markov chains for the detection of variations in the number of copies in genomics taking into account the dependence between individuals, due for example to a genetic proximity. For this model we propose an approximate inference based on a variational approximation, the exact inference not being able to be considered as the number of individuals increases. We also define a latent-block model modeling an underlying structure per block of rows and columns adapted to count data from microbial ecology. Metabarcoding and metagenomic data correspond to the abundance of each microorganism in a microbial community within the environment (plant rhizosphere, human digestive tract, ocean, for example). These data have the particularity of presenting a dispersion stronger than expected under the most conventional models (we speak of over-dispersion). Biclustering is a way to study the interactions between the structure of microbial communities and the biological samples from which they are derived. We proposed to model this phenomenon using a Poisson-Gamma distribution and developed another variational approximation for this particular latent block model as well as a model selection criterion. The model's flexibility and performance are illustrated on three real datasets.A second part is devoted to work dedicated to the analysis of transcriptomic data derived from DNA microarrays and RNA sequencing. The first section is devoted to the normalization of data (detection and correction of technical biases) and presents two new methods that I proposed with my co-authors and a comparison of methods to which I contributed. The second section devoted to experimental design presents a method for analyzing so-called dye-switch design.In the last part, I present two examples of collaboration, derived respectively from an analysis of genes differentially expressed from microrrays data, and an analysis of translatome in sea urchins from RNA-sequencing data, how statistical skills are mobilized, and the added value that statistics bring to genomics projects
APA, Harvard, Vancouver, ISO, and other styles
10

Prezotti, Filho Paulo Roberto. "Periodic models and variations applied to health problems." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC015.

Full text
Abstract:
Ce manuscrit porte sur certaines extensions à des séries temporelles prenant des valeurs entières du modèle paramétrique périodique autorégressif établi pour des séries prenant des valeurs réelles. Les modèles que nous considérons sont basés sur l'utilisation de l'opérateur de Steutel et Van Harn (1979) et généralisent le processus autorégressif stationnaire à valeurs entières (INAR) introduit par Al-Osh & Alzaid (1987) à des séries de comptage périodiquement corrélées. Ces généralisations incluent l'introduction d'un opérateur périodique, la prise en compte d'une structure d’autocorrélation plus complexe dont l’ordre est supérieur à un, l'apparition d'innovations de variances périodiques mais aussi à inflation de zéro par rapport à une loi discrète donnée dans la famille des distributions exponentielles, ainsi que l’utilisation de covariables explicatives. Ces extensions enrichissent considérablement le domaine d'applicabilité des modèles de type INAR. Sur le plan théorique, nous établissons des propriétés mathématiques de nos modèles telles que l'existence, l'unicité, la stationnarité périodique de solutions aux équations définissant les modèles. Nous proposons trois méthodes d'estimation des paramètres des modèles dont une méthode des moments basée sur des équations du type Yule-Walker, une méthode des moindres carrés conditionnels, et une méthode du quasi maximum de vraisemblance (QML) basée sur la maximisation d'une vraisemblance gaussienne. Nous établissons la consistance et la normalité asymptotique de ces procédures d'estimation. Des simulations de type Monte Carlo illustrent leur comportement pour différentes tailles finies d'échantillon. Les modèles sont ensuite ajustés à des données réelles et utilisés à des fins de prédiction. La première extension du modèle INAR que nous proposons consiste à introduire deux opérateurs de Steutel et Van Harn périodiques, l'un modélisant les autocorrélations partielles d'ordre un sur chaque période et l'autre captant la saisonnalité périodique des données. Grâce à une représentation vectorielle du processus, nous établissons les conditions l'existence et d'unicité d'une solution périodiquement corrélées aux équations définissant le modèle. Dans le cas où les innovations suivent des lois de Poisson, nous étudions la loi marginale du processus. Á titre d'exemple d'application sur des données réelles, nous ajustons ce modèle à des données de comptage journalières du nombre de personnes ayant reçu des antibiotiques pour le traitement de maladies respiratoires dans la région de Vitória au Brésil. Comme les affections respiratoires sont fortement corrélées au niveau de pollution atmosphérique et aux conditions climatiques, la structure de corrélation des nombres quotidiens de personnes recevant des antibiotiques montre, entre autres caractéristiques, une périodicité et un caractère saisonnier hebdomadaire. Nous étendons ensuite ce modèle à des données présentant des autocorrélations partielles périodiques d'ordre supérieur à un. Nous étudions les propriétés statistiques du modèle, telles que la moyenne, la variance, les distributions marginales et jointes. Nous ajustons ce modèle au nombre quotidien de personnes recevant du service d'urgence de l'hôpital public de Vitória un traitement pour l'asthme. Enfin, notre dernière extension porte sur l'introduction d'innovations suivant une loi de Poisson à inflation de zéro dont les paramètres varient périodiquement, et sur l’ajout de covariables expliquant le logarithme de l'intensité de la loi de Poisson. Nous établissons certaines propriétés statistiques du modèle et nous mettons en oeuvre la méthode du QML pour estimer ses paramètres. Enfin, nous appliquons cette modélisation à des données journalières du nombre de personnes qui se sont rendues dans le service d'urgence d'un hôpital pour des problèmes respiratoires, et nous utilisons comme covariable la concentration de polluant dans la même zone géographique
This manuscript deals with some extensions to time series taking integer values of the autoregressive periodic parametric model established for series taking real values. The models we consider are based on the use of the operator of Steutel and Van Harn (1979) and generalize the stationary integer autoregressive process (INAR) introduced by Al-Osh & Alzaid (1987) to periodically correlated counting series. These generalizations include the introduction of a periodic operator, the taking into account of a more complex autocorrelation structure whose order is higher than one, the appearance of innovations of periodic variances but also at zero inflation by relation to a discrete law given in the family of exponential distributions, as well as the use of explanatory covariates. These extensions greatly enrich the applicability domain of INAR type models. On the theoretical level, we establish mathematical properties of our models such as the existence, the uniqueness, the periodic stationarity of solutions to the equations defining the models. We propose different methods for estimating model parameters, including a method of moments based on Yule-Walker equations, a conditional least squares method, and a quasi-maximum likelihood method based on the maximization of a Gaussian likelihood. We establish the consistency and asymptotic normality of these estimation procedures. Monte Carlo simulations illustrate their behavior for different finite sample sizes. The models are then adjusted to real data and used for prediction purposes.The first extension of the INAR model that we propose consists of introducing two periodic operators of Steutel and Van Harn, one modeling the partial autocorrelations of order one on each period and the other capturing the periodic seasonality of the data. Through a vector representation of the process, we establish the conditions of existence and uniqueness of a solution periodically correlated to the equations defining the model. In the case where the innovations follow Poisson's laws, we study the marginal law of the process. As an example of real-world application, we are adjusting this model to daily count data on the number of people who received antibiotics for the treatment of respiratory diseases in the Vitória region in Brazil. Because respiratory conditions are strongly correlated with air pollution and weather, the correlation pattern of the daily numbers of people receiving antibiotics shows, among other characteristics, weekly periodicity and seasonality. We then extend this model to data with periodic partial autocorrelations of order higher than one. We study the statistical properties of the model, such as mean, variance, marginal and joined distributions. We are adjusting this model to the daily number of people receiving emergency service from the public hospital of the municipality of Vitória for treatment of asthma. Finally, our last extension deals with the introduction of innovations according to a Poisson law with zero inflation whose parameters vary periodically, and on the addition of covariates explaining the logarithm of the intensity of the Poisson's law. We establish some statistical properties of the model, and we use the conditional maximum likelihood method to estimate its parameters. Finally, we apply this modeling to daily data of the number of people who have visited a hospital's emergency department for respiratory problems, and we use the concentration of a pollutant in the same geographical area as a covariate
Este manuscrito trata de algumas extensões para séries temporais de valores inteiros domodelo paramétrico periódico autorregressivo estabelecido séries temporais de valores reais. Osmodelos considerados baseiam-se no uso do operadorde Steutel e Van Harn (1979) e generalizamo processo autorregressivo depara números inteiros estacionários (INAR) introduzidos por Al-Osh & Alzaid(1987) para séries de contagem periodicamente correlacionadas. Essas generalizações incluem aintrodução de um operador periódico, a consideração de uma estrutura de autocorrelação mais complexa,cuja ordem é maior do que um, o aparecimentode inovações de variâncias periódicas, e também ainflação zero em relação a uma lei discreta dadana família de distribuições exponenciais, bem comoo uso de covariáveis explicativas. Essas extensões enriquecem muito o domínio de aplicabilidade dosmodelos do tipo INAR. No nível teórico, estabelecemospropriedades matemáticas de nossos modeloscomo a existência, a unicidade, e a estacionariedadeperiódica de soluções para as equações que definemos modelos. Propomos três métodos para estimarparâmetros de modelos, incluindo um métodode momentos baseado nas equações de Yule-Walker,um método de mínimos quadrados condicionais e ummétodo de quasi-máxima verossimilhança (QML) baseadona maximização de uma probabilidade Gaussiana. Estabelecemos a consistência e a normalidadeassintótica desses procedimentos de estimativa. Assimulações de Monte Carlo ilustram seus comportamentospara diferentes tamanhos de amostras finitas.Os modelos são então ajustados para dados reais eusados para fins de previsão. A primeira extensão domodelo INAR que propomos consiste na introdução de dois operadores periódicos de Steutel e VanHarn, o primeiro atua modelando as autocorrelações parciais de ordem um em cada período e o outro capturando a sazonalidade periódica dos dados.Através de uma representação vetorial do processo,estabelecemos as condições existência e unicidadede uma solução periodicamente correlacionada às equações que definem o modelo. No casoem que as inovações seguem as leis de Poisson,estudamos a lei marginal do processo. Como umexemplo de aplicação no mundo real, estamos ajustandoeste modelo aos dados diários de contagemdo número de pessoas que receberam antibióticos para o tratamento de doenças respiratórias na região de Vitória, Brasil. Como as condições respiratórias estão fortemente correlacionadas com a poluição doar e o clima, o padrão de correlação dos números diários de pessoas que recebem antibióticos mostra,entre outras características, a periodicidade semanale a sazonalidade. Em seguida, estendemosesse modelo para dados com autocorrelações parciaisperiódicas de ordem maior que um. Estudamosas propriedades estatísticas do modelo, como média,variância, distribuições marginais e conjuntas. Ajustamosesse modelo ao número diário de pessoascom problema respiratório que receberam atendimentode emergência no pronto-atendimento da redepública do município de Vitória. Finalmente, nossa última extensão trata da introdução de inovações de acordo com uma lei de Poisson com inflação zero cujos parâmetros variam periodicamente, e daadição de covariáveis explicando o logaritmo da intensidadeda lei de Poisson. Estabelecemos algumaspropriedades estatísticas do modelo e usamoso método QML para estimar seus parâmetros. Porfim, aplicamos essa modelagem aos dados diários sobre o número de pessoas que visitaram o departamentode emergência de um hospital por problemasrespiratórios e usamos como covariável a sérieconcentrações diárias e um poluente medido namesma área geográfica
APA, Harvard, Vancouver, ISO, and other styles
11

Araldi, Alessandro. "Distribution des commerces et forme urbaine : Modèles orientés-rue pour la Côte d'Azur." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR2018.

Full text
Abstract:
Cette thèse de doctorat analyse et discute la relation entre la distribution spatiale des activités commerciales et la forme urbaine. Plus précisément, dans ce travail, nous nous intéressons aux relations statistiques spatiales entre la localisation des activités commerciales de petite et moyenne taille et les propriétés physiques de la forme urbaine dans la région métropolitaine de la Côte d'Azur. L'hypothèse sous-jacente de cette recherche est que les caractéristiques physiques du paysage bâti pourraient influer la façon dont les humains perçoivent et utilisent l'espace urbain et, en définitive, sur la répartition et l'organisation des activités commerciales dans les villes. Au cours des deux dernières décennies, les spécialistes ont étudié de plus en plus cette relation. Néanmoins, les caractéristiques du tissu commercial et du tissu urbain sont souvent réduites aux notions simples de, densité de magasin et de configuration de réseau de rue. Plusieurs aspects, tels que la typologie d'agglomération morpho-fonctionnelle du commerce de détail, les caractéristiques géométriques du paysage à l'échelle de la rue et l'influence contextuelle du tissu urbain sont traditionnellement exclus de ces analyses. Ces aspects devraient être encore plus importants lorsque l'on étudie des zones métropolitaines très hétérogènes comme la Côte d'Azur, où l’on retrouve une combinaison de villes de tailles différentes et de régions morphologiques paradigmatiques : centres médiévaux, zones planifiées modernes et contemporaines et étalement suburbain. Pour surmonter ces limitations, des protocoles basés sur la théorie et assistés par ordinateur sont sélectionnés et développés dans cette thèse permettant l'extraction de mesures quantitatives de forme commerciale et urbaine. En particulier, partant des théories traditionnelles de la géographie du commerce et de la morphologie urbaine, deux procédures sont proposées et mises en œuvre, fournissant une description détaillée des tissus urbains et commerciaux à l’échelle de la rue. Ces méthodologies se basent sur des combinaisons innovantes de protocoles de géo-traitement et sur des approches d’IA (Réseaux Bayésiens). Les relations statistiques entre les descripteurs morphologiques urbains et de distribution commerciale sont étudiées à travers la mise en œuvre de plusieurs modèles de régression statistique. La décomposition de la zone d'étude dans les sous-régions morphologiques à la fois à l'échelle méso et macro, ainsi que la mise en œuvre de procédures de régression pénalisées, permettent d'identifier des combinaisons spécifiques de caractéristiques morphologiques urbaines avec les caractéristiques de distribution spatiales du commerce. Dans le cas de la Côte d'Azur, les résultats de ces modèles confirment la relation statistique entre les propriétés de configuration du réseau de rues et de la distribution spatiale du commerce. Néanmoins, il a été également démontré que le rôle de certaines variables morphométriques de paysage à l'échelle de la rue constitue également un aspect pertinent de la forme urbaine lors de l’enquête sur la distribution du commerce. Enfin, il a été démontré que le contexte morphologique à la fois à moyenne et à grande échelle est un facteur clé pour expliquer la répartition des petites et moyennes activités commerciales dans une grande région métropolitaine
This doctoral dissertation analyses and discusses the relationship between the spatial distribution of retail and urban form. More precisely, in this work, we focus on the spatial statistical relationships which occur between the localisation of small and average-sized stores and the physical properties of the urban form in the metropolitan area of the French Riviera. The underlying hypothesis of this research is that the physical characteristics of the built-up landscape might influence how humans perceive and use urban space, and, ultimately, how stores are distributed and organised within cities. In the last two decades, scholars have been increasingly investigating this relationship. Nonetheless, both retail and urban form characteristics are often reduced to the simple notions of store density and street-network configuration respectively. Several aspects, such as the retail morpho-functional agglomeration typology, the geometrical characteristics of the streetscape and the contextual influence of the urban fabric are traditionally excluded from these analyses. These aspects should be even more important when studying highly heterogeneous metropolitan areas like the French Riviera, a combination of differently-sized cities and paradigmatic morphological regions: medieval centres, modern and contemporary planned areas, and suburban sprawl. To overcome these limitations, computer-aided, theory-based protocols are accurately selected and developed in this dissertation, allowing for the extraction of quantitative measures of retail and urban form. In particular, starting from traditional theories of retail geography and urban morphology, two location-based network-constrained procedures are proposed and implemented, providing a fine-grained description of the urban and retail fabrics at the street-level. These methodologies are based on innovative combinations of geoprocessing and AI-based protocols (Bayesian Networks). The statistical relationship between retail and urban morphological descriptors isinvestigated through the implementation of several statistical regression models. The decomposition of the study area in morphological subregions both at the meso- and macroscale, combined with the implementation of penalised regression procedures, enables the identification of specific combinations of urban morphological characteristics and retail patterns. In the case of the French Riviera, the outcomes of these models confirm the statistical significance of the relationship between street-network configurational properties and retail distribution. Nevertheless, the role of specific streetscape morphometric variables is demonstrated to be also a relevant aspect of the urban form when investigating the retail distribution. Finally, the morphological context both at the meso- and macro- scale is demonstrated to be a key factor in explaining the distribution of retail within a large urban area
APA, Harvard, Vancouver, ISO, and other styles
12

Pardo, Angel. "Comptage d'orbites périodiques dans le modèle de windtree." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0173/document.

Full text
Abstract:
Le problème du cercle de Gauss consiste à compter le nombre de points entiers de longueur bornée dans le plan. Autrement dit, compter le nombre de géodésiques fermées de longueur bornée sur un tore plat bidimensionnel. De très nombreux problèmes de comptage en systèmes dynamiques se sont inspirés de ce problème. Depuis 30 ans, on cherche à comprendre l’asymptotique de géodésiques fermées dans les surfaces de translation. H. Masur a montré que ce nombre a une croissance quadratique. Calculer l’asymptotique quadratique (constante de Siegel–Veech) est un sujet de recherches très actif aujourd’hui. L’objet d’étude de cette thèse est le modèle de windtree, un modèle de billard non compact. Dans le cas classique, on place des obstacles rectangulaires identiques dans le plan en chaque point entier. On joue au billard sur le complémentaire. Nous montrons que le nombre de trajectoires périodiques a une croissance asymptotique quadratique et calculons la constante de Siegel–Veech pour le windtree classique ainsi que pour la généralisation de Delecroix– Zorich. Nous prouvons que, pour le windtree classique, cette constante ne dépend pas des tailles des obstacles (phénomène “non varying” analogue aux résultats de Chen–Möller). Enfin, lorsque la surface de translation compacte sous-jacente est une surface de Veech, nous donnons une version quantitative du comptage
The Gauss circle problem consists in counting the number of integer points of bounded length in the plane. In other words, counting the number of closed geodesics of bounded length on a flat two dimensional torus. Many counting problems in dynamical systems have been inspired by this problem. For 30 years, the experts try to understand the asymptotic behavior of closed geodesics in translation surfaces. H. Masur proved that this number has quadratic growth rate. Compute the quadratic asymptotic (Siegel–Veech constant) is a very active research domain these days. The object of study in this thesis is the wind-tree model, a non-compact billiard model. In the classical setting, we place identical rectangular obstacles in the plane at each integer point. We play billiard on the complement. We show that the number of periodic trajectories has quadratic asymptotic growth rate and we compute the Siegel–Veech constant for the classical wind-tree model as well as for the Delecroix–Zorich variant. We prove that, for the classical wind-tree model, this constant does not depend on the dimensions of the obstacles (non-varying phenomenon, analogous to results of Chen–Möller). Finally, when the underlying compact translation surface is a Veech surface, we give a quantitative version of the counting
APA, Harvard, Vancouver, ISO, and other styles
13

Gimenez, Olivier. "Estimation et tests d'adéquation pour les modèles de capture-recapture multiétats." Montpellier 2, 2003. http://www.theses.fr/2003MON20045.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Buczkowska, Sabina. "Quantitative models of establishments location choices : spatial effects and strategic interactions." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC0052/document.

Full text
Abstract:
Dans un contexte de carence méthodologique, cette thèse vise à apporter un nouveau souffle aux modèles de choix de localisation jusqu’ici incapables d’appréhender de manière réaliste la complexité des processus décisionnels des établissements tels que leurs choix de localisation optimale. Les modèles de choix de localisation utilisent des données géoréférencées, pour lesquelles les ensembles de choix ont une composante spatiale explicite. Il est donc essentiel de comprendre comment représenter l’aspect spatial dans les modèles de choix de localisation. La décision finale d’un établissement semble être liée au paysage économique environnant. La quantification du lien entre les observations voisines implique une prise de décision sur la spécification de la matrice spatiale. Pourtant, la grande majorité des chercheurs appliquent la métrique euclidienne sans considérer des hypothèses sous-jacentes et ses alternatives. Cette démarche a été initialement proposée en raison de données et de puissance informatique limitées plutôt que de son universalité. Dans les régions comme la région parisienne, oû la congestion ainsi que les problèmes de barrières physiques non traversables apparaissent clairement, les distances purement basées sur la topographie peuvent ne pas être les plus appropriées pour l’étude de la localisation intra-urbaine. Il est possible d’acquérir des connaissances en reconsidérant et en mesurant la distance en fonction du problème analysé. Plutôt que d’enfermer les chercheurs dans une structure restrictive de la matrice de pondération, cette thèse propose une approche souple pour identifier la métrique de distance la plus susceptible de prendre en compte correctement les marchés voisins selon le secteur considéré. En plus de la distance euclidienne standard, six autres mesures sont testées : les temps de déplacement en voiture (pour les périodes de pointe et hors pointe) et en transport en commun, ainsi que les distances de réseau correspondantes.Par ailleurs, les décisions d’un établissement particulier sont interdépendantes des choix d’autres acteurs, ce qui rend les choix de localisation particulièrement intéressants et difficiles à analyser. Ces problèmes épineux posés par l’interdépendance des décisions ne peuvent généralement être négligés sans altérer l’authenticité du modèle de décision d’établissement. Les approches classiques de la sélection de localisation échouent en ne fournissant qu’un ensemble d’étapes systématiques pour la résolution de problèmes sans tenir compte des interactions stratégiques entre les établissements sur le marché. L’un des objectifs de la présente thèse est d’explorer comment adapter correctement les modèles de choix de localisation pour étudier les choix discrets d’établissement lorsqu’ils sont interdépendants.En outre, une entreprise peut ouvrir un certain nombre d’unités et servir le marché à partir de plusieurs localisations. Encore une fois, la théorie et les méthodes traditionnelles peuvent ne pas convenir aux situations dans lesquelles les établissements individuels, au lieu de se situer indépendamment les uns des autres, forment une grande organisation, telle qu’une chaîne confrontée à une concurrence féroce d’autres chaînes. Le modèle prend en compte non seulement les interactions intra-chaînes mais aussi inter-chaînes. Aussi, la nécessité d’indiquer une nette différence entre la population de jour et de nuit a été soulignée. La demande est représentée par les flux de piétons et de voitures, la foule de clients potentiels passant par les centres commerciaux, les stations de trains et de métros, les aéroports et les sites touristiques. L’Enquête Globale Transport 2010 (EGT 2010), entre autres, est utile pour atteindre cet objectif
This thesis is breathing new life into the location choice models of establishments. The need for methodological advances in order to more realistically model the complexity of establishment decision-making processes, such as their optimal location choices, is the key motivation of this thesis. First, location choice models use geo-referenced data, for which choice sets have an explicit spatial component. It is thus critical to understand how to represent spatial aspect in location choice models. The final decision of an establishment seems to be related to the surrounding economic landscape. When accounting for the linkage between neighboring observations, the decision on the spatial weight matrix specification must be made. Yet, researchers overwhelmingly apply the Euclidean metric without realizing its underlying assumptions and its alternatives. This representation has been originally proposed due to scarce data and low computing power, rather than because of its universality. In areas, such as the Paris region, where high congestion or uncrossable physical barriers problems clearly arise, distances purely based on topography may not be the most appropriate for the study of intra-urban location. There are insights to be gained by mindfully reconsidering and measuring distance depending on a problem being analyzed. Rather than locking researchers into a restrictive structure of the weight matrix, this thesis proposes a flexible approach to intimate which distance metric is more likely to correctly account for the nearby markets depending on the sector considered. In addition to the standard Euclidean distance, six alternative metrics are tested: travel times by car (for the peak and off-peak periods) and by public transit, and the corresponding network distances. Second, what makes these location choices particularly interesting and challenging to analyze is that decisions of a particular establishment are interrelated with choices of other players.These thorny problems posed by the interdependence of decisions generally cannot be assumed away, without altering the authenticity of the model of establishment decision making. The conventional approaches to location selection fail by providing only a set of systematic steps for problem-solving without considering strategic interactions between the establishments in the market. One of the goals of the present thesis is to explore how to correctly adapt location choice models to study establishment discrete choices when they are interrelated.Finally, a firm can open a number of units and serve the market from multiple locations. Once again, traditional theory and methods may not be suitable to situations wherein individual establishments, instead of locating independently from each other, form a large orgnization, such as a chain facing a fierce competition from other chains. There is a necessity to incorporate interactions between units within the same and competing firms. In addition, the need to state a clear difference between the daytime and nighttime population has been emphasized. Demand is represented by pedestrian and car flows, the crowd of potential clients passing through the commercial centers, train and subways stations, airports, and highly touristic sites. The Global Survey of Transport (EGT 2010), among others, is of service to reach this objective. More realistically designed location choice models accounting for spatial spillovers, strategic interaction, and with a more appropriate definition of distance and demand can become a powerful and flexible tool to assist in finding a befitting site. An appropriately chosen location in turn can make an implicative difference for the newly-created business. The contents of this thesis provide some useful recommendations for transport analysts, city planners, plan developers, business owners, and shopping center investors
APA, Harvard, Vancouver, ISO, and other styles
15

Galanos, Jean. "Système d'information comptable et modèles de gestion émergents." Nice, 1991. http://www.theses.fr/1991NICE0003.

Full text
Abstract:
Ce travail a pour objet de contribuer à l'adaptation de l'information comptable à l'évolution des modèles de gestion et à la demande différenciée des utilisateurs de telles informations. L'inadéquation entre gestion et comptabilité a été formalisée dans un cahier des charges, grâce à la mise en place préalable d'outils méthodologiques et théoriques, dans un cadre systémique enrichi par des apports philosiphiques, linguistiques et anthropologiques. Ainsi, un cadre conceptuel, commun à la gestion et à la comptabilité a été conçu, à partir du concept unique d'écart, qui s'agrège et se complexifie dans les notions de mouvements et de flux. Un modèle comptable par niveau double est proposé, à partir du cahier des charges, dans le cadre conceptuel établi. Il permet, au premier niveau, de prendre en compte tous les déplacements juges pertinents pour l'entreprise, sans rupture dans l'enchaînement, et quelles que soit les unités de mesures nécessaires. Le second niveau est celui des modèles comptables spécifiques. Il n'est qu'évoqué, dans cette thèse et constitue l'ouverture principale de ce travail
This work aims at contributing to adapt accounting information to the evolution of management models as well as to the differentiated needs of the users of such information. The inadequacy between management and accountancy was been formalized in a schedule of conditions, thanks to the preliminary setting up of methodological and theoretical tools in a systemic framework enlarged with philosophical, linguistic and antropological contributions. Thus a conceptual framework common to management and accountancy has been devised from the single concept of gap which incorporates and becomes more complex into the notions of movement and flow. A double-level accounting model is given from the schedule of conditions in the established conceptual framework. It enables at the first level to take into account changes relevant for the firm without break in the sequence and whatever the necessary units of measure are. The second level consists in specific accounting models and is only alluded to in this thesis, being the main opening of this work
APA, Harvard, Vancouver, ISO, and other styles
16

Raybaud-Turrillo, Brigitte. "Le modèle comptable patrimonial : les enjeux d'un droit comptable substantiel." Nice, 1993. http://www.theses.fr/1993NICE0024.

Full text
Abstract:
Le modele comptable francais est essentiellement un modele de type patrimonial. Or, le principe de patrimonialite est de plus en plus soumis a des contestations et a des temperaments sous l'influence de l'harmonisation internationale et de la normalisation anglo-saxone. Une reflexion de fond doit donc etre menee sur ce concept. La recherche d'une patrimonialite substantielle, au-dela d'une vision strictement formelle, permet de surmonter de nombreuses incoherences. Ainsi, une etude approfondie de la patrimonialite substantielle de la propriete utilisee comme garantie - a travers la reserve de propriete et le credit-bail - degage-t-elle une nouvelle coherence, aussi bien juridique que comptable, dans un domaine traditionnellement place sous le signe de l'opposition entre droit et economie. La recherche d'un modele comptable patrimonial renvoie alors a la definition d'un droit comptable autonome, recourant de maniere prioritaire a l'analyse substantielle, c'est-a-dire au principe "substance over form". Les enjeux presidant a cette demarche sont nombreux: ce sont aussi bien des enjeux de fond - l'emergence d'un droit comptable substantiel apparait comme une alternative au developpement des cadres conceptuels anglo-saxons et comme une reponse a la comptabilite creative - que des enjeux strategiques - la definition d'un modele comptable renvoie a une reflexion sur les aspects institutionnels de la normalisation et sur le statut et le devenir de la profession comptable europeenne sur le marche du c0nseil aux entreprises
The french accounting model stands mainly on the patrimonial principle. Under the increasing influence of anglo-saxon standard setting and internatinal harmonization, this principle is more and more contested and submitted to restrictions. A fundamental reflection must be worked out on this patrimonial concept. The search for a substantial patrimoniality, beyond a strictly formal vision, allows to overcome many incoherences. From a thorough research of the legal substance of property used as a guarantee, a coherent accounting treatment of agreements such as retention of title clause and financial lease can be proposed, in a field where economy and law are usually opposed. The search for a patrimonial accounting model refers to the definition of an independant accounting law, using first a substantial consideration, according the principle "substance over form". There are many issues leading this process. The setting of a substantial accounting law appears first like an alternative to the developpment of anglo-saxon conceptual frameworks and like an answer to creative accounting. There are also strategic issues : the definition of an accounting model implies a reflection on institutionnal aspects of standard setting and effects the statut and developp-ment of the european accountants over the enterprises advising market
APA, Harvard, Vancouver, ISO, and other styles
17

Vidard, Arthur. "Vers une prise en compte des erreurs modèles en assimilation de données 4D-variationnelle : application à un modèle réaliste d'océan." Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00325349.

Full text
Abstract:
L'assimilation de données est une classe de méthode mathématiques très usitées en météorologie ou en océanographie. Elle permettent de recomposer de façon adéquate l'état du système au moyen des informations fournies par le modèle d'une part et les observations d'autre part. Parmi celles-ci, les méthodes d'assimilation variationnelles ont connu récemment un fort développement jusqu'à fournir les méthodes opérationnelles dans les principaux centres de météorologie. Cependant ces méthodes ne prennent généralement pas en compte l'inexactitude des modèles. Tout au long de cette thèse, on s'est attaché à décrire et expérimenter des variantes " modèle inexacte " de la méthode 4D-Variationnelle applicable tant du point de vue algorithmique que du coût en temps de calcul.
Deux méthodes sont étudiées plus en détail. Premièrement, le Nudging optimal qui consiste en adjoindre au 4D-Var un rappel newtonien de l'état du modèle vers les observations et dont l'amplitude sera estimé par contrôle optimal. D'autre part le " contrôle de l'erreur systématique " considère l'erreur modèle comme étant un terme ne variant pas, ou très peu, dans le temps, ce terme étant également estimé par contrôle.
Dans un premier temps ces méthodes sont appliquées à des cas académiques de modèles simplifiés en assimilant des données simulées. La méthode de contrôle de la part systématique de l'erreur est ensuite appliquée à un modèle d'océan aux équations primitives dans le cadre d'une expérience réaliste afin de valider les bons résultats obtenus pour les configurations académiques.
APA, Harvard, Vancouver, ISO, and other styles
18

Bou, Saleh Pierre. "La Conception comptable : vers un modèle gestionnaire intégré." Paris, CNAM, 2009. http://www.theses.fr/2009CNAM0646.

Full text
Abstract:
La comptabilité dans ses productions des informations et des états financiers prend une part significative dans le management de l'entreprise et dans la décision des utilisateurs. Une question se pose : la comptabilité d'aujourd'hui est-elle suffisante pour satisfaire aux besoins des managers et des utilisateurs ? Les besoins changent et la comptabilité évolue pour s'adapter aux changements. Ainsi se révèle la nature relativiste de la comptabilité. De ce fait, cette thèse étudie les comptabilités existantes, analyse l'évolution et les développements. Récents en comptabilité et propose un nouveau modèle étendu (dansd le sens de l'intégration) ou un système de travail qui permet de déblayer le terrain pour mieux construire un modèle intégré ou unifié. Ce sytème proposé est une alternative aux évolutions et systèmes actuels multidimensionnls en maintenant la partie durable
The accountancy, due to its data production and the financial statements provided, has a significant role in the management of an enterprise and decision making by users. Does accountancy nowadays fulfill the needs of managers and users ? Needs change, the accountancy evolves accordingly. This, revealing its relativist nature. Hence, the present thesis examines different aspects of accountancy, analyzes its recent evolution and developments and proposes a new model (regarding integration) or working system, allowing to clear away the ground in order to create a better way, an integrated or unified model. This proposed system is an alternative to the evolutions or actual multidimensional systems maintaining the double entry principle
APA, Harvard, Vancouver, ISO, and other styles
19

Smerlak, Matteo. "Divergence des mousses de spins : comptage de puissance et resommation dans le modèle plat." Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2011. http://tel.archives-ouvertes.fr/tel-00662170.

Full text
Abstract:
L'objet de cette thèse est l'étude du modèle plat, l'ingrédient principal du programme de quantification de la gravité par les mousses de spins, avec un accent particulier sur ses divergences. Outre une introduction personnelle au problème de la gravité quantique, le manuscrit se compose de deux parties. Dans la première, nous obtenons une formule exacte pour le comptage de puissances des divergences de bulles dans le modèle plat, notamment grâce à des outils de théorie de jauge discrète et de cohomologie tordue. Dans la seconde partie, nous considérons le problème de la limite continue des mousses de spins, tant du point de vue des théorie de jauge sur réseau que du point de vue de la "group field theory". Nous avançons en particulier une nouvelle preuve de la sommabilité de Borel du modèle de Boulatov-Freidel-Louapre, permettant un contrôle accru du comportement d'échelle dans la limite de grands spins. Nous concluons par une discussion prospective du programme de renormalisation pour les mousses de spins.
APA, Harvard, Vancouver, ISO, and other styles
20

Smerlak, Matteo. "Divergence des mousses de spins : Comptage de puissances et resommation dans le modèle plat." Thesis, Aix-Marseille 2, 2011. http://www.theses.fr/2011AIX22115/document.

Full text
Abstract:
L’objet de cette thèse est l’étude du modèle plat, l’ingrédient principal du programme de quantification de la gravité par les mousses de spins, avec un accent particulier sur ses divergences. Outre une introduction personnelle au problème de la gravité quantique, le manuscrit se compose de deux parties. Dans la première, nous obtenons une formule exacte pour le comptage de puissances des divergences de bulles dans le modèle plat, notamment grâce à des outils de théorie de jauge discrète et de cohomologie tordue. Dans la seconde partie, nous considérons le problème de la limite continue des mousses de spins, tant du point de vue des théories de jauge sur réseau que du point de vue de la group field theory. Nous avançons en particulier une nouvelle preuve de la sommabilité de Borel du modèle de Boulatov-Freidel-Louapre, permettant un contrôle accru du comportement d’échelle dans la limite de grands spins. Nous concluons par une discussion prospective du programme de renormalisation pour les mousses de spins
In this thesis we study the flat model, the main buidling block for the spinfoam ap- proach to quantum gravity, with an emphasis on its divergences. Besides a personal introduction to the problem of quantum gravity, the manuscript consists in two part. In the first one, we establish an exact powercounting formula for the bubble divergences of the flat model, using tools from discrete gauge theory and twisted cohomology. In the second one, we address the issue of spinfoam continuum limit, both from the lattice field theory and the group field theory perspectives. In particular, we put forward a new proof of the Borel summability of the Boulatov-Freidel-Louapre model, with an improved control over the large-spin scaling behaviour. We conclude with an outlook of the renormalization program in spinfoam quantum gravity
APA, Harvard, Vancouver, ISO, and other styles
21

Beverini-Beau, Carole. "Décision comptable et jeux d'acteurs." Toulon, 2005. http://www.theses.fr/2005TOUL2001.

Full text
Abstract:
L'objectif de notre recherche est d'étudier le rôle du responsable comptable dans le processus de décision comptable dans le processus de décision comptable et l'étendue de son espace discrétionnaire, c'est-à-dire l'espace où il peut choisir entre des alternatives, mais dans un contexte de dépendance. Dans une première partie nous avons mis en évidence son absence dans la littérature consacrée à la décision, et tenté d'apporter une explication à ce paradoxe à l'aide des théories de la délégation et de l'agence. Leurs insuffisances ont été démontrées. Dans une deuxième partie, nous avons expliqué son rôle dans le processus de décision comptable, nous avons élaboré un modèle de processus de décision comptable. L'approche processuelle nous a conduit vers la théorie des conventions pour inscrire notre démarche. Le modèle proposé a été testé à l'aide de méthodes qualitatives, des entretiens exploratoires et une étude de cas menée au sein d'un groupe français important, mais également de méthodes quantitatives, un questionnaire administré auprès de responsables comptables. Nos résultats soulignent qu'il existe bien un espace discrétionnaire, que le responsable comptable est aujourd'hui un acteur essentiel de la transparence financière et qu'il existe une convention de représentation de ce métier qui est en train d'évoluer, notamment sous dynamique de l'acteur étudié
The objective of our work is to study chief acountant officer role in accounting decision making process and wide ranging space of his discretionary, that is, the space where he can choose between several options, but in a dependency context. In a first part, we highlighted his lack of stuides related to the decision. We also tried to explain this paradox, using delegation and principal-agent theories. Their deficiencies are proved. In a second part, we described his role accounting decision making process. We defined what an accounting decision is, then built an accounting decision making process model. This processual approach leads us to the convention therory. We prposed a model who has been checked with qualitative methods, but also quantitative tools, a sruvey of chief accountant officers point of view. Our results show that a discretionary space really exists, and that chief accountant officer is a main actor in financial transparency, and it appears that convention of representation of job is changing, espacially form the experience of the actor mentioned earlier
APA, Harvard, Vancouver, ISO, and other styles
22

Zekri, Inès. "La qualité de service électronique : proposition d'un modèle d'évaluation et application au contexte des cabinets comptables tunisiens." Versailles-St Quentin en Yvelines, 2009. http://www.theses.fr/2009VERS005S.

Full text
Abstract:
Bien que les travaux passés aient étudié la qualité de service électronique dans différents contextes, aucune étude n'a proposée, jusqu'à ce jour, un modèle intégrateur permettant de juger de la qualité de service électronique offerts par les cabinets comptables. L'objectif de la présente recherche est d'identifier les déterminants de la qualité de service électronique du professionnel comptable et de proposer un modèle d'évaluation permettant de l'expliquer. Le modèle de la recherche a été testé en mobilisant conjointement l'approche quantitative (enquête par questionnaire auprès de 110 clients) et l'approche qualitative (30 entretiens semi-directifs) selon une logique de triangulation. Les résultats ont montré que la qualité de service électronique est un concept complexe et multidimensionnel. Ainsi, elle renvoie à une appréciation conjointe de trois concepts multidimensionnels : la qualité du système électronique, la qualité de l'interface web et la qualité de la prestation
Although the past works studied the electronic service quality in various contexts, no study proposed, until this day, an integrator model judging the electronic service quality offered by the accounting professionals. The objective of the present research is to identify the determiners of the electronic service quality of the accounting professional and to propose an evaluation model allowing to explai it. The research model was tested by mobilizing jointly the quantitative approcah (survey by questionnaire with 110 customers) and the qualitative approcah (30 semi-directive interviews) according to triangulation logic. The results showed that the electronic service quality is a complex and multidimensional concept. Thus, it dismisses to a joint appreciation of three multidimensional concepts : the electronic system quality, the web interface quality and the service quality
APA, Harvard, Vancouver, ISO, and other styles
23

Lauvernet, Claire. "Assimilation variationnelle d'observations de télédétection dans les modèles de fonctionnement de la végétation : utilisation du modèle adjoint et prise en compte de contraintes spatiales." Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00010443.

Full text
Abstract:
La gestion de l'environnement et des ressources disponibles nécessite de caractériser l'état de la végétation. Les modèles agronomiques simulent le fonctionnement du couvert à partir du climat, des pratiques culturales et des propriétés de la plante et du sol. Le projet ADAM, dans lequel s'inscrit cette thèse, a pour objectif de combiner les données de télédétection avec l'information fournie par les modèles agronomiques afin de participer au raisonnement des cultures et à l'évaluation de l'environnement. Sur un modèle d'étude, nous avons proposé une approche originale d'assimilation simultanée sur une scène, en imposant des contraintes sur les paramètres en fonction de leur variabilité au niveau du pixel, de la parcelle, de la variété. . . La taille de l'espace de contrôle est ainsi diminuée par rapport à un problème résolu pixel par pixel et qui se trouve être mal posé lorsque l'on dispose de peu d'observations. Cette technique a permis d'améliorer fortement l'estimation des paramètres d'entrée et de réduire la fréquence temporelle d'observation. Nous avons ensuite étudié la faisabilité d'une telle méthode sur un modèle mécaniste complexe de fonctionnement de la végétation (STICS), dont la différentiation a présenté des difficultés théoriques et pratiques. En effectuant une analyse de sensibilité utilisant le modèle adjoint de STICS, nous avons pu hiérarchiser ses paramètres selon leur influence sur la croissance de la culture. Nous avons démontré la faisabilité d'une technique d'assimilation avec contraintes dans STICS, ce qui permet d'envisager de nombreuses applications dans le domaine agronomique.
APA, Harvard, Vancouver, ISO, and other styles
24

Thomas, Frédéric. "Contribution à la prise en compte des plates-formes logicielles d'exécution dans une ingénierie générative dirigée par les modèles." Phd thesis, Université d'Evry-Val d'Essonne, 2008. http://tel.archives-ouvertes.fr/tel-00382556.

Full text
Abstract:
Face à la complexité inhérente des logiciels multitâches, une approche prometteuse est l'automatisation des développements. En pratique, cette automatisation se concrétise par des générateurs capables de produire des applications logicielles s'exécutant sur des plates-formes d'exécution multitâche (par exemple des systèmes d'exploitation multitâches). De tels générateurs constituent alors des ingénieries génératives dirigées par les modèles de ces plates-formes. Aujourd'hui, ces ingénieries décrivent implicitement ces plates-formes dans les générateurs eux-mêmes. Ces générateurs sont alors efficaces pour un ensemble de préoccupations homogènes, figées et répétitives. Dans le cas des systèmes multitâches, les besoins sont certes répétitifs, cependant, ils sont majoritairement hétérogènes et évolutifs. Les ingénieries mise en œuvre doivent alors être adaptables et flexibles. Pour y parvenir, cette étude consiste à modéliser explicitement les plates-formes logicielles d'exécution en entrée des générateurs afin de les capitaliser et de les réutiliser. Pour cela, elle définit un motif dédié à la modélisation des plates-formes logicielles d'exécution, une extension au langage UML destiné à la modélisation des plates-formes logicielles d'exécution multitâche (le profil Software Resource Modeling) et un style architecturale de transformation de modèle intégrant ces modèles de plates-formes explicites. Les deux premières contributions constituent l'extension UML de l'Object Management Group pour la modélisation et l'analyse des systèmes embarqués temps réel (MARTE).
APA, Harvard, Vancouver, ISO, and other styles
25

Makki, Ahmad. "Étude de modèles en séparation de phase tenant compte d'effets d'anisotropie." Thesis, Poitiers, 2016. http://www.theses.fr/2016POIT2288/document.

Full text
Abstract:
Cette thèse se situe dans le cadre de l'analyse théorique et numérique de modèles en séparation de phase qui tiennent compte d'effets d'anisotropie. Ceci est pertinent, par exemple, pour l'évolution de cristaux dans leur matrice liquide pour lesquels ces effets d'anisotropie sont très forts. On étudie l'existence, l'unicité et la régularité de la solution des équations de Cahn-Hilliard et d'Allen-Cahn ainsi que son comportement asymptotique en terme d'existence d'un attracteur global de dimension fractale finie. La première partie de la thèse concerne certains modèles de séparation de phase qui, en particulier, décrivent la formation de motifs dendritiques. D'abord, on étudie les équations de Cahn-Hilliard et d'Allen-Cahn qui prennent en compte les effets d'anisotropie forts en dimension un avec des conditions de type Neumann sur le bord et une non linéarité régulière de type polynomial. En particulier, ces modèles contiennent un terme supplémentaire appelé régularisation de Willmore. Ensuite, on étudie ces modèles avec des conditions de type périodique (respectivement, Dirichlet) sur le bord pour l'équation de Cahn-Hilliard (respectivement, d'Allen-Cahn) mais en dimension spatiales plus élevées. Finalement, on étudie la dynamique des équations de Cahn-Hilliard et d'Allen-Cahn visqueux avec des conditions de type Neumann et Dirichlet respectivement sur le bord et une non linéarité régulière et en plus, la présence de simulations numériques qui montrent les effets du terme de viscosité sur l'anisotropie et l'isotropie dans l'équation de Cahn-Hilliard. Dans le dernier chapitre, on étudie le comportement en temps long en termes d'attracteurs de dimension finie, d'une classe d'équations doublement non linéaires de type Allen-Cahn avec des conditions de type Dirichlet sur le bord et une non linéarité singulière
This thesis is situated in the context of the theoretical and numerical analysis of models in phase separation which take into account the anisotropic effects. This is relevant, for example, for the development of crystals in their liquid matrix for which the effects of anisotropy are very strong. We study the existence, uniqueness and the regularity of the solution of Cahn-Hilliard and Alen-Cahn equations and the asymptotic behavior in terms of the existence of a global attractor with finite fractal dimension. The first part of the thesis concerns some models in phase separation which, in particular, describe the formation of dendritic patterns. We start by study- ing the anisotropic Cahn-Hilliard and Allen-Cahn equations in one space dimension both associated with Neumann boundary conditions and a regular nonlinearity. In particular, these two models contain an additional term called Willmore regularization. Furthermore, we study these two models with Periodic (respectively, Dirichlet) boundary conditions for the Cahn-Hilliard (respectively, Allen-Cahn) equation but in higher space dimensions. Finally, we study the dynamics of the viscous Cahn-Hilliard and Allen-Cahn equations with Neumann and Dirichlet boundary conditions respectively and a regular nonlinearity in the presence of the Willmore regularization term and we also give some numerical simulations which show the effects of the viscosity term on the anisotropic and isotropic Cahn-Hilliard equations. In the last chapter, we study the long time behavior, in terms of finite dimensional attractors, of a class of doubly nonlinear Allen-Cahn equations with Dirichlet boundary conditions and singular potentials
APA, Harvard, Vancouver, ISO, and other styles
26

Tomasian, Alain. "Modélisation mathématique de deux plaques perpendiculaires soudées avec prise en compte du cordon de soudure." Pau, 1993. http://www.theses.fr/1993PAUU3030.

Full text
Abstract:
L'objet de ce travail est de modéliser la jonction entre deux plaques minces perpendiculaires, linéairement élastiques, homogènes et isotropes, reliées par un cordon de soudure. Dans la première partie, on étudie la jonction entre une plaque et un bloc tridimensionnel représentant la soudure. On démontre l'existence et l'unicité dans l'espace de Sobolev h#1 de l'équation différentielle aux dérivées partielles constituée en postulant que l'énergie élastique de cette structure est la somme des énergies élastiques de la plaque (théorie des plaques minces) et du bloc tridimensionnel (on impose la continuité des déplacements à l'interface dans l'espace des fonctions tests). La seconde partie concerne l'étude du comportement asymptotique d'une plaque pliée en angle droit et d'un cordon de soudure (se situant dans l'angle rentrant de la plaque) lorsque l'épaisseur de la plaque tend vers zéro. Après avoir effectué une transformation géométrique sur l'ensemble des points représentant la structure, on énonce un problème limite dont on démontre l'existence et l'unicité d'une solution dans l'espace de Sobolev h#1.
APA, Harvard, Vancouver, ISO, and other styles
27

Malachanne, Etienne. "Modèle du remodelage osseux prenant en compte la phase fluide." Montpellier 2, 2008. http://www.theses.fr/2008MON20222.

Full text
Abstract:
L'os est un matériau en évolution permanente, la modification de l'architecture osseuse étant liée aux actions mécaniques externes qui lui sont appliquées. Ce phénomène, le remodelage osseux, est décrit mathématiquement par des lois liant la contrainte ou la déformation, et la variation de densité osseuse. Par ailleurs l'os est un milieu poreux, composé d'une partie fluide, d'une partie solide et d'intéractions entre elles. L'influence du fluide interne de l'os sur le remodelage est non négligeable. L'objectif de ce travail est de proposer un modèle numérique macroscopique de remodelage osseux, tenant compte des mouvements de fluide interne. Pour cela l'os est considéré, dans cette étude, comme un matériau poroélastique. Une méthode de résolution numérique du problème poroélastique, basée sur les éléments finis, est alors définie. Cette résolution est suivie d'un traitement numérique d'une loi de remodelage osseux, liant variation de densité osseuse et cumul de contrainte, et tenant compte des mouvements de fluide interne à travers la vitesse de Darcy. Ce modèle numérique est validé sur des études expérimentales, et il permet d'obtenir une prédiction de l'adaptation osseuse, selon le type d'os et le cas de chargement considérés
APA, Harvard, Vancouver, ISO, and other styles
28

ferrey, paul. "Modèles aux tensions de Reynolds avec prise en compte de l'intermittence de frontière." Phd thesis, Université de Poitiers, 2004. http://tel.archives-ouvertes.fr/tel-00010644.

Full text
Abstract:
Le but de cette thèse est d'optimiser un modèle aux tensions de Reynolds. Des contraintes lui sont appliquées pour reproduire l'influence d'un gradient de pression sur la structure de la couche limite. Ceci a conduit à revoir le comportement des modèles de turbulence au voisinage d'une frontière libre. On obtient un comportement différent de celui classiquement supposé : la solution en puissance attendue est incluse dans une solution plus complexe. Les contraintes pour la frontière libre sont alors incompatibles avec les autres contraintes. Le caractère intermittent de la frontière libre a dû être pris en compte afin de découpler le comportement du modèle au voisinage d'une frontière libre de son comportement dans une région pleinement turbulente, ceci dans le but de satisfaire toutes les contraintes. Le modèle construit est optimisé sur les écoulements libres et la couche limite pour laquelle les contraintes imposées apportent une amélioration sensible.
APA, Harvard, Vancouver, ISO, and other styles
29

MARQUE, Sebastien. "Prise en compte de la surdispersion par des modèles à mélange de Poisson." Phd thesis, Université Victor Segalen - Bordeaux II, 2003. http://tel.archives-ouvertes.fr/tel-00009885.

Full text
Abstract:
Cette thèse propose une approche opérationnelle permettant de traiter des données environnementales surdispersées. Cette surdispersion, qui peut avoir pour origine une mauvaise spécification du modèle ou un recueil de données incomplet, entraîne un biais important dans l'estimation des paramètres. Ce travail propose donc une approche basée sur la régression Arcsinus Stricte comme alternative à la régression Binomiale-Négative. Le second aspect est abordé en présentant un modèle hiérarchique encore méconnu en épidémiologie et une extension possible aux corrélations spatiales, qui permet de compléter l'information disponible dans les études écologiques. Chacun de ces deux aspects seront détaillés d'un point de vue théorique et par des études de simulation. Enfin, nous préciserons les caractéristiques de la mortalité cardiovasculaire chez les personnes âgées par une analyse démographique complète. Nous détaillerons ensuite les facteurs de risque usuels de cette cause de décès ainsi que l'effet des éléments minéraux de l'eau de boisson, et principalement le calcium et le magnésium.
APA, Harvard, Vancouver, ISO, and other styles
30

Ferrey, Paul. "Modèles aux tensions de Reynolds avec prise en compte de l’intermittence de frontière." Poitiers, 2004. http://www.theses.fr/2004POIT2331.

Full text
Abstract:
Le but de cette thèse est d’optimiser un modèle aux tensions de Reynolds. Des contraintes lui sont appliquées pour reproduire l’influence d’un gradient de pression sur la structure de la couche limite. Ceci a conduit à revoir le comportement des modèles de turbulence au voisinage d'une frontière libre. On obtient un comportement différent de celui classiquement supposé : la solution en puissance attendue est incluse dans une solution plus complexe. Les contraintes pour la frontière libre sont alors incompatibles avec les autres contraintes. Le caractère intermittent de la frontière libre a dû être pris en compte afin de découpler le comportement du modèle au voisinage d’une frontière libre de son comportement dans une région pleinement turbulente, ceci dans le but de satisfaire toutes les contraintes. Le modèle construit est optimisé sur les écoulements libres et la couche limite pour laquelle les contraintes imposées apportent une amélioration sensible
The goal of this PhD thesis is to optimise a Reynolds stress model. Some constraints are applied to the length scale transport equation in order to take into account the effect of a pressure gradient on the structure of the boundary layer. This leads us to revisit the analysis of the behaviour of turbulence models at the vicinity of a free stream edge. The behaviour is different from what has been assumed before as the expected power law solution is contained in a more complex solution. This study proved that the constraints for the free stream edge are incompatible with the other constraints. The intermittent character of the free stream edge is taken into account in order to unlink the behaviour of the model at the free stream edge from its behaviour in fully turbulent regions. The model deduced from this analysis fulfils all the constraints and is calibrated on free shear flows and boundary layers where the constraints significantly improve the quality of results
APA, Harvard, Vancouver, ISO, and other styles
31

Marque, Sébastien. "Prise en compte de la surdisposition par des modèles à mélange de Poisson." Bordeaux 2, 2003. https://tel.archives-ouvertes.fr/tel-00009885.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Zaittouni, Fouad. "Modélisation théorique et numérique d'interfaces : Prise en compte du contact et du frottement." Montpellier 2, 2000. http://www.theses.fr/2000MON20076.

Full text
Abstract:
L'etude numerique des milieux composites a structure fine pose d'importantes difficultes ; pour prendre en compte tous les constituants, le pas de discretisation doit etre tres petit et le nombre de degres de liberte assez important, par consequent le cout du calcul devient rapidement prohibitif, surtout lorsque le milieu presente plusieurs couches minces. Une solution consiste a effectuer ces calculs avec des structures plus simples, c'est-a-dire a chercher un modele approche de comportement. Cette analyse est indispensable pour l'ingenieur s'il veut s'affranchir de calculs faisant intervenir un nombre de degres de liberte beaucoup trop eleve. Pour cela, il faut etudier le comportement asymptotique de la structure lorsque les petits parametres tendent vers zero. Dans ce travail, on presente une etude theorique et numerique de quelques problemes de couches minces. Dans une premiere etape, theorique, on determine la loi de contact. Dans le cas d'un probleme en elasticite linearisee, par la technique de la gamma-convergence, on obtient une loi d'interface qui relie le tenseur des contraintes au saut de deplacement. Par la meme technique, dans le cas du contact unilateral, on obtient une loi d'interface du type compliance. Dans le cas du contact frottant, par la methode des developpements asymptotiques raccordes, on obtient des lois de contact penalisees et des lois de frottement regularisees. Notons que l'on justifie ainsi des lois de contact et de frottement tout particulierement utilisees dans certains codes de calcul industriels, ainsi que l'utilisation de certaines techniques de resolution. Dans le cas de problemes de couches minces pour les plaques de type kirchhoff-love en flexion, on utilise la technique de la gamma-convergence
APA, Harvard, Vancouver, ISO, and other styles
33

Carbonnell, Frédéric. "Étude de la prise en compte des effets instationnaires dans les simulations numériques (laminaire/turbulent)." Toulouse, INPT, 1994. http://www.theses.fr/1994INPT110H.

Full text
Abstract:
Nous nous interessons dans ce travail a la facon dont on peut prendre en compte les effets instationnaires turbulents dans les simulations numeriques des ecoulements. Le but final de ces etudes est de proposer une alternative aux modeles de turbulence statistiques usuellement utilises. Apres une breve presentation des effets turbulents dans les ecoulements, nous presentons une vue d'ensemble des modeles de turbulence de type statistique et la simulation des grandes echelles. Deux aspects distincts sont ensuite traites: la methode numerique et la validation sur un cas physique. Ce travail supporte par le motoriste turbomeca repose sur un code de calcul industriel a la base stationnaire (volume fini, schema simple). La structure et la modification de cet outil de calcul pour le rendre apte a simuler des situations instationnaires seront presentees ainsi que les tests de qualites effectues. Nous comparons ce code a un autre code plus recent: avbp (code cerfacs non-structure, base sur des schemas type jameson). La derniere partie de l'etude consiste a montrer l'efficacite comparee des deux outils sur une configuration instationnaire plus complexe: un jet dont le debit d'entree subit une baisse brutale. Le cas laminaire est etudie a partir des resultats d'une approche analytique formulee dans le groupe combustion de l'institut de mecanique des fluides de toulouse et les tendances sont comparees a une experience sur un jet turbulent. Des conclusions sont apportees sur le caractere predictif des outils numeriques. Enfin l'approche turbulente est discutee et les qualites requises des codes mises en evidence
APA, Harvard, Vancouver, ISO, and other styles
34

Reynaud-Bouret, Patricia. "Estimation adaptative de l'intensité de certains processus ponctuels par sélection de modèle." Phd thesis, Paris 11, 2002. http://tel.archives-ouvertes.fr/tel-00081412.

Full text
Abstract:
L'objet de cette thèse est d'adapter des techniques
de sélection de modèle au cadre particulier de l'estimation d'intensité de
processus ponctuels. Plus précisément, nous voulons montrer que les
estimateurs par projection pénalisés de l'intensité sont adaptatifs soit dans
une famille d'estimateurs par projection, soit pour le risque minimax. Nous
nous sommes restreints à deux cas particuliers : les processus de Poisson
inhomogènes et les processus de comptage à intensité
multiplicative d'Aalen.
Dans les deux cas, nous voulons trouver une inégalité de type
oracle, qui garantit que les estimateurs par projection pénalisés ont un risque
du même ordre de grandeur que le meilleur estimateur par projection pour une
famille de modèles donnés. La clé qui permet de prouver des inégalités de
type oracle est le phénomène de concentration de la mesure ou plus précisément
la connaissance d'inégalités exponentielles, qui permettent de contrôler en
probabilité les déviations de statistiques de type khi-deux au dessus de leur
moyenne. Nous avons prouvé deux types d'inégalités de concentration. La
première n'est valable que pour les processus de Poisson. Elle est comparable
en terme d'ordre de grandeur à l'inégalité de M. Talagrand pour les suprema de
processus empiriques. La deuxième est plus grossière mais elle est valable
pour des processus de comptage beaucoup plus généraux.
Cette dernière inégalité met en oeuvre des techniques de
martingales dont nous nous sommes inspirés pour prouver des inégalités de
concentration pour des U-statistiques dégénérées d'ordre 2 ainsi que pour des
intégrales doubles par rapport à une mesure de Poisson recentrée.
Nous calculons aussi certaines bornes inférieures pour les
risques minimax et montrons que les estimateurs par projection pénalisés
atteignent ces vitesses.
APA, Harvard, Vancouver, ISO, and other styles
35

Genthon, Pierre. "Modèles pour la subduction égéenne prenant en compte les mesures altimétriques du satellite SEASAT." Paris 11, 1985. http://www.theses.fr/1985PA112079.

Full text
Abstract:
La surface altimétrique déduite des mesures du satellite SEASAT, assimilable pour les usages géophysiques à une équipotentielle du champ de gravité terrestre (le géoide). Est utilisée pour contraindre des modèles relatifs à la bordure Sud (côté avant-arc) de la subduction égéenne. Des structures crustales comportant trois couches : eau, sédiments, croûte indurée de densité fixe, sont ajustées par moindres carrés à la fois d'après les hauteurs de géoide et les anomalies de pesanteur à l'air libre. La forme et la densité du panneau subductant ont été déterminées à priori et sont bloquées pendant l'inversion. Le long du premier profil, tracé perpendiculairement à la branche occidentale (convergente) de l'arc, on note un affaissement local du moho sous la Ride Méditerranéenne se superposant à une flexion de grande longueur d'onde augmentant en direction des fosses. Le désaccord entre le comportement mécanique de la lithosphère africaine, déterminé sous la Ride Méditerranéenne (rigidité nulle)et d'après la flexion associée à la subduction (épaisseur élastique 80 km)amène à supposer l'existence d'une force supplémentaire agissant vers le bas sous la Ride Méditerranéenne. Le long du deuxième profil, tracé perpendiculairement à la branche orientale, essentiellement coulissant de l'arc, une forme en cuvette, large de 150 km, profonde de 10 km, et centrée 150 km au sud de l'Ile de Karpathos, se superpose à une flexion du moha de grande longueur d'onde semblable à celle du profil précédent. Le fait que cet affaissement ne soit pas surmonté par une chaine de montagnes très élevée impose un très important écart à l'isostasie qui requiert, comme pour le profil précédent, mais de manière plus cruciale, une compensation dynamique en profondeur. Un modèle invoquant le développement d'instabilités gravitationnelles à la base de la lithosphère africaine vieille (160 Ma) et donc dense est proposé et étayé par des développements analytiques simples
The altimetric surface deduced from SEASAT altimeter data, may be equated for geophysical interpretation to an equipotential surface of the terrestrial gravity field and is used to constrain tectonic models relative to Aeagean forearc area. Crustal structure profiles relative to the Aegean forearc area and based upon geoid ondulations and free air gravity anomalies are presented. They involve three layers with a geometry ajusted by weighted least squares. The first profile, drawn across the western (convergent) branch of the arc exhibits a large amount of subducted crustal material and a local trough in the Moho under the so-called Mediterranean Ridge superimposed to a long wavelength flexure increasing toward the trench. The Moho topography suggests a lithosphere with no rigidity below the Mediterranean Ridge while the flexure associated with the subduction implies an elastic thickness of 80km. This discreapency leads us to suppose the existence of another load acting downward below the Mediterranean Ridge. On the second profile, drawn across the eastern (strike-slip) branch, a 7km deepening of the Moho is associated with much less crustal material subducted. This moho deepening represents a hughe isostatic unbalance and requires an active compensation mechanism. A model involving the growth at the base of the old and dense African lithosphere is proposed and checked using s1mple analytical calculations
APA, Harvard, Vancouver, ISO, and other styles
36

Icart, Isabelle. "Modèles d'illumination locaux pour les couches et multicouches prenant en compte les phénomènes interférentiels." Marne-la-Vallée, 2000. http://www.theses.fr/2000MARN0082.

Full text
Abstract:
Les modeles d'illumination les plus recents en synthese d'images n'envisagent, pour la plupart, les materiaux que sous la forme de surfaces. Or, la surface propre des materiaux est bien souvent recouverte d'une ou plusieurs couches minces naturelles ou manufacturees (couches protectrices, filtres interferentiels, peintures, couches d'oxydes, nacres) dans lesquelles se produisent des phenomenes physiques (interferences, diffusion) qui ne peuvent etre pris en compte par une description purement surfacique de la matiere. Dans cette these, nous nous interessons a la determination de nouveaux modeles d'illumination physiques permettant de caracteriser l'interaction de la lumiere avec une ou plusieurs couches minces de materiaux lineaires, homogenes et isotropes. Ces modeles prennent en compte les phenomenes d'interferences, de diffraction, d'absorption, de dispersion et de polarisation. Dans un premier temps, nous traitons le cas de couches minces optiquement lisses, avec des applications au rendu des mousses savonneuses. Puis nous envisageons le cas plus courant de couches comportant des interfaces rugueuses. Dans le cadre des theories scalaires de la diffraction, nous etablissons les expressions des composantes de la lumiere reflechie par differents types de systemes a interfaces rugueuses definies statistiquement (systemes substrat-couche mince identique, substrat-multicouche identique et substrat-multicouche non correle), desquelles nous deduisons les modeles d'illumination locaux associes. Ces differents modeles ont ete implantes dans un algorithme de lancer de rayons spectral, ce qui nous a permis d'obtenir des images de materiaux composites a couches que nous presentons, assorties de commentaires
APA, Harvard, Vancouver, ISO, and other styles
37

Obounou, Marcel. "Modélisation de la combustion turbulente non prémélangée avec prise en compte d'une cinétique chimique complexe." Rouen, 1994. http://www.theses.fr/1994ROUE5011.

Full text
Abstract:
Après une étude bibliographique des principaux mécanismes cinétiques globaux de la combustion du méthane, une description des modèles de combustion turbulente pour les flammes de diffusion est faite. Une amélioration du modèle lagrangien de combustion turbulente M. I. L. Est proposée à travers un calcul de délais d'ignition. Ce calcul utilise un mécanisme global de six réactions à dix espèces. Une bibliothèque de délais d'ignition est donc établie pour être utilisée dans le code de calcul Cora. Ce code utilise une méthode numérique de type différences-finies. Par ailleurs, un modèle k- standard permet de calculer les évolutions des variables dynamiques. La validation du modèle M. I. L. Avec la prise en compte d'une bibliothèque de délais d'ignition, a été faite sur une expérience de flammes de diffusion turbulente, qui présentent des zones d'extinction partielles et des zones de réallumage. Un bon accord est observé entre les calculs et les mesures des vitesses longitudinales et de l'énergie cinétique de turbulence. Le modèle k- reproduit relativement bien le champ turbulent. Les zones d'extinctions partielles et de réallumages sont retrouvées par les calculs. Tous ces résultats de calculs tendent à montrer que le modèle M. I. L. , doté d'une bibliothèque de délais d'ignition est capable de simuler de manière satisfaisante, le couplage entre la turbulence et la chimie dans les flammes turbulentes non prémélangées
APA, Harvard, Vancouver, ISO, and other styles
38

Malki, Jamal. "Modélisation des relations spatiales : prise en compte des aspects topologiques et directionnels." La Rochelle, 2001. http://www.theses.fr/2001LAROS069.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Briquel, Irénée. "Complexité de problèmes de comptage, d'évaluation et de recherche de racines de polynômes." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2011. http://tel.archives-ouvertes.fr/tel-00677977.

Full text
Abstract:
Dans cette thèse, nous cherchons à comparer la complexité booléenne classique et la complexité algébrique, en étudiant des problèmes sur les polynômes. Nous considérons les modèles de calcul algébriques de Valiant et de Blum, Shub et Smale (BSS). Pour étudier les classes de complexité algébriques, il est naturel de partir des résultats et des questions ouvertes dans le cas booléen, et de regarder ce qu'il en est dans le contexte algébrique. La comparaison des résultats obtenus dans ces deux domaines permet ainsi d'enrichir notre compréhension des deux théories. La première partie suit cette approche. En considérant un polynôme canoniquement associé à toute formule booléenne, nous obtenons un lien entre les questions de complexité booléenne sur la formule booléenne et les questions de complexité algébrique sur le polynôme. Nous avons étudié la complexité du calcul de ce polynôme dans le modèle de Valiant en fonction de la complexité de la formule booléenne, et avons obtenu des analogues algébriques à certains résultats booléens. Nous avons aussi pu utiliser des méthodes algébriques pour améliorer certains résultats booléens, en particulier de meilleures réductions de comptage. Une autre motivation aux modèles de calcul algébriques est d'offrir un cadre pour l'analyse d'algorithmes continus. La seconde partie suit cette approche. Nous sommes partis d'algorithmes nouveaux pour la recherche de zéros approchés d'un système de n polynômes complexes à n inconnues. Jusqu'à présent il s'agissait d'algorithmes pour le modèle BSS. Nous avons étudié l'implémentabilité de ces algorithmes sur un ordinateur booléen et proposons un algorithme booléen.
APA, Harvard, Vancouver, ISO, and other styles
40

Rigault, Cyril. "Etude mathématique de modèles cinétiques pour la gravitation, tenant compte d'effets relativistes : stabilité, solutions autosimilaires." Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00787487.

Full text
Abstract:
Cette thèse propose une étude mathématique du comportement des solutions autour d'états stationnaires pour des systèmes cinétiques gravitationnels de type Vlasov. Les trois premières parties présentent des résultats théoriques. Tout d'abord, par une ap- proche variationnelle, on construit des états stationnaires pour le système de Vlasov-Manev et on montre leur stabilité orbitale. Ensuite, on prouve l'existence de solutions autosimi- laires explosant en temps fini autour d'un état stationnaire pour le système dit de "Vlasov- Manev pur". Enfin on démontre la stabilité orbitale d'une large classe d'états stationnaires pour le système de Vlasov-Poisson relativiste. Ces résultats s'appuient sur de nouvelles méthodes utilisant la rigidité du flot. Celles-ci permettent notamment d'obtenir la séparation d'états stationnaires en évitant l'étude d'équations d'Euler-Lagrange non locales, de résoudre un problème variationnel avec une infinité de contraintes et de prouver la stabilité orbitale de solutions stationnaires non nécessairement obtenues de manière variationnelle. Dans la quatrième et dernière partie, nous étudions numériquement l'équation de Vlasov-Poisson en coordonnées radiales. Après avoir choisi un système de variables adéquates, nous présentons des schémas numériques de différences finies conservant la masse et le Hamiltonien du système.
APA, Harvard, Vancouver, ISO, and other styles
41

Rigault, Cyril. "Étude mathématique de modèles cinétiques pour la gravitation, tenant compte d'effets relativistes : stabilité, solutions autosimilaires." Rennes 1, 2012. https://tel.archives-ouvertes.fr/tel-00787487.

Full text
Abstract:
Cette thèse propose une étude mathématique du comportement des solutions autour d'états stationnaires pour des systèmes cinétiques gravitationnels de type Vlasov. Les trois premières parties présentent des résultats théoriques. Tout d'abord, par une approche variationnelle, on construit des états stationnaires pour le système de Vlasov-Manev et on montre leur stabilité orbitale. Ensuite, on prouve l'existence de solutions autosimilaires explosant en temps fini autour d'un état stationnaire pour le système dit de « Vlasov-Manev pur ». Enfin on démontre la stabilité orbitale d'une large classe d'états stationnaires pour le système de Vlasov-Poisson relativiste. Ces résultats s'appuient sur de nouvelles méthodes utilisant la rigidité du flot. Celles-ci permettent notamment d'obtenir la séparation d'états stationnaires en évitant l'étude d'équations d'Euler-Lagrange non locales, de résoudre un problème variationnel avec une infinité de contraintes et de prouver la stabilité orbitale de solutions stationnaires non nécessairement obtenues de manière variationnelle. Dans la quatrième et dernière partie, nous étudions numériquement l'équation de Vlasov-Poisson en coordonnées radiales. Après avoir choisi un système de variables adéquates, nous présentons des schémas numériques de différences finies conservant la masse et le Hamiltonien du système
This document is concerned with the behavior of solutions near ground states for gravitational kinetic systems of Vlasov type. In the first chapter we build by variational methods some stationary states of the Vlasov-Manev system and we prove their orbital stability. The second chapter gives the existence of self-similar blow-up solutions to the « pur Vlasov- Manev » system near ground states. In the third chapter we obtain the orbital stability of a large class of ground states. New methods based on the rigidity of the flow are developed in these three chapters. In particular, they provide the uniqueness of ground states by avoiding the study of non-local Euler-Lagrange equations, they solve a variational problem with non finite constraints and they give the orbital stability of ground states which are not necessary obtained from variational methods. In the fourth chapter, we finish our analysis with a numerical study of the radialy symmetric Vlasov-Poisson system : we give numerical finite difference schemes which conserve the mass and the Hamiltonien of the system
APA, Harvard, Vancouver, ISO, and other styles
42

Rondeau, Laurent. "Identification des systèmes par modèles flous linguistiques : prise en compte des aspects numériques et symboliques." Nancy 1, 1997. http://www.theses.fr/1997NAN10278.

Full text
Abstract:
L'élaboration de modèles à partir d'informations numériques et symboliques relatives au comportement du système constitue la problématique de ce mémoire. Dans le premier chapitre, nous confrontons l'approche suivie dans le domaine de l'identification, qui s'appuie principalement sur la prise en compte d'informations numériques, à l'approche système expert qui se fonde sur des informations symboliques. Nous proposons alors une stratégie de prise en compte de l'ensemble de ces informations reposant sur l'utilisation d'un modèle flou linguistique. L'estimation des paramètres de ce type de modèles à partir d'informations numériques conduit à deux approches possibles, classique ou floue. La seconde, que nous choisissons, possède l'avantage de faire apparaître des critères très précis quant au choix du modèle et de la méthode d'estimation paramétrique. Le deuxième chapitre est consacré à l'analyse des différentes modèles flous linguistiques et méthodes d'estimation paramétrique par rapport aux critères définis au chapitre 1. On constate que le seul modèle vérifiant ces critères est le modèle à règles graduelles mono-entrée mono-sortie. Parallèlement, on vérifie qu'aucune méthode d'estimation paramétrique ne répond aux conditions spécifiées. Au cours du troisième chapitre, le modèle à règles graduelles est étendu au cas multi-entrées mono-sortie. Une réécriture sous forme symbolique de ce modèle est proposée afin de définir une stratégie d'estimation paramétrique adaptée à notre contexte et fondée sur la résolution d'équations de relation floue. Une méthodologie d'identification permettant la prise en compte des informations numériques et symboliques est ensuite proposée. Elle est appliquée à la modélisation d'un système statique non linéaire, cette application mettant en évidence les caractéristiques essentielles de la méthode
Building models from numeric and symbolic information relating to system behavior is the subject of this thesis. In the first chapter, the approach used in the domain of identification which is mainly based upon numeric information is compared with the expert system approach which is based on symbolic information. Then, we propose a strategy which takes into account both types of information by using a linguistic fuzzy model. Parametric estimation of these kinds of models from numeric information leads to two possible methods, classical or fuzzy. The second, which is chosen for our development, has the advantage of highlighting two particular criteria for the choice of the model and the parametric estimation method. The second chapter presents the analysis of linguistic fuzzy models and parametric estimation methods, with respect to the criteria defined in chapter 1. We demonstrate that only one model verifies all criteria, the single-input single-output gradual rules model. We also emphasize that no parametric estimation method satisfies the specified conditions. In the third chapter, the gradual rules model is extended to the multi-inputs single-output case. A symbolic form of this model is then proposed in order to define a parametric estimation strategy which fulfills our criteria and is based on the resolution of fuzzy relational equations. A methodology of identification which takes into account numeric and symbolic information is proposed. This is applied to the modelling of a static non-linear system which showcases the main characteristics of the method
APA, Harvard, Vancouver, ISO, and other styles
43

Dao, Thi Hong Phu. "Modèle technique de contrôle externe de la conformité aux normes IFRS (IFRS enforcement)." Angers, 2006. http://www.theses.fr/2006ANGE0011.

Full text
Abstract:
L’adoption obligatoire des normes IFRS en Europe vise à améliorer la fiabilité et la comparabilité de l’information financière des sociétés cotées. Cependant, un tel objectif ne peut pas être atteint seulement en exigeant des sociétés d’adopter un référentiel comptable commun de qualité, mais aussi en surveillant l’application de celui-ci. S’il existe un certain nombre de travaux sur la surveillance des normes comptables en général et des IFRS en particulier, à notre connaissance, peu de recherches ont été menées sur les aspects techniques de vérification de la conformité à celles-ci. L’objectif de cette recherche est d’élaborer un modèle technique de vérification de la conformité aux IFRS à utiliser par la deuxième ligne de contrôle externe constituée par les autorités de surveillance. La méthodologie suivie est qualitative, s’est appuyée sur une étude exploratoire et l’observation empirique du système de contrôle de l’information financière de l’AMF, complétées par des entretiens avec les contrôleurs de l’AMF et des questionnaires réalisés auprès d’analystes financiers et de commissaires aux comptes de sociétés cotées en France. Le modèle a été élaboré selon l’approche par les risques qui consiste à évaluer le risque de non-conformité aux IFRS à travers trois composantes (risque inhérent, risque du contrôle interne et risque lié à l’audit), dans le but d’orienter la vérification vers les zones importantes comportant un risque de non-conformité. Le modèle a été ensuite testé sur des cas réels par des contrôleurs impliqués dans la vérification des états financiers d’émetteurs à l’AMF. Les résultats des tests montrent que si certains éléments se sont avérés difficilement appréhendables dans le cadre du contrôle externe secondaire, le modèle constitue un outil efficace pour relever les zones importantes de risque de non-conformité aux IFRS. En outre, l’utilisation du modèle pourrait aider à sensibiliser les contrôleurs à l’analyse des risques
The mandatory adoption of IFRS in Europe is aimed at improving the quality and the comparability of financial information of listed companies. Nevertheless, such goal cannot be achieved solely by making a requirement for EU companies to use the IFRS, but it would be also necessary to assure the compliance with those standards. While there is recent research that addresses the issues on enforcement of accounting standards in general and of IFRS in particular, there is still a lack of studies which discuss the technical aspects of monitoring compliance with accounting standards. The objective of this research is to elaborate a technical model of enforcement of IFRS to be used by the regulatory oversight bodies. The methodology adopted is qualitative, based on an exploratory study and empirical observation of the financial information oversight system of the AMF in France, completed by the interviews with the controllers at the AMF and by the surveys carried out with financial analysts and auditors of listed companies. Our model has been developed following the risk-based approach which consist of assessing the risk of non-compliance with IFRS by the analysis of three risk components (inherent risk, control risk and audit risk), in order to focus the review efforts on those important areas which are more likely to contain a risk of non-compliance. The model was then tested in practical cases (issuers’ financial statements) by the controllers of the AMF. The tests results indicate that if some factors had been proved difficult to be assessed at the regulatory oversight level, the model constitute a relevant methodological tool for risk detection which helps to identify important areas of risk of non-compliance with the IFRS. In addition, the use of the model can help to make the controllers sensitive to risk analysis
APA, Harvard, Vancouver, ISO, and other styles
44

Payan, Jean-Luc. "Prise en compte de barrages-réservoirs dans un modèle global pluie-débit." Phd thesis, ENGREF (AgroParisTech), 2007. http://pastel.archives-ouvertes.fr/pastel-00003555.

Full text
Abstract:
Les bassins versants influencés par la présence de barrages-réservoirs constituent les objets d'étude de cette thèse. L'objectif principal est de mettre au point une méthode de prise en compte, au sein d'un modèle pluie-débit global, de l'impact de retenues d'eau artificielles sur le comportement hydrologique du bassin versant. Un tel outil, simple dans sa conception, doit permettre d'améliorer la simulation des débits de bassins versants influencés et d'évaluer l'impact de barrages-réservoirs sur le régime hydrologique des cours d'eau, en particulier lorsque l'on se place loin à l'aval de l'ouvrage. La démarche adoptée est empirique dans le sens où l'on a cherché, sur une base de données de 46 bassins versants situés en France, aux Etats-Unis et au Brésil, à exploiter au mieux, dans la structure du modèle pluie-débit, une information simple sur les ouvrages, à savoir l'évolution temporelle des volumes stockés dans les retenues. La diversité des conditions hydro-climatiques présentes dans la base de données donne aux résultats obtenus un caractère assez général. Au cours de cette thèse, un grand nombre de solutions de prise en compte des barrages-réservoirs a été testé. Les résultats montrent que cette information sur les remplissages des ouvrages peut être utilement exploitée au sein d'une structure de modèle global pour améliorer la simulation des bassins influencés. Les solutions qui se sont révélées être les plus performantes n'engendrent pas de complexification de la structure initiale du modèle puisqu'aucun ajout de paramètre n'a été nécessaire. Des gains de performances significatifs ont été réalisés, en particulier sur la simulation des étiages. Il s'agit d'un résultat important de la thèse car il montre qu'il est possible de prendre explicitement en compte, dans un modèle pluie-débit global, les barrages-réservoirs présents sur le bassin versant. Nous avons ensuite essayé de comprendre le lien entre la méthode de prise en compte des barrages-réservoirs et certaines caractéristiques physiques des bassins versants et des ouvrages de stockage afin de tenter d'adapter la solution au bassin versant considéré. Les résultats de ces tests ont montré que ce lien est difficile à mettre en évidence et qu'à ce stade, une solution générique semble la plus efficace. La solution la plus performante a ensuite été évaluée sur un échantillon complémentaire de 31 bassins versants n'ayant pas servi à son développement. L'évaluation a confirmé l'intérêt de la méthode pour l'amélioration des simulations des débits mais a également montré sa sensibilité à la disponibilité des données de stockages ainsi qu'aux transferts interbassins inconnus.
APA, Harvard, Vancouver, ISO, and other styles
45

Moyne, Christian. "Transferts couples chaleur-masse lors du séchage : prise en compte du mouvement de la phase gazeuse." Vandoeuvre-les-Nancy, INPL, 1987. http://www.theses.fr/1987NAN10348.

Full text
Abstract:
Développement d'un modèle mathématique prenant en compte la filtration en phase liquide et gazeuse. Aux gradients de température et d'humidité, il ajoute le gradient de pression totale de la phase gazeuse comme troisième force motrice. Discussion théorique des transferts convectifs et diffusifs en phase gazeuse en milieu poreux. La notion de conductivité thermique des milieux humides fortement influencée par les mécanismes d'évaporation condensation est alors réexaminée. Prise en compte des effets de filtration pour deux cas particuliers: le séchage sous vide et le séchage convectif avec un fluide séchant à température supérieure a la température d'ébullition. Étude expérimentale des mécanismes de transfert dans les deux cas
APA, Harvard, Vancouver, ISO, and other styles
46

Platet, Pierrot Françoise. "L'information financière à la lumière d'un changement de cadre conceptuel comptable : Etude du message du Président des sociétés cotées françaises." Phd thesis, Université Montpellier I, 2009. http://tel.archives-ouvertes.fr/tel-00480501.

Full text
Abstract:
Depuis le 1er janvier 2005, les sociétés cotées françaises sont tenues d'établir leurs comptes consolidés selon le référentiel comptable international les normes IAS/IFRS, adopté par l'Union Européenne en 2002. Ce nouveau référentiel élaboré par un organisme privé l'IASB, correspond à un changement de modèle comptable pour la majorité des pays européens en général et pour la France en particulier. En effet, la réglementation comptable précédemment en vigueur relevait du modèle comptable continental à orientation partenariale, alors que les normes IAS/IFRS sont fondées sur le modèle comptable anglo-saxon qui favorise une approche actionnariale. Les principes et concepts sur lesquels ce référentiel est basé sont regroupés dans un cadre conceptuel qui introduit ce corpus de normes et définit, entre autres, les objectifs et les utilisateurs de l'information financière produite par les sociétés. Ce travail doctoral analyse l'impact de cette transition d'un modèle comptable à l'autre sur le contenu de l'information financière des sociétés cotées françaises. Pour cela, une étude de contenu de la lettre du Président, introduisant le rapport annuel, a été mise en oeuvre, notamment à l'aide du logiciel d'analyse textuelle ALCESTE. Cette étude longitudinale qui s'étend de 2001 à 2007 et concerne 60 entreprises issues de l'indice SBF 250, conduit à identifier une évolution de la présentation de la performance des entreprises, en lien avec la place accordée aux actionnaires, dans le discours des Présidents.
APA, Harvard, Vancouver, ISO, and other styles
47

Gao, Yingzhong. "Modèles probabilistes et possibilistes pour la prise en compte de l'incertain dans la sécurité des structures." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1996. http://pastel.archives-ouvertes.fr/pastel-00569129.

Full text
Abstract:
Cette thèse a pour cadre général l'étude de la sécurité des structures, sous un double aspect - probabiliste et possibiliste - de la modélisation des variabilités et incertitudes des variables de calcul introduites dans les états limites. Après avoir rappelé les expressions classiques de la sécurité des structures (approches semi-probabiliste et probabiliste), l'attention est portée sur la définition de pré-mesures de confiance pour l'évaluation du risque de dépassement d'états limites. Divers concepts relatifs à l'expression et à la modélisation des incertitudes sont rappelés, en accentuant les particularités des mesures de possibilité et leur positionnement vis-à-vis des mesures de probabilité. Les notions essentielles de la théorie probabiliste de la fiabilité sont également rappelées. Une démarche analogue à la théorie probabiliste de la fiabilité est choisie pour développer une nouvelle théorie de la fiabilité. Nommée théorie possibiliste de la fiabilité, elle adopte une démarche possibiliste de la modélisation des variabilités et incertitudes liées aux variables de calcul ; deux définitions importantes sont d'ailleurs données dans cette étude - celle de la possibilité de défaillance et celle de l'indice possibiliste de la fiabilité. Les similitudes théoriques entre les deux théories de la fiabilité sont nombreuses et une comparaison entre les approches est présentée, en illustrant d'exemples numériques. Les formulations théoriques sont données pour des états limites linéaires et non linéaires, n'introduisant que des variables distinctes et non liées modélisées par des intervalles flous. Les développements théoriques mettent en évidence des simplifications de calcul remarquables, puisque la détermination de l'indice possibiliste de fiabilité et de la possibilité de défaillance se limite à la recherche d'un minimum scalaire. Ceci est réalisé grâce à la règle des signes, dont le principe est détaillé et illustré. Un exemple concret concernant le calcul de la durée de vie en fatigue d'assemblages soudés, est enfin proposé pour illustrer la démarche possibiliste de la fiabilité. Un soin particulier a été apporté à la modélisation des incertitudes, en utilisant le concept de la régression floue.
APA, Harvard, Vancouver, ISO, and other styles
48

Price, Nathaniel Bouton. "Conception sous incertitudes de modèles avec prise en compte des tests futurs et des re-conceptions." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEM012/document.

Full text
Abstract:
Au stade de projet amont, les ingénieurs utilisent souvent des modèles de basse fidélité possédant de larges erreurs. Les approches déterministes prennent implicitement en compte les erreurs par un choix conservatif des paramètres aléatoires et par l'ajout de facteurs de sécurité dans les contraintes de conception. Une fois qu'une solution est proposée, elle est analysée par un modèle haute fidélité (test futur): une re-conception peut s'avérer nécessaire pour restaurer la fiabilité ou améliorer la performance, et le modèle basse fidélité est calibré pour prendre en compte les résultats de l'analyse haute-fidélité. Mais une re-conception possède un coût financier et temporel. Dans ce travail, les effets possibles des tests futurs et des re-conceptions sont intégrés à une procédure de conception avec un modèle basse fidélité. Après les Chapitres 1 et 2 qui donnent le contexte de ce travail et l'état de l'art, le Chapitre 3 analyse le dilemme d'une conception initiale conservatrice en terme de fiabilité ou ambitieuse en termes de performances (avec les re-conceptions associées pour améliorer la performance ou la fiabilité). Le Chapitre 4 propose une méthode de simulation des tests futurs et de re-conception avec des erreurs épistémiques corrélées spatialement. Le Chapitre 5 décrit une application à une fusée sonde avec des erreurs à la fois aléatoires et de modèles. Le Chapitre 6 conclut le travail
At the initial design stage, engineers often rely on low-fidelity models that have high uncertainty. In a deterministic safety-margin-based design approach, uncertainty is implicitly compensated for by using fixed conservative values in place of aleatory variables and ensuring the design satisfies a safety-margin with respect to design constraints. After an initial design is selected, high-fidelity modeling is performed to reduce epistemic uncertainty and ensure the design achieves the targeted levels of safety. High-fidelity modeling is used to calibrate low-fidelity models and prescribe redesign when tests are not passed. After calibration, reduced epistemic model uncertainty can be leveraged through redesign to restore safety or improve design performance; however, redesign may be associated with substantial costs or delays. In this work, the possible effects of a future test and redesign are considered while the initial design is optimized using only a low-fidelity model. The context of the work and a literature review make Chapters 1 and 2 of this manuscript. Chapter 3 analyzes the dilemma of whether to start with a more conservative initial design and possibly redesign for performance or to start with a less conservative initial design and risk redesigning to restore safety. Chapter 4 develops a generalized method for simulating a future test and possible redesign that accounts for spatial correlations in the epistemic model error. Chapter 5 discusses the application of the method to the design of a sounding rocket under mixed epistemic model uncertainty and aleatory parameter uncertainty. Chapter 6 concludes the work
APA, Harvard, Vancouver, ISO, and other styles
49

Laurent, Gautier. "Prise en compte de l'histoire géologique des structures dans la création de modèles numériques 3D compatibles." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0057/document.

Full text
Abstract:
La modélisation des structures géologiques est une étape cruciale de la construction de géomodèles. Elles conditionnent la répartition spatiale des propriétés du sous-sol et la connexion des différents volumes rocheux qui le constituent. Cependant, les données disponibles s'avèrent incomplètes et incertaines. A cela s'ajoute une incertitude sur les phénomènes géologiques ayant conduit à la formation des structures modélisées. De multiples interprétations sont donc généralement possibles. Les méthodes classiques de modélisation des structures reposent principalement sur une approche géométrique, statique et déterministe. En d'autres termes, l'approche consiste à déterminer la meilleure représentation possible des structures en se fondant sur des critères qui portent principalement sur la géométrie actuelle des structures, comme la minimisation de leur courbure, et sur leur compatibilité avec les données dans leur état actuel. L'histoire tectonique des structures n'est prise en compte que de manière indirecte par le modélisateur et la compatibilité cinématique et mécanique du modèle structural reste complexe à évaluer. Cette thèse explore différentes méthodes de modélisations permettant de mieux prendre en compte l'histoire tectonique des structures. Trois approches complémentaires sont développées. La première propose un opérateur cinématique représentant les déplacements associés aux failles. Il tire son originalité du système de coordonnées curvilinéaires utilisé pour décrire l'espace de la faille et de l'intégration progressive des déplacements permettant de contrôler leur évolution. La seconde approche propose un outil de déformation pseudo-mécanique permettant l'édition interactive des modèles structuraux et la simulation approchée de l'histoire tectonique qui leur est associée. Il repose sur un algorithme de déformation original, basé sur des éléments rigides, issu du domaine de l'infographie. Enfin, une troisième approche permet de répercuter l'historique de déformation sur le système de coordonnées utilisé pour la simulation des propriétés du sous-sol. Nous montrons comment ce système peut être construit grâce à la restauration des structures. Cette approche permet de modéliser les propriétés du sous-sol en s'appuyant sur des paléodistances compatibles avec l'ensemble des hypothèses structurales, cinématiques et mécaniques établies lors de la construction de l'histoire tectonique du géomodèle. Ces différentes approches ouvrent des portes prometteuses dans la prise en compte des aspects historiques, cinématiques et mécanique dans la modélisation des structures et des propriétés du sous-sol. Elles s'attachent à accroître la compatibilité des géomodèles et à simplifier la paramétrisation des déformations géologiques afin de faciliter la résolution de problèmes structuraux par des approches inverses
The main approaches to the modelling of geological structures are mainly geometrical, static and deterministic. In other terms, their geometry and connections are determined by applying criteria based on the compatibility with available data in their current state. The evolution of the geological structures is only integrated indirectly by the modeller and the kinematical and mechanical compatibility of the produced models remain difficult to assess. This thesis explores different methods which aim at better including the evolution of geological structures in the modelling process. Three complementary approaches are developed. First, a kinematical fault operator based on a 3D curvilinear fault frame is presented. It aims at progressively deforming the structures surrounding faults. The second approach is based on a pseudo-mechanical deformation tool inspired form computer graphics, based on rigid elements. It is used to interactively editing the structures and approximately simulate their deformation history. The last proposal is to compute the paleo-geographical coordinates from the restoration of geological structures. This way, the heterogeneities are characterised based on paleo-geographic distances which are compatible with the structural, kinematical and mechanical hypotheses specified when building the geological model. These different contributions open numerous perspectives to better take into account the evolution of the geological structures when modelling the subsurface and its heterogeneities. They help us to increase the compatibility of geomodels and simplify the parameterization of geological deformation to facilitate the characterisation of geological structures by inverse approaches
APA, Harvard, Vancouver, ISO, and other styles
50

Mokhtari, Mohamed. "Amélioration de la prise en compte des aérosols terrigènes dans les modèles atmosphériques à moyenne échelle." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1918/.

Full text
Abstract:
L'objectif de cette thèse est d'améliorer la modélisation numérique des processus liés à l'apparition, au transport et au dépôt des aérosols terrigènes, en l'occurrence les poussières désertiques. La première partie de ce travail a consisté à intégrer une paramétrisation physique globale des émissions de poussières désertiques, plus compatible avec les bases de données ECOCLIMAP et FAO utilisées dans le schéma de surface SURFEX, en prenant en compte la granulométrie et la texture des sols, dans le but d'améliorer la représentation des flux de surface des poussières désertiques dans SURFEX. La deuxième partie a consisté à gérer les processus de transport et de dépôt (sec et humide) dans le modèle atmosphérique ALADIN. Ceci permettra à terme de donner des prévisions plus fiables des concentrations de poussières, leurs propriétés optiques, mais aussi leurs rétroactions sur la prévision météorologique. L'évaluation du système couplé ALADIN-SURFEX sur la situation des 6-13 mars 2006 a montré sa capacité à simuler les épisodes de poussière tant en intensité qu'en extension. Les changements apportés au schéma des émissions de poussière renforcent par ailleurs nettement les émissions dans des régions réputées pour ces phénomènes et bien documentées comme la région de Bodélé. Ils améliorent aussi largement la représentation des épaisseurs optiques observées, par exemple dans les régions d'Ilorin et Mbour. Ce système couplé a été utilisé, ensuite, pour établir une climatologie simulée des émissions et des propriétés optiques des aérosols désertiques pour l'Afrique du Nord. Les simulations ALADIN montrent que cette région est une source majeure d'émissions à l'échelle globale avec en moyenne 878 Mt. An-1 d'aérosols désertiques. La région de Bodélé apparaît dans nos résultats comme la zone la plus émettrice avec en moyenne 2kg. M-2. An-1. Enfin, les résultats obtenus dans l'étude de l'impact des poussières sur la modélisation sont assez satisfaisants dans la mesure où on a obtenu un signal très cohérent, les poussières désertiques n'ayant jusqu'à présent jamais été introduites dans le modèle ALADIN. Cependant, ces résultats, analysés en finesse, montrent quelques défauts de modélisation liés à l'interaction rayonnement/poussière. Ces défauts suggèrent qu'un travail d'analyse supplémentaire, accompagné de tests expérimentaux, reste à faire. Ce travail fait partie des perspectives de cette étude
The goal of this PhD work is to improve the numerical modeling of the processes related to the onset, transport and deposition of ground-originating aerosols, namely desert sand dust. The first part of this work is to integrate a global physical parameterization of dust emissions more compatible with the ECOCLIMAP and FAO databases used in the surface model SURFEX, taking into account the surface soil size distribution and the soil texture, in order to improve the representation of surface fluxes in SURFEX. The second part of this study is devoted to modeling the transport and deposition (wet and dry) in the atmospheric model ALADIN. The aim is to ultimately obtain more reliable predictions of dust concentrations, their optical properties and their feedback on the forecast weather. The evaluation of the coupled system ALADIN-SURFEX on the situation of 6-13th March 2006 demonstrates the ability of this system to simulate dust events both in intensity and extension. The changes proposed in the dust emission model provoke a substantial increase of dust emission in areas that are well known and well documented for these phenomena, like the Bodélé region. They also greatly improve simulated optical thicknesses observed in the areas of Ilorin and Mbour. This coupled system was then used to establish a simulated climatology of emission and optical properties of dust aerosols for North Africa. The ALADIN simulations show that this region is a major source of emissions on a global scale with an average of 878 Mt. Year-1 dust aerosols. The Bodélé region is found to be the area with the highest average emission with about 2 kg. M-2. Year-1. Eventually, the results obtained when studying the impact of dust on the behaviour of the numerical weather prediction model, are found satisfactory in regards of the fact that this is the first time desert dust is introduced in ALADIN. However, these results, when analyzed in more details, show some defects related to the interaction between radiation and dust. These defects suggest that the dust/radiation interaction requires more analysis, along with experimental tests. Such analysis is part of the perspectives of this study
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography