Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Modèle à blocs stochastique.

Дисертації з теми "Modèle à blocs stochastique"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Modèle à blocs stochastique".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

De, santiago Kylliann. "From stratification to prediction : multimodal machine learning with latent block models and mixtures of experts." Electronic Thesis or Diss., université Paris-Saclay, 2025. http://www.theses.fr/2025UPASM001.

Повний текст джерела
Анотація:
Cette thèse explore l'application de méthodes d'apprentissage automatique multimodales pour l'analyse de données médicales, en mettant l'accent sur la stratification des patients et la prédiction de la récupération auditive après un traumatisme sonore aigu. L'étude repose sur des données hétérogènes (audiologiques, génomiques et protéomiques) collectées à différents moments après le traumatisme. L'objectif principal est d'extraire des caractéristiques pertinentes en combinant ces données multimodales, afin de permettre une analyse plus précise du comportement individuel des patients et des tendances globales. Dans un premier temps, les problématiques de l'apprentissage multimodal et les particularités de la fusion des données sont abordées. Ensuite, un modèle de fusion tardive basé sur les modèles à blocs stochastiques est développé. Ce modèle permet de caractériser la redondance et la complémentarité de l'information disponible : (i) en regroupant les différentes sources en composantes, (ii) en maintenant une stratification globale des individus, permettant ainsi la définition de communautés. Par ailleurs, l'utilisation de l'approche bayésienne permet de mettre en œuvre une méthode de sélection de modèle. Enfin, un modèle de fusion intermédiaire est proposé, étendant le cadre des Mixture of Experts en intégrant une modélisation par modèle à blocs latents conditionnels des entrées. L'objectif est de réduire la complexité algorithmique en résumant les variables par composantes, tout en préservant l'interprétabilité et en assurant de bonnes performances de prédiction
This thesis explores the application of multimodal machine learning techniques for the analysis of medical data, with a focus on patient stratification and the prediction of hearing recovery after acute sound trauma. The study relies on heterogeneous data (audiological, genomic, and proteomic) collected at various time points following the trauma. The main objective is to extract relevant features by combining these multimodal data, thus enabling a more accurate analysis of individual patient behavior and global trends. First, the challenges of multimodal learning and the specificities of data fusion are addressed. Next, a late fusion model based on stochastic block models is developed. This model allows the characterization of redundancy and complementarity of the available information by (i) grouping the different sources into components, and (ii) maintaining a global stratification of individuals, thereby defining communities. Moreover, the use of a Bayesian approach enables the implementation of a model selection method. Finally, an intermediate fusion model is proposed, extending the Mixture of Experts framework by incorporating conditional latent block modeling of the inputs. The objective is to reduce algorithmic complexity by summarizing variables into components while preserving interpretability and ensuring good predictive performance
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Tabouy, Timothée. "Impact de l’échantillonnage sur l’inférence de structures dans les réseaux : application aux réseaux d’échanges de graines et à l’écologie." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS289/document.

Повний текст джерела
Анотація:
Dans cette thèse nous nous intéressons à l’étude du modèle à bloc stochastique (SBM) en présence de données manquantes. Nous proposons une classification des données manquantes en deux catégories Missing At Random et Not Missing At Random pour les modèles à variables latentes suivant le modèle décrit par D. Rubin. De plus, nous nous sommes attachés à décrire plusieurs stratégies d’échantillonnages de réseau et leurs lois. L’inférence des modèles de SBM avec données manquantes est faite par l’intermédiaire d’une adaptation de l’algorithme EM : l’EM avec approximation variationnelle. L’identifiabilité de plusieurs des SBM avec données manquantes a pu être démontrée ainsi que la consistance et la normalité asymptotique des estimateurs du maximum de vraisemblance et des estimateurs avec approximation variationnelle dans le cas où chaque dyade (paire de nœuds) est échantillonnée indépendamment et avec même probabilité. Nous nous sommes aussi intéressés aux modèles de SBM avec covariables, à leurs inférence en présence de données manquantes et comment procéder quand les covariables ne sont pas disponibles pour conduire l’inférence. Finalement, toutes nos méthodes ont été implémenté dans un package R disponible sur le CRAN. Une documentation complète sur l’utilisation de ce package a été écrite en complément
In this thesis we are interested in studying the stochastic block model (SBM) in the presence of missing data. We propose a classification of missing data into two categories Missing At Random and Not Missing At Random for latent variable models according to the model described by D. Rubin. In addition, we have focused on describing several network sampling strategies and their distributions. The inference of SBMs with missing data is made through an adaptation of the EM algorithm : the EM with variational approximation. The identifiability of several of the SBM models with missing data has been demonstrated as well as the consistency and asymptotic normality of the maximum likelihood estimators and variational approximation estimators in the case where each dyad (pair of nodes) is sampled independently and with equal probability. We also looked at SBMs with covariates, their inference in the presence of missing data and how to proceed when covariates are not available to conduct the inference. Finally, all our methods were implemented in an R package available on the CRAN. A complete documentation on the use of this package has been written in addition
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Brault, Vincent. "Estimation et sélection de modèle pour le modèle des blocs latents." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112238/document.

Повний текст джерела
Анотація:
Le but de la classification est de partager des ensembles de données en sous-ensembles les plus homogènes possibles, c'est-à-dire que les membres d'une classe doivent plus se ressembler entre eux qu'aux membres des autres classes. Le problème se complique lorsque le statisticien souhaite définir des groupes à la fois sur les individus et sur les variables. Le modèle des blocs latents définit une loi pour chaque croisement de classe d'objets et de classe de variables, et les observations sont supposées indépendantes conditionnellement au choix de ces classes. Toutefois, il est impossible de factoriser la loi jointe des labels empêchant le calcul de la logvraisemblance et l'utilisation de l'algorithme EM. Plusieurs méthodes et critères existent pour retrouver ces partitions, certains fréquentistes, d'autres bayésiens, certains stochastiques, d'autres non. Dans cette thèse, nous avons d'abord proposé des conditions suffisantes pour obtenir l'identifiabilité. Dans un second temps, nous avons étudié deux algorithmes proposés pour contourner le problème de l'algorithme EM : VEM de Govaert et Nadif (2008) et SEM-Gibbs de Keribin, Celeux et Govaert (2010). En particulier, nous avons analysé la combinaison des deux et mis en évidence des raisons pour lesquelles les algorithmes dégénèrent (terme utilisé pour dire qu'ils renvoient des classes vides). En choisissant des lois a priori judicieuses, nous avons ensuite proposé une adaptation bayésienne permettant de limiter ce phénomène. Nous avons notamment utilisé un échantillonneur de Gibbs dont nous proposons un critère d'arrêt basé sur la statistique de Brooks-Gelman (1998). Nous avons également proposé une adaptation de l'algorithme Largest Gaps (Channarond et al. (2012)). En reprenant leurs démonstrations, nous avons démontré que les estimateurs des labels et des paramètres obtenus sont consistants lorsque le nombre de lignes et de colonnes tendent vers l'infini. De plus, nous avons proposé une méthode pour sélectionner le nombre de classes en ligne et en colonne dont l'estimation est également consistante à condition que le nombre de ligne et de colonne soit très grand. Pour estimer le nombre de classes, nous avons étudié le critère ICL (Integrated Completed Likelihood) dont nous avons proposé une forme exacte. Après avoir étudié l'approximation asymptotique, nous avons proposé un critère BIC (Bayesian Information Criterion) puis nous conjecturons que les deux critères sélectionnent les mêmes résultats et que ces estimations seraient consistantes ; conjecture appuyée par des résultats théoriques et empiriques. Enfin, nous avons comparé les différentes combinaisons et proposé une méthodologie pour faire une analyse croisée de données
Classification aims at sharing data sets in homogeneous subsets; the observations in a class are more similar than the observations of other classes. The problem is compounded when the statistician wants to obtain a cross classification on the individuals and the variables. The latent block model uses a law for each crossing object class and class variables, and observations are assumed to be independent conditionally on the choice of these classes. However, factorizing the joint distribution of the labels is impossible, obstructing the calculation of the log-likelihood and the using of the EM algorithm. Several methods and criteria exist to find these partitions, some frequentist ones, some bayesian ones, some stochastic ones... In this thesis, we first proposed sufficient conditions to obtain the identifiability of the model. In a second step, we studied two proposed algorithms to counteract the problem of the EM algorithm: the VEM algorithm (Govaert and Nadif (2008)) and the SEM-Gibbs algorithm (Keribin, Celeux and Govaert (2010)). In particular, we analyzed the combination of both and highlighted why the algorithms degenerate (term used to say that it returns empty classes). By choosing priors wise, we then proposed a Bayesian adaptation to limit this phenomenon. In particular, we used a Gibbs sampler and we proposed a stopping criterion based on the statistics of Brooks-Gelman (1998). We also proposed an adaptation of the Largest Gaps algorithm (Channarond et al. (2012)). By taking their demonstrations, we have shown that the labels and parameters estimators obtained are consistent when the number of rows and columns tend to infinity. Furthermore, we proposed a method to select the number of classes in row and column, the estimation provided is also consistent when the number of row and column is very large. To estimate the number of classes, we studied the ICL criterion (Integrated Completed Likelihood) whose we proposed an exact shape. After studying the asymptotic approximation, we proposed a BIC criterion (Bayesian Information Criterion) and we conjecture that the two criteria select the same results and these estimates are consistent; conjecture supported by theoretical and empirical results. Finally, we compared the different combinations and proposed a methodology for co-clustering
Стилі APA, Harvard, Vancouver, ISO та ін.
4

El, Haj Abir. "Stochastics blockmodels, classifications and applications." Thesis, Poitiers, 2019. http://www.theses.fr/2019POIT2300.

Повний текст джерела
Анотація:
Cette thèse de doctorat porte sur l’analyse de réseaux pondérés, graphes finis où chaque arête est associée à un poids représentant l’intensité de sa force. Nous introduisons une extension du modèle à blocs stochastiques (SBM) binaire, appelée modèle à blocs stochastiques binomial (bSBM). Cette question est motivée par l’étude des réseaux de co-citations dans un contexte de fouille de textes où les données sont représentées par un graphe. Les noeuds sont des mots et chaque arête joignant deux mots est pondérée par le nombre de documents inclus dans le corpus citant simultanément cette paire de mots. Nous développons une méthode d’inférence basée sur l’algorithme espérance maximisation variationnel (EMV) pour estimer les paramètres du modèle proposé ainsi que pour classifier les mots du réseau. Puis nous adoptons une méthode qui repose sur la maximisation d’un critère ICL (en anglais integrated classification likelihood) pour sélectionner le modèle optimal et le nombre de clusters. D’autre part, nous développons une approche variationnelle pour traiter le réseau et nous comparons les deux approches. Des applications à des données réelles sont adoptées pour montrer l’efficacité des deux méthodes ainsi que pour les comparer. Enfin, nous développons un SBM avec plusieurs attributs pour traiter les réseaux ayant des poids associés aux noeuds. Nous motivons cette méthode par une application qui vise au développement d’un outil d’aide à la spécification de différents traitements cognitifs réalisés par le cerveau lors de la préparation à l’écriture
This PhD thesis focuses on the analysis of weighted networks, where each edge is associated to a weight representing its strength. We introduce an extension of the binary stochastic block model (SBM), called binomial stochastic block model (bSBM). This question is motivated by the study of co-citation networks in a context of text mining where data is represented by a graph. Nodes are words and each edge joining two words is weighted by the number of documents included in the corpus simultaneously citing this pair of words. We develop an inference method based on a variational maximization algorithm (VEM) to estimate the parameters of the modelas well as to classify the words of the network. Then, we adopt a method based on maximizing an integrated classification likelihood (ICL) criterion to select the optimal model and the number of clusters. Otherwise, we develop a variational approach to analyze the given network. Then we compare the two approaches. Applications based on real data are adopted to show the effectiveness of the two methods as well as to compare them. Finally, we develop a SBM model with several attributes to deal with node-weighted networks. We motivate this approach by an application that aims at the development of a tool to help the specification of different cognitive treatments performed by the brain during the preparation of the writing
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Fallot, Pierre. "Etude d'un modèle stochastique du rayonnement solaire." Grenoble 1, 1992. http://www.theses.fr/1992GRE10146.

Повний текст джерела
Анотація:
Dans ce travail, nous étudions une modélisation de l'évolution au cours du temps du rayonnement solaire caractérisée par l'alternance entre éclaircies et passages nuageux. La nature des observations fournies par les stations météorologiques nous invite à proposer un modèle stochastique mettant essentiellement en jeu un processus aléatoire binaire, de renouvellement alterné, qui représente la visibilité du disque solaire. En premier lieu, nous effectuons une étude probabiliste du processus des durées de séjour cumulées dans un état, sur des intervalles de temps successifs, associé au processus de base: nous déterminons précisément les lois, les moments et certaines transformées de Laplace. Cette analyse nous permet alors d'estimer les paramètres introduits dans notre modèle. Les techniques d'estimation statistique proposées reposent essentiellement sur la méthode du maximum de vraisemblance et celle des moments et sont améliorées empiriquement à l'aide de simulations. Des résultats de convergence sont alors établis. Le modèle est enfin appliqué à des données réelles d'ensoleillement. Les estimations des paramètres conduisent alors généralement à une adéquation convenable du modèle avec des valeurs déduites des observations réelles
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Lenormand, Maxime. "Initialiser et calibrer un modèle de microsimulation dynamique stochastique : application au modèle SimVillages." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00822114.

Повний текст джерела
Анотація:
Le but de cette thèse est de développer des outils statistiques permettant d'initialiser et de calibrer les modèles de microsimulation dynamique stochastique, en partant de l'exemple du modèle SimVillages (développé dans le cadre du projet Européen PRIMA). Ce modèle couple des dynamiques démographiques et économiques appliquées à une population de municipalités rurales. Chaque individu de la population, représenté explicitement dans un ménage au sein d'une commune, travaille éventuellement dans une autre, et possède sa propre trajectoire de vie. Ainsi, le modèle inclut-il des dynamiques de choix de vie, d'étude, de carrière, d'union, de naissance, de divorce, de migration et de décès. Nous avons développé, implémenté et testé les modèles et méthodes suivants : 1 / un modèle permettant de générer une population synthétique à partir de données agrégées, où chaque individu est membre d'un ménage, vit dans une commune et possède un statut au regard de l'emploi. Cette population synthétique est l'état initial du modèle. 2 / un modèle permettant de simuler une table d'origine-destination des déplacements domicile-travail à partir de données agrégées. 3 / un modèle permettant d'estimer le nombre d'emplois dans les services de proximité dans une commune donnée en fonction de son nombre d'habitants et de son voisinage en termes de service. 4 / une méthode de calibration des paramètres inconnus du modèle SimVillages de manière à satisfaire un ensemble de critères d'erreurs définis sur des sources de données hétérogènes. Cette méthode est fondée sur un nouvel algorithme d'échantillonnage séquentiel de type Approximate Bayesian Computation.
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Rochdi, Youssef. "Identification de systèmes non linéaires blocs." Phd thesis, Université de Caen, 2006. http://tel.archives-ouvertes.fr/tel-00261896.

Повний текст джерела
Анотація:
Cette thèse porte sur le problème d'identification des systèmes non linéaires sur la base des modèles blocs. Deux types de modèles sont considérés ici, ceux de type Hammerstein et ceux de type Wiener. La plupart des solutions antérieures ont été élaborées sous des hypothèses assez contraignantes concernant le sous-système non linéaire du modèle. Celui-ci a souvent été supposé lisse (voire polynomial), inversible et sans mémoire. Les travaux présentés dans cette thèse tentent de repousser ces limites. Dans le cas des systèmes de type Hammerstein, nous élaborons un schéma d'identification qui ne fait aucune hypothèse sur l'élément non linéaire, à l'exception du fait qu'il est sans mémoire et l¥-stable ; ce schéma estime parfaitement (du moins dans la cas idéal) les paramètres du sous-système dynamique linéaire et un nuage de points de la caractéristique de l'élément non linéaire. Ce schéma est ensuite adapté au cas où l'on connaît la structure de l'élément non linéaire ; à ce propos, les non-linéarités statiques affines par morceaux et discontinues jouissent d'une attention particulière. Nous terminons la partie consacrée à l'identification des systèmes de Hammerstein, en abordant le problème des systèmes impliquant un élément non linéaire à mémoire. Deux familles d'éléments de cette nature sont considérées : celle comprenant des éléments hystérétiques non saturés et celle des éléments hystérisis-relais. Le problème est appréhendé à l'aide d'un schéma d'identification dont on établit la consistance en présence de perturbations assimilables à un bruit blanc appliqué en sortie du système.
La dernière partie du mémoire est centrée sur l'identification des systèmes de Wiener, dont l'élément non linéaire n'est pas supposé inversible. A cet effet, nous présentons deux schémas d'identification de type fréquentiel et établissons leur consistance dans les mêmes conditions que précédemment concernant les perturbations. L'exigence d'excitation persistante occupe une place centrale dans cette thèse. Pour procurer cette propriété aux différents schémas d'identifications proposés, il a été fait appel à une famille de signaux d'excitation de type impulsionnelle. Dans ce cadre, un lemme technique est élaboré précisant, pour les systèmes linéaires, le lien entre cette famille de signaux et la propriété d'excitation persistante. L'adaptation de ce lemme au cas des systèmes non linéaires est illustrée dans les différents schémas d'identification.
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Le, Gorrec Luce. "Équilibrage bi-stochastique des matrices pour la détection de structures par blocs et applications." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30136.

Повний текст джерела
Анотація:
La détection de structures par blocs dans les matrices est un enjeu important. D'abord en analyse de données, où les matrices sont classiquement utilisées pour représenter des données, par exemple via les tables de données ou les matrices d'adjacence. Dans le premier cas, la détection d'une structure par blocs de lignes et de colonnes permet de trouver un co-clustering. Dans le second cas, la détection d'une structure par blocs diagonaux dominants fournit un clustering. En outre, la détection d'une structure par blocs est aussi utile pour la résolution de systèmes linéaires car elle permet, notamment, de rendre efficace des préconditionneurs type Block Jacobi, ou de trouver des groupes de lignes fortement décorrélés en vue de l'application d'un solveur type Block Cimmino. Dans cette thèse, nous centrons notre analyse sur la détection de blocs diagonaux dominants par permutations symétriques des lignes et des colonnes. De nombreux algorithmes pour trouver ces structures ont été créés. Parmi eux, les algorithmes spectraux jouent un rôle crucial, et se divisent en deux catégories. La première est composée d'algorithmes qui projettent les lignes de la matrice dans un espace de faible dimension composé des vecteurs propres dominants avant d'appliquer une procédure de type k-means sur les données réduites. Ces algorithmes ont le désavantage de nécessiter la connaissance du nombre de classes à découvrir. La deuxième famille est composée de procédures itératives qui, à chaque itération, cherchent la k-ième meilleure partition en deux blocs. Mais pour les matrices ayant plus de deux blocs, la partition optimale en deux blocs ne coïncide en général pas avec la véritable structure. Nous proposons donc un algorithme spectral répondant aux deux problèmes évoqués ci-dessus. Pour ce faire, nous prétraitons notre matrice via un équilibrage bi-stochastique permettant de stratifier les blocs. D'abord, nous montrons les bénéfices de cet équilibrage sur la détection de structures par blocs en l'utilisant comme prétraitement de l'algorithme de Louvain pour détecter des communautés dans des réseaux. Nous explorons aussi plusieurs mesures globales utilisées pour évaluer la cohérence d'une structure par blocs. En adaptant ces mesures à nos matrices bi-stochastiques, nous remarquons que notre équilibrage tend à unifier ces mesures. Ensuite, nous détaillons notre algorithme basé sur les éléments propres de la matrice équilibrée. Il est construit sur le principe que les vecteurs singuliers dominants d'une matrice bi-stochastique doivent présenter une structure en escalier lorsque l'on réordonne leurs coordonnées dans l'ordre croissant, à condition que la matrice ait une structure par blocs. Des outils de traitement du signal, initialement conçus pour détecter les sauts dans des signaux, sont appliqués aux vecteurs pour en détecter les paliers, et donc les séparations entre les blocs. Cependant, ces outils ne sont pas naturellement adaptés pour cette utilisation. Des procédures, mises en place pour répondre à des problèmes rencontrés, sont donc aussi détaillées. Nous proposons ensuite trois applications de la détection de structures par blocs dans les matrices. D'abord la détection de communautés dans des réseaux, et le préconditionnement de type Block Jacobi de systèmes linéaire. Pour ces applications, nous comparons les résultats de notre algorithme avec ceux d'algorithmes spécifiquement conçus à cet effet. Enfin, la détection des actes de dialogues dans un discours en utilisant la base de données STAC qui consiste en un chat de joueurs des "Colons de Catane" en ligne. Pour ce faire nous couplons des algorithmes de clustering non supervisés avec un réseau de neurones BiLSTM permettant de prétraiter les unités de dialogue. Enfin, nous concluons en entamant une réflexion sur la généralisation de notre méthode au cas des matrices rectangulaires
The detection of block structures in matrices is an important challenge. First in data analysis where matrices are a key tool for data representation, as data tables or adjacency matrices. Indeed, for the first one, finding a co-clustering is equivalent to finding a row and column block structure of the matrix. For the second one, finding a structure of diagonal dominant blocks leads to a clustering of the data. Moreover, block structure detection is also usefull for the resolution of linear systems. For instance, it helps to create efficient Block Jacobi precoditioners or to find groups of rows that are strongly decorrelated in order to apply a solver such as Block Cimmino. In this dissertation, we focus our analysis on the detection of dominant diagonal block structures by symmetrically permuting the rows and columns of matrices. Lots of algorithms have been designed that aim to highlight such structures. Among them, spectral algorithms play a key role. They can be divided into two kinds. The first one consists of algorithms that first project the matrix rows onto a low-dimensional space generated by the matrix leading eigenvectors, and then apply a procedure such as a k-means on the reduced data. Their main drawbacks is that the knowledge of number of clusters to uncover is required. The second kind consists of iterative procedures that look for the k-th best partition into two subblocks of the matrix at step k. However, if the matrix structure shows more than two blocks, the best partition into two blocks may be a poor fit to the matrix groundtruth structure. Hence, we propose a spectral algorithm that deals with both issues described above. To that end, we preprocess the matrix with a doubly-stochastic scaling, which leverages the blocks. First we show the benefits of using such a scaling by using it as a preprocessing for the Louvain's algorithm, in order to uncover community structures in networks. We also investigate several global modularity measures designed for quantifying the consistency of a block structure. We generalise them to make them able to handle doubly-stochastic matrices, and thus we remark that our scaling tends to unify these measures. Then, we describe our algorithm that is based on spectral elements of the scaled matrix. Our method is built on the principle that leading singular vectors of a doubly-stochastic matrix should have a staircase pattern when their coordinates are sorted in the increasing order, under the condition that the matrix shows a hidden block structure. Tools from signal processing-that have been initially designed to detect jumps in signals-are applied to the sorted vectors in order to detect steps in these vectors, and thus to find the separations between the blocks. However, these tools are not specifically designed to this purpose. Hence procedures that we have implemented to answer the encountered issues are also described. We then propose three applications for the matrices block structure detection. First, community detection in networks, and the design of efficient Block Jacobi type preconditioners for solving linear systems. For these applications, we compare the results of our algorithm with those of algorithms that have been designed on purpose. Finally, we deal with the dialogue act detection in a discorsre, using the STAC database that consists in a chat of online players of " The Settlers of Catan ". To that end we connect classical clustering algorithms with a BiLSTM neural network taht preprocesses the dialogue unities. Finally, we conclude by giving some preliminary remarks about the extension of our method to rectangular matrices
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Bonvoisin, Frédéric. "Evaluation de la performance des blocs opératoires : du modèle aux indicateurs." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2011. http://tel.archives-ouvertes.fr/tel-00626150.

Повний текст джерела
Анотація:
Dans leur environnement actuel, les hôpitaux se voient contraints de développer des outils d'évaluation de la performance, et ce principalement dans les secteurs à forte consommation de ressources et à forte valeur ajoutée comme, par exemple, les blocs opératoires. Notre apport est une méthodologie innovante destinée à réduire les lacunes existantes en termes d'évaluation de la performance hospitalière. Cette méthodologie combine une approche pratique avec un outil d'aide à la conception qui vise à générer un système global d'évaluation de la performance utilisable dans les blocs opératoires. Notre méthodologie comporte quatre grandes étapes : détermination de la stratégie et des objectifs, description des processus et identification des inducteurs de performance, définition des plans d'action, établissement des indicateurs de performance et conception des tableaux de bord. Grâce à une approche générique pratique, au respect des étapes de conception et aux outils de développement présentés, cette méthode donne aux gestionnaires de blocs opératoires la capacité de concevoir et de générer un système d'évaluation de la performance (indicateurs, tableaux de bord) qui convient à chaque contexte et répond aux exigences de chaque type d'organisation dans le domaine des soins de santé. Les différentes étapes de cette approche ont été appliquées à un cas réel dans un bloc opératoire de 8 salles. En rendant notre modèle compréhensible et facile à utiliser par les professionnels de la santé, notre collaboration avec les équipes du bloc opératoire et de la direction médicale ont conduit à une réelle appropriation des résultats par l'hôpital.
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Zreik, Rawya. "Analyse statistique des réseaux et applications aux sciences humaines." Thesis, Paris 1, 2016. http://www.theses.fr/2016PA01E061/document.

Повний текст джерела
Анотація:
Depuis les travaux précurseurs de Moreno (1934), l’analyse des réseaux est devenue une discipline forte, qui ne se limite plus à la sociologie et qui est à présent appliquée à des domaines très variés tels que la biologie, la géographie ou l’histoire. L’intérêt croissant pour l’analyse des réseaux s’explique d’une part par la forte présence de ce type de données dans le monde numérique d’aujourd’hui et, d’autre part, par les progrès récents dans la modélisation et le traitement de ces données. En effet, informaticiens et statisticiens ont porté leurs efforts depuis plus d’une dizaine d’années sur ces données de type réseau en proposant des nombreuses techniques permettant leur analyse. Parmi ces techniques on note les méthodes de clustering qui permettent en particulier de découvrir une structure en groupes cachés dans le réseau. De nombreux facteurs peuvent exercer une influence sur la structure d’un réseau ou rendre les analyses plus faciles à comprendre. Parmi ceux-ci, on trouve deux facteurs importants: le facteur du temps, et le contexte du réseau. Le premier implique l’évolution des connexions entre les nœuds au cours du temps. Le contexte du réseau peut alors être caractérisé par différents types d’informations, par exemple des messages texte (courrier électronique, tweets, Facebook, messages, etc.) échangés entre des nœuds, des informations catégoriques sur les nœuds (âge, sexe, passe-temps, Les fréquences d’interaction (par exemple, le nombre de courriels envoyés ou les commentaires affichés), et ainsi de suite. La prise en considération de ces facteurs nous permet de capturer de plus en plus d’informations complexes et cachées à partir des données. L’objectif de ma thèse été de définir des nouveaux modèles de graphes aléatoires qui prennent en compte les deux facteurs mentionnés ci-dessus, afin de développer l’analyse de la structure du réseau et permettre l’extraction de l’information cachée à partir des données. Ces modèles visent à regrouper les sommets d’un réseau en fonction de leurs profils de connexion et structures de réseau, qui sont statiques ou évoluant dynamiquement au cours du temps. Le point de départ de ces travaux est le modèle de bloc stochastique (SBM). Il s’agit d’un modèle de mélange pour les graphiques qui ont été initialement développés en sciences sociales. Il suppose que les sommets d’un réseau sont répartis sur différentes classes, de sorte que la probabilité d’une arête entre deux sommets ne dépend que des classes auxquelles ils appartiennent
Over the last two decades, network structure analysis has experienced rapid growth with its construction and its intervention in many fields, such as: communication networks, financial transaction networks, gene regulatory networks, disease transmission networks, mobile telephone networks. Social networks are now commonly used to represent the interactions between groups of people; for instance, ourselves, our professional colleagues, our friends and family, are often part of online networks, such as Facebook, Twitter, email. In a network, many factors can exert influence or make analyses easier to understand. Among these, we find two important ones: the time factor, and the network context. The former involves the evolution of connections between nodes over time. The network context can then be characterized by different types of information such as text messages (email, tweets, Facebook, posts, etc.) exchanged between nodes, categorical information on the nodes (age, gender, hobbies, status, etc.), interaction frequencies (e.g., number of emails sent or comments posted), and so on. Taking into consideration these factors can lead to the capture of increasingly complex and hidden information from the data. The aim of this thesis is to define new models for graphs which take into consideration the two factors mentioned above, in order to develop the analysis of network structure and allow extraction of the hidden information from the data. These models aim at clustering the vertices of a network depending on their connection profiles and network structures, which are either static or dynamically evolving. The starting point of this work is the stochastic block model, or SBM. This is a mixture model for graphs which was originally developed in social sciences. It assumes that the vertices of a network are spread over different classes, so that the probability of an edge between two vertices only depends on the classes they belong to
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Rakotonasy, Solonjaka Hiarintsoa. "Modèle fractionnaire pour la sous-diffusion : version stochastique et edp." Phd thesis, Université d'Avignon, 2012. http://tel.archives-ouvertes.fr/tel-00839892.

Повний текст джерела
Анотація:
Ce travail a pour but de proposer des outils visant 'a comparer des résultats exp'erimentaux avec des modèles pour la dispersion de traceur en milieu poreux, dans le cadre de la dispersion anormale.Le "Mobile Immobile Model" (MIM) a été à l'origine d'importants progrès dans la description du transport en milieu poreux, surtout dans les milieux naturels. Ce modèle généralise l'quation d'advection-dispersion (ADE) e nsupposant que les particules de fluide, comme de solut'e, peuvent ˆetre immo-bilis'ees (en relation avec la matrice solide) puis relˆachées, le piégeage et le relargage suivant de plus une cin'etique d'ordre un. Récemment, une version stochastique de ce modèle a 'eté proposée. Malgré de nombreux succès pendant plus de trois décades, le MIM reste incapable de repr'esenter l''evolutionde la concentration d'un traceur dans certains milieux poreux insaturés. Eneffet, on observe souvent que la concentration peut d'ecroˆıtre comme unepuissance du temps, en particulier aux grands temps. Ceci est incompatible avec la version originale du MIM. En supposant une cinétique de piégeage-relargage diff'erente, certains auteurs ont propos'e une version fractionnaire,le "fractal MIM" (fMIM). C'est une classe d''equations aux d'eriv'ees par-tielles (e.d.p.) qui ont la particularit'e de contenir un op'erateur int'egral li'e'a la variable temps. Les solutions de cette classe d'e.d.p. se comportentasymptotiquement comme des puissances du temps, comme d'ailleurs cellesde l''equation de Fokker-Planck fractionnaire (FFPE). Notre travail fait partie d'un projet incluant des exp'eriences de tra¸cageet de vélocimétrie par R'esistance Magn'etique Nucl'eaire (RMN) en milieuporeux insatur'e. Comme le MIM, le fMIM fait partie des mod'eles ser-vant 'a interpréter de telles exp'eriences. Sa version "e.d.p." est adapt'eeaux grandeurs mesur'ees lors d'exp'eriences de tra¸cage, mais est peu utile pour la vélocimétrie RMN. En effet, cette technique mesure la statistiquedes d'eplacements des mol'ecules excit'ees, entre deux instants fixés. Plus précisément, elle mesure la fonction caractéristique (transform'ee de Fourier) de ces d'eplacements. Notre travail propose un outil d'analyse pour ces expériences: il s'agit d'une expression exacte de la fonction caract'eristiquedes d'eplacements de la version stochastique du mod'ele fMIM, sans oublier les MIM et FFPE. Ces processus sont obtenus 'a partir du mouvement Brown-ien (plus un terme convectif) par des changement de temps aléatoires. Ondit aussi que ces processus sont des mouvement Browniens, subordonnéspar des changements de temps qui sont eux-mˆeme les inverses de processusde L'evy non d'ecroissants (les subordinateurs). Les subordinateurs associés aux modèles fMIM et FFPE sont des processus stables, les subordinateursassoci'es au MIM sont des processus de Poisson composites. Des résultatsexp'erimenatux tr'es r'ecents on sugg'er'e d''elargir ceci 'a des vols de L'evy (plusg'en'eraux que le mouvement Brownien) subordonnés aussi.Le lien entre les e.d.p. fractionnaires et les mod'eles stochastiques pourla sous-diffusion a fait l'objet de nombreux travaux. Nous contribuons 'ad'etailler ce lien en faisant apparaˆıtre les flux de solut'e, en insistant sur une situation peu 'etudiée: nous examinons le cas o'u la cinétique de piégeage-relargage n'est pas la mˆeme dans tout le milieu. En supposant deux cinétiques diff'erentes dans deux sous-domaines, nous obtenons une version du fMIMavec un opérateur intégro-diff'erentiel li'e au temps, mais dépendant de la position.Ces r'esultats sont obtenus au moyen de raisonnements, et sont illustrés par des simulations utilisant la discrétisation d'intégrales fractionnaires etd'e.d.p. ainsi que la méthode de Monte Carlo. Ces simulations sont en quelque sorte des preuves numériques. Les outils sur lesquels elles s'appuient sont présentés aussi.
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Gozé, Eric. "Modèle stochastique de la pluviométrie au Sahel : application à l'agronomie." Montpellier 2, 1990. http://www.theses.fr/1990MON20250.

Повний текст джерела
Анотація:
Au sahel, il est necessaire d'evaluer correctement les aleas de la production lies a la pluie. L'insuffisance pour l'agronomie de l'approche probabiliste classique, et la difficulte d'en cartographier les resultats, suggerent la construction d'un modele stochastique. Les differentes definitions du sahel et la description de son climat justifient de limiter l'etude au mali et au burkina faso, couvrant une plage de 300 a 1200 mm de pluviometrie moyenne annuelle. Un modele monosite des pluies journalieres au moins egales a 5 mm est propose, ajuste et valide sur un echantillon de stations synoptiques. La succession des jours secs et pluvieux est decrite par un processus de markov d'ordre 1. Les hauteurs de pluies sont independantes entre elles et suivent une loi exponentielle. Pour tenir compte des variations saisonnieres, les parametres sont calcules separement pour chaque mois de l'annee. La generation de pluies aleatoires suivant les equations du modele permet de retrouver les distributions de frequence des longueurs d'episodes secs, et des pluies mesurees a diverses echelles de temps. On retrouve aussi les distributions des resultats de bilans hydriques simules, avec toutefois un leger biais du a l'omission des pluies inferieures a 5 mm. Les parametres du mois d'aout sont ensuite estimes sur un reseau de stations, interpoles statistiquement dans l'espace, et cartographies. Cette approche permet aussi de calculer des bilans hydriques probables conditionnellement a un debut de saison des pluies connu, ce qui peut trouver une application dans la prevision de recolte
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Lamiri, Mehdi. "Planification des blocs opératoires avec prise en compte des aléas." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2007. http://tel.archives-ouvertes.fr/tel-00681375.

Повний текст джерела
Анотація:
Le bloc opératoire constitue l'un des secteurs les plus coûteux et les plus importants dans un établissement hospitalier. Afin, d'utiliser de manière efficace et rationnelle les ressources (humaines et matérielles) disponibles tout en assurant une bonne qualité de service vis-à-vis des patients, la planification du bloc opératoire est devenue l'une des premières préoccupations des établissements hospitaliers. Le problème de planification du bloc opératoire consiste à déterminer pour un horizon de plusieurs jours, l'ensemble d'interventions qui seront réalisées dans chaque salle opératoire. Ce problème a été traité dans la littérature et plusieurs approches de planification ont été proposées. Toutefois, les approches existantes sont essentiellement basées sur des modèles déterministes qui font abstraction de toutes sortes d'aléas. Or, le bloc opératoire est sujet à nombreuses formes d'aléas qui concernent essentiellement la chirurgie d'urgence et les durées d'interventions. À ce titre, l'objectif de notre travail de recherche est de développer des modèles et méthodes pour la planification des activités chirurgicales dans le bloc opératoire tout en tenant compte des aléas importants. Dans le cadre de cette thèse, nous avons proposé des modèles stochastiques qui (i) capturent les éléments essentiels à considérer lors de la planification des activités chirurgicales, (ii) permettent de modéliser de manière explicite différentes formes d'aléas tels que les incertitudes relatives aux durées des interventions et à la chirurgie d'urgence, et (iii) peuvent être facilement étendus pour modéliser d'autres contraintes dues aux pratiques du terrain. Nous avons aussi développé plusieurs approches et méthodes d'optimisation complètes et complémentaires pour la planification stochastique du bloc opératoire. Moyennant des expérimentations numériques, nous avons évalué les performances de ces différentes approches et nous avons montré leurs efficacités. En particulier, nous avons montré que des gains considérables peuvent être réalisés moyennant une modélisation stochastique du problème de planification du bloc opératoire.
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Moukoukou, Arsène. "Existence d'un portefeuille optimal et étude d'un modèle a volatilité stochastique." Rouen, 1999. http://www.theses.fr/1999ROUES010.

Повний текст джерела
Анотація:
La thèse est consacrée à l'étude des problèmes de contrôle stochastique. Le premier chapitre traite du problème de maximisation de l’espérance d'utilité de richesse terminale en marché incomplet. On montre que l'existence d'une solution du problème dual permet de résoudre le problème primal. Dans le deuxième chapitre, on définit un marché complet en présence d'une infinité d'actifs de base, puis on résoud le problème de contrôle considéré. Le dernier chapitre étudie un modèle à volatilité stochastique multidimensionnel, dans le cas markovien.
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Iooss, Bertrand. "Tomographie statistique en sismique réflexion : estimation d'un modèle de vitesse stochastique." ENSMP, 1998. http://www.theses.fr/1998ENMP0827.

Повний текст джерела
Анотація:
Pour permettre la localisation des réservoirs pétroliers et donner une image des interfaces d'un milieu sédimentaire, la sismique réflexion consiste à y propager des ondes et à enregistrer les champs d'onde refléchis. Le problème majeur revient à estimer le champ de vitesse du sous-sol. Ses grandes structures sont retrouvées, grâce aux temps de trajet des ondes, par les méthodes sismiques classiques. Néanmoins, celles-ci négligent des hétérogénéités de dimension plus petite (d'échelle hectométrique) qui ont un impact important sur les temps d'arrivée. Notre travail a pour but de quantifier les effets de cette hétérogénéité et, en la modélisant par un champ aléatoire anisotrope, d'en estimer les paramètres géostatistiques. Une procédure (la tomographie statistique) est développée pour estimer la covariance du champ de vitesse à partir des temps d'arrivée. Elle s'appuie sur l'étude des fluctuations des temps, qui est un domaine de la théorie de la propagation d'onde en milieu aléatoire. Nous l'avons étendue au cas d'une anisotropie géométrique, mieux adaptée aux situations réelles de sismique d'exploration. Sous l’hypothèse de réflecteurs faiblement perturbés, nous avons adapté ces résultats à la géométrie particulière de la sismique réflexion. Nos résultats sont valides sur données synthétiques 2d, simulées via les différences finies sur l’équation d'onde acoustique. Un premier essai sur données réelles prouve aussi la pertinence de cette nouvelle approche, qui permet de quantifier le degré d'hétérogénéité d'un sous-sol.
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Mefti, Nacim. "Mise en oeuvre d'un modèle mécanique de l'adhésion cellulaire : approche stochastique." Thesis, Vandoeuvre-les-Nancy, INPL, 2006. http://www.theses.fr/2006INPL099N/document.

Повний текст джерела
Анотація:
L'adhésion cellulaire est un phénomène important en biologie. Le but de ce travail est le développement d'un modèle mécanique décrivant des phénomènes d'adhésion cellulaire à différentes échelles. La première échelle, microscopique, a pour objet la description des phénomènes cinétiques moléculaires durant le rolling. La seconde échelle, mésoscopique, est relative à la modélisation des déformations actives de la cellule durant la motilité. La troisième échelle, dite macroscopique, concerne la description de l'évolution dans le temps de l'adhésion d'une population de cellules. Les simulations réalisées mettent en évidence le rolling, et la déformation active de la cellule
Cell adhesion is an important phenomenon in biology, especially in the immune defence and tissue growth.We focus in this work on the development of a mechanical model for the description of the cell adhesion in a multiscal context. The first one is microscopic scale, which describes the molecular rupture and adhesion kinetics.At the mesoscopic scale, we model the active deformation of the cell during the motility phenomenon. At the macroscopic scale, we model the time evolution of the adhesion of cell population, under the action of the fluid. Numerical simulations emphasize the rolling phenomenon and the active deformation of a cell
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Hernandez, Freddy. "Fluctuations à l'équilibre d'un modèle stochastique non gradient qui conserve l'énergie." Paris 9, 2010. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=2010PA090029.

Повний текст джерела
Анотація:
En cette thèse nous étudions le champ de fluctuations à l'équilibre de l'énergie d'un modèle non gradient réversible. Nous établissons la convergence en loi vers un processus d'Ornstein-Uhlenbeck généralisé. En adaptant la méthode non gradient introduite par S. R. S Varadhan, nous identifions le terme de diffusion, ce qui nous permet de déduire le principe de Boltzmann-Gibbs. Ceci est le point essentiel pour montrer que les lois fini dimensionnelles du champ de fluctuations, convergent vers les lois fini dimensionnelles d'un processus généralisé d'Ornstein-Uhlenbeck. De plus, en utilisant à nouveau le principe de Boltzmann-Gibbs nous obtenons aussi la tension du champ de fluctuations de l'énergie dans un certain espace de Sobolev, ce qui avec la convergence des lois fini dimensionnelles implique la convergence en loi vers le processus généralisé d'Ornstein-Uhlenbeck (mentionné ci-dessus). Le fait que la quantité conservée n'est soit pas une forme linéaire des coordonnées du système, introduit des difficultés supplémentaires de nature géométrique lors de l'application de la méthode non gradient de Varadhan
In this thesis we study the equilibrium energy fluctuation field of a one-dimensional reversible non gradient model. We prove that the limit fluctuation process is governed by a generalized Ornstein-Uhlenbeck process. By adapting the non gradient method introduced by S. R. S Varadhan, we identify the correct diffusion term, which allows us to derive the Boltzmann-Gibbs principle. This is the key point to show that the energy fluctuation field converges in the sense of finite dimensional distributions to a generalized Ornstein-Uhlenbeck process. Moreover, using again the Boltzmann-Gibbs principle we also prove tightness for the energy fluctuation field in a specified Sobolev space, which together with the finite dimensional convergence implies the convergence in distribution to the generalized Ornstein-Uhlenbeck process mentioned above. The fact that the conserved quantity is not a linear functional of the coordinates of the system, introduces new difficulties of geometric nature in applying Varadhan's non gradient method
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Zhang, Jian. "Advance Surgery Scheduling with Consideration of Downstream Capacity Constraints and Multiple Sources of Uncertainty." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCA023.

Повний текст джерела
Анотація:
Les travaux de ce mémoire portent sur une gestion optimisée des blocs opératoires dans un service chirurgical. Les arrivées des patients chaque semaine, la durée des opérations et les temps de séjour des patients sont considérés comme des paramètres assujettis à des incertitudes. Chaque semaine, le gestionnaire hospitalier doit déterminer les blocs chirurgicaux à mettre en service et leur affecter certaines opérations figurant sur la liste d'attente. L'objectif est la minimisation d'une part des coûts liés à la réalisation et au report des opérations, et d'autre part des coûts hospitaliers liés aux ressources chirurgicaux. Lorsque nous considérons que les modèles de programmations mathématiques couramment utilisés dans la littérature n'optimisent pas la performance à long terme des programmes chirurgicaux, nous proposons un nouveau modèle d'optimisation à deux phases combinant le processus de décision Markovien (MDP) et la programmation stochastique. Le MDP de la première phase détermine les opérations à effectuer chaque semaine et minimise les coûts totaux sur un horizon infini. La programmation stochastique de la deuxième phase optimise les affectations des opérations sélectionnées dans les blocs chirurgicaux. Afin de résoudre la complexité des problèmes de grande taille, nous développons un algorithme de programmation dynamique approximatif basé sur l'apprentissage par renforcement et plusieurs autres heuristiques basés sur la génération de colonnes. Nous développons des applications numériques afin d'évaluer le modèle et les algorithmes proposés. Les résultats expérimentaux indiquent que ces algorithmes sont considérablement plus efficaces que les algorithmes traditionnels. Les programmes chirurgicaux du modèle d’optimisation à deux phases sont plus performants de manière significative que ceux d’un modèle de programmation stochastique classique en termes de temps d’attente des patients et de coûts totaux sur le long terme
This thesis deals with the advance scheduling of elective surgeries in an operating theatre that is composed of operating rooms and downstream recovery units. The arrivals of new patients in each week, the duration of each surgery, and the length-of-stay of each patient in the downstream recovery unit are subject to uncertainty. In each week, the surgery planner should determine the surgical blocks to open and assign some of the surgeries in the waiting list to the open surgical blocks. The objective is to minimize the patient-related costs incurred by performing and postponing surgeries as well as the hospital-related costs caused by the utilization of surgical resources. Considering that the pure mathematical programming models commonly used in literature do not optimize the long-term performance of the surgery schedules, we propose a novel two-phase optimization model that combines Markov decision process (MDP) and stochastic programming to overcome this drawback. The MDP model in the first phase determines the surgeries to be performed in each week and minimizes the expected total costs over an infinite horizon, then the stochastic programming model in the second phase optimizes the assignments of the selected surgeries to surgical blocks. In order to cope with the huge complexity of realistically sized problems, we develop a reinforcement-learning-based approximate dynamic programming algorithm and several column-generation-based heuristic algorithms as the solution approaches. We conduct numerical experiments to evaluate the model and algorithms proposed in this thesis. The experimental results indicate that the proposed algorithms are considerably more efficient than the traditional ones, and that the resulting schedules of the two-phase optimization model significantly outperform those of a conventional stochastic programming model in terms of the patients' waiting times and the total costs on the long run
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Lepine, Paul. "Recalage stochastique robuste d'un modèle d'aube de turbine composite à matrice céramique." Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCD051/document.

Повний текст джерела
Анотація:
Les travaux de la présente thèse portent sur le recalage de modèles dynamiques d’aubes de turbinecomposites à matrice céramique. Ils s’inscrivent dans le cadre de la quantification d’incertitudes pour la validation de modèles et ont pour objectif de fournir des outils d’aide à la décision pour les ingénieurs desbureaux d’études. En effet, la dispersion importante observée lors des campagnes expérimentales invalidel’utilisation des méthodes de recalage déterministe. Après un état de l’art sur la relation entre les incertitudeset la physique, l’approche de Vérification & Validation a été introduite comme approche permettantd’assurer la crédibilité des modèles numériques. Puis, deux méthodes de recalages stochastiques, permettantde déterminer la distribution statistique des paramètres, ont été comparées sur un cas académique. La priseen compte des incertitudes n’élude pas les potentielles compensations entre paramètres. Par conséquent, desindicateurs ont été développés afin de détecter la présence de ces phénomènes perturbateurs. Ensuite, lathéorie info-gap a été employée en tant que moyen de modéliser ces méconnaissances. Une méthode derecalage stochastique robuste a ainsi été proposée, assurant un compromis entre la fidélité du modèle auxessais et la robustesse aux méconnaissances. Ces outils ont par la suite été appliqués sur un modèle éléments
This work is focused on the stochastic updating of ceramic matrix composite turbine blade model. They arepart of the uncertainty quantification framework for model validation. The aim is to enhance the existing toolused by the industrial decision makers. Indeed, consequent dispersion was measured during the experimentalcampaigns preventing the use of deterministic approaches. The first part of this thesis is dedicated to therelationship between mechanical science and uncertainty. Thus, Verification and Validation was introduced asthe processes by which credibility in numerical models is established. Then two stochastic updatingtechniques, able to handle statistic distribution, were compared through an academic example. Nevertheless,taking into account uncertainties doesn’t remove potential compensating effects between parameters.Therefore, criteria were developed in order to detect these disturbing phenomena. Info-gap theory wasemployed as a mean to model these lack of knowledge. Paired with the stochastic updating method, a robuststochasticapproach has been proposed. Results demonstrate a trade-off relationship between the model’sfidelity and robustness. The developed tools were applied on a ceramic matrix composite turbine blade finiteelement model
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Kamla, Vivient Corneille. "Un modèle stochastique pour la propagation du VIH/SIDAUne approche individuelle-centrée." Pau, 2008. http://www.theses.fr/2008PAUU3017.

Повний текст джерела
Анотація:
Le but de cette thèse est de mettre en place un modèle informatique de simulation stochastique et individucentré qui simule la dynamique démo-épidémiologique du VIH/SIDA dans une population hétérosexuelle à régime matrimoniale polygamique incluant des prostituées et leurs clients. Chaque individu admet un certain nombre de propriétés qui donnent à tout instant des renseignements sur son comportement sexuel et son infectivité, sa fécondabilité ou qui permettent de l’identifier. Ce modèle se veut beaucoup plus réaliste que les modèles existants et intégre des paramètres démographiques et épidémiologiques qui peuvent avoir un effet sur la dynamique démo-épidémiologique. Son côté individu-centré donne la possibilité d’introduire de l’hétérogénéité sur chaque propriété individuelle et en plus facilite son extension. La durée de l’abstinence sexuelle et des liaisons de longue durée ont un faible effet sur la propagation de la maladie. La probabilité de transmission maximale à la fin de la séroconversion et le nombre mensuel de visites d’un client chez les prostituée ont un effet important sur la propagation. Le modèle montre par exemple que si chaque client visite en moyenne une prostituée par mois alors les taux de transmission sont insuffisants pour que l’épidémie soit généralisée. Si ce nombre passe à 2 visites par mois alors au moins 80% de prostituées, 40% de clients et 14% des adultes deviennent infectés. Avec une probabilité de transmission maximale égale à 0. 018 l’épidémie disparaît même avec 2 visites de clients par mois. Nos résultats montrent l’importance des prostituées et de la probabilité de transmission du VIH/SIDA par voie hétérosexuelle
The purpose of this work is to develop an individual-based model of the population dynamics of HIV/AIDS in a heterosexual population that includes polygamous and clients-sex worker relationships. Each individual has a certain number of attributes concerning his/her sexual behaviour, infectivity, and fertility. The model attempts to be more realistic than existing models by incorporating a number of relevant demoepidemiologic parameters. The model incorporates various forms of heterogeneity and can easily be extended. The duration between partnerships and the duration of long-term partnerships have a small effect on the spread of the disease. The peak probability of transmission during the early high infectivity period and the monthly number of prostitute visits have a large effect on the spread. If each client visits one prostitute per month the disease cannot spread. If this number doubles to two, then 80% of prostitutes, 40% of clients, and 14% of the population at large become infected. With a maximum probability of transmission of 0. 018, the disease disappears, even with two visits per month. Our work highlights the importance of the probability of transmission and of the client-sex worker relationship
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Hadida, Jonathan. "Modèle stochastique de compensation du mouvement cardiaque lors d'interventions percutanées des artères coronaires." Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/955/1/HADIDA_Jonathan.pdf.

Повний текст джерела
Анотація:
Une méthode stochastique de compensation du mouvement 3D des artères coronaires à partir d’une séquence angiographique sous un seul angle de vue est présentée. La ligne centrale 3D des artères coronaires est segmentée sur un examen tomodensitométrique (MSCT) préopératoire, puis déformée de manière non-rigide à l’aide d’un modèle de déformation comportant peu de paramètres. Les images angiographiques sont également segmentées à l’aide d’un filtre vasculaire multi-échelle, seuillées, puis amincies de manière à obtenir des images binaires 2D de la ligne centrale des artères coronaires à chaque instant. Un modèle génératif est ensuite introduit pour modéliser le processus qui résulte en l’observation des images angiographiques de la séquence comme un processus de Markov caché. Ce dernier est utilisé conjointement avec un filtre de particules pour contraindre l’évolution temporelle des paramètres de déformation au cours de la séquence. Ces contraintes sont basées sur des scores de similarité cosinus impliquant une transformation de distance sur les images binaires de la ligne centrale des artères coronaires. Le recalage 3D est exécuté de manière itérative et projective. La validation est tout d’abord effectuée au travers d’un ensemble de simulations utilisant des lignes centrales 3D réelles des artères coronaires, puis finalement avec une ligne centrale 3D et la séquence angiographique associée.
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Raguin, Adélaïde. "Trafic régulé par les jonctions : un modèle stochastique motivé par le transport cytosquelettique." Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20190/document.

Повний текст джерела
Анотація:
La modélisation du transport cytosquelettique contribue d'une part à la compréhension de phénomènes biologiques complexes associés à des fonctionnalités cellulaires vitales.D'autre part, cette approche adresse de nouvelles réflexions en physique fondamentale du transport dirigé d'un gaz de particules, en interactions de volume exclu, et hors équilibre thermodynamique.L'étude proposée est basée sur le modèle Totally Asymmetric Simple Exclusion Process (TASEP), traité en champ moyen, et dont les résultats sont comparés à des simulations de type Monte Carlo.En considérant que le transport sur l'ensemble du réseau cytosquelettique peut être régulé aux jonctions, on se focalise sur des motifs architecturaux simples, autour d'une jonction, à laquelle on s'intéresse à la régulation du transport par des effets cinétiques et topologiques.Ainsi, on construit une méthodologie de calcul analytique et numérique, motivée par des configurations de transport observées expérimentalement.L'analyse des caractéristiques cinétiques et topologiques aux croisements des filaments du cytosquelette, pour des situations de transport pourtant très différentes, conduit à formuler les mêmes modèles génériques.Notre travail apporte également un éclairage sur l'effet des moyennes sur les protofilaments au croisement de deux microtubules, qui est inhérent aux limites de résolution de l'imagerie expérimentale actuelle.La double approche, analytique et numérique, sur des modèles génériques ouvre de nombreuses perspectives, nous disposons notamment de tous les outils pour aborder le transport à un croisement plus réaliste de deux microtubules, en prenant en compte la connectivité à la jonction des treize protofilaments typiques, et la cinétique particulière des protéines motrices sur chacun d'eux
Cytoskeletal transport modeling contributes to the understanding of complex biological phenomena that are associated to vital cell functions.In addition, this approach addresses new questions in fundamental physics related to the transport of a gas of particles, interacting by excluded volume, and out of equilibrium transport.The study is based on the Totally Asymmetric Simple Exclusion Process (TASEP) model, treated in a mean field approach, and the results are compared to Monte Carlo simulations.Considering that the transport on the whole network can be regulated at junctions, we focus on simple patterns with one junction, and we investigate the regulation of transport due to the local kinetics and topology.We build up an analytical and numerical methodology of calculation motivated by experimentally observed structures.The analysis of kinetic and topological characteristics at the crossings of filaments, even in very distinct situations, can lead to the same generic models.Our work also provides insights into the effects of averaging on protofilaments at crossing microtubules, as it is inherent to current imaging experiments.The double approach, analytical and numerical, on generic models, opens many prospects.Notably, we have at our disposal the tools to investigate transport through a more realistic crossing of two typical microtubules with thirteen protofilaments each, and to deal with the particular kinetics of motor proteins on these filaments
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Adioui, M'Barek. "Modélisation et Etude Mathématique et Informatique de comportements Collectifs : alignement dans un banc de poissons." Paris 7, 2004. http://www.theses.fr/2004PA077003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Moarefvand, Parviz. "Méthode des éléments distincts stochastique." Vandoeuvre-les-Nancy, INPL, 1998. http://www.theses.fr/1998INPL047N.

Повний текст джерела
Анотація:
Nous avons développé la méthode des éléments distincts de façon à ce qu'elle puisse tenir compte de données présentées sous forme probabiliste et fournir des résultats sous cette même forme. Nous avons donné le nom de méthode des éléments distincts stochastique à cette nouvelle méthode de modélisation numérique. Le développement s'est appuyé sur le code de calcul Udec et le nouveau code s'appelle Pudec pour probabilistic universal distinct element code. L'idée à l'origine de ce travail est l'utilisation de plus en plus fréquente de méthodes probabilistes dans le calcul d'ouvrages en génie civil, alors qu'elles sont encore assez peu, voire pas du tout, utilisées dans les calculs de stabilité de massifs rocheux fractures. Dans ce domaine, la variabilité des données, en plus de l'incertitude sur les mesures, sont des raisons pour lesquelles il apparait nécessaire d'adapter les codes de calcul utilisés à des approches probabilistes. Nous faisons d'abord un rappel des bases théoriques relatives à la notion de probabilité et aux fonctions de variables aléatoires ainsi qu'un exposé des techniques d'approximation. Nous exposons ensuite brièvement des méthodes stochastiques actuelles dont l'analyse de fiabilité et les méthodes des éléments finis stochastiques avant de présenter les principes du code Udec origine et le choix retenu pour y implanter des calculs probabilistes. Les modifications apportées au code Udec et le développement du nouveau code Pudec sont l'objet de la suite du mémoire. Nous consacrons notamment un chapitre à la validation du nouveau code au moyen de tests élémentaires qui illustrent l'intérêt et la performance de la méthode des éléments distincts stochastique et nous présentons un problème minier analyse au moyen de cette méthode.
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Moumouni, Kairou. "Etude et conception d'un modèle mixte semiparamétrique stochastique pour l'analyse des données longitudinales environnementales." Phd thesis, Université Rennes 2, 2005. http://tel.archives-ouvertes.fr/tel-00012164.

Повний текст джерела
Анотація:
Cette thèse porte sur la recherche d'un modèle statistique adapté à l'analyse de données longitudinales rencontrées dans le domaine environnemental. L'approche générale est basée sur le modèle linéaire mixte stochastique. Nous proposons une extension de ce modèle par l'utilisation des techniques sémiparamétriques, en particulier les splines cubiques pénalisées. Des méthodes d'estimation adaptées au modèle mixte sémiparamétrique stochastique sont proposées. Des simulations sont ensuite effectuées pour l'évaluation des performances des estimateurs construits.
Dans une deuxième partie, une extension de la méthode d'influence locale de Cook au modèle mixte modifié est proposée, elle fournit une analyse de sensibilité permettant de détecter les effets de certaines perturbations sur les composantes structurelles du modèle. Quelques propriétés asymptotiques de la matrice d'influence locale sont exhibées.
Enfin, le modèle proposé est appliqué à deux jeux de données réelles : une analyse des données de concentrations de nitrates issues de différentes stations de mesures d'un bassin versant, puis une analyse de la pollution bactériologiques d'eaux de baignades.
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Cloutier, Jean. "Estimation bayesienne d'un modèle de volatilité stochastique et application au risque de taux d'intérêt." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28521/28521.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Moumouni, Kairou. "Etude et conception d'un modèle mixte sémiparamétrique stochastique pour l'analyse des données longitudinales environnementales." Rennes 2, 2005. http://www.theses.fr/2005REN20052.

Повний текст джерела
Анотація:
Cette thèse porte sur la recherche d'un modèle statistique adapté à l'analyse de données longitudinales rencontrées dans le domaine environnemental. L'approche générale est basée sur le modèle linéaire mixte stochastique. Nous proposons une extension de ce modèle par l'utilisation des techniques sémiparamétriques, en particulier les splines cubiques pénalisées. Des méthodes d'estimation adaptées au modèle mixte sémiparamétrique stochastique sont proposées. Des simulations sont ensuite effectuées pour l'évaluation des performances des estimateurs construits. Dans une deuxième partie, une extension de la méthode d'influence locale de Cook au modèle mixte modifié est proposée, elle fournit une analyse de sensibilité permettant de détecter les effets de certaines perturbations sur les composantes structurelles du modèle. Quelques propriétés asymptotiques de la matrice d'influence locale sont exhibées. Enfin, le modèle proposé est appliqué à deux jeux de données réelles : une analyse des données de concentrations de nitrates issues de différentes stations de mesures d'un bassin versant, puis une analyse de la pollution bactériologiques d'eaux de baignades
This thesis is dealing with the analysis of longitudinal data that can be encountered in environmental studies. The general approach is based on the stochastic linear mixed model, that we extend using semiparametric techniques, such as penalized cubic splines. First, estimation methods are developed for the semiparametric stochastic mixed model, and then a simulation study is performed to measure the performances of the parameter estimates. In a second part, we propose an extension of the Cook's local influence method, in order to produce a sensibility analysis of our model and detect the effect of the perturbation of the structural components of the model. Some asymptotic properties of the local influence matrix are exhibited. Finally, the proposed model is applied to two real datasets : first, the analysis of nitrate concentration measurements in different locations of a watershed ; second, the analysis of bacteriological pollution of coastal bathing waters
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Famy, Carine. "Les termes d'échange entre blocs et fractures dans les simulateurs de réservoirs fracturés." Phd thesis, Toulouse, INPT, 2006. http://oatao.univ-toulouse.fr/7573/1/famy.pdf.

Повний текст джерела
Анотація:
La modélisation des écoulements en réservoir fracturé s’appuie généralement sur une représentation dite double-milieu. La fiabilité du calcul des transferts matrice-fissure est alors essentielle pour les prévisions de production. A l’échelle de la maille d’un simulateur double-milieu, ces transferts sont formulés en supposant un écoulement pseudo-permanent entre un bloc matriciel représentatif, non discrétisé, d’une part, et le réseau de fissures limitrophes homogénéisé d’autre part. Si elle peut suffire à estimer les échanges monophasiques, une telle formulation se révèle par contre inadaptée à la prévision des mécanismes de production polyphasiques. Cette thèse revisite une méthode de sous-maillage des blocs matriciels et l’optimise en vue de la rendre opérationnelle et intégrable aux simulateurs double-milieu tels qu’utilisés à ce jour par l’industrie pétrolière. Sur le plan théorique, un modèle mixte a été construit en couplant le modèle d’écoulement de fracture à grande échelle à un modèle d’écoulement à l’échelle locale du bloc matriciel désormais discrétisé et non plus comme un simple terme-source. Sur le plan pratique, la mise en œuvre de ce modèle mixte a comporté trois étapes principales, (a) la définition d’une méthode générale de discrétisation du bloc matrice réalisant le meilleur compromis entre caractère prédictif et coût de calcul, (b) la transcription numérique du couplage entre d’une part, le modèle double-milieu tel qu’utilisé actuellement et d’autre part, un modèle d’écoulement diphasique au sein du bloc matriciel maillé, (c) la validation des formules de couplage et des méthodes de résolution pour divers cas d’application qui mettent également en évidence l’impact de certaines hypothèses de travail. Le modèle mixte proposé offre de réelles et décisives perspectives d’amélioration des simulateurs double milieu de l’industrie.
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Michelot, Christophe. "Développement d'un modèle stochastique lagrangien : application à la dispersion et à la chimie de l'atmosphère." Ecully, Ecole centrale de Lyon, 1996. http://bibli.ec-lyon.fr/exl-doc/TH_T1685_cmichelot.pdf.

Повний текст джерела
Анотація:
L'objectif de ce travail est de construire un modèle stochastique lagrangien de suivi de particules prenant en compte les reactions chimiques entre les constituants présents dans 1'ecoulement considère. Une présentation succincte de différents modèles cinématiques existants fait l'objet du premier chapitre. La complexité des réactions chimiques atmosphériques est mise en evidence avec l'exemple de celles concernant les oxydes d'azote. L'approche lagrangienne est ici choisie parce qu'elle semble plus appropriee que l'approche eulerienne aux phénomènes locaux que sont la diffusion moléculaire et les reactions chimiques. La modélisation de la convection en turbulence isotrope par des modèles stochastiques lagrangiens s'appuyant sur une équation de Langevin est présentée dans le second chapitre. Afin d'etablir le lien entre les formulations lagrangienne et eulerienne, l'équation de Fokker-Planck déduite du modèle à une particule et une échelle de temps sera établie. Ce modèle est appliqué au cas d'une source linéique de température placée dans une turbulence de grille. La validation est obtenue par la comparaison des résultats numériques à des données expérimentales. Le troisième chapitre commence par un résumé des différentes extensions du modèle stochastique à une particule et une échelle de temps aux écoulements turbulents inhomogènes. Le modèle de Thomson (1987) sera retenu car il apparaîtra comme le plus rigoureux moyennant les hypothèses faites. De nombreux cas de rejets non réactifs en turbulence inhomogène sont simules, ce qui permettra de mesurer l'influence de divers paramètres sur les résultats numériques. Ce chapitre se terminera par la présentation d'un nouveau modele prenant en compte les effets de flottabilité; il sera ici appliqué au cas d'une source au sol placée dans une couche limite neutre. Le dernier chapitre est consacré aux écoulements réactifs. L'approche lagrangienne à une particule a nécessité l'utilisation d'un modèle de mélange au niveau des particules suivies. La condition que le nouveau modèle doit satisfaire pour que la densité de probabilité de la concentration relaxe vers une gaussienne en turbulence isotrope, conformément aux observations expérimentales, est établie. Le nouveau modèle à une particule et une echelle de temps prenant en compte les processus de mélange est appliqué à différents cas expérimentaux de mélange entre espèces réactantes en turbulence de grille, à savoir: une couche de mélange réactive entre ozone et monoxyde d'azote; une source linéique de monoxyde d'azote dans un écoulement principal d'ozone; une source ponctuelle de monoxyde d'azote dans un écoulement principal d'ozone
The aim of this work is to build a stochastic Lagrangian model of particles tracking which takes into account chemical reactions between the different species encountered in the flow. The first chapter briefly deals with different kinematic existing models. The complexity of atmos¬pheric chemical reactions is then highlighted through the example of nitrogen oxides ones. Lagrangian approach is chosen to consider reacting flows, as it seems more appropriate than Eulerian approach to local phenomena such as diffusion and chemical reactions. The modeling of the convection in isotropic turbulence by stochastic Lagrangian models based on a Langevin equation is presented in the second chapter. In order to establish the link between Lagrangian and Eulerian formulations, the Fokker-Planck equation deduced from the one particle one time scale stochastic model is determined. This model is applied to the case of a temperature source line seeding a grid generated turbulence. The validation is performed by comparisons of the numerical results to experimental data. The third chapter begins with a summary of the different extensions of the one particle one time scale stochastic model to inhomogeneous turbulent flows. The model of Thomson (1987) will be retained as it appears to be the more rigorous relatively to the hypothesis. Many types of rejections in inhomogeneous turbulence are simulated, which will allow to check the influence of different parameters on numerical results. To end with this chapter, a model including buoyancy effects is presented and tested in the case of a ground level source in a neutral boundary layer. The last chapter is devoted to reacting flows. The one particle Lagrangian approach has needed the use of a mixing model within the tracked particles. Starting from a more general formulation than the diffusion model of Hsu h Chen (1991), the condition it has to satisfy for the concentration probability density function to relax towards a Gaussian shape in isotropic turbulence is established. The new one particle one time scale stochastic model including mixing process is successfully applied to different cases of reacting species mixing experiments in grid generated turbulence which are: a turbulent mixing layer between ozone and nitrogen monoxide; a line source of nitrogen monoxide in a main flow of ozone; a point source of nitrogen monoxide in a main flow of ozone
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Verscheure, Marius. "Inversion conjointe des propriétés géométriques et hydrauliques d'un modèle stochastique de réservoirs faillés et fracturés." Phd thesis, Paris, ENMP, 2010. https://pastel.hal.science/pastel-00657721.

Повний текст джерела
Анотація:
Les réservoirs fracturés occupent une part importante de la production du pétrole dans le monde (Moyen Orient, golfe du Mexique, etc. ). Un facteur clé de la récupération du pétrole dans un réservoir fracturé est la compréhension de la géométrie et de la conductivité hydraulique du réseau formé par les fractures. Cette compréhension nécessite la construction d'un modèle de réservoir intégrant l'ensemble des connaissances conceptuelles et des données disponibles sur le terrain. La thèse de Sandra Jenni soutenue en janvier 2005, a permis de poser les bases d'une méthodologie permettant d'intégrer à la fois les données statiques et les données dynamiques dans un modèle de fractures. Le présent sujet de thèse constitue donc une suite naturelle des travaux de thèse de Sandra Jenni. Il a permis d'établir une nouvelle approche de génération des réseaux de failles subsismiques se basant sur une caractérisation fractale de la géométrie des réseaux de failles identifiés à partir de données sismiques ou des affleurements. Le réseau de failles obtenu peut alors être déformé de manière à caractériser l'influence des propriétés géométriques et hydrauliques des failles sur le comportement hydrodynamique du modèle de réservoir fracturé. Cette propriété permet d'effectuer le calage à l'historique de production: les positions et les propriétés hydrauliques des failles incertaines sont modifiées par un algorithme d'optimisation, permettant de réduire l'écart avec les données dynamiques observées. La cohérence géologique du modèle de failles est préservée. La mise en œuvre des différentes étapes de l'approche proposée est illustrée par différentes applications sur réservoirs synthétiques inspirés de réservoirs exploités
Fractured reservoirs are an important part of the oil reserves in the world (Middle East, Gulf of Mexico, etc. ). A key point in hydrocarbon recovery in fractured reservoir is to understand the geometry and hydraulic conductivity of the network formed by the fractures. This requires the construction of a reservoir model that integrates all available conceptual knowledge and quantitative data. Through the thesis of Sandra Jenni defended in January 2005, a methodology able to integrate both static and dynamic data has been proposed. The topic of the present thesis is the continuation of the previously described work. First, the geometry of the seismic fault network is characterized using fractal methods and subseismic faults are generated using a stochastic algorithm. The geometry of this discrete fracture network can be modified in order to modify the hydrodynamic behaviour of the reservoir model. An optimization algorithm is used to modify the susbseismic fault positions, leading to the history matching of the reservoir model. Fractal properties are preserved during the deformation process. These different steps are demonstrated on realistic synthetic cases
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Verscheure, Marius. "Inversion conjointe des propriétés géométriques et hydrauliques d'un modèle stochastique de réservoirs faillés et fracturés." Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00657721.

Повний текст джерела
Анотація:
Les réservoirs fracturés occupent une part importante de la production du pétrole dans le monde (Moyen Orient, golfe du Mexique, etc.). Un facteur clé de la récupération du pétrole dans un réservoir fracturé est la compréhension de la géométrie et de la conductivité hydraulique du réseau formé par les fractures. Cette compréhension nécessite la construction d'un modèle de réservoir intégrant l'ensemble des connaissances conceptuelles et des données disponibles sur le terrain. La thèse de Sandra Jenni soutenue en janvier 2005, a permis de poser les bases d'une méthodologie permettant d'intégrer à la fois les données statiques et les données dynamiques dans un modèle de fractures. Le présent sujet de thèse constitue donc une suite naturelle des travaux de thèse de Sandra Jenni. Il a permis d'établir une nouvelle approche de génération des réseaux de failles subsismiques se basant sur une caractérisation fractale de la géométrie des réseaux de failles identifiés à partir de données sismiques ou des affleurements. Le réseau de failles obtenu peut alors être déformé de manière à caractériser l'influence des propriétés géométriques et hydrauliques des failles sur le comportement hydrodynamique du modèle de réservoir fracturé. Cette propriété permet d'effectuer le calage à l'historique de production: les positions et les propriétés hydrauliques des failles incertaines sont modifiées par un algorithme d'optimisation, permettant de réduire l'écart avec les données dynamiques observées. La cohérence géologique du modèle de failles est préservée. La mise en œuvre des différentes étapes de l'approche proposée est illustrée par différentes applications sur réservoirs synthétiques inspirés de réservoirs exploités.
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Ould, Aly Sidi Mohamed. "Modélisation de la courbe de variance et modèles à volatilité stochastique." Phd thesis, Université Paris-Est, 2011. http://tel.archives-ouvertes.fr/tel-00604530.

Повний текст джерела
Анотація:
La première partie de cette thèse est consacrée aux problématiques liées à la modélisation markovienne de la courbe de variance forward. Elle est divisée en 3 chapitres. Dans le premier chapitre, nous présentons le cadre général de la modélisation de type HJM-Markov pour la courbe de variance forward. Nous revisitons le cadre affine-markovien modélisation et nous l'illustrons par l'exemple du modèle de Bühler. Dans le deuxième chapitre, nous proposons un nouveau modèle pour la courbe de variance forward qui combine les caractéristiques des deux versions (continue et discrète) du modèle de Bergomi 2008, sans se réduire ni à l'une ni à l'autre. Un des avantages de ce modèle est que les prix des futures et options sur VIX peuvent être exprimés comme des espérances de fonctions déterministes d'une variable aléatoire gaussienne, ce qui réduit le problème de la calibration à l'inversion de certaines fonctions monotones. Dans le troisième chapitre, on propose une méthode d'approximation pour les prix d'options européennes dans des modèles à volatilité stochastique de type multi-factoriels lognormal (comprenant le modèle présenté dans le deuxième chapitre, les modèles de Bergomi et le modèle de Scot 1987). Nous obtenons un développement d'ordre 3 de la densité du sous-jacent par rapport au paramètre de la volatilité de la volatilité. Nous présentons aussi une méthode de réduction de variance de type "variable de contrôle" pour la simulation par la méthode de Monte-Carlo qui utilise l'approximation explicite que nous obtenons de la fonction de répartition de la loi du sous-jacent. La deuxième partie de cette thèse est consacrée à l'étude des propriétés de monotonie des prix d'options européennes par rapport aux paramètres du CIR dans le modèle de Heston. Elle est divisée en deux chapitres. Dans le premier chapitre (cf. chapitre 4), nous donnons quelques résultats généraux sur le processus CIR. Nous montrons d'abord que les queues de distribution d'une combinaison du CIR et de sa moyenne arithmétique se comportent comme des exponentielles. Nous étudions ensuite les dérivées de la solution de ce processus par rapport aux paramètres de sa dynamique. Ces dérivées sont données comme solutions d'équations différentielles stochastiques, qu'on résout pour obtenir des représentations de ces dérivées en fonction des trajectoires du CIR. Le chapitre 5 est consacré à l'étude de la monotonie du prix d'un Put européen par rapport aux paramètres du CIR et à la corrélation dans le modèle de Heston. Nous montrons que, sous certaines conditions, les prix d'options européennes sont monotones par rapport aux paramètres du drift du CIR. Nous montrons ensuite que le paramètre de la volatilité de la volatilité joue le rôle de la volatilité si on prend la variance réalisée comme sous-jacent. En particulier, les prix d'options convexes sur la variance réalisée sont strictement croissants par rapport à la volatilité de la volatilité. Enfin, nous étudions la monotonie du prix du Put européen par rapport à la corrélation. Nous montrons que le prix du put du Put est croissant par rapport à la corrélation pour les petites valeurs du Spot et décroissant pour les grandes valeurs. Nous étudions ensuite les points de changement de monotonie pour les courtes et longues maturités
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Bouayed, Mohamed Amine. "Modélisation stochastique par éléments finis en géomécanique." Vandoeuvre-les-Nancy, INPL, 1997. http://www.theses.fr/1997INPL087N.

Повний текст джерела
Анотація:
Ce travail porte sur l'application de la méthode des éléments finis stochastiques aux problèmes géomécaniques et sur l'évaluation de son utilité pour l'ingénieur. Nous présentons tout d'abord divers rappels sur la théorie des probabilités et nous essayons d'éclaircir certains points particuliers concernant la description des milieux géotechniques au moyen de variables aléatoires et de champs stochastiques. Après un bref rappel sur la méthode des éléments finis traditionnelle, nous analysons deux aspects de la méthode des éléments finis stochastiques (MEFS). Le premier traite des techniques de discrétisation des champs aléatoires et le second des techniques probabilistes utilisées pour formuler la MEFS. Quatre méthodes sont présentées (Monte-Carlo, Rosenblueth, perturbations et premier ordre-seconds moments avec ses variantes : les méthodes numériques d'Evans et des rapports polynomiaux). Nous donnons ensuite une description des logiciels développés dans le cadre de cette thèse. Des exemples allant des plus simples (solides élémentaires) aux plus complexes (barrages) sont traités à l'aide de ces logiciels afin d'illustrer les résultats typiques donnés par la méthode. L'interprétation de ces résultats est discutée. Nous abordons dans la dernière partie l'application de la MEFS aux analyses non linéaires. Cette application est illustrée par l'analyse de deux ouvrages géotechniques dont les matériaux suivent la loi rhéologique de Duncan-Kondner. On montre que la MEFS permet l'évaluation systématique de l'importance des différents paramètres du modèle de comportement retenu. Nous présentons finalement nos conclusions concernant l'interprétation, toujours délicate, des résultats donnés par la méthode et sur son utilité pour l'ingénieur.
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Illina, Irina. "Extension du modèle stochastique des mélanges de trajectoires pour la reconnaissance automatique de la parole continue." Nancy 1, 1997. http://www.theses.fr/1997NAN10205.

Повний текст джерела
Анотація:
Nous nous intéressons dans cette thèse à la modélisation acoustique de la parole continue à l'aide du modèle stochastique des mélanges de trajectoires (MSTM). Ce modèle, développé au CRIN-INRIA Lorraine pour la reconnaissance automatique de la parole, est un modèle fondé sur les segments (SBM), qui se différencie donc des traditionnels modèles de Markov cachés (HMM) fondés sur les trames (FBM). MSTM donne de bons résultats de reconnaissance en mode dépendant du locuteur. En revanche, les problèmes liés à la variabilité multi-environnements, à la multiplicités des contextes phonétiques et à l'adaptation aux conditions de test sont toujours d'actualité. Dans ce cadre, notre travail propose différentes extensions du modèle MSTM. [. . . ]
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Guedon, Yann. "Techniques de modélisation stochastique pour la reconnaissance de la parole." Compiègne, 1990. http://www.theses.fr/1990COMPD259.

Повний текст джерела
Анотація:
Dans un système de reconnaissance de parole, l'analyse acoustique consiste à reconnaître dans le signal de parole des unités acoustiques (phonèmes, syllabes, mots). Cette étude concerne les modèles stochastiques utilisés pour représenter ces unités acoustiques. Ces modèles sont tous composés d'un processus non-observable ou «caché» ; représentant la structure temporelle grossière de l'unité acoustique et d'un processus d'observation liant le processus caché aux paramètres acoustiques extraits du signal de parole. Le plus connu de ces modèles, composé d'une chaîne de Markov «cachée» et d'un processus d'observation, est appelé Modèle de Markov Caché. Différents types de processus cachés (chaîne de Markov, semi-chaîne de Markov, chaîne de Markov hiérarchisée) ainsi que différents types de processus d'observation (modélisation discrète, continue, semi-continue – processus multiple) sont combinés et comparés. L'algorithmique est détaillée (principe d'optimisation pour l'apprentissage : algorithme EM, algorithmes d'apprentissage et de reconnaissance) ; l'algorithmique correspondant aux semi-modèles de Markov cachés constitue l'apport majeur de ce travail. De nombreux tests ont été effectués dans le cadre d'un système de reconnaissance de 130 mots isolés multi-locuteur. Ces tests montrent l'intérêt de la modélisation explicite du temps passé dans chaque état du processus caché notamment par le biais d'une semi-chaîne de Markov; L'utilisation de plusieurs processus d'observation améliore de manière très importante les résultats en permettant d’extraire une information plus riche du signal de parole. Dans le but d'apprendre globalement un dictionnaire de modèles acoustiques, la modélisation semi-continue nous apparaît comme une technique très prometteuse. Enfin, dans le cadre d'un système de reconnaissance de parole continue, ce travail propose un outil d'évaluation de treillis d'unités acoustiques basé sur une comparaison graphe-graphe par programmation dynamique.
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Bonelli, Maxime. "Modélisation stochastique des marchés financiers et optimisation de portefeuille." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4050/document.

Повний текст джерела
Анотація:
Cette thèse présente trois contributions indépendantes. La première partie se concentre sur la modélisation de la moyenne conditionnelle des rendements du marché actions : le rendement espéré du marché. Ce dernier est souvent modélisé à l'aide d'un processus AR(1). Cependant, des études montrent que lors de mauvaises périodes économiques la prédictibilité des rendements est plus élevée. Etant donné que le modèle AR(1) exclut par construction cette propriété, nous proposons d'utiliser un modèle CIR. Les implications sont étudiées dans le cadre d'un modèle espace-état bayésien. La deuxième partie est dédiée à la modélisation de la volatilité des actions et des volumes de transaction. La relation entre ces deux quantités a été justifiée par l'hypothèse de mélange de distribution (MDH). Cependant, cette dernière ne capture pas la persistance de la variance, à la différence des spécifications GARCH. Nous proposons un modèle à deux facteurs combinant les deux approches, afin de dissocier les variations de volatilité court terme et long terme. Le modèle révèle plusieurs régularités importantes sur la relation volume-volatilité. La troisième partie s'intéresse à l'analyse des stratégies d'investissement optimales sous contrainte «drawdown ». Le problème étudié est celui de la maximisation d'utilité à horizon fini pour différentes fonctions d'utilité. Nous calculons les stratégies optimales en résolvant numériquement l'équation de Hamilton-Jacobi-Bellman, qui caractérise le principe de programmation dynamique correspondant. En se basant sur un large panel d'expérimentations numériques, nous analysons les divergences des allocations optimales
This PhD thesis presents three independent contributions. The first part is concentrated on the modeling of the conditional mean of stock market returns: the expected market return. The latter is often modeled as an AR(1) process. However, empirical studies have found that during bad times return predictability is higher. Given that the AR(1) model excludes by construction this property, we propose to use instead a CIR model. The implications of this specification are studied within a flexible Bayesian state-space model. The second part is dedicated to the modeling of stocks volatility and trading volume. The empirical relationship between these two quantities has been justified by the Mixture of Distribution Hypothesis (MDH). However, this framework notably fails to capture the obvious persistence in stock variance, unlike GARCH specifications. We propose a two-factor model of volatility combining both approaches, in order to disentangle short-run from long-run volatility variations. The model reveals several important regularities on the volume-volatility relationship. The third part of the thesis is concerned with the analysis of optimal investment strategies under the drawdown constraint. The finite horizon expectation maximization problem is studied for different types of utility functions. We compute the optimal investments strategies, by solving numerically the Hamilton–Jacobi–Bellman equation, that characterizes the dynamic programming principle related to the stochastic control problem. Based on a large panel of numerical experiments, we analyze the divergences of optimal allocation programs
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Zaccardi, Cédric. "Couplage stochastique-déterministe dans le cadre Arlequin et estimations d'erreurs en quantités d'intérêt." Phd thesis, Ecole Centrale Paris, 2013. http://tel.archives-ouvertes.fr/tel-00865192.

Повний текст джерела
Анотація:
La prise en compte de l'aléa dans le calcul des structures est souvent nécessaire pour le dimensionnement de celle-ci. Des méthodes stochastiques sont alors proposées. De plus, dans de nombreux cas, des altérations ou défauts affectent localement le comportement de la structure, alors que le reste n'est que faiblement impacté. Il n'est alors pas raisonnable d'utiliser une échelle d'analyse fine sur l'ensemble de la structure. On fait alors appel aux méthodes dites multi-échelles. Dans ce contexte, nous nous intéressons à l'estimation d'une quantité d'intérêt spécifique locale lorsque la méthode Arlequin est utilisée pour coupler un modèle déterministe à un modèle stochastique. Dans un premier temps, nous donnons les éléments nécessaires à l'utilisation de la méthode dans ce cadre de couplage stochastique. Pour contrôler ensuite la qualité de l'approximation obtenue par une telle approche, une méthode d'estimation d'erreur de type Goal-Oriented est proposée. En introduisant le résidu du problème de référence et un problème adjoint, une stratégie d'estimation de l'erreur est décrite. Nous étudions aussi les contributions des différentes sources de l'erreur à l'erreur totale (erreur de modèle, erreur de discrétisation, erreur stochastique). Nous proposons une technique pour estimer ces différentes erreurs et piloter un processus d'adaptation afin de contrôler l'erreur totale commise. Finalement, la méthode décrite est utilisée pour l'étude de l'infiltration de résine médicale dans le cas du traitement de la carie.
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Makke, Ali. "Propriétés mécaniques des homo-polymères et des copolymers à blocs : approche par dynamique moléculaire." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00839525.

Повний текст джерела
Анотація:
Les propriétés mécaniques des polymères et des copolymères à blocs ont été étudiées par simulation de type dynamique moléculaire (modèle billes-ressorts). Les échantillons polymères ont été générés par la méthode de " radical like polymerisation ". Ces échantillons ont été soumis à des essais de traction uniaxiaux et triaxiaux dans le but d'étudier leurs réponses mécaniques. Dans la première partie de ce travail on a comparé deux méthodes de traction : " méthode de traction homogène" et la traction " pilotée par les bords " de l'échantillon. Les résultats montrent que les deux méthodes sont équivalentes à faible vitesse de traction. Le changement de distance entre enchevêtrement dans un polymère modèle sous traction est analysé, les résultats montrent que le désenchevêtrèrent des chaines est plus prononcé lorsque la déformation de l'échantillon est uniaxiale du fait de la relaxation latérale de l'échantillon. La nucléation des cavités dans les polymères amorphes soumis à une déformation triaxial a été également étudiée. On a trouvé que les cavités se forment dans des zones qui sont caractérisées par un faible module d'incompressibilité élastique. Ces zones sont identifiables dès le début de la déformation à une température très basse (T~0K). La seconde partie de ce travail se concentre sur la simulation de la réponse mécanique des copolymères à blocs. L'influence de l'architecture moléculaire sur le comportement mécanique de l'échantillon a été analysée. Les résultats montrent que le comportement mécanique des échantillons est piloté par le taux des chaines liantes qui assurent la transmission des contraintes entre les phases. Le flambement des lamelles dans les copolymères à blocs a été également étudié, l'influence de la taille de l'échantillon et de la vitesse de déformation sur la réponse mécanique de l'échantillon a été explorée. Les résultats montrent un changement de mode du flambement selon la vitesse de déformation imposée. Un nouveau modèle qui prend en compte le facteur cinétique du flambement est proposé pour décrire la compétition entre les modes.
Стилі APA, Harvard, Vancouver, ISO та ін.
39

Loulidi, Sanae. "Modélisation stochastique en finance, application à la construction d’un modèle à changement de régime avec des sauts." Thesis, Bordeaux 1, 2008. http://www.theses.fr/2008BOR13675/document.

Повний текст джерела
Анотація:
Le modèle de Blacket Scholes reste le modèle de référence sur les marchés des dérivés. Sa parcimonie et sa maniabilité sont certes attractives. Il ne faut cependant pas perdre de vue les hypothèses restrictives, voire simplistes, qui lui servent de base et qui limitent sa capacité à reproduire la dynamique du marché. Afin de refléter un peu mieux cette dynamique, nous introduisons un modèle d’évaluation des options à changement de régime avec sauts. Sous ce modèle, l’hypothèse de complétude des marchés n’est plus valable. Les sources d’incertitude sont plus nombreuses que les instruments disponibles à la couverture. On ne parle plus de réplication/couverture parfaite mais plutôt de réplication optimale dans un sens à définir. Dans cette thèse, on suppose que le marché peut être décrit par plusieurs «régimes» (ou encore par des «modes») re?étant l’état de l’économie, le comportement général des investisseurs et leurs tendances. Pour chacun de ces régimes, le sous-jacent est caractérisé par un niveau de volatilité et de rendement donné. Avec en plus, et a priori des discontinuités du prix du sous-jacent à chaque fois qu’une transition d’un régime à un autre a lieu. La thèse comprend trois parties: 1.Modélisation du problème et application de la théorie du contrôle stochastique. Par l’utilisation du principe de programmation dynamique et la considération des différents régimes de marché, on aboutit à un système de M (le nombre de régimes) équations de Hamilton Jacobi Bellman «HJB» couplées. 2.La résolution numérique de l’équation HJB pour l’évolution d’options, par différences finies généralisées. 3.L’estimation des paramètres du modèle par un filtre récursif, qui produit une estimation récursive d’un état inconnu au vu d’observation bruitée supposée continue, dans le cas où l’état inconnu serait modélisé par une chaîne de Markov à temps discret et espace d’état fini
Abstract
Стилі APA, Harvard, Vancouver, ISO та ін.
40

Allaya, Mouhamad M. "Méthodes de Monte-Carlo EM et approximations particulaires : application à la calibration d'un modèle de volatilité stochastique." Thesis, Paris 1, 2013. http://www.theses.fr/2013PA010072/document.

Повний текст джерела
Анотація:
Ce travail de thèse poursuit une perspective double dans l'usage conjoint des méthodes de Monte Carlo séquentielles (MMS) et de l'algorithme Espérance-Maximisation (EM) dans le cadre des modèles de Markov cachés présentant une structure de dépendance markovienne d'ordre supérieur à 1 au niveau de la composante inobservée. Tout d'abord, nous commençons par un exposé succinct de l'assise théorique des deux concepts statistiques à Travers les chapitres 1 et 2 qui leurs sont consacrés. Dans un second temps, nous nous intéressons à la mise en pratique simultanée des deux concepts au chapitre 3 et ce dans le cadre usuel ou la structure de dépendance est d'ordre 1, l'apport des méthodes MMS dans ce travail réside dans leur capacité à approximer efficacement des fonctionnelles conditionnelles bornées, notamment des quantités de filtrage et de lissage dans un cadre non linéaire et non gaussien. Quant à l'algorithme EM, il est motivé par la présence à la fois de variables observables, et inobservables (ou partiellement observées) dans les modèles de Markov Cachés et singulièrement les modèles de volatilité stochastique étudié. Après avoir présenté aussi bien l'algorithme EM que les méthodes MCS ainsi que quelques une de leurs propriétés dans les chapitres 1 et 2 respectivement, nous illustrons ces deux outils statistiques au travers de la calibration d'un modèle de volatilité stochastique. Cette application est effectuée pour des taux change ainsi que pour quelques indices boursiers au chapitre 3. Nous concluons ce chapitre sur un léger écart du modèle de volatilité stochastique canonique utilisé ainsi que des simulations de Monte Carlo portant sur le modèle résultant. Enfin, nous nous efforçons dans les chapitres 4 et 5 à fournir les assises théoriques et pratiques de l'extension des méthodes Monte Carlo séquentielles notamment le filtrage et le lissage particulaire lorsque la structure markovienne est plus prononcée. En guise d’illustration, nous donnons l'exemple d'un modèle de volatilité stochastique dégénéré dont une approximation présente une telle propriété de dépendance
This thesis pursues a double perspective in the joint use of sequential Monte Carlo methods (SMC) and the Expectation-Maximization algorithm (EM) under hidden Mar­kov models having a Markov dependence structure of order grater than one in the unobserved component signal. Firstly, we begin with a brief description of the theo­retical basis of both statistical concepts through Chapters 1 and 2 that are devoted. In a second hand, we focus on the simultaneous implementation of both concepts in Chapter 3 in the usual setting where the dependence structure is of order 1. The contribution of SMC methods in this work lies in their ability to effectively approximate any bounded conditional functional in particular, those of filtering and smoothing quantities in a non-linear and non-Gaussian settings. The EM algorithm is itself motivated by the presence of both observable and unobservable ( or partially observed) variables in Hidden Markov Models and particularly the stochastic volatility models in study. Having presented the EM algorithm as well as the SMC methods and some of their properties in Chapters 1 and 2 respectively, we illustrate these two statistical tools through the calibration of a stochastic volatility model. This application is clone for exchange rates and for some stock indexes in Chapter 3. We conclude this chapter on a slight departure from canonical stochastic volatility model as well Monte Carlo simulations on the resulting model. Finally, we strive in Chapters 4 and 5 to provide the theoretical and practical foundation of sequential Monte Carlo methods extension including particle filtering and smoothing when the Markov structure is more pronounced. As an illustration, we give the example of a degenerate stochastic volatility model whose approximation has such a dependence property
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Henon, Sandrine. "Évaluation et couverture de produits dérivés dans les marchés imparfaits : un modèle de taux avec volatilité stochastique." Marne-la-Vallée, 2005. http://www.theses.fr/2005MARN0242.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Geraets, David. "Modélisation stochastique de champs de vitesse géophysique en exploration pétrolière." Phd thesis, École Nationale Supérieure des Mines de Paris, 2002. http://pastel.archives-ouvertes.fr/pastel-00001236.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Mercat, Christian. "Holomorphie discrète et modèle d'Ising." Phd thesis, Université Louis Pasteur - Strasbourg I, 1998. http://tel.archives-ouvertes.fr/tel-00001851.

Повний текст джерела
Анотація:
Ma thèse généralise la notion de criticité pour le modèle d'Ising en dimension 2. J'y définis une nouvelle notion d'holomorphie discrète sur une décomposition cellulaire d'une surface de Riemann. Le modèle d'Ising converge, à la limite thermodynamique vers une théorie conforme continue, quand la limite est prise sur un réseau (carré, triangulaire), près de la température critique. J'étends cette criticité à des décompositions cellulaires générales et je décompose le spineur en parties holomorphes et antiholomorphes discrètes, analogues discrets des blocs conformes. On définit une équation de Cauchy-Riemann discrète sur le double d'une décomposition cellulaire. Des théorèmes classiques sont encore transposables: harmonicité, base des différentielles, pôle, théorème des résidus. Il y a des différences, le produit point par point ne préserve pas l'holomorphie, les pôles sont d'ordre un, l'espace des formes holomorphes est de dimension double du genre. On définit une carte comme étant semi-critique si d'une fonction holomorphe discrète $f$ et d'une carte locale plate $Z$ on peut faire une $1$-forme fermée $fdZ$ et critique si $fdZ$ est holomorphe. Cette classe contient les réseaux mais bien plus. Une suite convergente de fonctions holomorphes discrètes sur une suite convergente de cartes critiques a pour limite une fonction holomorphe sur la surface de Riemann. Dans le cas des réseaux triangulaires et carrés, on démontre que la criticité statistique d'Ising équivaut à notre criticité pour une structure conforme reliée aux constantes d'intéraction. On définit une équation de Dirac sans masse, l'existence d'une solution équivaut à la criticité. Le spineur de Dirac permet alors de décomposer le fermion d'Ising en une partie holomorphe et une partie antiholomorphe.
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Baili, Hana. "Caractérisation statistique de mesures dynamiques continues à partir d'un modèle de connaissance." Paris 11, 2002. http://www.theses.fr/2002PA112077.

Повний текст джерела
Анотація:
Mon sujet de recherche est un problème de mesure indirecte: une grandeur d'intérêt à observer mais ne pouvant l'être directement par certains capteurs. On convient d'appeler cette grandeur mesure. Le terme dynamique sous-entend l'évolution de la mesure dans le temps, d'une part, et d'autre part signifie que le modèle comporte au moins une relation dynamique. Le modèle est dit de connaissance dans le sens où tout ce que l'on manipule a une signification physique. Les quantités du modèle, qui une fois fixées, déterminent de façon unique les autres, sont dites: les données du modèle. Malheureusement, souvent certaines données sont inconnues car aléatoires, ou déterministes mais le modèle est incomplet. Dans ce cas, l'information que l'on peut former à propos d'une inconnue est soit ses deux premiers moments si elle est aléatoire, soit un encadrement de sa valeur si elle est déterministe. Notre but est alors de propager cette information à la mesure. L'approche que nous avons adoptée pour ce faire est probabiliste; c'est la "caractérisation statistique" du titre. En effet, un premier prérequis consiste à transformer le modèle de départ en une équation différentielle stochastique (e. D. S. ) telle que: estimer la densité de probabilité du processus qu'elle détermine accomplisse l'ultime mesure. Le chapitre 2 donne la théorie, base de la modélisation; il s'agit du calcul stochastique selon McShane. Le chapitre 3 décrit notre approche de modélisation, en général, puis à la lumière d'une collection d'applications. Nous avons distribué nos méthodes de caractérisaion statistique sur trois chapitres différents (4, 5 et 6) pour mettre l'accent sur les caractères qui les unient et ceux qui les distinguent les unes des autres
In this thesis, we deal with statistical characterization of dynamical continuous measurements within a knowledge-based model. A measurement is any quantity to be observed within a system; we talk about indirect measurement when this quantity cannot be directly given by some sensors. The term dynamic refers to the evolution of the measurement in time. The model is said knowledge-based because it comes from the mathematical traduction of the system physics, as opposed to black-box models. The quantities that when fixed, cause the others to be determined uniquely, are called model's data, such as initial conditions, observations, controls, etc. Often, some of them are unknown because they are random or deterministic but the model comes from an incomplete description of the system. A prior information about some uncertainty can be acquired; it will consist of its average and dispersion, if it is random, or of some set that specifies its values, if it is deterministic. Given the model described below, what's about the measurement? We propose here a probabilistic approach to characterize the measurement; in fact the modelling step, involved at the beginning, consists in transforming the model into a stochastic differential equation (sde) determining a process such that estimating the probability density function (pdf) of this process achieves the ultimate measurement; this is the "statistical characterization". Chapter 3 describes the modelization task in general, using McShane's stochastic calculus as theoretical basis. Chapters 4, 5, and 6 present our methods for estimating the pdf of the (extended) measurement
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Loi, Cédric. "Analyse probabiliste, étude combinatoire et estimation paramétrique pour une classe de modèles de croissance de plantes avec organogenèse stochastique." Phd thesis, Ecole Centrale Paris, 2011. http://tel.archives-ouvertes.fr/tel-00658380.

Повний текст джерела
Анотація:
Dans cette thèse, nous nous intéressons à une classe particulière de modèles stochastiques de croissance de plantes structure-fonction à laquelle appartient le modèle GreenLab. L'objectif est double. En premier lieu, il s'agit d'étudier les processus stochastiques sous-jacents à l'organogenèse. Un nouveau cadre de travail combinatoire reposant sur l'utilisation de grammaires formelles a été établi dans le but d'étudier la distribution des nombres d'organes ou plus généralement des motifs dans la structure des plantes. Ce travail a abouti 'a la mise en place d'une méthode symbolique permettant le calcul de distributions associées 'a l'occurrence de mots dans des textes générés aléatoirement par des L-systèmes stochastiques. La deuxième partie de la thèse se concentre sur l'estimation des paramètres liés au processus de création de biomasse par photosynthèse et de son allocation. Le modèle de plante est alors écrit sous la forme d'un modèle de Markov caché et des méthodes d'inférence bayésienne sont utilisées pour résoudre le problème.
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Bourrier, Franck. "Modélisation de l'impact d'un bloc rocheux sur un terrain naturel : application à la trajectographie des chutes de blocs." Phd thesis, Grenoble INPG, 2008. http://www.theses.fr/2008INPG0106.

Повний текст джерела
Анотація:
Ce travail de thèse porte sur la caractérisation du rebond d’un bloc sur un terrain naturel dans la perspective d’améliorer les modèles de détermination de l’aléa de chute de blocs. L’impact d’un bloc rocheux sur un sol composé d’éboulis est modélisé par la Méthode des Elements Discrets. La comparaison entre les résultats de simulation et les résultats d’essais à échelle réduite d’impact sur un sol granulaire grossier met en évidence que le modèle numérique développé assure une prédiction pertinente du rebond pour un nombre réduit de paramètres de simulation à calibrer. L’analyse de l’impact à l’aide du modèle numérique montre que l’interaction entre l’impactant et le sol peut être décomposée en trois phases : le transfert énergétique initial du bloc vers le sol, la propagation d’une onde de compression du point d’impact vers l’intérieur du sol et la réflexion de l’onde de compression sur le substratum. L’étude des échanges énergétiques lors de ces trois phases conduit à la définition d’un diagramme d’existence du rebond délimitant les domaines d’arrêt et de rebond de l’impactant et à l’identification de trois régimes d’impact. Le traitement statistique des résultats de simulation par des méthodes statistiques basées sur l’inférence Bayésienne permet également de définir une loi d’impact stochastique. Cette loi est représentative de la variabilité des vitesses du bloc après impact en fonction des paramètres cinématiques incidents et de l’arrangement géométrique des particules du sol au voisinage du point d’impact. Enfin, suite à l’intégration de la loi stochastique d’impact dans le contexte de l’analyse trajectographique, une approche probabiliste globale permettant la caractérisation détaillée de l’aléa de chute de bloc ainsi que l’implantation et le dimensionnement d’ouvrages de protection est proposée
This thesis is dedicated to the study of falling rocks bouncing on natural soils in order to improve the models used for rockfall hazard assessment. The impact of a rock on a scree slope is modelled using the Discrete Element Method. The comparison between numerical results and half-scale experimental results of impacts on a coarse soil shows that the numerical model allows accurately predicting the bouncing of the rock for a reduced number of model parameters to be calibrated. The numerical results also emphasize that the interaction between the impacting particle and the granular soil is composed of three stages : the partial energy exchange from the impacting particle to the soil, the propagation of a shockwave from the impact point and the wave reflection on the substratum. The study of energy exchanges during these three stages allows defining the impacting particle bouncing occurrence diagram as well as three impact regimes. The statistical analysis of numerical results using Bayesian inference leads to the definition of a stochastic impact model. This model is relevant for rock velocity after impact depending on both rock velocity before impact and soil particles layout near the impact point. Finally, the stochastic impact model is integrated into trajectory analysis models which allows defining a global probabilistic approach of rockfall hazard assessment including protective structures design
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Agostini, Dominique. "La floraison du kiwi (Actinidia deliciosa cv. Hayward) : analyse de la variabilité et simulation par un modèle stochastique." Lyon 1, 1995. http://www.theses.fr/1995LYO10160.

Повний текст джерела
Анотація:
Chez le kiwi (actinidia deliciosa cv. Hayward), la floraison est le premier facteur limitant du rendement, a la fois par le nombre de fleurs produites, et par sa dispersion dans le temps. Dans le cadre d'une problematique agronomique plus large d'amelioration de la recolte et de sa prevision, en nombre et calibre des fruits, un modele de floraison est propose pour constituer la premiere etape d'un modele d'elaboration du rendement. A partir d'une analyse bibliographique permettant d'identifier les processus de base conduisant a la floraison, la demarche adoptee a consiste, d'une part a creer experimentalement une variabilite de la floraison, et d'autre part, a explorer les donnees obtenues avec un objectif de modelisation. La complexite du systeme est telle que la dispersion de la floraison a ete consideree, alors, comme le resultat de la variabilite de developpement d'une population d'organes (bourgeons, puis boutons floraux), repondant a une succession de processus aleatoires. Ceci a conduit a proposer un modele stochastique de prediction de la floraison, dont le parametre principal est la temperature. Ce modele decrit la dispersion de la population d'organes aux differents stades phenologiques sous une hypothese d'acquisition probabiliste de la temperature. Le modele integre egalement des composantes elementaires quantitatives dont l'estimation permet de simuler le nombre de fleurs produites. Le debourrement est decrit dans un sous-modele a partir duquel, le nombre de bourgeons demarres peut etre estime. Les nombres de fleurs initiees, puis avortees, sont estimes a partir de lois de distributions. Le modele construit et ajuste sur la base de donnees acquise en 1991, a ete valide en utilisant les donnees des deux autres annees d'observations. Ses qualites et ses faiblesses sont discutees et des perspectives d'utilisation sont envisagees soit par rapport a une problematique de recherche, soit par rapport a une demande socio-economique
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Bourrier, Franck. "Modélisation de l'impact d'un bloc rocheux sur un terrain naturel : application à la trajectographie des chutes de blocs." Phd thesis, Grenoble INPG, 2008. http://tel.archives-ouvertes.fr/tel-00363526.

Повний текст джерела
Анотація:
Ce travail de thèse porte sur la caractérisation du rebond d'un bloc sur un terrain naturel dans la perspective d'améliorer les modèles de détermination de l'aléa de chute de blocs. L'impact d'un bloc rocheux sur un sol composé d'éboulis est modélisé par la Méthode des Elements Discrets. La comparaison entre les résultats de simulation et les résultats d'essais à échelle réduite d'impact sur un sol granulaire grossier met en évidence que le modèle numérique développé assure une prédiction pertinente du rebond pour un nombre réduit de paramètres de simulation à calibrer. L'analyse de l'impact à l'aide du modèle numérique montre que l'interaction entre l'impactant et le sol peut être décomposée en trois phases : le transfert énergétique initial du bloc vers le sol, la propagation d'une onde de compression du point d'impact vers l'intérieur du sol et la réflexion de l'onde de compression sur le substratum. L'étude des échanges énergétiques lors de ces trois phases conduit à la définition d'un diagramme d'existence du rebond délimitant les domaines d'arrêt et de rebond de l'impactant et à l'identification de trois régimes d'impact. Le traitement statistique des résultats de simulation par des méthodes statistiques basées sur l'inférence Bayésienne permet également de définir une loi d'impact stochastique. Cette loi est représentative de la variabilité des vitesses du bloc après impact en fonction des paramètres cinématiques incidents et de l'arrangement géométrique des particules du sol au voisinage du point d'impact. Enfin, suite à l'intégration de la loi stochastique d'impact dans le contexte de l'analyse trajectographique, une approche probabiliste globale permettant la caractérisation détaillée de l'aléa de chute de bloc ainsi que l'implantation et le dimensionnement d'ouvrages de protection est proposée.
Стилі APA, Harvard, Vancouver, ISO та ін.
49

Corneli, Marco. "Dynamic stochastic block models, clustering and segmentation in dynamic graphs." Thesis, Paris 1, 2017. http://www.theses.fr/2017PA01E012/document.

Повний текст джерела
Анотація:
Cette thèse porte sur l’analyse de graphes dynamiques, définis en temps discret ou continu. Nous introduisons une nouvelle extension dynamique du modèle a blocs stochastiques (SBM), appelée dSBM, qui utilise des processus de Poisson non homogènes pour modéliser les interactions parmi les paires de nœuds d’un graphe dynamique. Les fonctions d’intensité des processus ne dépendent que des classes des nœuds comme dans SBM. De plus, ces fonctions d’intensité ont des propriétés de régularité sur des intervalles temporels qui sont à estimer, et à l’intérieur desquels les processus de Poisson redeviennent homogènes. Un récent algorithme d’estimation pour SBM, qui repose sur la maximisation d’un critère exact (ICL exacte) est ici adopté pour estimer les paramètres de dSBM et sélectionner simultanément le modèle optimal. Ensuite, un algorithme exact pour la détection de rupture dans les séries temporelles, la méthode «pruned exact linear time» (PELT), est étendu pour faire de la détection de rupture dans des données de graphe dynamique selon le modèle dSBM. Enfin, le modèle dSBM est étendu ultérieurement pour faire de l’analyse de réseau textuel dynamique. Les réseaux sociaux sont un exemple de réseaux textuels: les acteurs s’échangent des documents (posts, tweets, etc.) dont le contenu textuel peut être utilisé pour faire de la classification et détecter la structure temporelle du graphe dynamique. Le modèle que nous introduisons est appelé «dynamic stochastic topic block model» (dSTBM)
This thesis focuses on the statistical analysis of dynamic graphs, both defined in discrete or continuous time. We introduce a new extension of the stochastic block model (SBM) for dynamic graphs. The proposed approach, called dSBM, adopts non homogeneous Poisson processes to model the interaction times between pairs of nodes in dynamic graphs, either in discrete or continuous time. The intensity functions of the processes only depend on the node clusters, in a block modelling perspective. Moreover, all the intensity functions share some regularity properties on hidden time intervals that need to be estimated. A recent estimation algorithm for SBM, based on the greedy maximization of an exact criterion (exact ICL) is adopted for inference and model selection in dSBM. Moreover, an exact algorithm for change point detection in time series, the "pruned exact linear time" (PELT) method is extended to deal with dynamic graph data modelled via dSBM. The approach we propose can be used for change point analysis in graph data. Finally, a further extension of dSBM is developed to analyse dynamic net- works with textual edges (like social networks, for instance). In this context, the graph edges are associated with documents exchanged between the corresponding vertices. The textual content of the documents can provide additional information about the dynamic graph topological structure. The new model we propose is called "dynamic stochastic topic block model" (dSTBM).Graphs are mathematical structures very suitable to model interactions between objects or actors of interest. Several real networks such as communication networks, financial transaction networks, mobile telephone networks and social networks (Facebook, Linkedin, etc.) can be modelled via graphs. When observing a network, the time variable comes into play in two different ways: we can study the time dates at which the interactions occur and/or the interaction time spans. This thesis only focuses on the first time dimension and each interaction is assumed to be instantaneous, for simplicity. Hence, the network evolution is given by the interaction time dates only. In this framework, graphs can be used in two different ways to model networks. Discrete time […] Continuous time […]. In this thesis both these perspectives are adopted, alternatively. We consider new unsupervised methods to cluster the vertices of a graph into groups of homogeneous connection profiles. In this manuscript, the node groups are assumed to be time invariant to avoid possible identifiability issues. Moreover, the approaches that we propose aim to detect structural changes in the way the node clusters interact with each other. The building block of this thesis is the stochastic block model (SBM), a probabilistic approach initially used in social sciences. The standard SBM assumes that the nodes of a graph belong to hidden (disjoint) clusters and that the probability of observing an edge between two nodes only depends on their clusters. Since no further assumption is made on the connection probabilities, SBM is a very flexible model able to detect different network topologies (hubs, stars, communities, etc.)
Стилі APA, Harvard, Vancouver, ISO та ін.
50

Kaddes, Mourad. "Etudes des transactions plates et étendues dans les SGBD temps réels." Thesis, Le Havre, 2013. http://www.theses.fr/2013LEHA0009/document.

Повний текст джерела
Анотація:
ACette thèse s’intéresse à l’étude des modèles de transactions plates et étendues dans les SGBD temps réel (SGBDTR). Ce travail est réalisé en deux étapes : (i) la première étape vise à aider les concepteurs à décrire et comparer les modèles de transactions temps réel, (ii) La seconde étape permet de compléter cette étude par la présentation d’une étude stochastique des performances des SGBDTR de deux modèles de transactions temps réel, à savoir le modèle de transactions plates et le modèle de transactions emboîtées. Dans la première étape, nous avons présenté le méta-modèle « MRT-ACTA » qui prend en compte les caractéristiques temporelles des transactions et de données temps réel ainsi que leurs interactions, offrant ainsi aux concepteurs la possibilité de définir de nouveaux modèles de transactions temps réel et de les comparer. La description formelle de « M-RT-ACTA » a permis de valider nos propositions. Pour compléter ce travail et ayant constaté que l’ordonnancement des transactions est un aspect primordial dans les SGBDTR, nous avons proposé dans la seconde étape de présenter une étude stochastique des performances des SGBDTR. Ainsi, nous avons proposé une amélioration des taux de succès des transactions plates avec le protocole GEDF (généralisation de EDF) et nous avons adapté cette étude aux transactions emboîtées
This thesis presents a study of flat and extended model of transactions in real-time DBMS (RTDBMSs). This study is carried in two steps : (i) the first step aims to help designers to describe and compare models of real-time transactions, (ii) the second step allows to complete this study by presenting a stochastic study of RTDBMSs performance using two models of real-time transactions : flat transactions and nested transactions models. In the first step, we introduced the meta-model « MRT-ACTA » that takes into account the transactions and data temporal characteristics and their realtime interactions. « M-RT-ACTA » allows designers defining and comparing new models of real-time transactions. The formal description of « M-RT-ACTA » validates our proposals. In order to complete this work, we have observed that transactions scheduling is an important area in RTDBMSs, so we proposed in the second step a stochastic study of RTDBMS performance. Thus, we have proposed to improve the success ratio of flat transactions with GEDF protocol (generalization of GEDF) and we have adapted this study to nested transactions
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії