Rozprawy doktorskie na temat „Modèles des blocs latents”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Modèles des blocs latents.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 36 najlepszych rozpraw doktorskich naukowych na temat „Modèles des blocs latents”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Brault, Vincent. "Estimation et sélection de modèle pour le modèle des blocs latents". Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112238/document.

Pełny tekst źródła
Streszczenie:
Le but de la classification est de partager des ensembles de données en sous-ensembles les plus homogènes possibles, c'est-à-dire que les membres d'une classe doivent plus se ressembler entre eux qu'aux membres des autres classes. Le problème se complique lorsque le statisticien souhaite définir des groupes à la fois sur les individus et sur les variables. Le modèle des blocs latents définit une loi pour chaque croisement de classe d'objets et de classe de variables, et les observations sont supposées indépendantes conditionnellement au choix de ces classes. Toutefois, il est impossible de factoriser la loi jointe des labels empêchant le calcul de la logvraisemblance et l'utilisation de l'algorithme EM. Plusieurs méthodes et critères existent pour retrouver ces partitions, certains fréquentistes, d'autres bayésiens, certains stochastiques, d'autres non. Dans cette thèse, nous avons d'abord proposé des conditions suffisantes pour obtenir l'identifiabilité. Dans un second temps, nous avons étudié deux algorithmes proposés pour contourner le problème de l'algorithme EM : VEM de Govaert et Nadif (2008) et SEM-Gibbs de Keribin, Celeux et Govaert (2010). En particulier, nous avons analysé la combinaison des deux et mis en évidence des raisons pour lesquelles les algorithmes dégénèrent (terme utilisé pour dire qu'ils renvoient des classes vides). En choisissant des lois a priori judicieuses, nous avons ensuite proposé une adaptation bayésienne permettant de limiter ce phénomène. Nous avons notamment utilisé un échantillonneur de Gibbs dont nous proposons un critère d'arrêt basé sur la statistique de Brooks-Gelman (1998). Nous avons également proposé une adaptation de l'algorithme Largest Gaps (Channarond et al. (2012)). En reprenant leurs démonstrations, nous avons démontré que les estimateurs des labels et des paramètres obtenus sont consistants lorsque le nombre de lignes et de colonnes tendent vers l'infini. De plus, nous avons proposé une méthode pour sélectionner le nombre de classes en ligne et en colonne dont l'estimation est également consistante à condition que le nombre de ligne et de colonne soit très grand. Pour estimer le nombre de classes, nous avons étudié le critère ICL (Integrated Completed Likelihood) dont nous avons proposé une forme exacte. Après avoir étudié l'approximation asymptotique, nous avons proposé un critère BIC (Bayesian Information Criterion) puis nous conjecturons que les deux critères sélectionnent les mêmes résultats et que ces estimations seraient consistantes ; conjecture appuyée par des résultats théoriques et empiriques. Enfin, nous avons comparé les différentes combinaisons et proposé une méthodologie pour faire une analyse croisée de données
Classification aims at sharing data sets in homogeneous subsets; the observations in a class are more similar than the observations of other classes. The problem is compounded when the statistician wants to obtain a cross classification on the individuals and the variables. The latent block model uses a law for each crossing object class and class variables, and observations are assumed to be independent conditionally on the choice of these classes. However, factorizing the joint distribution of the labels is impossible, obstructing the calculation of the log-likelihood and the using of the EM algorithm. Several methods and criteria exist to find these partitions, some frequentist ones, some bayesian ones, some stochastic ones... In this thesis, we first proposed sufficient conditions to obtain the identifiability of the model. In a second step, we studied two proposed algorithms to counteract the problem of the EM algorithm: the VEM algorithm (Govaert and Nadif (2008)) and the SEM-Gibbs algorithm (Keribin, Celeux and Govaert (2010)). In particular, we analyzed the combination of both and highlighted why the algorithms degenerate (term used to say that it returns empty classes). By choosing priors wise, we then proposed a Bayesian adaptation to limit this phenomenon. In particular, we used a Gibbs sampler and we proposed a stopping criterion based on the statistics of Brooks-Gelman (1998). We also proposed an adaptation of the Largest Gaps algorithm (Channarond et al. (2012)). By taking their demonstrations, we have shown that the labels and parameters estimators obtained are consistent when the number of rows and columns tend to infinity. Furthermore, we proposed a method to select the number of classes in row and column, the estimation provided is also consistent when the number of row and column is very large. To estimate the number of classes, we studied the ICL criterion (Integrated Completed Likelihood) whose we proposed an exact shape. After studying the asymptotic approximation, we proposed a BIC criterion (Bayesian Information Criterion) and we conjecture that the two criteria select the same results and these estimates are consistent; conjecture supported by theoretical and empirical results. Finally, we compared the different combinations and proposed a methodology for co-clustering
Style APA, Harvard, Vancouver, ISO itp.
2

Tami, Myriam. "Approche EM pour modèles multi-blocs à facteurs à une équation structurelle". Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT303/document.

Pełny tekst źródła
Streszczenie:
Les modèles d'équations structurelles à variables latentes permettent de modéliser des relations entre des variables observables et non observables. Les deux paradigmes actuels d'estimation de ces modèles sont les méthodes de moindres carrés partiels sur composantes et l'analyse de la structure de covariance. Dans ce travail, après avoir décrit les deux principales méthodes d'estimation que sont PLS et LISREL, nous proposons une approche d'estimation fondée sur la maximisation par algorithme EM de la vraisemblance globale d'un modèle à facteurs latents et à une équation structurelle. Nous en étudions les performances sur des données simulées et nous montrons, via une application sur des données réelles environnementales, comment construire pratiquement un modèle et en évaluer la qualité. Enfin, nous appliquons l'approche développée dans le contexte d'un essai clinique en cancérologie pour l'étude de données longitudinales de qualité de vie. Nous montrons que par la réduction efficace de la dimension des données, l'approche EM simplifie l'analyse longitudinale de la qualité de vie en évitant les tests multiples. Ainsi, elle contribue à faciliter l'évaluation du bénéfice clinique d'un traitement
Structural equation models enable the modeling of interactions between observed variables and latent ones. The two leading estimation methods are partial least squares on components and covariance-structure analysis. In this work, we first describe the PLS and LISREL methods and, then, we propose an estimation method using the EM algorithm in order to maximize the likelihood of a structural equation model with latent factors. Through a simulation study, we investigate how fast and accurate the method is, and thanks to an application to real environmental data, we show how one can handly construct a model or evaluate its quality. Finally, in the context of oncology, we apply the EM approach on health-related quality-of-life data. We show that it simplifies the longitudinal analysis of quality-of-life and helps evaluating the clinical benefit of a treatment
Style APA, Harvard, Vancouver, ISO itp.
3

Robert, Valérie. "Classification croisée pour l'analyse de bases de données de grandes dimensions de pharmacovigilance". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS111/document.

Pełny tekst źródła
Streszczenie:
Cette thèse regroupe des contributions méthodologiques à l'analyse statistique des bases de données de pharmacovigilance. Les difficultés de modélisation de ces données résident dans le fait qu'elles produisent des matrices souvent creuses et de grandes dimensions. La première partie des travaux de cette thèse porte sur la classification croisée du tableau de contingence de pharmacovigilance à l’aide du modèle des blocs latents de Poisson normalisé. L'objectif de la classification est d'une part de fournir aux pharmacologues des zones intéressantes plus réduites à explorer de manière plus précise, et d'autre part de constituer une information a priori utilisable lors de l'analyse des données individuelles de pharmacovigilance. Dans ce cadre, nous détaillons une procédure d'estimation partiellement bayésienne des paramètres du modèle et des critères de sélection de modèles afin de choisir le modèle le plus adapté aux données étudiées. Les données étant de grandes dimensions, nous proposons également une procédure pour explorer de manière non exhaustive mais pertinente, l'espace des modèles en coclustering. Enfin, pour mesurer la performance des algorithmes, nous développons un indice de classification croisée calculable en pratique pour un nombre de classes élevé. Les développements de ces outils statistiques ne sont pas spécifiques à la pharmacovigilance et peuvent être utile à toute analyse en classification croisée. La seconde partie des travaux de cette thèse porte sur l'analyse statistique des données individuelles, plus nombreuses mais également plus riches en information. L'objectif est d'établir des classes d'individus selon leur profil médicamenteux et des sous-groupes d'effets et de médicaments possiblement en interaction, palliant ainsi le phénomène de coprescription et de masquage que peuvent présenter les méthodes existantes sur le tableau de contingence. De plus, l'interaction entre plusieurs effets indésirables y est prise en compte. Nous proposons alors le modèle des blocs latents multiple qui fournit une classification croisée simultanée des lignes et des colonnes de deux tableaux de données binaires en leur imposant le même classement en ligne. Nous discutons des hypothèses inhérentes à ce nouveau modèle et nous énonçons des conditions suffisantes de son identifiabilité. Ensuite, nous présentons une procédure d'estimation de ses paramètres et développons des critères de sélection de modèles associés. De plus, un modèle de simulation numérique des données individuelles de pharmacovigilance est proposé et permet de confronter les méthodes entre elles et d'étudier leurs limites. Enfin, la méthodologie proposée pour traiter les données individuelles de pharmacovigilance est explicitée et appliquée à un échantillon de la base française de pharmacovigilance entre 2002 et 2010
This thesis gathers methodological contributions to the statistical analysis of large datasets in pharmacovigilance. The pharmacovigilance datasets produce sparse and large matrices and these two characteritics are the main statistical challenges for modelling them. The first part of the thesis is dedicated to the coclustering of the pharmacovigilance contingency table thanks to the normalized Poisson latent block model. The objective is on the one hand, to provide pharmacologists with some interesting and reduced areas to explore more precisely. On the other hand, this coclustering remains a useful background information for dealing with individual database. Within this framework, a parameter estimation procedure for this model is detailed and objective model selection criteria are developed to choose the best fit model. Datasets are so large that we propose a procedure to explore the model space in coclustering, in a non exhaustive way but a relevant one. Additionnally, to assess the performances of the methods, a convenient coclustering index is developed to compare partitions with high numbers of clusters. The developments of these statistical tools are not specific to pharmacovigilance and can be used for any coclustering issue. The second part of the thesis is devoted to the statistical analysis of the large individual data, which are more numerous but also provides even more valuable information. The aim is to produce individual clusters according their drug profiles and subgroups of drugs and adverse effects with possible links, which overcomes the coprescription and masking phenomenons, common contingency table issues in pharmacovigilance. Moreover, the interaction between several adverse effects is taken into account. For this purpose, we propose a new model, the multiple latent block model which enables to cocluster two binary tables by imposing the same row ranking. Assertions inherent to the model are discussed and sufficient identifiability conditions for the model are presented. Then a parameter estimation algorithm is studied and objective model selection criteria are developed. Moreover, a numeric simulation model of the individual data is proposed to compare existing methods and study its limits. Finally, the proposed methodology to deal with individual pharmacovigilance data is presented and applied to a sample of the French pharmacovigilance database between 2002 and 2010
Style APA, Harvard, Vancouver, ISO itp.
4

Febrissy, Mickaël. "Nonnegative Matrix Factorization and Probabilistic Models : A unified framework for text data". Electronic Thesis or Diss., Paris, CNAM, 2021. http://www.theses.fr/2021CNAM1291.

Pełny tekst źródła
Streszczenie:
Depuis l’avènement du Big data, les techniques de réduction de la dimension sont devenues essentielles pour l’exploration et l’analyse de données hautement dimensionnelles issues de nombreux domaines scientifiques. En créant un espace à faible dimension intrinsèque à l’espace de données original, ces techniques offrent une meilleure compréhension dans de nombreuses applications de la science des données. Dans le contexte de l’analyse de textes où les données recueillies sont principalement non négatives, les techniques couramment utilisées produisant des transformations dans l’espace des nombres réels (par exemple, l’analyse en composantes principales, l’analyse sémantique latente) sont devenues moins intuitives car elles ne pouvaient pas fournir une interprétation directe. De telles applications montrent la nécessité de techniques de réduction de la dimensionnalité comme la factorisation matricielle non négative (NMF), utile pour intégrer par exemple, des documents ou des mots dans l’espace de dimension réduite. Par définition, la NMF vise à approximer une matrice non négative par le produit de deux matrices non négatives de plus faible dimension, ce qui aboutit à la résolution d’un problème d’optimisation non linéaire. Notons cependant que cet objectif peut être exploité dans le domaine du regroupement de documents/mots, même si ce n’est pas l’objectif de la NMF. En s’appuyant sur la NMF, cette thèse se concentre sur l’amélioration de la qualité du clustering de grandes données textuelles se présentant sous la forme de matrices document-terme très creuses. Cet objectif est d’abord atteint en proposant plusieurs types de régularisations de la fonction objectif originale de la NMF. En plaçant cet objectif dans un contexte probabiliste, un nouveau modèle NMF est introduit, apportant des bases théoriques pour établir la connexion entre la NMF et les modèles de mélange finis de familles exponentielles, ce qui permet d’offrir des régularisations intéressantes. Cela permet d’inscrire, entre autres, la NMF dans un véritable esprit de clustering. Enfin, un modèle bayésien de blocs latents de Poisson est proposé pour améliorer le regroupement de documents et de mots simultanément en capturant des caractéristiques de termes bruyants. Ce modèle peut être relié à la NMTF (Nonnegative Matrix Tri-Factorization) consacrée au co-clustering. Des expériences sur des jeux de données réelles ont été menées pour soutenir les propositions de la thèse
Since the exponential growth of available Data (Big data), dimensional reduction techniques became essential for the exploration and analysis of high-dimensional data arising from many scientific areas. By creating a low-dimensional space intrinsic to the original data space, theses techniques offer better understandings across many data Science applications. In the context of text analysis where the data gathered are mainly nonnegative, recognized techniques producing transformations in the space of real numbers (e.g. Principal component analysis, Latent semantic analysis) became less intuitive as they could not provide a straightforward interpretation. Such applications show the need of dimensional reduction techniques like Nonnegative Matrix factorization (NMF) useful to embed, for instance, documents or words in the space of reduced dimension. By definition, NMF aims at approximating a nonnegative matrix by the product of two lower dimensionalnonnegative matrices, which results in the solving of a nonlinear optimization problem. Note however that this objective can be harnessed to document/word clustering domain even it is not the objective of NMF. In relying on NMF, this thesis focuses on improving clustering of large text data arising in the form of highly sparse document-term matrices. This objective is first achieved, by proposing several types of regularizations of the original NMF objective function. Setting this objective in a probabilistic context, a new NMF model is introduced bringing theoretical foundations for establishing the connection between NMF and Finite Mixture Models of exponential families leading, therefore, to offer interesting regularizations. This allows to set NMF in a real clustering spirit. Finally, a Bayesian Poisson Latent Block model is proposed to improve document andword clustering simultaneously by capturing noisy term features. This can be connected to NMTF (Nonnegative Matrix factorization Tri-factorization) devoted to co-clustering. Experiments on real datasets have been carried out to support the proposals of the thesis
Style APA, Harvard, Vancouver, ISO itp.
5

Lomet, Aurore. "Sélection de modèle pour la classification croisée de données continues". Compiègne, 2012. http://www.theses.fr/2012COMP2041.

Pełny tekst źródła
Streszczenie:
La classification croisée a pour objectif de partitionner simultanément les lignes et les colonnes d'un tableau de données pour révéler la structure en blocs homogènes. Parmi les différentes méthodes proposées, l'une d'entre elles utilise le modèle probabiliste des blocs latents. Pour un même jeu de données, plusieurs classifications croisées qui diffèrent par le nombre de classes par exemple peuvent être proposées. La sélection du nombre de classes devient alors un problème fondamental afin d'obtenir une classification des données pertinente. De plus, l'absence de jeu de données réelles de référence limite l'évaluation objective des méthodes d'apprentissage. De ce fait, l'utilisation des données simulées est particulièrement intéressante. Cependant, leur conception pose plusieurs problèmes : la quantification de la difficulté du problème d'apprentissage qui s'exprime par le risque de Bayes en classification simple est problématique en raison de la double nature de la dimension du tableau. La première contribution de cette thèse réside donc en la définition d'une mesure objective du niveau de difficulté d'un problème de classification croisée afin de proposer un protocole de simulation pour lequel le degré de mélange des classes est contrôlé. Pour ce faire, nous revenons sur la définition des fonctions de coût des règles de Bayes et des risques. Puis, nous décrivons les difficultés liées à l'estimation de ces quantités. A partir de ces dernières, nous définissons un risque de Bayes conditionné par le tableau de données observé comme mesure du niveau de difficulté. Par la suite, nous proposons un protocole de simulation utilisant le modèle de blocs latents pour lequel le niveau de difficulté exprimé par ce risque conditionnel est contrôlé. Pour le choix du nombre de classes, nous proposons dans cette thèse une nouvelle procédure utilisant des critères de sélection de modelé reposant sur des justifications théoriques et ne nécessitant pas de calculs supplémentaires coûteux après l'estimation du modèle de blocs latents. Puisque nous employons un modèle probabiliste, nous adaptons le critère ICL qui a été initialement défini pour le choix du nombre de composants des modèles de mélange. Nous développons trois versions qui diffèrent suivant les hypothèses et les distributions a priori posées. Nous proposons également un critère dérivé BIC. Les résultats obtenus du critère ICL exact informatif et des deux critères asymptotiques ICLBIC et BIC sur des jeux de données simulées et réelles montrent que ceux-ci sont performants et robustes pour des tableaux suffisamment grands quant à la sélection du nombre de classes et du type de modèle.
Style APA, Harvard, Vancouver, ISO itp.
6

Schmutz, Amandine. "Contributions à l'analyse de données fonctionnelles multivariées, application à l'étude de la locomotion du cheval de sport". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1241.

Pełny tekst źródła
Streszczenie:
Avec l'essor des objets connectés pour fournir un suivi systématique, objectif et fiable aux sportifs et à leur entraineur, de plus en plus de paramètres sont collectés pour un même individu. Une alternative aux méthodes d'évaluation en laboratoire est l'utilisation de capteurs inertiels qui permettent de suivre la performance sans l'entraver, sans limite d'espace et sans procédure d'initialisation fastidieuse. Les données collectées par ces capteurs peuvent être vues comme des données fonctionnelles multivariées : se sont des entités quantitatives évoluant au cours du temps de façon simultanée pour un même individu statistique. Cette thèse a pour objectif de chercher des paramètres d'analyse de la locomotion du cheval athlète à l'aide d'un capteur positionné dans la selle. Cet objet connecté (centrale inertielle, IMU) pour le secteur équestre permet de collecter l'accélération et la vitesse angulaire au cours du temps, dans les trois directions de l'espace et selon une fréquence d'échantillonnage de 100 Hz. Une base de données a ainsi été constituée rassemblant 3221 foulées de galop, collectées en ligne droite et en courbe et issues de 58 chevaux de sauts d'obstacles de niveaux et d'âges variés. Nous avons restreint notre travail à la prédiction de trois paramètres : la vitesse par foulée, la longueur de foulée et la qualité de saut. Pour répondre aux deux premiers objectifs nous avons développé une méthode de clustering fonctionnelle multivariée permettant de diviser notre base de données en sous-groupes plus homogènes du point de vue des signaux collectés. Cette méthode permet de caractériser chaque groupe par son profil moyen, facilitant leur compréhension et leur interprétation. Mais, contre toute attente, ce modèle de clustering n'a pas permis d'améliorer les résultats de prédiction de vitesse, les SVM restant le modèle ayant le pourcentage d'erreur inférieur à 0.6 m/s le plus faible. Il en est de même pour la longueur de foulée où une précision de 20 cm est atteinte grâce aux Support Vector Machine (SVM). Ces résultats peuvent s'expliquer par le fait que notre base de données est composée uniquement de 58 chevaux, ce qui est un nombre d'individus très faible pour du clustering. Nous avons ensuite étendu cette méthode au co-clustering de courbes fonctionnelles multivariées afin de faciliter la fouille des données collectées pour un même cheval au cours du temps. Cette méthode pourrait permettre de détecter et prévenir d'éventuels troubles locomoteurs, principale source d'arrêt du cheval de saut d'obstacle. Pour finir, nous avons investigué les liens entre qualité du saut et les signaux collectés par l'IMU. Nos premiers résultats montrent que les signaux collectés par la selle seuls ne suffisent pas à différencier finement la qualité du saut d'obstacle. Un apport d'information supplémentaire sera nécessaire, à l'aide d'autres capteurs complémentaires par exemple ou encore en étoffant la base de données de façon à avoir un panel de chevaux et de profils de sauts plus variés
With the growth of smart devices market to provide athletes and trainers a systematic, objective and reliable follow-up, more and more parameters are monitored for a same individual. An alternative to laboratory evaluation methods is the use of inertial sensors which allow following the performance without hindering it, without space limits and without tedious initialization procedures. Data collected by those sensors can be classified as multivariate functional data: some quantitative entities evolving along time and collected simultaneously for a same individual. The aim of this thesis is to find parameters for analysing the athlete horse locomotion thanks to a sensor put in the saddle. This connected device (inertial sensor, IMU) for equestrian sports allows the collection of acceleration and angular velocity along time in the three space directions and with a sampling frequency of 100 Hz. The database used for model development is made of 3221 canter strides from 58 ridden jumping horses of different age and level of competition. Two different protocols are used to collect data: one for straight path and one for curved path. We restricted our work to the prediction of three parameters: the speed per stride, the stride length and the jump quality. To meet the first to objectives, we developed a multivariate functional clustering method that allow the division of the database into smaller more homogeneous sub-groups from the collected signals point of view. This method allows the characterization of each group by it average profile, which ease the data understanding and interpretation. But surprisingly, this clustering model did not improve the results of speed prediction, Support Vector Machine (SVM) is the model with the lowest percentage of error above 0.6 m/s. The same applied for the stride length where an accuracy of 20 cm is reached thanks to SVM model. Those results can be explained by the fact that our database is build from 58 horses only, which is a quite low number of individuals for a clustering method. Then we extend this method to the co-clustering of multivariate functional data in order to ease the datamining of horses’ follow-up databases. This method might allow the detection and prevention of locomotor disturbances, main source of interruption of jumping horses. Lastly, we looked for correlation between jumping quality and signals collected by the IMU. First results show that signals collected by the saddle alone are not sufficient to differentiate finely the jumping quality. Additional information will be needed, for example using complementary sensors or by expanding the database to have a more diverse range of horses and jump profiles
Style APA, Harvard, Vancouver, ISO itp.
7

Mero, Gulten. "Modèles à facteurs latents et rentabilités des actifs financiers". Rennes 1, 2010. http://www.theses.fr/2010REN1G011.

Pełny tekst źródła
Streszczenie:
Devant l'échec empirique des facteurs de risque observables dans l'explication des rentabilités financières, le but de cette thèse est d'utiliser les modèles à facteurs latents et les développements économétriques récents afin d'améliorer la compréhension du risque affectant les actifs. Dans un premier temps, nous décrivons les modèles à facteurs latents appliqués à la finance et les principales méthodes d'estimation. Nous présentons également comment le recours aux théories financières et économétriques permet de relier les facteurs statistiques avec des variables économiques et financières afin de faciliter leur interprétation. Dans un second temps, nous utilisons les modèles à facteurs latents en coupes transversales afin d'estimer et interpréter le profil de risque des Hedge Funds et des actions. La méthodologie mise en place est cohérente avec les propriétés statistiques inhérentes aux échantillons de grandes dimensions ainsi qu'avec le caractère dynamique du risque systématique. Dans un troisième temps, nous modélisons un marché où les prix et les volumes sont sensibles aux chocs de liquidité intra-journaliers. Nous proposons un modèle structurel de mélange de distributions à deux facteurs latents permettant de capturer l'impact des chocs d'information et des frictions de liquidité. Ce modèle permet de construire une mesure de liquidité statique propre à chaque titre. Ensuite, nous étendons notre modèle structurel afin de tenir compte des propriétés dynamiques du risque de liquidité. En particulier nous distinguons deux problèmes de liquidité : les frictions de liquidité se produisant à une fréquence intra-journalière et les événements d'illiquidité détériorant la qualité de marché de façon persistante. Enfin, nous avons recours à la modélisation statistique en séries chronologiques pour construire des mesures dynamiques de liquidité
This thesis aims at using latent factor models and recent econometric developments in order to obtain a better understanding of underlying asset risk. Firstly, we describe the various latent factor models currently applied to finance as well as the main estimation methodologies. We also present how financial and econometrical theories allow us to link statistical factors to economic and financial variables, hence facilitating their interpretation. Secondly, we use a cross-sectional approach in order to explain and interpret the risk profile of hedge fund and stock returns. Our methodology is consistent with statistical properties inherent to large samples as well as the dynamic properties of systematic risk. Thirdly, we model a market where prices and volumes are influenced by intra-day liquidity shocks. We propose a mixture of distribution model with two latent factors allowing us to capture the respective impacts of both information shocks and liquidity frictions. This model enables us to build a static stock-specific liquidity measure using daily data. Moreover, we extend our structural model in order to take into account dynamic properties of liquidity risk. In particular, we distinguish two liquidity issues : intra-day liquidity frictions and illiquidity events deteriorating market quality in a persistent manner. Finally, we use signal extraction modeling in order to build dynamic liquidity measures
Style APA, Harvard, Vancouver, ISO itp.
8

Frichot, Eric. "Modèles à facteurs latents pour les études d'association écologique en génétique des populations". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENS018/document.

Pełny tekst źródła
Streszczenie:
Nous introduisons un ensemble de modèles à facteurs latents dédié à la génomique du paysage et aux tests d'associations écologiques. Cela comprend des méthodes statistiques pour corriger des effets d'autocorrélation spatiale sur les cartes de composantes principales en génétique des populations (spFA), des méthodes pour estimer rapidement et efficacement les coefficients de métissage individuel à partir de matrices de génotypes de grande taille et évaluer le nombre de populations ancestrales (sNMF) et des méthodes pour identifier les polymorphismes génétiques qui montrent de fortes corrélations avec des gradients environnementaux ou avec des variables utilisées comme des indicateurs pour des pressions écologiques (LFMM). Nous avons aussi développé un ensemble de logiciels libres associés à ces méthodes, basés sur des programmes optimisés en C qui peuvent passer à l'échelle avec la dimension de très grand jeu de données, afin d'effectuer des analyses de structures de population et des cribles génomiques pour l'adaptation locale
We introduce a set of latent factor models dedicated to landscape genomics and ecological association tests. It includes statistical methods for correcting principal component maps for effects of spatial autocorrelation (spFA); methods for estimating ancestry coefficients from large genotypic matrices and evaluating the number of ancestral populations (sNMF); and methods for identifying genetic polymorphisms that exhibit high correlation with some environmental gradient or with the variables used as proxies for ecological pressures (LFMM). We also developed a set of open source softwares associated with the methods, based on optimized C programs that can scale with the dimension of very large data sets, to run analyses of population structure and genome scans for local adaptation
Style APA, Harvard, Vancouver, ISO itp.
9

Galéra, Cyril. "Construction de blocs géographiques cohérents dans GOCAD". Vandoeuvre-les-Nancy, INPL, 2002. http://www.theses.fr/2002INPLA05N.

Pełny tekst źródła
Streszczenie:
La définition d'un modèle géologique 3D est un travail complexe, fait à partir de données peu précises et laisse une large place à l'interprétation du géologue. Pour valider la cohérence de son modèle, le géologue dispose de méthodes de restaurations qui consistent à déplier le modèle pour voir si avant déformation, le modèle apparaît probable. Néanmoins l'efficacité de ces méthodes en 3D est sujette à caution. Aussi, une autre approche présentée dans cette thèse et implémentée dans le géomodeleur GOCAD, consiste à construire de nouveaux horizons en se basant directement sur les données les plus fiables et le mode de déformation supposé, le cisaillement simple ou glissement couche à couche. Grâce à ces outils, le géologue pourra ainsi compléter ou tester la cohérence du modèle. La développabilité ou dépliabilité a également été étudiée dans cette thèse pour impléménter de nouvelles méthodes de dépliages et de corrections d' artéfacts
The definition of a 3D geological model is a complicated task, done ftom poor data and let a large space to the geologist interpretation. Thanks to restorations methods which consist in unfolding the model in order to see if it seems credible before deformation. Nevertheless, the efficiency of this method in 3D is subject to caution. Also, another approach presented in this thesis and implemented in the GOCAD geomodeller consist in building directly new horizons based on the most reliable data and the supposed deformation, the simple shear or flexural slip. Thanks to these tools, the geologist will thus be able to comp!ete and check the model coherency. The developability or unfoldability of the horizons have also been study in these in order to implement new unfoldable methods and artefacts corrections
Style APA, Harvard, Vancouver, ISO itp.
10

Delhomme, Fabien. "Etude du comportement sous impact d'une structure pare-blocs en béton armé". Chambéry, 2005. http://www.theses.fr/2005CHAMS004.

Pełny tekst źródła
Streszczenie:
Cette thèse a pour objet l'étude du comportement d'un nouveau système de galerie de protection contre les chutes de blocs appelé Pare-blocs Structurellement Dissipant (PSD). L'innovation majeure, par rapport aux solutions classiques, est de dissiper l'énergie d'impact directement dans la dalle en béton armé ou dans des appuis fusibles, et non plus dans une couche de matériau amortissant. Les phénomènes dynamiques ayant lieu lors de l'impact d'un bloc sur la dalle sont analysés au moyen d'expérimentations sur une structure PSD à l'échelle î 1/3. Les efforts de percussion appliqués à la dalle, durant la phase de contact avec le bloc, sont estimés ainsi que les différents transferts et dissipations d'énergie. Les résultats ont permis de valider le principe de fonctionnement et de réparation des PSD et font apparaître que la dalle est endommagée par trois mécanismes majeurs: le poinçonnement, la mise en flexion et la déstructuration de surface de la zone impactée. Les principales grandeurs expérimentales sont retrouvées à l'aide de simulations numériques des essais avec un code éléments finis. Un modèle mécanique simplifié "masses ressorts amortisseur" est également développé dans le but de concevoir des méthodes de dimensionnement applicables en bureau d'études. Les perspectives de ce travail sont d'aboutir à l'établissement de recommandations sur la conception et la réalisation des pare-blocs structurellement dissipant
This thesis studies the behaviour of a new concept for a protection gallery under rock fall, called Structurally Dissipating Rock-shed (SDR). The main innovation, compared to conventional solutions, is to dissipate the impact energy directly into the reinforced concrete slab or into fuse supports, and no longer in a cushion layer. The dynamic phenomena, taking place during the impact of a block onto the slab, are analyzed by means of experiments on a 1/3 scale SDR structure. The percussion loads applied to the slab, during the contact phase with the block, are assessed as weIl as the various energy transfers and dissipations. The results allowed to validate the operating and repair principles of the SDR and revealed that the slab is damaged by three main mechanisms: the punching, the bending and the breaking clown at surface level of the impacted zone. The principal experimental values are found by numerical simulations of the tests with a finite elements tool. A simplified mechanical model "masses-springs-damping" is also developed with the aim of implementing design methods for engineering offices. The prospects for this work are to succeed in establishing design and construction recommendations for structurally dissipating rock-sheds
Style APA, Harvard, Vancouver, ISO itp.
11

Poivet, Sylwia. "Adhésion instantanée de deux systèmes modèles : liquides simples et copolymères à blocs". Bordeaux 1, 2003. http://www.theses.fr/2003BOR12763.

Pełny tekst źródła
Streszczenie:
Nous étudions, dans une approche expérimentale à visée fondamentale tout autant qu'appliquée, les mécanismes de séparation et de rupture qui sont en jeu lors de la mise en traction d'un matériau fortement confiné entre deux plaques parallèles (test du probe-tack). Cette étude est menée sur deux systèmes modèles ; les liquides simples et les copolymères à blocs. La simplicité du premier système nous permet de donner une interprétation détaillée de nos observations. Deux régimes en compétition sont ainsi identifiés : un régime de digitation et un régime de cavitation. En utilisant des modèles élaborés pour les liquides newtoniens, la forme des courbes de force, propre à chaque régime, ainsi que les conditions nécessaires à la cavitation sont modélisées et mènent à l'élaboration d'un "diagramme de phases" permettant de prédire les différents régimes. Le très bon accord entre nos données expérimentales et la théorie montre que la cavitation, méscanisme communément admis comme spécifique des matériaux viscoélastiques tels que les adhésifs, peut tout aussi bien se produire dans les liquides visqueux. Le second système étudié, susceptible d'applications en tant que matériau adhésif même en milieu humide, est constitué essentiellement de copolymères diblocs amphiphiles. Ces matériaux sont caractérisés du point de vue de leur structure, de leur capacité à absorber l'eau et de leurs propriétés adhésives à sec et sur substrat humide. Notre étude met en évidence le rôle essentiel de la structure sur les propriétés d'adhésion et montre que leur caractère emphiphile fait de ces matériaux des candidats prometteurs pour résoudre le problème de l'adhésion sur substrat humide
Within an expérimental approach whose scope is fundamental as well as applied, we study the separation mechanisms encoutered when a material confined between two parallel plates is put under traction (probe-tack test). The study is conducted on two model systems : simple liquids and block copolymers. The simplicity of the first system allows us to provide a detailed interpretation of our observations. Indeed, two competing regimes are identified : a fingering regime and a cavitation regime. The curve shape for the measured force, specific to each regime, along with the conditions required for cavitation, are modelled using models for Newtonian fluids. This allows us to build a phase diagram capable of prediction the different regimes. The excellent fit of the experimental data with our theoretical model demonstrates that the cavitation mechanism, commonly thought to be characteristic of viscoelastic materials like adhesives, can also be encountered in viscous liquids. The second system, a candidate for use as an adhesive material even in wet environment, is essentially composed of amphiphilic diblock copolymers. We characterize the structure of these materials, their ability to absorb water and their adhesive properties on dry and wet substrates. Our study demonstrates the critical role of the polymer structure on the adhesion properties. Moreover, we show that, owing to their amphiphilic behaviour, these materials are particulary promising for the well-known problem of adhesion on wet surfaces
Style APA, Harvard, Vancouver, ISO itp.
12

Amoualian, Hesam. "Modélisation et apprentissage de dépendances á l’aide de copules dans les modéles probabilistes latents". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM078/document.

Pełny tekst źródła
Streszczenie:
Ce travail de thése a pour objectif de s’intéresser à une classe de modèles hiérarchiques bayesiens, appelés topic models, servant à modéliser de grands corpus de documents et ceci en particulier dans le cas où ces documents arrivent séquentiellement. Pour cela, nous introduisons au Chapitre 3, trois nouveaux modèles prenant en compte les dépendances entre les thèmes relatifs à chaque document pour deux documents successifs. Le premier modèle s’avère être une généralisation directe du modèle LDA (Latent Dirichlet Allocation). On utilise une loi de Dirichlet pour prendre en compte l’influence sur un document des paramètres relatifs aux thèmes sous jacents du document précédent. Le deuxième modèle utilise les copules, outil générique servant à modéliser les dépendances entre variables aléatoires. La famille de copules utilisée est la famille des copules Archimédiens et plus précisément la famille des copules de Franck qui vérifient de bonnes propriétés (symétrie, associativité) et qui sont donc adaptés à la modélisation de variables échangeables. Enfin le dernier modèle est une extension non paramétrique du deuxième. On intègre cette fois ci lescopules dans la construction stick-breaking des Processus de Dirichlet Hiérarchique (HDP). Nos expériences numériques, réalisées sur cinq collections standard, mettent en évidence les performances de notre approche, par rapport aux approches existantes dans la littérature comme les dynamic topic models, le temporal LDA et les Evolving Hierarchical Processes, et ceci à la fois sur le plan de la perplexité et en terme de performances lorsqu’on cherche à détecter des thèmes similaires dans des flux de documents. Notre approche, comparée aux autres, se révèle être capable de modéliser un plus grand nombre de situations allant d’une dépendance forte entre les documents à une totale indépendance. Par ailleurs, l’hypothèse d’échangeabilité sous jacente à tous les topics models du type du LDA amène souvent à estimer des thèmes différents pour des mots relevant pourtant du même segment de phrase ce qui n’est pas cohérent. Dans le Chapitre 4, nous introduisons le copulaLDA (copLDA), qui généralise le LDA en intégrant la structure du texte dans le modèle of the text et de relaxer l’hypothèse d’indépendance conditionnelle. Pour cela, nous supposons que les groupes de mots dans un texte sont reliés thématiquement entre eux. Nous modélisons cette dépendance avec les copules. Nous montrons de manièreempirique l’efficacité du modèle copLDA pour effectuer à la fois des tâches de natureintrinsèque et extrinsèque sur différents corpus accessibles publiquement. Pour compléter le modèle précédent (copLDA), le chapitre 5 présente un modèle de type LDA qui génére des segments dont les thèmes sont cohérents à l’intérieur de chaque document en faisant de manière simultanée la segmentation des documents et l’affectation des thèmes à chaque mot. La cohérence entre les différents thèmes internes à chaque groupe de mots est assurée grâce aux copules qui relient les thèmes entre eux. De plus ce modèle s’appuie tout à la fois sur des distributions spécifiques pour les thèmes reliés à chaque document et à chaque groupe de mots, ceci permettant de capturer les différents degrés de granularité. Nous montrons que le modèle proposé généralise naturellement plusieurs modèles de type LDA qui ont été introduits pour des tâches similaires. Par ailleurs nos expériences, effectuées sur six bases de données différentes mettent en évidence les performances de notre modèle mesurée de différentes manières : à l’aide de la perplexité, de la Pointwise Mutual Information Normalisée, qui capture la cohérence entre les thèmes et la mesure Micro F1 measure utilisée en classification de texte
This thesis focuses on scaling latent topic models for big data collections, especiallywhen document streams. Although the main goal of probabilistic modeling is to find word topics, an equally interesting objective is to examine topic evolutions and transitions. To accomplish this task, we propose in Chapter 3, three new models for modeling topic and word-topic dependencies between consecutive documents in document streams. The first model is a direct extension of Latent Dirichlet Allocation model (LDA) and makes use of a Dirichlet distribution to balance the influence of the LDA prior parameters with respect to topic and word-topic distributions of the previous document. The second extension makes use of copulas, which constitute a generic tool to model dependencies between random variables. We rely here on Archimedean copulas, and more precisely on Franck copula, as they are symmetric and associative and are thus appropriate for exchangeable random variables. Lastly, the third model is a non-parametric extension of the second one through the integration of copulas in the stick-breaking construction of Hierarchical Dirichlet Processes (HDP). Our experiments, conducted on five standard collections that have been used in several studies on topic modeling, show that our proposals outperform previous ones, as dynamic topic models, temporal LDA and the Evolving Hierarchical Processes,both in terms of perplexity and for tracking similar topics in document streams. Compared to previous proposals, our models have extra flexibility and can adapt to situations where there are no dependencies between the documents.On the other hand, the "Exchangeability" assumption in topic models like LDA oftenresults in inferring inconsistent topics for the words of text spans like noun-phrases, which are usually expected to be topically coherent. In Chapter 4, we propose copulaLDA (copLDA), that extends LDA by integrating part of the text structure to the model and relaxes the conditional independence assumption between the word-specific latent topics given the per-document topic distributions. To this end, we assume that the words of text spans like noun-phrases are topically bound and we model this dependence with copulas. We demonstrate empirically the effectiveness of copLDA on both intrinsic and extrinsic evaluation tasks on several publicly available corpora. To complete the previous model (copLDA), Chapter 5 presents an LDA-based model that generates topically coherent segments within documents by jointly segmenting documents and assigning topics to their words. The coherence between topics is ensured through a copula, binding the topics associated to the words of a segment. In addition, this model relies on both document and segment specific topic distributions so as to capture fine-grained differences in topic assignments. We show that the proposed model naturally encompasses other state-of-the-art LDA-based models designed for similar tasks. Furthermore, our experiments, conducted on six different publicly available datasets, show the effectiveness of our model in terms of perplexity, Normalized Pointwise Mutual Information, which captures the coherence between the generated topics, and the Micro F1 measure for text classification
Style APA, Harvard, Vancouver, ISO itp.
13

Tadde, Oladédji bachirou. "Modélisation dynamique des sphères anatomique, cognitive et fonctionnelle dans la maladie d’Alzheimer : une approche par processus latents". Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0306/document.

Pełny tekst źródła
Streszczenie:
En santé publique, l’étude de la progression d’une maladie chronique et de son mécanisme peut nécessiter la modélisation conjointe de plusieurs marqueurs longitudinaux et leur structure de dépendances. Des approches de modélisation existent dans la littérature pour répondre partiellement aux objectifs de modélisation. Ces approches deviennent rapidement coûteuses et difficiles à utiliser dans certaines maladies complexes à caractère latent, dynamique et multidimensionnel, comme la maladie d’Alzheimer. Dans un tel contexte, l’objectif de cette thèse était de proposer une méthodologie innovante pour modéliser la dynamique de plusieurs processus latents et leurs influences temporelles à des fins d’interprétations causales à partir d’observations répétées de marqueurs continus Gaussiens et non Gaussiens. L’approche proposée, centrée sur des processus latents, définit un modèle structurel pour la trajectoire des processus latents et un modèle d’observation pour lier les marqueurs longitudinaux aux processus qu’ils mesurent. Dans le modèle structurel, défini en temps discret, le niveau initial et le taux de variation des processus spécifiques aux individus sont modélisés par des modèles linéaires à effets mixtes. Le modèle du taux de variation comporte une composante auto-régressive d’ordre 1 qui permet de modéliser l’effet d’un processus sur un autre processus en tenant explicitement compte du temps. Le modèle structurel, tel que défini, bénéficie des mêmes interprétations causales que les modèles à équations différentielles (ODE) de l’approche mécaniste de la causalité tout en évitant les problèmes numériques de ces derniers. Le modèle d’observation utilise des fonctions de lien paramétrées pour que le modèle puisse être appliqué à des marqueurs longitudinaux possiblement non Gaussiens. La méthodologie a été validée par des études de simulations. Cette approche, appliquée à la maladie d’Alzheimer a permis de décrire conjointement la dynamique de l’atrophie de l’hippocampe, du déclin de la mémoire épisodique, du déclin de la fluence verbale et de la perte d’autonomie ainsi que les influences temporelles entre ces dimensions dans plusieurs phases de la maladie à partir des données ADNI
In public health, the study of the progression of a chronic disease and its mechanisms may require the joint modeling of several longitudinal markers and their dependence structure. Modeling approaches exist in the literature to partially address these modeling objectives. But these approaches become rapidly numerically expensive and difficult to use in some complex diseases involving latent, dynamic and multidimensional aspects, such as in Alzheimer’s disease. The aim of this thesis was to propose an innovative methodology for modeling the dynamics of several latent processes and their temporal influences for the purpose of causal interpretations, from repeated observations of continuous Gaussian and non Gaussian markers. The proposed latent process approach defines a structural model in discrete time for the latent processes trajectories and an observation model to relate longitudinal markers to the process they measure. In the structural model, the initial level and the rate of change of individual-specific processes are modeled by mixedeffect linear models. The rate of change model has a first order auto-regressive component that can model the effect of a process on another process by explicitly accounting for time. The structural model as defined benefits from the same causal interpretations as the models with differential equations (ODE) of the mechanistic approach of the causality while avoiding major numerical problems. The observation model uses parameterized link functions to handle possibly non-Gaussian continuous markers. The consistency of the ML estimators and the accuracy of the inference of the influence structures between the latent processes have been validated by simulation studies. This approach, applied to Alzheimer’s disease, allowed to jointly describe the dynamics of hippocampus atrophy, the decline of episodic memory, the decline of verbal fluency, and loss of autonomy as well as the temporal influences between these dimensions in several stages of Alzheimer’s dementia from the data of the ADNI initiative
Style APA, Harvard, Vancouver, ISO itp.
14

Balikas, Georgios. "Explorer et apprendre à partir de collections de textes multilingues à l'aide des modèles probabilistes latents et des réseaux profonds". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM054/document.

Pełny tekst źródła
Streszczenie:
Le texte est l'une des sources d'informations les plus répandues et les plus persistantes. L'analyse de contenu du texte se réfère à des méthodes d'étude et de récupération d'informations à partir de documents. Aujourd'hui, avec une quantité de texte disponible en ligne toujours croissante l'analyse de contenu du texte revêt une grande importance parce qu' elle permet une variété d'applications. À cette fin, les méthodes d'apprentissage de la représentation sans supervision telles que les modèles thématiques et les word embeddings constituent des outils importants.L'objectif de cette dissertation est d'étudier et de relever des défis dans ce domaine.Dans la première partie de la thèse, nous nous concentrons sur les modèles thématiques et plus précisément sur la manière d'incorporer des informations antérieures sur la structure du texte à ces modèles.Les modèles de sujets sont basés sur le principe du sac-de-mots et, par conséquent, les mots sont échangeables. Bien que cette hypothèse profite les calculs des probabilités conditionnelles, cela entraîne une perte d'information.Pour éviter cette limitation, nous proposons deux mécanismes qui étendent les modèles de sujets en intégrant leur connaissance de la structure du texte. Nous supposons que les documents sont répartis dans des segments de texte cohérents. Le premier mécanisme attribue le même sujet aux mots d'un segment. La seconde, capitalise sur les propriétés de copulas, un outil principalement utilisé dans les domaines de l'économie et de la gestion des risques, qui sert à modéliser les distributions communes de densité de probabilité des variables aléatoires tout en n'accédant qu'à leurs marginaux.La deuxième partie de la thèse explore les modèles de sujets bilingues pour les collections comparables avec des alignements de documents explicites. En règle générale, une collection de documents pour ces modèles se présente sous la forme de paires de documents comparables. Les documents d'une paire sont écrits dans différentes langues et sont thématiquement similaires. À moins de traductions, les documents d'une paire sont semblables dans une certaine mesure seulement. Pendant ce temps, les modèles de sujets représentatifs supposent que les documents ont des distributions thématiques identiques, ce qui constitue une hypothèse forte et limitante. Pour le surmonter, nous proposons de nouveaux modèles thématiques bilingues qui intègrent la notion de similitude interlingue des documents qui constituent les paires dans leurs processus générateurs et d'inférence.La dernière partie de la thèse porte sur l'utilisation d'embeddings de mots et de réseaux de neurones pour trois applications d'exploration de texte. Tout d'abord, nous abordons la classification du document polylinguistique où nous soutenons que les traductions d'un document peuvent être utilisées pour enrichir sa représentation. À l'aide d'un codeur automatique pour obtenir ces représentations de documents robustes, nous démontrons des améliorations dans la tâche de classification de documents multi-classes. Deuxièmement, nous explorons la classification des tweets à plusieurs tâches en soutenant que, en formant conjointement des systèmes de classification utilisant des tâches corrélées, on peut améliorer la performance obtenue. À cette fin, nous montrons comment réaliser des performances de pointe sur une tâche de classification du sentiment en utilisant des réseaux neuronaux récurrents. La troisième application que nous explorons est la récupération d'informations entre langues. Compte tenu d'un document écrit dans une langue, la tâche consiste à récupérer les documents les plus similaires à partir d'un ensemble de documents écrits dans une autre langue. Dans cette ligne de recherche, nous montrons qu'en adaptant le problème du transport pour la tâche d'estimation des distances documentaires, on peut obtenir des améliorations importantes
Text is one of the most pervasive and persistent sources of information. Content analysis of text in its broad sense refers to methods for studying and retrieving information from documents. Nowadays, with the ever increasing amounts of text becoming available online is several languages and different styles, content analysis of text is of tremendous importance as it enables a variety of applications. To this end, unsupervised representation learning methods such as topic models and word embeddings constitute prominent tools.The goal of this dissertation is to study and address challengingproblems in this area, focusing on both the design of novel text miningalgorithms and tools, as well as on studying how these tools can be applied to text collections written in a single or several languages.In the first part of the thesis we focus on topic models and more precisely on how to incorporate prior information of text structure to such models.Topic models are built on the premise of bag-of-words, and therefore words are exchangeable. While this assumption benefits the calculations of the conditional probabilities it results in loss of information.To overcome this limitation we propose two mechanisms that extend topic models by integrating knowledge of text structure to them. We assume that the documents are partitioned in thematically coherent text segments. The first mechanism assigns the same topic to the words of a segment. The second, capitalizes on the properties of copulas, a tool mainly used in the fields of economics and risk management that is used to model the joint probability density distributions of random variables while having access only to their marginals.The second part of the thesis explores bilingual topic models for comparable corpora with explicit document alignments. Typically, a document collection for such models is in the form of comparable document pairs. The documents of a pair are written in different languages and are thematically similar. Unless translations, the documents of a pair are similar to some extent only. Meanwhile, representative topic models assume that the documents have identical topic distributions, which is a strong and limiting assumption. To overcome it we propose novel bilingual topic models that incorporate the notion of cross-lingual similarity of the documents that constitute the pairs in their generative and inference processes. Calculating this cross-lingual document similarity is a task on itself, which we propose to address using cross-lingual word embeddings.The last part of the thesis concerns the use of word embeddings and neural networks for three text mining applications. First, we discuss polylingual document classification where we argue that translations of a document can be used to enrich its representation. Using an auto-encoder to obtain these robust document representations we demonstrate improvements in the task of multi-class document classification. Second, we explore multi-task sentiment classification of tweets arguing that by jointly training classification systems using correlated tasks can improve the obtained performance. To this end we show how can achieve state-of-the-art performance on a sentiment classification task using recurrent neural networks. The third application we explore is cross-lingual information retrieval. Given a document written in one language, the task consists in retrieving the most similar documents from a pool of documents written in another language. In this line of research, we show that by adapting the transportation problem for the task of estimating document distances one can achieve important improvements
Style APA, Harvard, Vancouver, ISO itp.
15

Corneli, Marco. "Dynamic stochastic block models, clustering and segmentation in dynamic graphs". Thesis, Paris 1, 2017. http://www.theses.fr/2017PA01E012/document.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur l’analyse de graphes dynamiques, définis en temps discret ou continu. Nous introduisons une nouvelle extension dynamique du modèle a blocs stochastiques (SBM), appelée dSBM, qui utilise des processus de Poisson non homogènes pour modéliser les interactions parmi les paires de nœuds d’un graphe dynamique. Les fonctions d’intensité des processus ne dépendent que des classes des nœuds comme dans SBM. De plus, ces fonctions d’intensité ont des propriétés de régularité sur des intervalles temporels qui sont à estimer, et à l’intérieur desquels les processus de Poisson redeviennent homogènes. Un récent algorithme d’estimation pour SBM, qui repose sur la maximisation d’un critère exact (ICL exacte) est ici adopté pour estimer les paramètres de dSBM et sélectionner simultanément le modèle optimal. Ensuite, un algorithme exact pour la détection de rupture dans les séries temporelles, la méthode «pruned exact linear time» (PELT), est étendu pour faire de la détection de rupture dans des données de graphe dynamique selon le modèle dSBM. Enfin, le modèle dSBM est étendu ultérieurement pour faire de l’analyse de réseau textuel dynamique. Les réseaux sociaux sont un exemple de réseaux textuels: les acteurs s’échangent des documents (posts, tweets, etc.) dont le contenu textuel peut être utilisé pour faire de la classification et détecter la structure temporelle du graphe dynamique. Le modèle que nous introduisons est appelé «dynamic stochastic topic block model» (dSTBM)
This thesis focuses on the statistical analysis of dynamic graphs, both defined in discrete or continuous time. We introduce a new extension of the stochastic block model (SBM) for dynamic graphs. The proposed approach, called dSBM, adopts non homogeneous Poisson processes to model the interaction times between pairs of nodes in dynamic graphs, either in discrete or continuous time. The intensity functions of the processes only depend on the node clusters, in a block modelling perspective. Moreover, all the intensity functions share some regularity properties on hidden time intervals that need to be estimated. A recent estimation algorithm for SBM, based on the greedy maximization of an exact criterion (exact ICL) is adopted for inference and model selection in dSBM. Moreover, an exact algorithm for change point detection in time series, the "pruned exact linear time" (PELT) method is extended to deal with dynamic graph data modelled via dSBM. The approach we propose can be used for change point analysis in graph data. Finally, a further extension of dSBM is developed to analyse dynamic net- works with textual edges (like social networks, for instance). In this context, the graph edges are associated with documents exchanged between the corresponding vertices. The textual content of the documents can provide additional information about the dynamic graph topological structure. The new model we propose is called "dynamic stochastic topic block model" (dSTBM).Graphs are mathematical structures very suitable to model interactions between objects or actors of interest. Several real networks such as communication networks, financial transaction networks, mobile telephone networks and social networks (Facebook, Linkedin, etc.) can be modelled via graphs. When observing a network, the time variable comes into play in two different ways: we can study the time dates at which the interactions occur and/or the interaction time spans. This thesis only focuses on the first time dimension and each interaction is assumed to be instantaneous, for simplicity. Hence, the network evolution is given by the interaction time dates only. In this framework, graphs can be used in two different ways to model networks. Discrete time […] Continuous time […]. In this thesis both these perspectives are adopted, alternatively. We consider new unsupervised methods to cluster the vertices of a graph into groups of homogeneous connection profiles. In this manuscript, the node groups are assumed to be time invariant to avoid possible identifiability issues. Moreover, the approaches that we propose aim to detect structural changes in the way the node clusters interact with each other. The building block of this thesis is the stochastic block model (SBM), a probabilistic approach initially used in social sciences. The standard SBM assumes that the nodes of a graph belong to hidden (disjoint) clusters and that the probability of observing an edge between two nodes only depends on their clusters. Since no further assumption is made on the connection probabilities, SBM is a very flexible model able to detect different network topologies (hubs, stars, communities, etc.)
Style APA, Harvard, Vancouver, ISO itp.
16

Empereur-Mot, Luc. "La fragmentation naturelle des massifs rocheux : modèles de blocs et bases de données tridimensionnelles ; réalisation, exploration géométrique et applications". Chambéry, 2000. http://www.theses.fr/2000CHAMS012.

Pełny tekst źródła
Streszczenie:
"La connaissance du milieu fracturé tridimensionnel est basée sur l'observation directe ou indirecte d'extraits, en une ou deux dimensions. Les difficultés de visualisation en 3 dimensions et l'existence constante de nombreuses lacunes géométriques sont un handicap majeur pour la compréhension des lois de comportement complexes du milieu rocheux fracturé. Des modèles numériques dits "équivalents" répondent isolément à une problématique particulière du réseau de fractures (mécanique, hydraulique, thermique). Pourtant, un grand nombre de propriétés physiques du massif rocheux sont conditionnées par la géométrie et la topologie du système de fractures, qui reste une question d'ordre fondamental. C'est un aspect essentiel que nous traitons dans notre modèle OBSIFRAC (modèle objet pour la simulation de la fracturation). L'observation de sections naturelles justifie que l'on représente, dans un milieu soumis à la seule déformation cassante, les discontinuités par des surfaces planes, interconnectées, sans terminaisons libres, limitant des polyèdres convexes. Dés lors, le réseau de fractures peut être vu comme un assemblage de blocs. Cette hypothèse nous a permis de construire une base de données tridimensionnelles du réseau, décrivant de façon exhaustive les constituants géométriques de l'assemblage en question (fractures, blocs, faces, arêtes et noeuds). A partir d'un "germe" ponctuel, le processus de fragmentation affecte un ou plusieurs bloc(s) formé(ś) éventuellement de plusieurs polyèdres élémentaires. L'orientation et la position des plans de fractures peuvent ^etre définies de façon stochastique, statistique ou déterministe. Nous avons développé 4 moteurs de fragmentation, notés A, B, C, et D, qui diffèrent par le protocole de choix du germe d'une part, et par le choix du ou des blocs à diviser d'autre part. Nous présentons pour chaque scénario, une caractérisation descriptive, puis statistique. "
Style APA, Harvard, Vancouver, ISO itp.
17

Laclau, Charlotte. "Hard and fuzzy block clustering algorithms for high dimensional data". Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB014.

Pełny tekst źródła
Streszczenie:
Notre capacité grandissante à collecter et stocker des données a fait de l'apprentissage non supervisé un outil indispensable qui permet la découverte de structures et de modèles sous-jacents aux données, sans avoir à \étiqueter les individus manuellement. Parmi les différentes approches proposées pour aborder ce type de problème, le clustering est très certainement le plus répandu. Le clustering suppose que chaque groupe, également appelé cluster, est distribué autour d'un centre défini en fonction des valeurs qu'il prend pour l'ensemble des variables. Cependant, dans certaines applications du monde réel, et notamment dans le cas de données de dimension importante, cette hypothèse peut être invalidée. Aussi, les algorithmes de co-clustering ont-ils été proposés: ils décrivent les groupes d'individus par un ou plusieurs sous-ensembles de variables au regard de leur pertinence. La structure des données finalement obtenue est composée de blocs communément appelés co-clusters. Dans les deux premiers chapitres de cette thèse, nous présentons deux approches de co-clustering permettant de différencier les variables pertinentes du bruit en fonction de leur capacité \`a révéler la structure latente des données, dans un cadre probabiliste d'une part et basée sur la notion de métrique, d'autre part. L'approche probabiliste utilise le principe des modèles de mélanges, et suppose que les variables non pertinentes sont distribuées selon une loi de probabilité dont les paramètres sont indépendants de la partition des données en cluster. L'approche métrique est fondée sur l'utilisation d'une distance adaptative permettant d'affecter à chaque variable un poids définissant sa contribution au co-clustering. D'un point de vue théorique, nous démontrons la convergence des algorithmes proposés en nous appuyant sur le théorème de convergence de Zangwill. Dans les deux chapitres suivants, nous considérons un cas particulier de structure en co-clustering, qui suppose que chaque sous-ensemble d'individus et décrit par un unique sous-ensemble de variables. La réorganisation de la matrice originale selon les partitions obtenues sous cette hypothèse révèle alors une structure de blocks homogènes diagonaux. Comme pour les deux contributions précédentes, nous nous plaçons dans le cadre probabiliste et métrique. L'idée principale des méthodes proposées est d'imposer deux types de contraintes : (1) nous fixons le même nombre de cluster pour les individus et les variables; (2) nous cherchons une structure de la matrice de données d'origine qui possède les valeurs maximales sur sa diagonale (par exemple pour le cas des données binaires, on cherche des blocs diagonaux majoritairement composés de valeurs 1, et de 0 à l’extérieur de la diagonale). Les approches proposées bénéficient des garanties de convergence issues des résultats des chapitres précédents. Enfin, pour chaque chapitre, nous dérivons des algorithmes permettant d'obtenir des partitions dures et floues. Nous évaluons nos contributions sur un large éventail de données simulées et liées a des applications réelles telles que le text mining, dont les données peuvent être binaires ou continues. Ces expérimentations nous permettent également de mettre en avant les avantages et les inconvénients des différentes approches proposées. Pour conclure, nous pensons que cette thèse couvre explicitement une grande majorité des scénarios possibles découlant du co-clustering flou et dur, et peut être vu comme une généralisation de certaines approches de biclustering populaires
With the increasing number of data available, unsupervised learning has become an important tool used to discover underlying patterns without the need to label instances manually. Among different approaches proposed to tackle this problem, clustering is arguably the most popular one. Clustering is usually based on the assumption that each group, also called cluster, is distributed around a center defined in terms of all features while in some real-world applications dealing with high-dimensional data, this assumption may be false. To this end, co-clustering algorithms were proposed to describe clusters by subsets of features that are the most relevant to them. The obtained latent structure of data is composed of blocks usually called co-clusters. In first two chapters, we describe two co-clustering methods that proceed by differentiating the relevance of features calculated with respect to their capability of revealing the latent structure of the data in both probabilistic and distance-based framework. The probabilistic approach uses the mixture model framework where the irrelevant features are assumed to have a different probability distribution that is independent of the co-clustering structure. On the other hand, the distance-based (also called metric-based) approach relied on the adaptive metric where each variable is assigned with its weight that defines its contribution in the resulting co-clustering. From the theoretical point of view, we show the global convergence of the proposed algorithms using Zangwill convergence theorem. In the last two chapters, we consider a special case of co-clustering where contrary to the original setting, each subset of instances is described by a unique subset of features resulting in a diagonal structure of the initial data matrix. Same as for the two first contributions, we consider both probabilistic and metric-based approaches. The main idea of the proposed contributions is to impose two different kinds of constraints: (1) we fix the number of row clusters to the number of column clusters; (2) we seek a structure of the original data matrix that has the maximum values on its diagonal (for instance for binary data, we look for diagonal blocks composed of ones with zeros outside the main diagonal). The proposed approaches enjoy the convergence guarantees derived from the results of the previous chapters. Finally, we present both hard and fuzzy versions of the proposed algorithms. We evaluate our contributions on a wide variety of synthetic and real-world benchmark binary and continuous data sets related to text mining applications and analyze advantages and inconvenients of each approach. To conclude, we believe that this thesis covers explicitly a vast majority of possible scenarios arising in hard and fuzzy co-clustering and can be seen as a generalization of some popular biclustering approaches
Style APA, Harvard, Vancouver, ISO itp.
18

Ruiz, Daniel. "Résolution de grands systèmes linéaires creux non symétriques par une méthode itérative par blocs dans un environnement multiprocesseur". Toulouse, INPT, 1992. http://www.theses.fr/1992INPT010H.

Pełny tekst źródła
Streszczenie:
Nous nous interessons a une version par blocs de la methode de cimmino pour la resolution de systemes lineaires creux consistants. Une attention particuliere est portee sur les matrices tridiagonales par blocs, pour lesquelles nous montrons comment il est possible de reduire le nombre d'iterations du gradient conjugue, tout en conservant un bon degre de parallelisme. Les differents aspects de la methode ont ete testes sur un alliant fx/80 possedant huit processeurs. Pour des matrices d'iteration qui ne sont pas trop mal conditionnees, l'algorithme du gradient conjugue accelere efficacement la convergence de la methode. Par contre, pour des problemes mal conditionnes, le gradient conjugue classique se comporte assez mal a cause d'une concentration de valeurs propres aux extremites du spectre de la matrice d'iteration. Afin de pallier les mauvaises caracteristiques de ce spectre, d'autres techniques d'acceleration, telles que le gradient conjugue par blocs ou la methode de lanczos par blocs, sont etudiees. Sur certains exemples, ces techniques permettent d'atteindre la convergence, alors que ceci est impossible avec le gradient conjugue classique
Style APA, Harvard, Vancouver, ISO itp.
19

Boulaud, Romain. "Etudes et modélisations du comportement d’un écran de filet pare-blocs à différentes échelles". Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC2017.

Pełny tekst źródła
Streszczenie:
Les écrans de filet pare-blocs sont des ouvrages de protection souples utilisés pour protéger les habitants ainsi que leurs biens du danger des éboulements rocheux dans les régions à risques. Ces structures placées sur la trajectoire des masses en mouvement sont formées d’un filet métallique maintenu au terrain naturel par des poteaux rigides. Lorsqu’elles sont impactées par un bloc, elles subissent des grandes déformations qui nécessitent de modéliser leur comportement en tenant compte de non-linéarités à la fois géométriques et matérielles. Leurs composants sont ainsi représentés dans ce travail par des éléments discrets et le problème mécanique est résolu quant à lui avec un outil de calcul numérique adapté aux grandes transformations. Cet algorithme est ensuite utilisé pour évaluer l’influence de différentes stratégies de modélisation de la nappe de filet, toutes tirées de la littérature scientifique, sur le comportement global d’un écran de protection pare-blocs. Les conclusions de cette étude ainsi que des observations expérimentales ouvrent la voie vers de nouvelles stratégies de modélisation discrète, pour lesquelles le filet est représenté par un nombre restreint de degrés de liberté. La famille de modèles simplifiés développée dans ce travail permet de simuler le comportement d’un ouvrage avec des faibles coûts en temps de calcul, offrant ainsi l’opportunité de mettre en œuvre des études paramétriques complexes et des méthodes de dimensionnements probabilistes
Rockfall barriers are flexible structures that mitigate the risk of rockfall and thus protect people living in risk areas, as well as their property. These structures, placed on the trajectories of the moving blocks, are made of a steel net held on the natural ground by rigid posts. When they are impacted, they undergo large deformations that require modelling their behaviour by taking into account both geometric and material non-linearities. Their components are therefore represented in this work with discrete elements and the mechanical problem is thus solved with a calculation tool adapted to the large déformations problem. This algorithm is also used to assess the influence of different net modelling strategies, from the scientific literature, on the overall behaviour of a rokfall barrier. The conclusions of this study as well as experimental observations pave the way to new discrete modelling strategies, for which the net is represented by a limited number of degrees of freedom. The family of simplified models developed in this work makes it possible to simulate the behaviour of a structure with a low computation time costs, thus offering the opportunity of implementing complex parametric studies or probabilistic dimensioning methods
Style APA, Harvard, Vancouver, ISO itp.
20

Demazeau, Maxime. "Relations structure-effet de nanovecteurs à base de copolymères à blocs pour la thérapie photodynamique : utilisation de modèles de membranes". Electronic Thesis or Diss., Toulouse 3, 2019. http://www.theses.fr/2019TOU30113.

Pełny tekst źródła
Streszczenie:
La thérapie photodynamique (PDT), une thérapie basée sur l'irradiation de molécules photosensibilisatrices pour générer un stress oxydant, est déjà utilisée comme traitement de certaines pathologies. Très souvent, les photosensibilisateurs utilisés sont des molécules fortement hydrophobes qui s'agrègent en milieux aqueux. De ce fait, utilisées seules, elles nécessitent d'être injectées à des concentrations élevées, entraînant un risque de photosensibilisation générale. Pour diminuer cet effet secondaire et rendre le traitement plus efficace, il est possible d'encapsuler ces molécules. Des travaux précédant au sein du laboratoire des IRMCP ont permis le développement de vecteurs à base de copolymères à blocs pour l'encapsulation d'un photosensibilisateur, le phéophorbide-a. Ces travaux ont montré une efficacité de certains de ces vecteurs en conditions PDT sur des cultures cellulaires et ont ouvert des questions sur les processus de réponse cellulaire. L'objectif de ce doctorat était de développer des outils permettant de mieux comprendre les mécanismes ayant lieu lors de l'utilisation de nanovecteurs à base de copolymères à blocs encapsulant du phéophorbide-a et lors de l'irradiation lumineuse du photosensibilisateur. Les nanovecteurs étudiés étaient des micelles formulées à base de trois copolymères différents, le PEO-PCL, le PEO-PLA et le PEO-PS. Pour simplifier le système étudié, nous avons choisi d'utiliser des modèles de membranes pour simuler la cible biologique, des liposomes (ou vésicules lipidiques). En utilisant les propriétés de fluorescence du phéophorbide-a, nous avons pu obtenir les constantes d'affinité du photosensibilisateur pour les micelles et pour les vésicules lipidiques, puis évaluer le passage du phéophorbide-a des micelles vers les vésicules. Dans un second temps, nous nous sommes intéressés aux phénomènes en jeu lors de l'irradiation du photosensibilisateur. Nous avons pu estimer la production relative d'oxygène singulet en fonction du type de micelles utilisé. En suivant la fuite d'une sonde fluorescente contenue dans les liposomes, permettant ainsi de remonter à leur perméabilité, il a été possible mesurer les effets de la production d'oxygène singulet sur l'intégrité de la membrane des liposomes. De manière complémentaire, nous avons suivi l'oxydation des lipides constituant les liposomes durant l'irradiation du phéophorbide-a par spectrométrie de masse. Ces résultats combinés nous ont permis de voir quels étaient les paramètres influençant l'efficacité des micelles encapsulant un photosensibilisateur après irradiation et d'établir un classement de ceux ayant le plus d'effets sur l'intégrité de membranes modèles parmi ceux étudiés
Photodynamic therapy (PDT), a therapy based on the irradiation of photosensitizing molecules to generate an oxidative stress, is already used as a treatment of some pathologies. The photosensitizers used are often highly hydrophobic molecules that aggregate in aqueous medium. Therefore, used by themselves, they require to be injected at high concentrations, leading to a risk of global photosensitization. To reduce this secondary effect and increase the effectiveness of the treatment, it is possible to encapsulate those molecules. Previous work in the IMRCP laboratory has led to the development of block copolymer-based carriers to encapsulate a photosensitizer, pheophorbide-a. This work has showed superior efficiency of some type of carriers compared to others under PDT conditions on cell culture. The aim of this project was to develop tools to better understand the mechanisms occurring when using block copolymers-based nanocarriers encapsulating pheophorbide-a and during the irradiation of the photosensitizer. The nanocarriers studied were block copolymer-based micelles made of PEO-PCL, PEO-PLA and PEO-PS. To simplify the system studied, we chose to use liposomes as membrane models to simulate the biological target. Using the fluorescence properties of pheophorbide-a, we were able to obtain the affinity constants of the photosensitizer for the micelles and the lipid vesicles, and then evaluate the transfer of pheophorbide-a from the micelles to the vesicles. Following that, we investigated the phenomena occurring during the irradiation of the photosensitizer. We were able to estimate the relative production of singlet oxygen depending on the type of micelles used. By monitoring the leakage of a fluorescent probe contained in the liposomes, allowing us to evaluate their permeability, it was possible to measure the effects of singlet oxygen production on the integrity of the liposome membrane. Complementarily, we followed the oxidation of the lipids of the liposomes during the irradiation of pheophorbide-a by mass spectrometry. These results combined together allowed us to see what were the parameters influencing the PDT efficiency of micelles encapsulating a photosensitizer. We managed to classify those with the greatest effect on the integrity of model membranes among those studied
Style APA, Harvard, Vancouver, ISO itp.
21

Laclau, Charlotte. "Hard and fuzzy block clustering algorithms for high dimensional data". Electronic Thesis or Diss., Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB014.

Pełny tekst źródła
Streszczenie:
Notre capacité grandissante à collecter et stocker des données a fait de l'apprentissage non supervisé un outil indispensable qui permet la découverte de structures et de modèles sous-jacents aux données, sans avoir à \étiqueter les individus manuellement. Parmi les différentes approches proposées pour aborder ce type de problème, le clustering est très certainement le plus répandu. Le clustering suppose que chaque groupe, également appelé cluster, est distribué autour d'un centre défini en fonction des valeurs qu'il prend pour l'ensemble des variables. Cependant, dans certaines applications du monde réel, et notamment dans le cas de données de dimension importante, cette hypothèse peut être invalidée. Aussi, les algorithmes de co-clustering ont-ils été proposés: ils décrivent les groupes d'individus par un ou plusieurs sous-ensembles de variables au regard de leur pertinence. La structure des données finalement obtenue est composée de blocs communément appelés co-clusters. Dans les deux premiers chapitres de cette thèse, nous présentons deux approches de co-clustering permettant de différencier les variables pertinentes du bruit en fonction de leur capacité \`a révéler la structure latente des données, dans un cadre probabiliste d'une part et basée sur la notion de métrique, d'autre part. L'approche probabiliste utilise le principe des modèles de mélanges, et suppose que les variables non pertinentes sont distribuées selon une loi de probabilité dont les paramètres sont indépendants de la partition des données en cluster. L'approche métrique est fondée sur l'utilisation d'une distance adaptative permettant d'affecter à chaque variable un poids définissant sa contribution au co-clustering. D'un point de vue théorique, nous démontrons la convergence des algorithmes proposés en nous appuyant sur le théorème de convergence de Zangwill. Dans les deux chapitres suivants, nous considérons un cas particulier de structure en co-clustering, qui suppose que chaque sous-ensemble d'individus et décrit par un unique sous-ensemble de variables. La réorganisation de la matrice originale selon les partitions obtenues sous cette hypothèse révèle alors une structure de blocks homogènes diagonaux. Comme pour les deux contributions précédentes, nous nous plaçons dans le cadre probabiliste et métrique. L'idée principale des méthodes proposées est d'imposer deux types de contraintes : (1) nous fixons le même nombre de cluster pour les individus et les variables; (2) nous cherchons une structure de la matrice de données d'origine qui possède les valeurs maximales sur sa diagonale (par exemple pour le cas des données binaires, on cherche des blocs diagonaux majoritairement composés de valeurs 1, et de 0 à l’extérieur de la diagonale). Les approches proposées bénéficient des garanties de convergence issues des résultats des chapitres précédents. Enfin, pour chaque chapitre, nous dérivons des algorithmes permettant d'obtenir des partitions dures et floues. Nous évaluons nos contributions sur un large éventail de données simulées et liées a des applications réelles telles que le text mining, dont les données peuvent être binaires ou continues. Ces expérimentations nous permettent également de mettre en avant les avantages et les inconvénients des différentes approches proposées. Pour conclure, nous pensons que cette thèse couvre explicitement une grande majorité des scénarios possibles découlant du co-clustering flou et dur, et peut être vu comme une généralisation de certaines approches de biclustering populaires
With the increasing number of data available, unsupervised learning has become an important tool used to discover underlying patterns without the need to label instances manually. Among different approaches proposed to tackle this problem, clustering is arguably the most popular one. Clustering is usually based on the assumption that each group, also called cluster, is distributed around a center defined in terms of all features while in some real-world applications dealing with high-dimensional data, this assumption may be false. To this end, co-clustering algorithms were proposed to describe clusters by subsets of features that are the most relevant to them. The obtained latent structure of data is composed of blocks usually called co-clusters. In first two chapters, we describe two co-clustering methods that proceed by differentiating the relevance of features calculated with respect to their capability of revealing the latent structure of the data in both probabilistic and distance-based framework. The probabilistic approach uses the mixture model framework where the irrelevant features are assumed to have a different probability distribution that is independent of the co-clustering structure. On the other hand, the distance-based (also called metric-based) approach relied on the adaptive metric where each variable is assigned with its weight that defines its contribution in the resulting co-clustering. From the theoretical point of view, we show the global convergence of the proposed algorithms using Zangwill convergence theorem. In the last two chapters, we consider a special case of co-clustering where contrary to the original setting, each subset of instances is described by a unique subset of features resulting in a diagonal structure of the initial data matrix. Same as for the two first contributions, we consider both probabilistic and metric-based approaches. The main idea of the proposed contributions is to impose two different kinds of constraints: (1) we fix the number of row clusters to the number of column clusters; (2) we seek a structure of the original data matrix that has the maximum values on its diagonal (for instance for binary data, we look for diagonal blocks composed of ones with zeros outside the main diagonal). The proposed approaches enjoy the convergence guarantees derived from the results of the previous chapters. Finally, we present both hard and fuzzy versions of the proposed algorithms. We evaluate our contributions on a wide variety of synthetic and real-world benchmark binary and continuous data sets related to text mining applications and analyze advantages and inconvenients of each approach. To conclude, we believe that this thesis covers explicitly a vast majority of possible scenarios arising in hard and fuzzy co-clustering and can be seen as a generalization of some popular biclustering approaches
Style APA, Harvard, Vancouver, ISO itp.
22

Goffinet, Étienne. "Clustering multi-blocs et visualisation analytique de données séquentielles massives issues de simulation du véhicule autonome". Thesis, Paris 13, 2021. http://www.theses.fr/2021PA131090.

Pełny tekst źródła
Streszczenie:
La validation des systèmes avancés d’aide à la conduite reste l’un des plus grands défis que les constructeurs automobiles doivent relever pour fournir des voitures autonomes sûres. La validation fiable de ces systèmes nécessite d’évaluer la qualité et la cohérence de leur réaction dans un large éventail de scénarios de conduite. Dans ce contexte, les systèmes de simulation à grande échelle contournent les limites de la validation physique et produisent d’importantes quantités de séries temporelles en haute dimension. Le défi est de trouver des informations utiles dans ces ensembles de données multivariées non étiquetées qui peuvent contenir des variables bruitées, parfois corrélées ou non informatives. Cette thèse propose plusieurs outils basés sur des modèles probabilistes pour le regroupement non-supervisé de séries temporelles univariées et multivariées, basés sur une approche Dictionnaire ou dans un cadre bayésien non paramétrique. L’objectif est de trouver automatiquement des groupes pertinents et naturels de comportements de conduite et, dans le cas multivarié, d’effectuer une sélection de modèles et une réduction de la dimension des séries temporelles multivariées. Les méthodes sont expérimentées sur des jeux de données simulés et appliquées à des cas d’usage industriels du Groupe Renault
Advanced driving-assistance systems validation remains one of the biggest challenges car manufacturers must tackle to provide safe driverless cars. The reliable validation of these systems requires to assess their reaction’s quality and consistency to a broad spectrum of driving scenarios. In this context, large-scale simulation systems bypass the physical «on-tracks» limitations and produce important quantities of high-dimensional time series data. The challenge is to find valuable information in these multivariate unlabelled datasets that may contain noisy, sometimes correlated or non-informative variables. This thesis propose several model-based tool for univariate and multivariate time series clustering based on a Dictionary approach or Bayesian Non Parametric framework. The objective is to automatically find relevant and natural groups of driving behaviors and, in the multivariate case, to perform a model selection and multivariate time series dimension reduction. The methods are experimented on simulated datasets and applied on industrial use cases from Groupe Renault Coclustering
Style APA, Harvard, Vancouver, ISO itp.
23

Asof, Marwan. "Etude du comportement mécanique des massifs rocheux fracturés en blocs (méthode à l'équilibre limite) : réalisation et application". Vandoeuvre-les-Nancy, INPL, 1991. http://www.theses.fr/1991INPL083N.

Pełny tekst źródła
Streszczenie:
Le creusement d'une excavation en massif rocheux dans lequel la présence de discontinuités (fractures) est importante permet aux blocs autour de celle-ci de tomber vers le vide. Le travail effectué concerne donc la modélisation du comportement mécanique des massifs rocheux fracturés à partir de la modélisation géométrique issue de RESOBLOK : base de départ. Ce travail peut être décomposé en trois parties. Dans la première partie, nous aborderons l'élaboration des méthodologies actuelles d'analyse de stabilité en milieu discontinu. Deux techniques d'étude de blocs isolés fondées sur l'analyse de l'équilibre limité seront envisagées : la théorie du bloc clef de GOODMAN & SHI et celle de WARBURTON. La prise en compte de la contrainte de confinement et de la possibilité du choix de soutènement avec boulonnage a également été développée pour qu'elle soit bien adaptée à leurs formulations. La seconde partie portera sur les aspects relatifs au choix des méthodes proposées, compte tenu de la base des données des blocs, et à la réalisation du logiciel BSA en aval de RESOBLOK. Enfin, nous présenterons les différentes applications de la méthodologie développée sur les cas concrets : mine à ciel ouvert, cavité de grandes dimensions et galerie minière à grande profondeur. Ces applications montrent le rôle positif des modèles de blocs pour ce qui concerne la description des phénomènes et leur compréhension
Style APA, Harvard, Vancouver, ISO itp.
24

Lu, Yang. "Analyse de survie bivariée à facteurs latents : théorie et applications à la mortalité et à la dépendance". Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090020/document.

Pełny tekst źródła
Streszczenie:
Cette thèse étudie quelques problèmes d’identification et d’estimation dans les modèles de survie bivariée, avec présence d’hétérogénéité individuelle et des facteurs communs stochastiques.Chapitre I introduit le cadre général.Chapitre II propose un modèle pour la mortalité des deux époux dans un couple. Il permet de distinguer deux types de dépendance : l’effet de deuil et l’effet lié au facteur de risque commun des deux époux. Une analyse de leurs effets respectifs sur les primes d’assurance écrites sur deux têtes est proposée.Chapitre III montre que, sous certaines hypothèses raisonnables, on peut identifier l’évolution jointe du risque d’entrer en dépendance et du risque de mortalité, à partir des données de mortalité par cohortes. Une application à la population française est proposée.Chapitre IV étudie la queue de distribution dans les modèles de survie bivariée. Sous certaines hypothèses, la loi jointe des deux durées résiduelles converge, après une normalisation adéquate. Cela peut être utilisé pour analyser le risque parmi les survivants aux âges élevés. Parallèlement, la distribution d’hétérogénéité parmi les survivants converge vers une distribution semi-paramétrique
This thesis comprises three essays on identification and estimation problems in bivariate survival models with individual and common frailties.The first essay proposes a model to capture the mortality dependence of the two spouses in a couple. It allows to disentangle two types of dependencies : the broken heart syndrome and the dependence induced by common risk factors. An analysis of their respective effects on joint insurance premia is also proposed.The second essay shows that, under reasonable model specifications that take into account the longevity effect, we can identify the joint distribution of the long-term care and mortality risks from the observation of cohort mortality data only. A numerical application to the French population data is proposed.The third essay conducts an analysis of the tail of the joint distribution for general bivariate survival models with proportional frailty. We show that under appropriate assumptions, the distribution of the joint residual lifetimes converges to a limit distribution, upon normalization. This can be used to analyze the mortality and long-term care risks at advanced ages. In parallel, the heterogeneity distribution among survivors converges also to a semi-parametric limit distribution. Properties of the limit distributions, their identifiability from the data, as well as their implications are discussed
Style APA, Harvard, Vancouver, ISO itp.
25

Wronski, Maciej. "Couplage du contact et du frottement avec la mécanique non linéaire des solides en grandes déformations : application à l'étude des blocs de mousse en polyuréthane". Compiègne, 1994. http://www.theses.fr/1994COMPD712.

Pełny tekst źródła
Streszczenie:
L'objectif de ce travail est l'étude du couplage des non-linéarités de différents types dans le calcul des structures par éléments finis. La première partie est consacrée au développement d'une loi de comportement des mousses souples en polyuréthane. Pour décrire leur comportement non linéaire, nous avons choisi un modèle hypoélastique en grandes déformations, formulé dans le repère des déformations principales. Les effets irréversibles en chargement cyclique sont pris en compte par une loi de frottement interne. Dans la deuxième partie, différents aspects de la modélisation du contact et du frottement par éléments finis sont abordés. Nous présentons un prototype du système de modélisation, qui permet de traiter efficacement des problèmes de contact très généraux. La résolution des équations non linéaires d'équilibre en présence du contact, est effectuée par la méthode de flexibilité. Dans le cadre de cette méthode, nous proposons quelques algorithmes de calcul implicite des réactions de contact. Trois nouveaux algorithmes d'intégrations des équations de la dynamique sont aussi introduits. Ceux sont des schémas du premier ordre, mieux adaptés au traitement numérique de contact que la méthode classique de Newark. Nous proposons aussi une méthode semi-implicite, qui permet d'obtenir directement la solution des équations linéaires, à partir d’une pseudo-inverse de la matrice effective du système. Finalement, nous présentons plusieurs exemples numériques pour illustrer la fonctionnalité du système de modélisation du contact. En particulier, deux exemples d'application industrielle, issus de la modélisation des blocs de mousse, et de la simulation d'un procédé de coudage de tubes, sont traités en détails.
Style APA, Harvard, Vancouver, ISO itp.
26

Larvet, Tiphaine. "Subduction dynamics of ridge-free oceanic plate : Implication for the Tethys domain lato sensu". Electronic Thesis or Diss., Sorbonne université, 2022. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2022SORUS322.pdf.

Pełny tekst źródła
Streszczenie:
La tectonique des plaques relie le mouvement des plaques tectoniques rigides à la surface de la terre et la convection du manteau. Bien que les panaches mantelliques puissent interagir avec les plaques en érodant mécaniquement leur base et en augmentant leur potentiel gravitationnel, ils ne fournissent pas de forces suffisantes pour rompre une plaque continentale en l'absence d’un forçage cinématique ou de mécanismes d'affaiblissement, e.g. injection de dykes magmatiques. La convection du manteau peut également exercer un frottement basal visqueux pouvant entrainer les plaques, ou résister à leur mouvement. Néanmoins la limite lithosphère asthénosphère étant une zone mécaniquement faible, le lien principal entre le mouvement des plaques et la convection du manteau est la subduction des panneaux de lithosphère océanique. Ceux-ci sont assez résistant pour transmettre les forces depuis la terre profonde jusqu'à la surface en participant à la fois au mouvement des plaques à la surface et à la convection du manteau. Cette thèse étudie la relation entre la dynamique de la subduction et la rupture des continents. Alors qu'il est reconnu depuis longtemps que la subduction peut conduire à la rupture continentale dans la plaque supérieure grâce à l'affaiblissement par la percolation des fluides et la convection à petite échelle, très peu d'études se concentrent sur la dynamique de la rupture continentale de la plaque inférieure en réponse à la traction des panneaux plongeant. Ce mécanisme a été proposé pour la fragmentation du Gondwana durant le Permien et pour l'ouverture de la mer de Chine méridionale à l'Oligocène. Dans les deux cas, la rupture continentale de la plaque inférieure doit se produire en absence de dorsale medio-océanique, sinon la subduction des plaques serait accommodée par l'accrétion à leur niveau. J'ai mis en place une série de simulations numérique 2D de plaques sans dorsale en subduction pour étudier par le biais d'une étude paramétrique quand et où la plaque continentale se rompt en fonction du mouvement relatif des plaques. Étant donné l'importance des forces de volumes produite par le panneau plongeant, un soin particulier a été donné à la prise en compte de l'effet des changements de minéralogie sur la densité dans les simulations. Les simulations présentent quatre modes de rupture continentale : en plaque supérieure, en plaque inférieure, sur les deux plaques ou absente. L'étude montre que l'augmentation marquée de la densité du panneau plongeant liée à la transition de phase de 410 km, en plus de l'énergie potentielle gravitationnelle de la lithosphère continentale, peut provoquer un rifting continental dans la plaque inférieure de la subduction si le continent n’est pas cisaillé à sa base. Le modèle de "slab-drag" apparaît comme un mécanisme viable de rupture continentale en plaque inférieure. Par ailleurs, les simulations démontrent également qu'il existe un décalage temporel important entre la subduction de la dorsale et la rupture continentale (c'est-à-dire le temps nécessaire pour que le panneau plongeant atteigne la discontinuité de 410 km). Ces conditions limitantes (mouvement relatifs et écart temporel) font de son potentiel enregistrement géologique une contrainte importante sur les reconstructions paléogéograhiques du mouvement des plaques et en particulier des blocs Cimmérien au Permien. En m'appuyant sur les résultats de cette première série de simulations et sur la littérature abondante qui documente l'ouverture de la mer de Chine méridionale, j'ai mené une deuxième étude adaptée au contexte géodynamique régional. Cela me permet de proposer un nouveau modèle conceptuel qui combine l'inversion de la dorsale, la rupture continentale liée à la traction des panneaux plongeant et l'inversion de la subduction pour réconcilier les données géologiques et géophysiques de cette région. La fin de ce manuscrit discute les limites de mes résultats et apporte des pistes de remédiation
Plate tectonics relates the movement of rigid plates at the Earth's surface to mantle convection. Although upwelling flows such as mantle plumes can interact with plates by mechanically eroding their bases and increasing their gravitational potential, they do not provide sufficient forces to break up a continental plate in the absence of far field extensional forces or other weakening mechanisms such as the injection of magma dykes. Mantle convection can also exert viscous friction at the base of tectonic plates, which can drive, or resist, plate motion. Nevertheless, the Lithosphere Asthenosphere Boundary is among the mechanically weakest regions of the mantle, therefore, the main link between plate motion and mantle convection in terms of driving force is the subduction of oceanic lithosphere slab. These subducting slabs indeed drive both plate motion at the surface and mantle convection and are strong enough to transmit forces from the deep earth to the surface. This thesis therefore studies the relationship between subduction dynamics and continental breakup. While it has long been recognized that subduction can lead to continental breakup in the upper plate through weakening by fluid percolation and small-scale convection, very few studies focus on the dynamics of continental breakup in the lower plate in response to slab pull force. This mechanism has been proposed for the breakup of Gondwana during the Permian and for the opening of the South China Sea in the Oligocene. In both cases, continental breakup of the lower plate must occur after the mid-ocean ridge has ceased activity or when subduction becomes normal to the ridge, otherwise oceanic plate subduction would be accommodated by accretion at the mid-oceanic ridge. I set up a series of 2D numerical simulations of subducting ridge-free plates to study by means of a parametric approach when and where the continental plate breaks up as a function of the relative motion of the plates. Given the importance of the volume forces produced by the sinking slab, special care was taken to take into account the effect of mineralogical changes on density in the simulations. The simulations present four modes of continental breakup: upper plate, lower plate, both plates, or absent. Focusing on lower plate continental lithosphere breakup, the parametric study shows that the sharp increase in density of the sinking slab related to the 410 km phase transition, in addition to the gravitational potential energy of the continental lithosphere, can cause continental rifting in the lower subducting plate. However, simulations also show that this mechanism requires the lower plate to move at the same speed as the underlying mantle (i.e. no significant horizontal basal shear on the continent). The slab-drag model appears to be a viable mechanism for continental breakup of the lower plate and the conditions limiting this process in terms of timing and relative motion make its potential geological record an important constraint on the dynamics of the system. Furthermore, the simulations also demonstrate that there is a significant time lag between ridge subduction and continental breakup (i.e. the time required for the plunging panel to reach the 410 km discontinuity). These last two points provide new constraints on paleogeographic reconstructions of Permian Cimmerian blocks motion. Based on the results of this first set of simulations and the extensive literature documenting the opening of the South China Sea, I conducted a second study adapted to the regional geodynamic context. This allows me to propose a new conceptual model that combines ridge inversion, continental breakup related to slab pull and subduction reversal to reconcile the geological and geophysical data of this region. The end of this manuscript discusses the limitations of my results and provides suggestions for remediation
Style APA, Harvard, Vancouver, ISO itp.
27

Bargui, Henda. "Modélisation des comportements mécaniques et hydrauliques de massifs rocheux simulés par des assemblages de blocs rigides : Introduction d'un couplage hydro-mécanique". Phd thesis, Ecole Nationale des Ponts et Chaussées, 1997. http://tel.archives-ouvertes.fr/tel-00529406.

Pełny tekst źródła
Streszczenie:
L'objectif de ce travail est de modéliser le comportement hydro-mécanique de massifs rocheux fissurés. Ceci concerne précisément l'amélioration et l'extension d'un modèle par éléments discrets appelé BRIG3D. Ce modèle assimile un massif rocheux fissuré à un assemblage de blocs rigides qui interagissent au niveau de leurs interfaces. La déformation de ces interfaces est reliée aux déplacements relatifs des blocs. Sous l'effet des sollicitations du massif, chaque bloc, en interaction avec d'autres, se déplace vers une position d'équilibre. Les améliorations concernent la reformulation mécanique de BRIG3D. De nouvelles descriptions concernant le mouvement d'un corps rigide, la position des interfaces et le champ des contraintes sont introduites. Ce travail de recherche concerne également l'introduction d'un modèle par éléments frontières décrivant un écoulement laminaire, permanent et plan aux interfaces des blocs. Le couplage de ces deux modèles à permis d'analyser le comportement hydro-mécanique de massifs rocheux fissurés soumis à diverses sollicitations. Une étude particulière a été consacrée à l'analyse du comportement d'une fondation de barrage.
Style APA, Harvard, Vancouver, ISO itp.
28

Bargui, Henda. "Modélisation des comportements mécaniques et hydrauliques de massifs rocheux simulés par des assemblages de blocs rigides : Introduction d'un couplage hydro-mécanique". Phd thesis, Marne-la-vallée, ENPC, 1997. http://www.theses.fr/1997ENPC9705.

Pełny tekst źródła
Streszczenie:
Ce travail de recherche concerne la modélisation des comportements hydromécaniques des massifs rocheux fissures par amélioration et extension d'un modèle par éléments discrets, brig3d. Ce modèle, brig3d, assimile un massif rocheux fissure a un assemblage de blocs rigides qui interagissent au niveau de leurs interfaces. La déformation du massif résulte des déformations au niveau des interfaces, définies à l'aide des déplacements des blocs. Sous l'effet des sollicitations du massif, chaque bloc, en interaction avec d'autres, se déplace vers une position qui assure l'équilibre entre les efforts de contact et les sollicitations extérieures. Les améliorations concernent la reformulation mécanique de brig3d. De nouvelles définitions concernant la position des interfaces et le champ des contraintes sont introduites. Ce travail de recherche concerne également l'introduction d'un modèle par éléments frontières décrivant un écoulement laminaire, permanent et plan, aux interfaces des blocs. Ces deux modelés ont été ensuite couples et appliques a l'analyse des comportements hydromécaniques des massifs rocheux fissures soumis à diverses sollicitations. Une étude particulière a été consacrée pour analyser le comportement d'une fondation de barrage
This research aims at modelling the hydro-mechanical behaviour of fissured rock masses by improvement and extension of a discrete element model, called BRIG3D. This model simulates fissured rock mass as a set of rigid blocks interacting along their interfaces. Interface deformation is related to the relative displacement of the corresponding blocks. Being subject to external loads, the total set of blocks moves until equilibrium is reached. The computation of this equilibrium has been improved by redefining the model description of the rigid block movement, the interface position and the stress distribution along an interface. To describe flow problems through blocks interfaces, a boundary element model has been developed. Flow through each interface is assumed to be laminar, stationary and planar. This hydraulic model has then been coupled with the mechanical model BRIG3D and used to analyse hydro-mechanical rock mass behaviour under varying loads ; In particulard, a study of a dam foundation has been carried out
Style APA, Harvard, Vancouver, ISO itp.
29

El, Haj Abir. "Stochastics blockmodels, classifications and applications". Thesis, Poitiers, 2019. http://www.theses.fr/2019POIT2300.

Pełny tekst źródła
Streszczenie:
Cette thèse de doctorat porte sur l’analyse de réseaux pondérés, graphes finis où chaque arête est associée à un poids représentant l’intensité de sa force. Nous introduisons une extension du modèle à blocs stochastiques (SBM) binaire, appelée modèle à blocs stochastiques binomial (bSBM). Cette question est motivée par l’étude des réseaux de co-citations dans un contexte de fouille de textes où les données sont représentées par un graphe. Les noeuds sont des mots et chaque arête joignant deux mots est pondérée par le nombre de documents inclus dans le corpus citant simultanément cette paire de mots. Nous développons une méthode d’inférence basée sur l’algorithme espérance maximisation variationnel (EMV) pour estimer les paramètres du modèle proposé ainsi que pour classifier les mots du réseau. Puis nous adoptons une méthode qui repose sur la maximisation d’un critère ICL (en anglais integrated classification likelihood) pour sélectionner le modèle optimal et le nombre de clusters. D’autre part, nous développons une approche variationnelle pour traiter le réseau et nous comparons les deux approches. Des applications à des données réelles sont adoptées pour montrer l’efficacité des deux méthodes ainsi que pour les comparer. Enfin, nous développons un SBM avec plusieurs attributs pour traiter les réseaux ayant des poids associés aux noeuds. Nous motivons cette méthode par une application qui vise au développement d’un outil d’aide à la spécification de différents traitements cognitifs réalisés par le cerveau lors de la préparation à l’écriture
This PhD thesis focuses on the analysis of weighted networks, where each edge is associated to a weight representing its strength. We introduce an extension of the binary stochastic block model (SBM), called binomial stochastic block model (bSBM). This question is motivated by the study of co-citation networks in a context of text mining where data is represented by a graph. Nodes are words and each edge joining two words is weighted by the number of documents included in the corpus simultaneously citing this pair of words. We develop an inference method based on a variational maximization algorithm (VEM) to estimate the parameters of the modelas well as to classify the words of the network. Then, we adopt a method based on maximizing an integrated classification likelihood (ICL) criterion to select the optimal model and the number of clusters. Otherwise, we develop a variational approach to analyze the given network. Then we compare the two approaches. Applications based on real data are adopted to show the effectiveness of the two methods as well as to compare them. Finally, we develop a SBM model with several attributes to deal with node-weighted networks. We motivate this approach by an application that aims at the development of a tool to help the specification of different cognitive treatments performed by the brain during the preparation of the writing
Style APA, Harvard, Vancouver, ISO itp.
30

Ghazal, Rima. "Modélisation de la stabilité des blocs rocheux isolés sur la paroi des excavations souterraines avec prise en compte des contraintes initiales et du comportement non linéaire des joints". Electronic Thesis or Diss., Paris, ENMP, 2013. http://www.theses.fr/2013ENMP0007.

Pełny tekst źródła
Streszczenie:
L'instabilité des blocs situés à la surface des excavations souterraines est un problème courant dans les milieux rocheux fracturés. Comme les méthodes exactes prenant en compte tous les blocs et leurs interactions sont très lourdes, l'approche des Blocs Isolés est souvent adoptée. Elle consiste à étudier chaque bloc en considérant qu'il est rigide et que le reste de la masse rocheuse est rigide et fixe. Néanmoins, aucune des méthodes existantes adoptant cette approche ne prend en compte de façon rigoureuse les contraintes initiales et le comportement des joints. Dans cette thèse, on développe une nouvelle méthode qui apporte des améliorations importantes aux méthodes conventionnelles de Blocs Isolés. Connaissant les contraintes initiales, on rend compte du processus d'excavation par le déchargement de la face libre du bloc. Les efforts sur les faces du bloc en contact avec la roche sont alors modifiés en respectant l'équilibre des forces et des moments, la loi de comportement des joints et le mouvement de corps solide du bloc. On aboutit ainsi à un système linéaire où les seules inconnues sont les vecteurs translation et rotation du bloc. Deux modèles sont proposés : le premier considère un comportement linéaire élastique des joints et, par conséquent, la stabilité est évaluée a posteriori. Le deuxième modèle, plus pertinent, considère un comportement hyperbolique des joints dans la direction normale et élastoplastique dans la direction tangentielle avec prise en compte de la dilatance. La méthode numérique adoptée pour la résolution du problème non linéaire est une intégration explicite dans le temps cinématique avec des pas de déchargement constants. La technique d'intégration surfacique utilisée permet d'étudier toute forme géométrique de bloc. La méthode proposée a été validée puis comparée aux méthodes conventionnelles. Des études paramétriques ont montré l'influence des contraintes initiales et des propriétés mécaniques des joints sur la stabilité. Le soutènement a été aussi intégré dans le code développé. Finalement, la nouvelle méthode a été appliquée pour l'étude d'un assemblage de blocs autour d'une excavation souterraine et comparée à un modèle prenant en compte tous les blocs via la méthode des Éléments Distincts. Elle a été aussi utilisée pour restituer un cas réel de chute de blocs
Failure of rock blocks located at the surface of underground excavations is a common problem in discontinuous rock masses. Since exact methods that take into account all blocks and their interactions are computationally hard, the Isolated Blocks method is usually adopted. It consists in studying each block considering it to be rigid and the surrounding rock mass to be rigid and fixed. Nevertheless, none of the existing methods based on this approach takes into account initial stresses and joints behavior rigorously. In this thesis, a new method providing significant improvements to conventional Isolated Blocks methods is developed. Considering that initial stresses are known, the excavation process is modeled by unloading the block's free face. Stresses acting on the faces in contact with the rock mass are then resolved by taking into account force and moment balance equations, joints behavior and rigid body movement. This leads to a linear system where the block's translation and rotation vectors are the only unknowns.Two models are proposed: the first one assumes linear elastic joint behavior, thus the stability is evaluated a posteriori. The second, more realistic model, assumes joint behavior to be hyperbolic in the normal direction and elastoplastic in the tangential direction, while also accounting for dilatancy. This non-linear problem is solved numerically by explicit integration in the kinematic time with constant deconfining steps. Also, thanks to the surface integration technique used, any block geometry can be studied. The method proposed is validated and compared to other conventional methods. Parametric studies show the influence of initial stresses and the joints' mechanical properties on the stability. Rock support modeling is also integrated into the code. Finally, the new method is applied to study an assemblage of blocks around an underground excavation and is compared to a model that takes into account all the blocks with the Distinct Element Method. It is also used to reproduce an actual block failure case
Style APA, Harvard, Vancouver, ISO itp.
31

Ossamy, Rodrigue Bertrand. "An algorithmic and computational approach to local computations". Bordeaux 1, 2005. http://www.theses.fr/2005BOR13067.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous nous intéressons aux aspects algorithmiques des calculs locaux dans les domaines de la synchronisation d'algorithmes et du contrôle de l'exécution. Dans un premier temps nous proposons différents protocoles de synchronisation qui ont besoin, pour certains, d'avoir une connaissance structurelle du graphe (diamètre, nombre de processeurs, etc. . . ). D'autre part, nous utilisons le concept des réductions de graphes pour présenter un algorithme capable de reconnaître des propriétés de graphes à l'aide des calculs locaux. Cette étude introduit la notion de systèmes de réduction pratiques (handy reduction systems) qui nous permet de démontrer que toutes les propriétés de graphes de largeur arborescente bornée, définissable en logique monadique du second ordre, peuvent être reconnues par les calculs locaux. Enfin, nous introduisons le langage de programmation des calculs locaux (Lidia). Ce langage est basé sur un système de transition à deux niveaux où les préconditions de chaque transistion sont exprimées par la logique L*∞. En se servant despropriétés descriptives de L*∞, nous établissons la complétude du langage Lidia.
Style APA, Harvard, Vancouver, ISO itp.
32

Ghazal, Rima. "Modélisation de la stabilité des blocs rocheux isolés sur la paroi des excavations souterraines avec prise en compte des contraintes initiales et du comportement non linéaire des joints". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00934081.

Pełny tekst źródła
Streszczenie:
L'instabilité des blocs situés à la surface des excavations souterraines est un problème courant dans les milieux rocheux fracturés. Comme les méthodes exactes prenant en compte tous les blocs et leurs interactions sont très lourdes, l'approche des Blocs Isolés est souvent adoptée. Elle consiste à étudier chaque bloc en considérant qu'il est rigide et que le reste de la masse rocheuse est rigide et fixe. Néanmoins, aucune des méthodes existantes adoptant cette approche ne prend en compte de façon rigoureuse les contraintes initiales et le comportement des joints. Dans cette thèse, on développe une nouvelle méthode qui apporte des améliorations importantes aux méthodes conventionnelles de Blocs Isolés. Connaissant les contraintes initiales, on rend compte du processus d'excavation par le déchargement de la face libre du bloc. Les efforts sur les faces du bloc en contact avec la roche sont alors modifiés en respectant l'équilibre des forces et des moments, la loi de comportement des joints et le mouvement de corps solide du bloc. On aboutit ainsi à un système linéaire où les seules inconnues sont les vecteurs translation et rotation du bloc. Deux modèles sont proposés : le premier considère un comportement linéaire élastique des joints et, par conséquent, la stabilité est évaluée a posteriori. Le deuxième modèle, plus pertinent, considère un comportement hyperbolique des joints dans la direction normale et élastoplastique dans la direction tangentielle avec prise en compte de la dilatance. La méthode numérique adoptée pour la résolution du problème non linéaire est une intégration explicite dans le temps cinématique avec des pas de déchargement constants. La technique d'intégration surfacique utilisée permet d'étudier toute forme géométrique de bloc. La méthode proposée a été validée puis comparée aux méthodes conventionnelles. Des études paramétriques ont montré l'influence des contraintes initiales et des propriétés mécaniques des joints sur la stabilité. Le soutènement a été aussi intégré dans le code développé. Finalement, la nouvelle méthode a été appliquée pour l'étude d'un assemblage de blocs autour d'une excavation souterraine et comparée à un modèle prenant en compte tous les blocs via la méthode des Éléments Distincts. Elle a été aussi utilisée pour restituer un cas réel de chute de blocs.
Style APA, Harvard, Vancouver, ISO itp.
33

Beyer-Berjot, Laura. "Développement d'une formation en parcours de soin simulé en chirurgie colorectale laparoscopique". Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM5071/document.

Pełny tekst źródła
Streszczenie:
Rationnel: La simulation en chirurgie colorectale laparoscopique (CCL) est peu évaluée & n'a jamais été analysée en parcours de soin. Objectifs: Etudier & développer 1 formation en parcours de soin simulé (FPSS) en CCL: patients virtuels en périopératoire & programme d'entrainement virtuel (PEV) peropératoire. Déterminer si cette FPSS améliore la prise en charge des malades. Méthodes: 1) Développement d'1 FPPS pour l'appendicite. Test de sa faisabilité auprès des internes d'un service de chirurgie & évaluation de son impact sur 38 patients admis pour appendicite avant (n=21) & après (n=17) FPSS. 2) Développement d'1 FPPS en CCL respectant les objectifs de réhabilitation précoce (ORP) & validation d'un PEV en CCL. Impact de sa mise en place auprès des internes d'un service, sur 20 patients inclus prospectivement avant (n=10) & après (n=10) FPSS.Résultats: 1) Tous les internes ont suivi la FPSS. Les données pré/peropératoires étaient comparables entre les 2 groupes patients. Les délais de réalimentation liquide & solide étaient réduits après FPSS (7h (2-20) vs. 4 (4-6); P = 0.004 & 17h (4-48) vs. 6 (4-24); P = 0.005) sans modifier la morbidité ni la durée d'hospitalisation (DH). 2) La participation des internes comme opérateur a augmenté après FPSS (0% (0-100) vs. 82.5% (10-100); P = 0.006). Les données pré/peropératoires étaient comparables entre les 2 groupes patients. Le respect des objectifs de RP était meilleur à J2 après FPSS (3 (30%) vs. 8 (80%); P = 0.035). La morbidité & la DH étaient inchangées. Conclusion: Une FPSS en CCL a montré sa faisabilité. Elle a amélioré le respect des ORP & augmenté la participation des internes sans altérer les suites opératoires
Background: Few studies have assessed simulation in laparoscopic colorectal surgery (LCS) & simulation has never been designed in a care pathway approach (CPA) manner. Objectives: To design a CPA to training in LCS, involving virtual patients perioperative training & a virtual competency-based curriculum for intraoperative training. To implement such CPA & to look whether such training may improve patients' management. Methods:1) A CPA to training in appendicitis was designed and implemented. All residents of our department were trained & 38 patients undergoing appendectomy were prospectively included before (n=21) and after (n=17) CPA. 2) A CPA to training in LCS was designed in accordance with enhanced recovery (ER) recommendations, and a curriculum in LCS was validated. All residents of our department were trained & 20 patients were prospectively included before (n = 10) and after (n = 10) CPA. Results: 1) All residents were trained. Pre/intraoperative data were comparable between groups of patients. Times to liquid and solid diet were reduced after CPA (7 h (2-20) vs. 4 (4-6); P=0.004 & 17 h (4-48) vs. 6 (4-24); P=0.005) without changing postoperative morbidity & length of stay (LS). 2) Residents' participation in LCS improved afterCPA (0% (0-100) vs. 82.5% (10-100); P = 0.006). Pre/intraoperative data were comparable between groups of patients. Compliance for ER improved at day 2 in post-training patients (3 (30%) vs. 8 (80%); P = 0.035). Postoperative morbidity and LS were comparable. Conclusion: A CPA to training in LCS has been designed and implemented. It improved compliance for ER & residents participation without adversely altering patients' outcomes
Style APA, Harvard, Vancouver, ISO itp.
34

Cenni, Fabio. "Modélisation à haut niveau de systèmes hétérogènes, interfaçage analogique /numérique". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00721972.

Pełny tekst źródła
Streszczenie:
L'objet de la thèse est la modélisation de systèmes hétérogènes intégrant différents domaines de la physique et à signaux mixtes, numériques et analogiques (AMS). Une étude approfondie de différentes techniques d'extraction et de calibration de modèles comportementaux de composants analogiques à différents niveaux d'abstraction et de précision est présentée. Cette étude a mis en lumière trois approches principales qui ont été validées par la modélisation de plusieurs applications issues de divers domaines: un amplificateur faible bruit (LNA), un capteur chimique basé sur des ondes acoustiques de surface (SAW), le développement à plusieurs niveaux d'abstraction d'un capteur CMOS vidéo, et son intégration dans une plateforme industrielle. Les outils développés sont basés sur les extensions AMS du standard IEEE 1666 SystemC mais les techniques proposées sont facilement transposables à d'autres langages tels que VHDL-AMS ou Verilog-AMS utilisés en conception de dispositifs mixtes.
Style APA, Harvard, Vancouver, ISO itp.
35

Salmi, Zahia. "Modélisation de séries chronologiques non linéaires et modèles ARMA faibles". Thèse, 2003. http://hdl.handle.net/1866/14580.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
36

Empereur, Mot Luc. "La fragmentation naturelle des massifs rocheux : modèles de blocs et bases de données tridimensionnelles : réalisation, exploration géométrique et applications". Phd thesis, 2000. http://tel.archives-ouvertes.fr/tel-00723710.

Pełny tekst źródła
Streszczenie:
La connaissance du milieu fracturé tridimensionnel est basée sur l'observation directe ou indirecte d'extraits, en une ou deux dimensions. Les difficultés de visualisation en 3 dimensions et l'existence constante de nombreuses lacunes géométriques sont un handicap majeur pour la compréhension des lois de comportement complexes du milieu rocheux fracturé. Des modèles numériques dits "équivalents" répondent isolément à une problématique particulière du réseau de fractures (mécanique, hydraulique, thermique). Pourtant, un grand nombre de propriétés physiques du massif rocheux sont conditionnées par la géométrie et la topologie du système de fractures, qui reste une question d'ordre fondamental. C'est un aspect essentiel que nous traitons dans notre modèle OBSIFRAC (modèle objet pour la simulation de la fracturation). L'observation de sections naturelles justifie que l'on représente, dans un milieu soumis à la seule déformation cassante, les discontinuités par des surfaces planes, interconnectées, sans terminaisons libres, limitant des polyèdres convexes. Dés lors, le réseau de fractures peut être vu comme un assemblage de blocs. Cette hypothèse nous a permis de construire une base de données tridimensionnelles du réseau, décrivant de façon exhaustive les constituants géométriques de l'assemblage en question (fractures, blocs, faces, arêtes et noeuds). A partir d'un "germe" ponctuel, le processus de fragmentation affecte un ou plusieurs bloc(s) formé(ś) éventuellement de plusieurs polyèdres élémentaires. L'orientation et la position des plans de fractures peuvent ^etre définies de façon stochastique, statistique ou déterministe. Nous avons développé 4 moteurs de fragmentation, notés A, B, C, et D, qui diffèrent par le protocole de choix du germe d'une part, et par le choix du ou des blocs à diviser d'autre part. Nous présentons pour chaque scénario, une caractérisation descriptive, puis statistique.
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii