Academic literature on the topic 'Modèles des blocs latents'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Modèles des blocs latents.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Modèles des blocs latents"

1

Nicet-Chenaf, Dalila, and Arnaud Wachs. "Les relations commerciales bilatérales des pays du bassin méditerranéen à l’heure de l’élargissement de l’UE : une approche de type gravitaire." Économie appliquée 58, no. 1 (2005): 85–116. http://dx.doi.org/10.3406/ecoap.2005.3747.

Full text
Abstract:
Ce papier détermine quels sont, parmi les modèles gravitationnels, ceux les mieux adaptés à l’étude des configurations d’échanges de plusieurs régions économiques et de l’hétérogénéité des comportements des pays constitutifs de ces zones. Appliquée aux trois blocs que sont l’UE(15), les 10 nouveaux membres et les pays du Bassin méditerranéen, V utilisation des modèles, intégrant des effets fixes combinés, a montré que les accords récents de l’UE 15 ont favorisé des relations économiques de type «centre-périphérie» mais non pas les relations «inter-périphéries».
APA, Harvard, Vancouver, ISO, and other styles
2

Palmero, Sandra. "Intégration et régionalisation : une approche par les modèles de blocs." Économie appliquée 57, no. 1 (2004): 5–45. http://dx.doi.org/10.3406/ecoap.2004.3504.

Full text
Abstract:
Les phénomènes d’intégration régionale peuvent être théoriquement analysés par les modèles de blocs. Il s’agit, premièrement, d’en évaluer l’impact sur le bien-être mondial et régional, et, deuxièmement, de légitimer l’existence de certaines formes de régionalisation hostiles au libre-échange. L’évolution de ces modélisations montre principalement que le libre-échange généralisé n ’est pas la seule politique pouvant maximiser le bien-être mondial et/ou le bien-être régional.
APA, Harvard, Vancouver, ISO, and other styles
3

Laffargue, J. P., and P. Malgrange. "Rationalité des comportements et des anticipations dans les blocs réels des modèles macroéconomiques." Recherches économiques de Louvain 53, no. 3 (September 1987): 203–22. http://dx.doi.org/10.1017/s0770451800043761.

Full text
Abstract:
Les modèles macroéconométriques de grande taille, utilisés par les décideurs publics pour évaluer leur politique économique, reposent, pour la plupart d’entre eux, sur une structure commune qualifiée de néokeynésienne. Plus précisément ils constituent une mise en pratique du schéma IS-LM enrichi par une description de son évolution dynamique: l’accumulation du capital combinée à des mécanismes d’ajustements progressifs et d’anticipations (Cf par exemple Deleau et Al. (1981) pour une formalisation de cette démarche).Toutefois, dans ces modèles, les variables anticipées ne figurent qu’implicitement, n’étant pas directement observables. Les équations dynamiques d’ajustement sont en fait des formes réduites agrégeant les mécanismes d’ajustement proprement dit et ceux de formation des anticipations.Cet état de fait rend impraticable l’analyse isolée de l’influence des anticipations, et pour aborder ce problème il est nécessaire de construire une maquette dans laquelle les comportements des agents soient dérivés le plus rigoureusement possible -optimisation intertemporelle-, faisant par là apparaître les grandeurs futures que ces agents doivent nécessairement anticiper pour les prendre en compte dans leurs calculs.
APA, Harvard, Vancouver, ISO, and other styles
4

Martin, Rémy, Yannick Robert, Pierre Dupire, Olivier Fayard, and Simon Carladous. "Histoire de l’usage des modèles de propagation de blocs dans un organisme gérant des problématiques de risques naturels en montagne." Revue Française de Géotechnique, no. 170 (2022): 4. http://dx.doi.org/10.1051/geotech/2021031.

Full text
Abstract:
Le service de Restauration des Terrains en Montagne de l’Office National des Forêts est un acteur historique de la prévention contre les chutes de blocs en montagne. Pour les besoins de la cartographie des aléas et du dimensionnement d’ouvrages de protection, il a suivi l’évolution des moyens techniques depuis les années 1980 jusqu’à aujourd’hui. Ces dernières années, des réflexions se poursuivent sur l’aléa rocheux dans différents groupes de travail mandatés par l’État ou fédérant les experts privés et publics du domaine. Le développement des moyens informatiques et l’augmentation de la précision des données topographiques ont rendu la réalisation de calculs trajectographiques de plus en plus accessible et ont permis de mener des campagnes de simulations de grande envergure. Cet article présente l’histoire de l’utilisation des outils trajectographiques par le service de Restauration des Terrains en Montagne. L’objectif est d’aider à la compréhension de certains choix méthodologiques qui perdurent encore aujourd’hui pour éclairer les réflexions en cours. Il s’inscrit en parallèle des rapports publics établis pour le compte du Ministère de la Transition Écologique avec d’autres organismes d’État.
APA, Harvard, Vancouver, ISO, and other styles
5

Bagheri, Seyyed Mohammad. "Ordre fondamental d'une théorie 1-basée." Journal of Symbolic Logic 64, no. 4 (December 1999): 1426–38. http://dx.doi.org/10.2307/2586788.

Full text
Abstract:
D'après Lascar et Poizat [10], la déviation pour une théorie stable est associée à un préordre partiel sur l'ensemble des types. L'ordre induit a été nommé par Poizat ordre fondamental. Il mesure combien un type est loin d'être réalisé et il donne un certain nombre d'informations sur la théorie. Une question naturelle, est de décrire completément tous les ordres fondamentaux [13]. Il semble que cela soit difficile. Un problème moins ambitieux est de trouver des conditions pour qu'un ordre soit l'ordre fondamental d'une théorie, ou bien de trouver des exemples.Le but de cet article est de trouver de nouveaux exemples d'ordres fondamentaux. Nous nous concentrons principalement sur les théories stables et 1-basées car, comme nous allons voir dans la Section 2, avec cette hypothèse, il y a une représentation simple de l'ordre fondamental grâce aux ensembles algébriquement clos d'éléments des modèles de la thé;orie considégrée. Dans la Section 3, nous généralisons une idée de Baldwin et Berman [2] pour construire de “nouveaux” exemples d'ordres fondamentaux. En combinant cette construction avec les résultats de la Section 2, on caractérise de manière complete les ordres fondamentaux de theories triviales et 1-basées: les blocs des ordres fondamentaux d'une théorie triviale et 1-basée sont les inverses des posets de la forme I(L)/G où L est un treillis distributif borné et G un groupe compact d'automorphismes localement fini de L. De plus, tout ordre partiel de cette forme est l'ordre fondamental d'une théorie triviale et 1-basá. En particulier, l'ordre fondamental n'est pas toujours un treillis.
APA, Harvard, Vancouver, ISO, and other styles
6

Neklioudov, Sergei Iou. "Scénarios schématiques de la vie et de la narration." IRIS, no. 31 (July 15, 2010): 41–50. http://dx.doi.org/10.35562/iris.2034.

Full text
Abstract:
On peut distinguer trois cas de correspondances différentes entre les « scénarios schématiques » et le domaine narratif folklorico-littéraire : 1. La narration constitue la projection de la « dramaturgie de la vie » (une telle projection n’est évidemment ni directe ni complète) ;2. La structure de l’univers des personnages et la structure événementielle du narratif influencent la formation des « scénarios de la vie », en conditionnant l’apparence morphologico-compositionnelle de l’un et de l’autre ;3. La coincidence de la « dramaturgie de la vie » et de la « dramaturgie de la narration » s’explique par le fait qu’elles ont des sources communes ; ces sources pourraient être les modèles mentaux de la tradition, qui dictent à un homme des « règles de comportement » d’une part, et qui s’incarnent dans la narration folklorico-littéraire d’autre part. Le « scénario schématique » possède une structure événementielle, situationnelle et actantielle. À cette structure correspond un certain niveau d’interprétation qui souvent la lie directement à la conscience religieuse et mythologique ; une telle conscience — compte tenu du fait qu’une conceptualisation globale de tous les aspects de la vie humaine caractérise le mythe — englobe, par sa nature même, les « blocs interprétatifs » pertinents pour pratiquement tous les précédents événementiels. Le « scénario schématique » est donc lié au domaine des croyances et concepts actuels, lié aussi aux systèmes de valeurs et normes éthiques, etc. ; il est possible de reconstituer nombre de ces croyances, concepts, valeurs et normes à l’aide de l’histoire vécue qui nous occupe. D’ordinaire, ces interprétations ne représentent pas le fond neutre des événements, mais un élément actif et dynamique qui agit directement sur le développement de ces événements.
APA, Harvard, Vancouver, ISO, and other styles
7

Fedorova, Liudmila L'vovna. "Языковой стиль времени (на материале современной прессы и авторских текстов В. Шендеровича и Земфиры)." Chroniques slaves 2, no. 1 (2006): 69–84. http://dx.doi.org/10.3406/chros.2006.868.

Full text
Abstract:
<i>Le style discursif de notre temps étude des textes de la presse et d’auteurs populaires, V. Chenderovitch et Zemphira </i> Le discours publiciste de la Russie contemporaine appelle à la compétence culturelle et linguistique du lecteur de masses, par laquelle se représente l’image linguistique du monde - image populaire mais tout de même pas «naïve». Elle puise dans les modèles qui sont propres aux diverses couches de la conscience linguistique et qui forment un assemblage multiple. Ce sont d’abord des éléments représentatifs de l’esprit national (proverbes, locutions figées, bons mots) et aussi des exemples tirés des œuvres classiques russes (citations ouvertes et latentes), ce sont aussi des images et des locutions figées de l’époque soviétique, auxquelles il faut ajouter la couche soviétique «à l’envers» - celle du milieu criminel, et puis ce sont les éléments spécifiques du jargon «nouveau russe». Le langage «nouveau russe» tel qu’on se le représente est constitué du mélange intentionnel de ces diverses couches. Le choix de la stylistique du texte est déterminé au bout du compte par la situation communicative : les relations entre l’auteur ou journaliste, et le lecteur. Le caractère de ces relations s’est modifié ces dernières années. Si dans la presse officielle soviétique l’auteur occupait une position distante (voir schéma ci-dessous : A1), celle d’une instance supérieure, autorisée, qui instruit et dirige, en laissant aux masses des lecteurs un rôle passif, solidaire à l’unisson (L1), maintenant la presse préfère un autre modèle de relations. Par exemple, Moskovskiy komsomolets impose un contact solidaire : l’auteur et le lecteur ont des situations (A2, L2) à peu près équivalentes dans la société désintégrée, et de plus, le lecteur est inclus dans le cercle des proches de l’auteur, ceux qu’on appelle en russe «les siens» - c’est-à-dire ceux qui ont une vision du monde et une compétence communicative comparables à celles de l’auteur. Moskovskiy komsomolets, Sobesednik choisissent le style parlé, avec une intonation confidentielle, qui est adressée aux «siens», à ceux qui sont capable de comprendre les allusions et les sens latents. On y trouve toujours place pour la stylisation et le jeu. Cette analyse peut être étendue à des textes d’auteurs contemporains, populaires chacun dans son domaine : Victor Chenderovitch pour ses satires, Zemphira pour ses chansons. Le style de notre temps se présente toujours comme le jeu des images et des formes propres aux diverses couches de la conscience nationale linguistique. Les enfants qui font leurs premiers pas en littérature choisissent de jouer avec les images contemporaines dans les formes traditionnelles, mais ils trouvent pour les sujets sérieux des paroles vraies.
APA, Harvard, Vancouver, ISO, and other styles
8

Ross, Pierre-Simon, and Patrick Mercier-Langevin. "Igneous Rock Associations 14. The Volcanic Setting of VMS and SMS Deposits: A Review." Geoscience Canada 41, no. 3 (August 29, 2014): 365. http://dx.doi.org/10.12789/geocanj.2014.41.045.

Full text
Abstract:
Volcanogenic massive sulphide (VMS) deposits and seafloor massive sulphide (SMS) deposits have a spatial and genetic connection with contemporaneous volcanism. The control exerted by the volcanic succession (e.g. rock type, architecture and facies) on the nature and style of the ore and alteration (e.g. subsea-floor replacement vs. exhalative, or discordant vs. conformable) is significant, making it imperative to understand the local volcanology in developing better genetic and exploration models. Three VMS deposit groupings collectively represent a high proportion of cases: (1) deposits associated with complexes of submarine felsic domes, cryptodomes, lobe-hyaloclastite flows and/or blocky lavas, and their reworked equivalents; (2) deposits associated with thick piles of pumiceous felsic pyroclastic rocks, suggesting a caldera context; and (3) deposits associated with mafic volcanic footwalls and/or with sedimentary hosts, including significant deposits such as Windy Craggy (~300 Mt) in British Columbia. With regard to number (2) above, demonstrating the presence of a caldera in ancient successions can be difficult because silicic calderas tend to be large and exceed the limits of deposit-scale investigations. Furthermore, there is no consensus regarding what a large submarine caldera should look like, i.e., no accepted facies model exists showing the distribution of rock types. But without thick piles of pumiceous felsic pyroclastic deposits, arguing for a large submarine caldera is a challenge.SOMMAIRELes gisements de sulfures massifs volcanogènes (SMV) et leurs équivalents actuels au fonds des mers ont une connexion spatiale et génétique avec le volcanisme. La succession volcanique – composition, architecture, faciès – exerce un contrôle important sur la nature et le style de minéralisation et d’altération hydrothermale (p. ex. minéralisation mise en place par remplacement sous le fond marin vs. exhalative; altération discordante ou plus concordante). Il est donc impératif de connaître la volcanologie des roches encaissantes pour développer de meilleurs modèles génétiques et d’exploration. Trois groupes de gisements couvrant collectivement une grande proportion des cas sont discutés ici. Premièrement, plusieurs gisements sont associés à des complexes de dômes felsiques sous-marins, des cryptodômes, des coulées de type lobes-hyaloclastite et/ou des laves en blocs, ou leur équivalents resédimentés. Deuxièmement, certains gisements sont associés à d’épaisses séquences de roches pyroclastiques felsiques ponceuses, suggérant un contexte de caldeira. Troisièmement, plusieurs gisements sont associés avec des roches volcaniques mafiques et/ou avec des roches sédimentaires, par exemple l’important dépôt de Windy Craggy (~300 Mt) en Colombie-Britannique. Concernant les contextes de type 2, la démonstration d’une caldeira peut être difficile dans les successions anciennes, car les caldeiras felsiques sont de grandes dimensions, excédant les limites des études à l’échelle du gîte. De plus, il n’existe pas de consensus sur un modèle de faciès pour une grande caldeira sous-marine. Mais sans la présence d’épais empilements de roches pyroclastiques felsiques ponceuses, il est difficile d’argumenter en faveur d’une caldeira sous-marine.
APA, Harvard, Vancouver, ISO, and other styles
9

Kerr, Andrew. "Classic Rock Tours 2. Exploring a Famous Ophiolite: A Guide to the Bay of Islands Igneous Complex in Gros Morne National Park, Western Newfoundland, Canada." Geoscience Canada, October 31, 2019, 101–36. http://dx.doi.org/10.12789/geocanj.2019.46.149.

Full text
Abstract:
Ophiolites are complex assemblages of ultramafic and mafic igneous rocks that are now widely considered to be pieces of ancient oceanic crust that were emplaced on to the continents courtesy of global plate tectonics. However, most examples were originally considered parts of enormous layered mafic intrusions and so were interpreted in that light. The new understanding of ophiolites in the late 1960s and early 1970s was a crucial part of the global Earth Science revolution, and they are now central to all plate tectonic models developed for ancient orogenic belts. Although their equivalence to oceanic crust is now well established, many ophiolites may not be ‘typical’ examples of such, and not all examples are identical. Most ophiolites likely formed in subduction-influenced environments rather than at mid-ocean ridges. Ophiolites remain important foci for research in the 21st century, and many questions remain about their environments of formation and especially their mechanisms of emplacement onto the continents. Although it was not the first to be seen as a relic of a vanished ocean, the Bay of Islands Igneous Complex in western Newfoundland is one of the best preserved and most easily accessible ophiolites in the world. In the late 20th century, research work in this area proved highly influential in understanding the oceanic crust, and in unravelling the diachronous events involved in the progressive destruction of an ancient stable continental margin as arcs and microcontinental blocks were accreted along it. Parts of the Tablelands Ophiolite lie within Gros Morne National Park, which is a UNESCO world heritage site because of its importance to our understanding of global tectonics. The wider region around the park also includes the Cabox Aspiring Geopark Project, now also in the process of seeking recognition through UNESCO. This article provides background information on ophiolites and the development of our ideas about them, and links this material to four self-guided field excursions that allow examination of many classic features. These excursions range from a collection of roadside outcrops, to some relatively easy hiking excursions on official National Park trails, and eventually to a more challenging off-trail hike that ascends to the summit plateau of the Tablelands to visit rare exposures of the Moho (the Mohorovičić Discontinuity, i.e. the lower boundary of the Earth’s crust) and the underlying upper mantle rocks. Collectively, the field stops should allow geologically-minded visitors to experience some amazing geology in a spectacular and sometimes surreal landscape. RÉSUMÉLes ophiolites sont des assemblages complexes de roches ignées ultramafiques et mafiques qui sont maintenant généralement considérées comme des fragments de croûte océanique ancienne qui ont été charriés sur les continents grâce à la tectoniqueglobale des plaques. Cependant, la plupart des exemples étaient à l'origine considérés comme faisant partie de vastes intrusions mafiques stratifiées et ont donc été interprétés dans ce contexte. La nouvelle compréhension des ophiolites à la fin des années 60 et au début des années 70 a été un élément crucial de la révolution des sciences de la Terre. Les ophiolites sont désormais au coeur de tous les modèles tectoniques des plaques développés pour les anciennes ceintures orogéniques. Bien que leur équivalence avec la croute océanique soit maintenant bien établie, de nombreuses ophiolites peuvent ne pas en être des exemples « typiques », et tous les exemples ne sont pas identiques. La plupart des ophiolites se sont probablement formées dans des environnements influences par la subduction plutôt qu’au niveau des dorsalis océaniques. Les ophiolites restent un thème de recherché important au XXIe siècle et de nombreuses questions subsistent quant à leurs environnements de formation et notamment à leurs mécanismes de mise en place sur les continents. Bien qu'il n’ait pas été le premier à être identifié comme un vestige d'un océan disparu, le complexe igné de la baie des Îles, dans l'ouest de Terre-Neuve, fait partie des ophiolites les mieux conservées et les plus facilement accessibles au monde. À la fin du XXe siècle, les travaux de recherche dans ce domaine ont joué un rôle déterminant dans la comprehension de la croûte océanique et dans la compréhension des événements diachrones impliqués dans la destruction progressive d'une ancienne marge continentale stable au fur et à mesure de l'accrétion d'arcs et de blocs microcontinentaux. Une partie des Tablelands Ophiolite se trouve dans le parc national du Gros-Morne, site classé au patrimoine mondial de l'UNESCO en raison de son importance pour notre compréhension de la tectonique globale. La région plus large autour du parc comprend également le projet Cabox Aspiring Geopark, qui est également à la recherche d’une reconnaissance dans le cadre de l’UNESCO. Cet article fournit des informations de base sur les ophiolites et le développement de nos idées à leur sujet, et relie ce matériel à quatre excursions autoguidées qui permettent d'examiner de nombreuses caractéristiques classiques. Ces excursions vont d’une collection de visites d’affleurements au bord de la route, à des randonnées relativement faciles sur les sentiers officiels du parc national, et finalement à une randonnée plus difficile hors-piste menant au plateau sommital des Tablelands pour visiter de rares affleurement du Moho (la discontinuité de Mohorovičić, c’est-à-dire la limite inférieure de la croûte terrestre) et des roches du manteau supérieur sousjacentes. Collectivement, les visites sur le terrain devraient permettre aux visiteurs amateurs de géologie de faire l'expérience d'une géologie remarquable dans un paysage spectaculaire et parfois surréaliste.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Modèles des blocs latents"

1

Brault, Vincent. "Estimation et sélection de modèle pour le modèle des blocs latents." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112238/document.

Full text
Abstract:
Le but de la classification est de partager des ensembles de données en sous-ensembles les plus homogènes possibles, c'est-à-dire que les membres d'une classe doivent plus se ressembler entre eux qu'aux membres des autres classes. Le problème se complique lorsque le statisticien souhaite définir des groupes à la fois sur les individus et sur les variables. Le modèle des blocs latents définit une loi pour chaque croisement de classe d'objets et de classe de variables, et les observations sont supposées indépendantes conditionnellement au choix de ces classes. Toutefois, il est impossible de factoriser la loi jointe des labels empêchant le calcul de la logvraisemblance et l'utilisation de l'algorithme EM. Plusieurs méthodes et critères existent pour retrouver ces partitions, certains fréquentistes, d'autres bayésiens, certains stochastiques, d'autres non. Dans cette thèse, nous avons d'abord proposé des conditions suffisantes pour obtenir l'identifiabilité. Dans un second temps, nous avons étudié deux algorithmes proposés pour contourner le problème de l'algorithme EM : VEM de Govaert et Nadif (2008) et SEM-Gibbs de Keribin, Celeux et Govaert (2010). En particulier, nous avons analysé la combinaison des deux et mis en évidence des raisons pour lesquelles les algorithmes dégénèrent (terme utilisé pour dire qu'ils renvoient des classes vides). En choisissant des lois a priori judicieuses, nous avons ensuite proposé une adaptation bayésienne permettant de limiter ce phénomène. Nous avons notamment utilisé un échantillonneur de Gibbs dont nous proposons un critère d'arrêt basé sur la statistique de Brooks-Gelman (1998). Nous avons également proposé une adaptation de l'algorithme Largest Gaps (Channarond et al. (2012)). En reprenant leurs démonstrations, nous avons démontré que les estimateurs des labels et des paramètres obtenus sont consistants lorsque le nombre de lignes et de colonnes tendent vers l'infini. De plus, nous avons proposé une méthode pour sélectionner le nombre de classes en ligne et en colonne dont l'estimation est également consistante à condition que le nombre de ligne et de colonne soit très grand. Pour estimer le nombre de classes, nous avons étudié le critère ICL (Integrated Completed Likelihood) dont nous avons proposé une forme exacte. Après avoir étudié l'approximation asymptotique, nous avons proposé un critère BIC (Bayesian Information Criterion) puis nous conjecturons que les deux critères sélectionnent les mêmes résultats et que ces estimations seraient consistantes ; conjecture appuyée par des résultats théoriques et empiriques. Enfin, nous avons comparé les différentes combinaisons et proposé une méthodologie pour faire une analyse croisée de données
Classification aims at sharing data sets in homogeneous subsets; the observations in a class are more similar than the observations of other classes. The problem is compounded when the statistician wants to obtain a cross classification on the individuals and the variables. The latent block model uses a law for each crossing object class and class variables, and observations are assumed to be independent conditionally on the choice of these classes. However, factorizing the joint distribution of the labels is impossible, obstructing the calculation of the log-likelihood and the using of the EM algorithm. Several methods and criteria exist to find these partitions, some frequentist ones, some bayesian ones, some stochastic ones... In this thesis, we first proposed sufficient conditions to obtain the identifiability of the model. In a second step, we studied two proposed algorithms to counteract the problem of the EM algorithm: the VEM algorithm (Govaert and Nadif (2008)) and the SEM-Gibbs algorithm (Keribin, Celeux and Govaert (2010)). In particular, we analyzed the combination of both and highlighted why the algorithms degenerate (term used to say that it returns empty classes). By choosing priors wise, we then proposed a Bayesian adaptation to limit this phenomenon. In particular, we used a Gibbs sampler and we proposed a stopping criterion based on the statistics of Brooks-Gelman (1998). We also proposed an adaptation of the Largest Gaps algorithm (Channarond et al. (2012)). By taking their demonstrations, we have shown that the labels and parameters estimators obtained are consistent when the number of rows and columns tend to infinity. Furthermore, we proposed a method to select the number of classes in row and column, the estimation provided is also consistent when the number of row and column is very large. To estimate the number of classes, we studied the ICL criterion (Integrated Completed Likelihood) whose we proposed an exact shape. After studying the asymptotic approximation, we proposed a BIC criterion (Bayesian Information Criterion) and we conjecture that the two criteria select the same results and these estimates are consistent; conjecture supported by theoretical and empirical results. Finally, we compared the different combinations and proposed a methodology for co-clustering
APA, Harvard, Vancouver, ISO, and other styles
2

Tami, Myriam. "Approche EM pour modèles multi-blocs à facteurs à une équation structurelle." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT303/document.

Full text
Abstract:
Les modèles d'équations structurelles à variables latentes permettent de modéliser des relations entre des variables observables et non observables. Les deux paradigmes actuels d'estimation de ces modèles sont les méthodes de moindres carrés partiels sur composantes et l'analyse de la structure de covariance. Dans ce travail, après avoir décrit les deux principales méthodes d'estimation que sont PLS et LISREL, nous proposons une approche d'estimation fondée sur la maximisation par algorithme EM de la vraisemblance globale d'un modèle à facteurs latents et à une équation structurelle. Nous en étudions les performances sur des données simulées et nous montrons, via une application sur des données réelles environnementales, comment construire pratiquement un modèle et en évaluer la qualité. Enfin, nous appliquons l'approche développée dans le contexte d'un essai clinique en cancérologie pour l'étude de données longitudinales de qualité de vie. Nous montrons que par la réduction efficace de la dimension des données, l'approche EM simplifie l'analyse longitudinale de la qualité de vie en évitant les tests multiples. Ainsi, elle contribue à faciliter l'évaluation du bénéfice clinique d'un traitement
Structural equation models enable the modeling of interactions between observed variables and latent ones. The two leading estimation methods are partial least squares on components and covariance-structure analysis. In this work, we first describe the PLS and LISREL methods and, then, we propose an estimation method using the EM algorithm in order to maximize the likelihood of a structural equation model with latent factors. Through a simulation study, we investigate how fast and accurate the method is, and thanks to an application to real environmental data, we show how one can handly construct a model or evaluate its quality. Finally, in the context of oncology, we apply the EM approach on health-related quality-of-life data. We show that it simplifies the longitudinal analysis of quality-of-life and helps evaluating the clinical benefit of a treatment
APA, Harvard, Vancouver, ISO, and other styles
3

Robert, Valérie. "Classification croisée pour l'analyse de bases de données de grandes dimensions de pharmacovigilance." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS111/document.

Full text
Abstract:
Cette thèse regroupe des contributions méthodologiques à l'analyse statistique des bases de données de pharmacovigilance. Les difficultés de modélisation de ces données résident dans le fait qu'elles produisent des matrices souvent creuses et de grandes dimensions. La première partie des travaux de cette thèse porte sur la classification croisée du tableau de contingence de pharmacovigilance à l’aide du modèle des blocs latents de Poisson normalisé. L'objectif de la classification est d'une part de fournir aux pharmacologues des zones intéressantes plus réduites à explorer de manière plus précise, et d'autre part de constituer une information a priori utilisable lors de l'analyse des données individuelles de pharmacovigilance. Dans ce cadre, nous détaillons une procédure d'estimation partiellement bayésienne des paramètres du modèle et des critères de sélection de modèles afin de choisir le modèle le plus adapté aux données étudiées. Les données étant de grandes dimensions, nous proposons également une procédure pour explorer de manière non exhaustive mais pertinente, l'espace des modèles en coclustering. Enfin, pour mesurer la performance des algorithmes, nous développons un indice de classification croisée calculable en pratique pour un nombre de classes élevé. Les développements de ces outils statistiques ne sont pas spécifiques à la pharmacovigilance et peuvent être utile à toute analyse en classification croisée. La seconde partie des travaux de cette thèse porte sur l'analyse statistique des données individuelles, plus nombreuses mais également plus riches en information. L'objectif est d'établir des classes d'individus selon leur profil médicamenteux et des sous-groupes d'effets et de médicaments possiblement en interaction, palliant ainsi le phénomène de coprescription et de masquage que peuvent présenter les méthodes existantes sur le tableau de contingence. De plus, l'interaction entre plusieurs effets indésirables y est prise en compte. Nous proposons alors le modèle des blocs latents multiple qui fournit une classification croisée simultanée des lignes et des colonnes de deux tableaux de données binaires en leur imposant le même classement en ligne. Nous discutons des hypothèses inhérentes à ce nouveau modèle et nous énonçons des conditions suffisantes de son identifiabilité. Ensuite, nous présentons une procédure d'estimation de ses paramètres et développons des critères de sélection de modèles associés. De plus, un modèle de simulation numérique des données individuelles de pharmacovigilance est proposé et permet de confronter les méthodes entre elles et d'étudier leurs limites. Enfin, la méthodologie proposée pour traiter les données individuelles de pharmacovigilance est explicitée et appliquée à un échantillon de la base française de pharmacovigilance entre 2002 et 2010
This thesis gathers methodological contributions to the statistical analysis of large datasets in pharmacovigilance. The pharmacovigilance datasets produce sparse and large matrices and these two characteritics are the main statistical challenges for modelling them. The first part of the thesis is dedicated to the coclustering of the pharmacovigilance contingency table thanks to the normalized Poisson latent block model. The objective is on the one hand, to provide pharmacologists with some interesting and reduced areas to explore more precisely. On the other hand, this coclustering remains a useful background information for dealing with individual database. Within this framework, a parameter estimation procedure for this model is detailed and objective model selection criteria are developed to choose the best fit model. Datasets are so large that we propose a procedure to explore the model space in coclustering, in a non exhaustive way but a relevant one. Additionnally, to assess the performances of the methods, a convenient coclustering index is developed to compare partitions with high numbers of clusters. The developments of these statistical tools are not specific to pharmacovigilance and can be used for any coclustering issue. The second part of the thesis is devoted to the statistical analysis of the large individual data, which are more numerous but also provides even more valuable information. The aim is to produce individual clusters according their drug profiles and subgroups of drugs and adverse effects with possible links, which overcomes the coprescription and masking phenomenons, common contingency table issues in pharmacovigilance. Moreover, the interaction between several adverse effects is taken into account. For this purpose, we propose a new model, the multiple latent block model which enables to cocluster two binary tables by imposing the same row ranking. Assertions inherent to the model are discussed and sufficient identifiability conditions for the model are presented. Then a parameter estimation algorithm is studied and objective model selection criteria are developed. Moreover, a numeric simulation model of the individual data is proposed to compare existing methods and study its limits. Finally, the proposed methodology to deal with individual pharmacovigilance data is presented and applied to a sample of the French pharmacovigilance database between 2002 and 2010
APA, Harvard, Vancouver, ISO, and other styles
4

Febrissy, Mickaël. "Nonnegative Matrix Factorization and Probabilistic Models : A unified framework for text data." Electronic Thesis or Diss., Paris, CNAM, 2021. http://www.theses.fr/2021CNAM1291.

Full text
Abstract:
Depuis l’avènement du Big data, les techniques de réduction de la dimension sont devenues essentielles pour l’exploration et l’analyse de données hautement dimensionnelles issues de nombreux domaines scientifiques. En créant un espace à faible dimension intrinsèque à l’espace de données original, ces techniques offrent une meilleure compréhension dans de nombreuses applications de la science des données. Dans le contexte de l’analyse de textes où les données recueillies sont principalement non négatives, les techniques couramment utilisées produisant des transformations dans l’espace des nombres réels (par exemple, l’analyse en composantes principales, l’analyse sémantique latente) sont devenues moins intuitives car elles ne pouvaient pas fournir une interprétation directe. De telles applications montrent la nécessité de techniques de réduction de la dimensionnalité comme la factorisation matricielle non négative (NMF), utile pour intégrer par exemple, des documents ou des mots dans l’espace de dimension réduite. Par définition, la NMF vise à approximer une matrice non négative par le produit de deux matrices non négatives de plus faible dimension, ce qui aboutit à la résolution d’un problème d’optimisation non linéaire. Notons cependant que cet objectif peut être exploité dans le domaine du regroupement de documents/mots, même si ce n’est pas l’objectif de la NMF. En s’appuyant sur la NMF, cette thèse se concentre sur l’amélioration de la qualité du clustering de grandes données textuelles se présentant sous la forme de matrices document-terme très creuses. Cet objectif est d’abord atteint en proposant plusieurs types de régularisations de la fonction objectif originale de la NMF. En plaçant cet objectif dans un contexte probabiliste, un nouveau modèle NMF est introduit, apportant des bases théoriques pour établir la connexion entre la NMF et les modèles de mélange finis de familles exponentielles, ce qui permet d’offrir des régularisations intéressantes. Cela permet d’inscrire, entre autres, la NMF dans un véritable esprit de clustering. Enfin, un modèle bayésien de blocs latents de Poisson est proposé pour améliorer le regroupement de documents et de mots simultanément en capturant des caractéristiques de termes bruyants. Ce modèle peut être relié à la NMTF (Nonnegative Matrix Tri-Factorization) consacrée au co-clustering. Des expériences sur des jeux de données réelles ont été menées pour soutenir les propositions de la thèse
Since the exponential growth of available Data (Big data), dimensional reduction techniques became essential for the exploration and analysis of high-dimensional data arising from many scientific areas. By creating a low-dimensional space intrinsic to the original data space, theses techniques offer better understandings across many data Science applications. In the context of text analysis where the data gathered are mainly nonnegative, recognized techniques producing transformations in the space of real numbers (e.g. Principal component analysis, Latent semantic analysis) became less intuitive as they could not provide a straightforward interpretation. Such applications show the need of dimensional reduction techniques like Nonnegative Matrix factorization (NMF) useful to embed, for instance, documents or words in the space of reduced dimension. By definition, NMF aims at approximating a nonnegative matrix by the product of two lower dimensionalnonnegative matrices, which results in the solving of a nonlinear optimization problem. Note however that this objective can be harnessed to document/word clustering domain even it is not the objective of NMF. In relying on NMF, this thesis focuses on improving clustering of large text data arising in the form of highly sparse document-term matrices. This objective is first achieved, by proposing several types of regularizations of the original NMF objective function. Setting this objective in a probabilistic context, a new NMF model is introduced bringing theoretical foundations for establishing the connection between NMF and Finite Mixture Models of exponential families leading, therefore, to offer interesting regularizations. This allows to set NMF in a real clustering spirit. Finally, a Bayesian Poisson Latent Block model is proposed to improve document andword clustering simultaneously by capturing noisy term features. This can be connected to NMTF (Nonnegative Matrix factorization Tri-factorization) devoted to co-clustering. Experiments on real datasets have been carried out to support the proposals of the thesis
APA, Harvard, Vancouver, ISO, and other styles
5

Lomet, Aurore. "Sélection de modèle pour la classification croisée de données continues." Compiègne, 2012. http://www.theses.fr/2012COMP2041.

Full text
Abstract:
La classification croisée a pour objectif de partitionner simultanément les lignes et les colonnes d'un tableau de données pour révéler la structure en blocs homogènes. Parmi les différentes méthodes proposées, l'une d'entre elles utilise le modèle probabiliste des blocs latents. Pour un même jeu de données, plusieurs classifications croisées qui diffèrent par le nombre de classes par exemple peuvent être proposées. La sélection du nombre de classes devient alors un problème fondamental afin d'obtenir une classification des données pertinente. De plus, l'absence de jeu de données réelles de référence limite l'évaluation objective des méthodes d'apprentissage. De ce fait, l'utilisation des données simulées est particulièrement intéressante. Cependant, leur conception pose plusieurs problèmes : la quantification de la difficulté du problème d'apprentissage qui s'exprime par le risque de Bayes en classification simple est problématique en raison de la double nature de la dimension du tableau. La première contribution de cette thèse réside donc en la définition d'une mesure objective du niveau de difficulté d'un problème de classification croisée afin de proposer un protocole de simulation pour lequel le degré de mélange des classes est contrôlé. Pour ce faire, nous revenons sur la définition des fonctions de coût des règles de Bayes et des risques. Puis, nous décrivons les difficultés liées à l'estimation de ces quantités. A partir de ces dernières, nous définissons un risque de Bayes conditionné par le tableau de données observé comme mesure du niveau de difficulté. Par la suite, nous proposons un protocole de simulation utilisant le modèle de blocs latents pour lequel le niveau de difficulté exprimé par ce risque conditionnel est contrôlé. Pour le choix du nombre de classes, nous proposons dans cette thèse une nouvelle procédure utilisant des critères de sélection de modelé reposant sur des justifications théoriques et ne nécessitant pas de calculs supplémentaires coûteux après l'estimation du modèle de blocs latents. Puisque nous employons un modèle probabiliste, nous adaptons le critère ICL qui a été initialement défini pour le choix du nombre de composants des modèles de mélange. Nous développons trois versions qui diffèrent suivant les hypothèses et les distributions a priori posées. Nous proposons également un critère dérivé BIC. Les résultats obtenus du critère ICL exact informatif et des deux critères asymptotiques ICLBIC et BIC sur des jeux de données simulées et réelles montrent que ceux-ci sont performants et robustes pour des tableaux suffisamment grands quant à la sélection du nombre de classes et du type de modèle.
APA, Harvard, Vancouver, ISO, and other styles
6

Schmutz, Amandine. "Contributions à l'analyse de données fonctionnelles multivariées, application à l'étude de la locomotion du cheval de sport." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1241.

Full text
Abstract:
Avec l'essor des objets connectés pour fournir un suivi systématique, objectif et fiable aux sportifs et à leur entraineur, de plus en plus de paramètres sont collectés pour un même individu. Une alternative aux méthodes d'évaluation en laboratoire est l'utilisation de capteurs inertiels qui permettent de suivre la performance sans l'entraver, sans limite d'espace et sans procédure d'initialisation fastidieuse. Les données collectées par ces capteurs peuvent être vues comme des données fonctionnelles multivariées : se sont des entités quantitatives évoluant au cours du temps de façon simultanée pour un même individu statistique. Cette thèse a pour objectif de chercher des paramètres d'analyse de la locomotion du cheval athlète à l'aide d'un capteur positionné dans la selle. Cet objet connecté (centrale inertielle, IMU) pour le secteur équestre permet de collecter l'accélération et la vitesse angulaire au cours du temps, dans les trois directions de l'espace et selon une fréquence d'échantillonnage de 100 Hz. Une base de données a ainsi été constituée rassemblant 3221 foulées de galop, collectées en ligne droite et en courbe et issues de 58 chevaux de sauts d'obstacles de niveaux et d'âges variés. Nous avons restreint notre travail à la prédiction de trois paramètres : la vitesse par foulée, la longueur de foulée et la qualité de saut. Pour répondre aux deux premiers objectifs nous avons développé une méthode de clustering fonctionnelle multivariée permettant de diviser notre base de données en sous-groupes plus homogènes du point de vue des signaux collectés. Cette méthode permet de caractériser chaque groupe par son profil moyen, facilitant leur compréhension et leur interprétation. Mais, contre toute attente, ce modèle de clustering n'a pas permis d'améliorer les résultats de prédiction de vitesse, les SVM restant le modèle ayant le pourcentage d'erreur inférieur à 0.6 m/s le plus faible. Il en est de même pour la longueur de foulée où une précision de 20 cm est atteinte grâce aux Support Vector Machine (SVM). Ces résultats peuvent s'expliquer par le fait que notre base de données est composée uniquement de 58 chevaux, ce qui est un nombre d'individus très faible pour du clustering. Nous avons ensuite étendu cette méthode au co-clustering de courbes fonctionnelles multivariées afin de faciliter la fouille des données collectées pour un même cheval au cours du temps. Cette méthode pourrait permettre de détecter et prévenir d'éventuels troubles locomoteurs, principale source d'arrêt du cheval de saut d'obstacle. Pour finir, nous avons investigué les liens entre qualité du saut et les signaux collectés par l'IMU. Nos premiers résultats montrent que les signaux collectés par la selle seuls ne suffisent pas à différencier finement la qualité du saut d'obstacle. Un apport d'information supplémentaire sera nécessaire, à l'aide d'autres capteurs complémentaires par exemple ou encore en étoffant la base de données de façon à avoir un panel de chevaux et de profils de sauts plus variés
With the growth of smart devices market to provide athletes and trainers a systematic, objective and reliable follow-up, more and more parameters are monitored for a same individual. An alternative to laboratory evaluation methods is the use of inertial sensors which allow following the performance without hindering it, without space limits and without tedious initialization procedures. Data collected by those sensors can be classified as multivariate functional data: some quantitative entities evolving along time and collected simultaneously for a same individual. The aim of this thesis is to find parameters for analysing the athlete horse locomotion thanks to a sensor put in the saddle. This connected device (inertial sensor, IMU) for equestrian sports allows the collection of acceleration and angular velocity along time in the three space directions and with a sampling frequency of 100 Hz. The database used for model development is made of 3221 canter strides from 58 ridden jumping horses of different age and level of competition. Two different protocols are used to collect data: one for straight path and one for curved path. We restricted our work to the prediction of three parameters: the speed per stride, the stride length and the jump quality. To meet the first to objectives, we developed a multivariate functional clustering method that allow the division of the database into smaller more homogeneous sub-groups from the collected signals point of view. This method allows the characterization of each group by it average profile, which ease the data understanding and interpretation. But surprisingly, this clustering model did not improve the results of speed prediction, Support Vector Machine (SVM) is the model with the lowest percentage of error above 0.6 m/s. The same applied for the stride length where an accuracy of 20 cm is reached thanks to SVM model. Those results can be explained by the fact that our database is build from 58 horses only, which is a quite low number of individuals for a clustering method. Then we extend this method to the co-clustering of multivariate functional data in order to ease the datamining of horses’ follow-up databases. This method might allow the detection and prevention of locomotor disturbances, main source of interruption of jumping horses. Lastly, we looked for correlation between jumping quality and signals collected by the IMU. First results show that signals collected by the saddle alone are not sufficient to differentiate finely the jumping quality. Additional information will be needed, for example using complementary sensors or by expanding the database to have a more diverse range of horses and jump profiles
APA, Harvard, Vancouver, ISO, and other styles
7

Mero, Gulten. "Modèles à facteurs latents et rentabilités des actifs financiers." Rennes 1, 2010. http://www.theses.fr/2010REN1G011.

Full text
Abstract:
Devant l'échec empirique des facteurs de risque observables dans l'explication des rentabilités financières, le but de cette thèse est d'utiliser les modèles à facteurs latents et les développements économétriques récents afin d'améliorer la compréhension du risque affectant les actifs. Dans un premier temps, nous décrivons les modèles à facteurs latents appliqués à la finance et les principales méthodes d'estimation. Nous présentons également comment le recours aux théories financières et économétriques permet de relier les facteurs statistiques avec des variables économiques et financières afin de faciliter leur interprétation. Dans un second temps, nous utilisons les modèles à facteurs latents en coupes transversales afin d'estimer et interpréter le profil de risque des Hedge Funds et des actions. La méthodologie mise en place est cohérente avec les propriétés statistiques inhérentes aux échantillons de grandes dimensions ainsi qu'avec le caractère dynamique du risque systématique. Dans un troisième temps, nous modélisons un marché où les prix et les volumes sont sensibles aux chocs de liquidité intra-journaliers. Nous proposons un modèle structurel de mélange de distributions à deux facteurs latents permettant de capturer l'impact des chocs d'information et des frictions de liquidité. Ce modèle permet de construire une mesure de liquidité statique propre à chaque titre. Ensuite, nous étendons notre modèle structurel afin de tenir compte des propriétés dynamiques du risque de liquidité. En particulier nous distinguons deux problèmes de liquidité : les frictions de liquidité se produisant à une fréquence intra-journalière et les événements d'illiquidité détériorant la qualité de marché de façon persistante. Enfin, nous avons recours à la modélisation statistique en séries chronologiques pour construire des mesures dynamiques de liquidité
This thesis aims at using latent factor models and recent econometric developments in order to obtain a better understanding of underlying asset risk. Firstly, we describe the various latent factor models currently applied to finance as well as the main estimation methodologies. We also present how financial and econometrical theories allow us to link statistical factors to economic and financial variables, hence facilitating their interpretation. Secondly, we use a cross-sectional approach in order to explain and interpret the risk profile of hedge fund and stock returns. Our methodology is consistent with statistical properties inherent to large samples as well as the dynamic properties of systematic risk. Thirdly, we model a market where prices and volumes are influenced by intra-day liquidity shocks. We propose a mixture of distribution model with two latent factors allowing us to capture the respective impacts of both information shocks and liquidity frictions. This model enables us to build a static stock-specific liquidity measure using daily data. Moreover, we extend our structural model in order to take into account dynamic properties of liquidity risk. In particular, we distinguish two liquidity issues : intra-day liquidity frictions and illiquidity events deteriorating market quality in a persistent manner. Finally, we use signal extraction modeling in order to build dynamic liquidity measures
APA, Harvard, Vancouver, ISO, and other styles
8

Frichot, Eric. "Modèles à facteurs latents pour les études d'association écologique en génétique des populations." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENS018/document.

Full text
Abstract:
Nous introduisons un ensemble de modèles à facteurs latents dédié à la génomique du paysage et aux tests d'associations écologiques. Cela comprend des méthodes statistiques pour corriger des effets d'autocorrélation spatiale sur les cartes de composantes principales en génétique des populations (spFA), des méthodes pour estimer rapidement et efficacement les coefficients de métissage individuel à partir de matrices de génotypes de grande taille et évaluer le nombre de populations ancestrales (sNMF) et des méthodes pour identifier les polymorphismes génétiques qui montrent de fortes corrélations avec des gradients environnementaux ou avec des variables utilisées comme des indicateurs pour des pressions écologiques (LFMM). Nous avons aussi développé un ensemble de logiciels libres associés à ces méthodes, basés sur des programmes optimisés en C qui peuvent passer à l'échelle avec la dimension de très grand jeu de données, afin d'effectuer des analyses de structures de population et des cribles génomiques pour l'adaptation locale
We introduce a set of latent factor models dedicated to landscape genomics and ecological association tests. It includes statistical methods for correcting principal component maps for effects of spatial autocorrelation (spFA); methods for estimating ancestry coefficients from large genotypic matrices and evaluating the number of ancestral populations (sNMF); and methods for identifying genetic polymorphisms that exhibit high correlation with some environmental gradient or with the variables used as proxies for ecological pressures (LFMM). We also developed a set of open source softwares associated with the methods, based on optimized C programs that can scale with the dimension of very large data sets, to run analyses of population structure and genome scans for local adaptation
APA, Harvard, Vancouver, ISO, and other styles
9

Galéra, Cyril. "Construction de blocs géographiques cohérents dans GOCAD." Vandoeuvre-les-Nancy, INPL, 2002. http://www.theses.fr/2002INPLA05N.

Full text
Abstract:
La définition d'un modèle géologique 3D est un travail complexe, fait à partir de données peu précises et laisse une large place à l'interprétation du géologue. Pour valider la cohérence de son modèle, le géologue dispose de méthodes de restaurations qui consistent à déplier le modèle pour voir si avant déformation, le modèle apparaît probable. Néanmoins l'efficacité de ces méthodes en 3D est sujette à caution. Aussi, une autre approche présentée dans cette thèse et implémentée dans le géomodeleur GOCAD, consiste à construire de nouveaux horizons en se basant directement sur les données les plus fiables et le mode de déformation supposé, le cisaillement simple ou glissement couche à couche. Grâce à ces outils, le géologue pourra ainsi compléter ou tester la cohérence du modèle. La développabilité ou dépliabilité a également été étudiée dans cette thèse pour impléménter de nouvelles méthodes de dépliages et de corrections d' artéfacts
The definition of a 3D geological model is a complicated task, done ftom poor data and let a large space to the geologist interpretation. Thanks to restorations methods which consist in unfolding the model in order to see if it seems credible before deformation. Nevertheless, the efficiency of this method in 3D is subject to caution. Also, another approach presented in this thesis and implemented in the GOCAD geomodeller consist in building directly new horizons based on the most reliable data and the supposed deformation, the simple shear or flexural slip. Thanks to these tools, the geologist will thus be able to comp!ete and check the model coherency. The developability or unfoldability of the horizons have also been study in these in order to implement new unfoldable methods and artefacts corrections
APA, Harvard, Vancouver, ISO, and other styles
10

Delhomme, Fabien. "Etude du comportement sous impact d'une structure pare-blocs en béton armé." Chambéry, 2005. http://www.theses.fr/2005CHAMS004.

Full text
Abstract:
Cette thèse a pour objet l'étude du comportement d'un nouveau système de galerie de protection contre les chutes de blocs appelé Pare-blocs Structurellement Dissipant (PSD). L'innovation majeure, par rapport aux solutions classiques, est de dissiper l'énergie d'impact directement dans la dalle en béton armé ou dans des appuis fusibles, et non plus dans une couche de matériau amortissant. Les phénomènes dynamiques ayant lieu lors de l'impact d'un bloc sur la dalle sont analysés au moyen d'expérimentations sur une structure PSD à l'échelle î 1/3. Les efforts de percussion appliqués à la dalle, durant la phase de contact avec le bloc, sont estimés ainsi que les différents transferts et dissipations d'énergie. Les résultats ont permis de valider le principe de fonctionnement et de réparation des PSD et font apparaître que la dalle est endommagée par trois mécanismes majeurs: le poinçonnement, la mise en flexion et la déstructuration de surface de la zone impactée. Les principales grandeurs expérimentales sont retrouvées à l'aide de simulations numériques des essais avec un code éléments finis. Un modèle mécanique simplifié "masses ressorts amortisseur" est également développé dans le but de concevoir des méthodes de dimensionnement applicables en bureau d'études. Les perspectives de ce travail sont d'aboutir à l'établissement de recommandations sur la conception et la réalisation des pare-blocs structurellement dissipant
This thesis studies the behaviour of a new concept for a protection gallery under rock fall, called Structurally Dissipating Rock-shed (SDR). The main innovation, compared to conventional solutions, is to dissipate the impact energy directly into the reinforced concrete slab or into fuse supports, and no longer in a cushion layer. The dynamic phenomena, taking place during the impact of a block onto the slab, are analyzed by means of experiments on a 1/3 scale SDR structure. The percussion loads applied to the slab, during the contact phase with the block, are assessed as weIl as the various energy transfers and dissipations. The results allowed to validate the operating and repair principles of the SDR and revealed that the slab is damaged by three main mechanisms: the punching, the bending and the breaking clown at surface level of the impacted zone. The principal experimental values are found by numerical simulations of the tests with a finite elements tool. A simplified mechanical model "masses-springs-damping" is also developed with the aim of implementing design methods for engineering offices. The prospects for this work are to succeed in establishing design and construction recommendations for structurally dissipating rock-sheds
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Modèles des blocs latents"

1

Robert, Scollay, Bora Bijit, and United Nations Conference on Trade and Development., eds. Assessing regional trading arrangements in the Asia-Pacific. New York: United Nations, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Modèles des blocs latents"

1

AUBERT, Julie, Pierre BARBILLON, Sophie DONNET, and Vincent MIELE. "Modèles à blocs latents pour la détection de structures dans les réseaux écologiques." In Approches statistiques pour les variables cachées en écologie, 131–50. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9047.ch6.

Full text
Abstract:
Nous nous intéressons aux interactions entre espèces. Les données d'interactions sont représentées par un réseau dont la structure est étudiée pour comprendre l'organisation de l'écosystème. Pour ce faire, nous présentons les modèles à blocs stochastiques qui sont des modèles de mélange adaptés aux réseaux et qui permettent d'obtenir une classification des espèces sur la base de leurs patrons d'interactions.
APA, Harvard, Vancouver, ISO, and other styles
2

BYSTROVA, Daria, Giovanni POGGIATO, Julyan ARBEL, and Wilfried THUILLER. "Réduction de la dimension dans les modèles de distributions jointes d’espèces." In Approches statistiques pour les variables cachées en écologie, 151–74. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9047.ch7.

Full text
Abstract:
Nous présentons les modèles à facteurs latents dans le contexte des modèles de distribution joints d'espèces (JSDM), en soulignant leur utilité en écologie des communautés. Ces modèles permettent de faire face à la grande dimension des données d'observation dans l'espace et le temps, et qui limitent l'application des JSDMs. L'inférence se fait selon une approche bayésienne et est illustrée sur des données d'espèces végétales.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography