Auswahl der wissenschaftlichen Literatur zum Thema „Modèles à blocs latents“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Modèles à blocs latents" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Modèles à blocs latents"

1

Nicet-Chenaf, Dalila, und Arnaud Wachs. „Les relations commerciales bilatérales des pays du bassin méditerranéen à l’heure de l’élargissement de l’UE : une approche de type gravitaire“. Économie appliquée 58, Nr. 1 (2005): 85–116. http://dx.doi.org/10.3406/ecoap.2005.3747.

Der volle Inhalt der Quelle
Annotation:
Ce papier détermine quels sont, parmi les modèles gravitationnels, ceux les mieux adaptés à l’étude des configurations d’échanges de plusieurs régions économiques et de l’hétérogénéité des comportements des pays constitutifs de ces zones. Appliquée aux trois blocs que sont l’UE(15), les 10 nouveaux membres et les pays du Bassin méditerranéen, V utilisation des modèles, intégrant des effets fixes combinés, a montré que les accords récents de l’UE 15 ont favorisé des relations économiques de type «centre-périphérie» mais non pas les relations «inter-périphéries».
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Palmero, Sandra. „Intégration et régionalisation : une approche par les modèles de blocs“. Économie appliquée 57, Nr. 1 (2004): 5–45. http://dx.doi.org/10.3406/ecoap.2004.3504.

Der volle Inhalt der Quelle
Annotation:
Les phénomènes d’intégration régionale peuvent être théoriquement analysés par les modèles de blocs. Il s’agit, premièrement, d’en évaluer l’impact sur le bien-être mondial et régional, et, deuxièmement, de légitimer l’existence de certaines formes de régionalisation hostiles au libre-échange. L’évolution de ces modélisations montre principalement que le libre-échange généralisé n ’est pas la seule politique pouvant maximiser le bien-être mondial et/ou le bien-être régional.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Laffargue, J. P., und P. Malgrange. „Rationalité des comportements et des anticipations dans les blocs réels des modèles macroéconomiques“. Recherches économiques de Louvain 53, Nr. 3 (September 1987): 203–22. http://dx.doi.org/10.1017/s0770451800043761.

Der volle Inhalt der Quelle
Annotation:
Les modèles macroéconométriques de grande taille, utilisés par les décideurs publics pour évaluer leur politique économique, reposent, pour la plupart d’entre eux, sur une structure commune qualifiée de néokeynésienne. Plus précisément ils constituent une mise en pratique du schéma IS-LM enrichi par une description de son évolution dynamique: l’accumulation du capital combinée à des mécanismes d’ajustements progressifs et d’anticipations (Cf par exemple Deleau et Al. (1981) pour une formalisation de cette démarche).Toutefois, dans ces modèles, les variables anticipées ne figurent qu’implicitement, n’étant pas directement observables. Les équations dynamiques d’ajustement sont en fait des formes réduites agrégeant les mécanismes d’ajustement proprement dit et ceux de formation des anticipations.Cet état de fait rend impraticable l’analyse isolée de l’influence des anticipations, et pour aborder ce problème il est nécessaire de construire une maquette dans laquelle les comportements des agents soient dérivés le plus rigoureusement possible -optimisation intertemporelle-, faisant par là apparaître les grandeurs futures que ces agents doivent nécessairement anticiper pour les prendre en compte dans leurs calculs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Somaini, Antonio. „Le visible et l’énonçable. L’IA et les nouveaux liens algorithmiques entre images et mots“. Nouvelle revue d’esthétique 33, Nr. 1 (23.08.2024): 47–58. http://dx.doi.org/10.3917/nre.033.0047.

Der volle Inhalt der Quelle
Annotation:
Parmi les effets les plus importants de l’impact actuel des technologies d’IA sur les images et la culture visuelle il y a une réorganisation profonde des liens entre images et mots, entre le visible et le dicible : ce qui peut être vu et ce qui peut être dit. L’article analyse les causes et les enjeux de cette réorganisation, en soulignant le fait que le langage devient aujourd’hui un nouveau médium pour la production et la modification d’images, qu’on peut considérer les prompts comme des nouveaux actes de langage et comme une forme d’« ekphrasis opératoire » et de « remédiation » des médias visuels et de leur histoire. Il souligne aussi le rôle fondamental joué par les « espaces latents » des modèles d’IA générative ( text-to-image et text-to-video ) en formulant dans la conclusion l’hypothèse qu’on puisse les considérer comme une nouvelle forme d’a priori historique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Lacroux, Alain. „Comment tirer le meilleur parti des données ?“ @GRH N° 50, Nr. 1 (14.05.2024): 15–52. http://dx.doi.org/10.3917/grh.050.0015.

Der volle Inhalt der Quelle
Annotation:
La GRH est significativement impactée par la révolution des « big data » : l’accumulation de masses de données importantes sur les salariés apparaît aujourd’hui dans le discours de certains observateurs comme une condition nécessaire et suffisante pour la construction de modèles prédictifs de comportements complexes au travail comme l’absentéisme ou la performance en poste. En réalité, les enjeux majeurs ne tournent pas autour de la quantité des données, mais concernent plutôt les méthodologies permettant la transformation de ces données en connaissance, si possible actionnable. Les réflexions sur les méthodes applicables pour relever ce défi sont relativement récentes, et mentionnent régulièrement un renouveau de l’empirisme dans un « quatrième paradigme » fondé sur l’exploitation intensive et « agnostique » de masses de données en vue de faire émerger des connaissances nouvelles, selon une logique purement inductive. Sans adopter ce point de vue spéculatif, force est de constater que les approches inductives basées sur les données (data driven) demeurent rares dans les études quantitatives en GRH. Il existe pourtant des méthodes bien établies, notamment dans le domaine de la fouille de données (data mining), qui reposent sur des approches inductives. Ce domaine de l’analyse quantitative à visée inductive demeure encore assez peu exploré en GRH (à l’exception des analyses typologiques). L’objectif de cet article est tout d’abord de dresser un panorama des méthodes mobilisables pour des recherches en GRH, avant de proposer une illustration empirique qui consiste en une recherche exploratoire combinant une analyse en profils latents et une exploration des profils obtenus par des modèles graphiques gaussiens.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Martin, Rémy, Yannick Robert, Pierre Dupire, Olivier Fayard und Simon Carladous. „Histoire de l’usage des modèles de propagation de blocs dans un organisme gérant des problématiques de risques naturels en montagne“. Revue Française de Géotechnique, Nr. 170 (2022): 4. http://dx.doi.org/10.1051/geotech/2021031.

Der volle Inhalt der Quelle
Annotation:
Le service de Restauration des Terrains en Montagne de l’Office National des Forêts est un acteur historique de la prévention contre les chutes de blocs en montagne. Pour les besoins de la cartographie des aléas et du dimensionnement d’ouvrages de protection, il a suivi l’évolution des moyens techniques depuis les années 1980 jusqu’à aujourd’hui. Ces dernières années, des réflexions se poursuivent sur l’aléa rocheux dans différents groupes de travail mandatés par l’État ou fédérant les experts privés et publics du domaine. Le développement des moyens informatiques et l’augmentation de la précision des données topographiques ont rendu la réalisation de calculs trajectographiques de plus en plus accessible et ont permis de mener des campagnes de simulations de grande envergure. Cet article présente l’histoire de l’utilisation des outils trajectographiques par le service de Restauration des Terrains en Montagne. L’objectif est d’aider à la compréhension de certains choix méthodologiques qui perdurent encore aujourd’hui pour éclairer les réflexions en cours. Il s’inscrit en parallèle des rapports publics établis pour le compte du Ministère de la Transition Écologique avec d’autres organismes d’État.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Bagheri, Seyyed Mohammad. „Ordre fondamental d'une théorie 1-basée“. Journal of Symbolic Logic 64, Nr. 4 (Dezember 1999): 1426–38. http://dx.doi.org/10.2307/2586788.

Der volle Inhalt der Quelle
Annotation:
D'après Lascar et Poizat [10], la déviation pour une théorie stable est associée à un préordre partiel sur l'ensemble des types. L'ordre induit a été nommé par Poizat ordre fondamental. Il mesure combien un type est loin d'être réalisé et il donne un certain nombre d'informations sur la théorie. Une question naturelle, est de décrire completément tous les ordres fondamentaux [13]. Il semble que cela soit difficile. Un problème moins ambitieux est de trouver des conditions pour qu'un ordre soit l'ordre fondamental d'une théorie, ou bien de trouver des exemples.Le but de cet article est de trouver de nouveaux exemples d'ordres fondamentaux. Nous nous concentrons principalement sur les théories stables et 1-basées car, comme nous allons voir dans la Section 2, avec cette hypothèse, il y a une représentation simple de l'ordre fondamental grâce aux ensembles algébriquement clos d'éléments des modèles de la thé;orie considégrée. Dans la Section 3, nous généralisons une idée de Baldwin et Berman [2] pour construire de “nouveaux” exemples d'ordres fondamentaux. En combinant cette construction avec les résultats de la Section 2, on caractérise de manière complete les ordres fondamentaux de theories triviales et 1-basées: les blocs des ordres fondamentaux d'une théorie triviale et 1-basée sont les inverses des posets de la forme I(L)/G où L est un treillis distributif borné et G un groupe compact d'automorphismes localement fini de L. De plus, tout ordre partiel de cette forme est l'ordre fondamental d'une théorie triviale et 1-basá. En particulier, l'ordre fondamental n'est pas toujours un treillis.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Neklioudov, Sergei Iou. „Scénarios schématiques de la vie et de la narration“. IRIS, Nr. 31 (15.07.2010): 41–50. http://dx.doi.org/10.35562/iris.2034.

Der volle Inhalt der Quelle
Annotation:
On peut distinguer trois cas de correspondances différentes entre les « scénarios schématiques » et le domaine narratif folklorico-littéraire : 1. La narration constitue la projection de la « dramaturgie de la vie » (une telle projection n’est évidemment ni directe ni complète) ;2. La structure de l’univers des personnages et la structure événementielle du narratif influencent la formation des « scénarios de la vie », en conditionnant l’apparence morphologico-compositionnelle de l’un et de l’autre ;3. La coincidence de la « dramaturgie de la vie » et de la « dramaturgie de la narration » s’explique par le fait qu’elles ont des sources communes ; ces sources pourraient être les modèles mentaux de la tradition, qui dictent à un homme des « règles de comportement » d’une part, et qui s’incarnent dans la narration folklorico-littéraire d’autre part. Le « scénario schématique » possède une structure événementielle, situationnelle et actantielle. À cette structure correspond un certain niveau d’interprétation qui souvent la lie directement à la conscience religieuse et mythologique ; une telle conscience — compte tenu du fait qu’une conceptualisation globale de tous les aspects de la vie humaine caractérise le mythe — englobe, par sa nature même, les « blocs interprétatifs » pertinents pour pratiquement tous les précédents événementiels. Le « scénario schématique » est donc lié au domaine des croyances et concepts actuels, lié aussi aux systèmes de valeurs et normes éthiques, etc. ; il est possible de reconstituer nombre de ces croyances, concepts, valeurs et normes à l’aide de l’histoire vécue qui nous occupe. D’ordinaire, ces interprétations ne représentent pas le fond neutre des événements, mais un élément actif et dynamique qui agit directement sur le développement de ces événements.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Fedorova, Liudmila L'vovna. „Языковой стиль времени (на материале современной прессы и авторских текстов В. Шендеровича и Земфиры)“. Chroniques slaves 2, Nr. 1 (2006): 69–84. http://dx.doi.org/10.3406/chros.2006.868.

Der volle Inhalt der Quelle
Annotation:
<i>Le style discursif de notre temps étude des textes de la presse et d’auteurs populaires, V. Chenderovitch et Zemphira </i> Le discours publiciste de la Russie contemporaine appelle à la compétence culturelle et linguistique du lecteur de masses, par laquelle se représente l’image linguistique du monde - image populaire mais tout de même pas «naïve». Elle puise dans les modèles qui sont propres aux diverses couches de la conscience linguistique et qui forment un assemblage multiple. Ce sont d’abord des éléments représentatifs de l’esprit national (proverbes, locutions figées, bons mots) et aussi des exemples tirés des œuvres classiques russes (citations ouvertes et latentes), ce sont aussi des images et des locutions figées de l’époque soviétique, auxquelles il faut ajouter la couche soviétique «à l’envers» - celle du milieu criminel, et puis ce sont les éléments spécifiques du jargon «nouveau russe». Le langage «nouveau russe» tel qu’on se le représente est constitué du mélange intentionnel de ces diverses couches. Le choix de la stylistique du texte est déterminé au bout du compte par la situation communicative : les relations entre l’auteur ou journaliste, et le lecteur. Le caractère de ces relations s’est modifié ces dernières années. Si dans la presse officielle soviétique l’auteur occupait une position distante (voir schéma ci-dessous : A1), celle d’une instance supérieure, autorisée, qui instruit et dirige, en laissant aux masses des lecteurs un rôle passif, solidaire à l’unisson (L1), maintenant la presse préfère un autre modèle de relations. Par exemple, Moskovskiy komsomolets impose un contact solidaire : l’auteur et le lecteur ont des situations (A2, L2) à peu près équivalentes dans la société désintégrée, et de plus, le lecteur est inclus dans le cercle des proches de l’auteur, ceux qu’on appelle en russe «les siens» - c’est-à-dire ceux qui ont une vision du monde et une compétence communicative comparables à celles de l’auteur. Moskovskiy komsomolets, Sobesednik choisissent le style parlé, avec une intonation confidentielle, qui est adressée aux «siens», à ceux qui sont capable de comprendre les allusions et les sens latents. On y trouve toujours place pour la stylisation et le jeu. Cette analyse peut être étendue à des textes d’auteurs contemporains, populaires chacun dans son domaine : Victor Chenderovitch pour ses satires, Zemphira pour ses chansons. Le style de notre temps se présente toujours comme le jeu des images et des formes propres aux diverses couches de la conscience nationale linguistique. Les enfants qui font leurs premiers pas en littérature choisissent de jouer avec les images contemporaines dans les formes traditionnelles, mais ils trouvent pour les sujets sérieux des paroles vraies.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Ross, Pierre-Simon, und Patrick Mercier-Langevin. „Igneous Rock Associations 14. The Volcanic Setting of VMS and SMS Deposits: A Review“. Geoscience Canada 41, Nr. 3 (29.08.2014): 365. http://dx.doi.org/10.12789/geocanj.2014.41.045.

Der volle Inhalt der Quelle
Annotation:
Volcanogenic massive sulphide (VMS) deposits and seafloor massive sulphide (SMS) deposits have a spatial and genetic connection with contemporaneous volcanism. The control exerted by the volcanic succession (e.g. rock type, architecture and facies) on the nature and style of the ore and alteration (e.g. subsea-floor replacement vs. exhalative, or discordant vs. conformable) is significant, making it imperative to understand the local volcanology in developing better genetic and exploration models. Three VMS deposit groupings collectively represent a high proportion of cases: (1) deposits associated with complexes of submarine felsic domes, cryptodomes, lobe-hyaloclastite flows and/or blocky lavas, and their reworked equivalents; (2) deposits associated with thick piles of pumiceous felsic pyroclastic rocks, suggesting a caldera context; and (3) deposits associated with mafic volcanic footwalls and/or with sedimentary hosts, including significant deposits such as Windy Craggy (~300 Mt) in British Columbia. With regard to number (2) above, demonstrating the presence of a caldera in ancient successions can be difficult because silicic calderas tend to be large and exceed the limits of deposit-scale investigations. Furthermore, there is no consensus regarding what a large submarine caldera should look like, i.e., no accepted facies model exists showing the distribution of rock types. But without thick piles of pumiceous felsic pyroclastic deposits, arguing for a large submarine caldera is a challenge.SOMMAIRELes gisements de sulfures massifs volcanogènes (SMV) et leurs équivalents actuels au fonds des mers ont une connexion spatiale et génétique avec le volcanisme. La succession volcanique – composition, architecture, faciès – exerce un contrôle important sur la nature et le style de minéralisation et d’altération hydrothermale (p. ex. minéralisation mise en place par remplacement sous le fond marin vs. exhalative; altération discordante ou plus concordante). Il est donc impératif de connaître la volcanologie des roches encaissantes pour développer de meilleurs modèles génétiques et d’exploration. Trois groupes de gisements couvrant collectivement une grande proportion des cas sont discutés ici. Premièrement, plusieurs gisements sont associés à des complexes de dômes felsiques sous-marins, des cryptodômes, des coulées de type lobes-hyaloclastite et/ou des laves en blocs, ou leur équivalents resédimentés. Deuxièmement, certains gisements sont associés à d’épaisses séquences de roches pyroclastiques felsiques ponceuses, suggérant un contexte de caldeira. Troisièmement, plusieurs gisements sont associés avec des roches volcaniques mafiques et/ou avec des roches sédimentaires, par exemple l’important dépôt de Windy Craggy (~300 Mt) en Colombie-Britannique. Concernant les contextes de type 2, la démonstration d’une caldeira peut être difficile dans les successions anciennes, car les caldeiras felsiques sont de grandes dimensions, excédant les limites des études à l’échelle du gîte. De plus, il n’existe pas de consensus sur un modèle de faciès pour une grande caldeira sous-marine. Mais sans la présence d’épais empilements de roches pyroclastiques felsiques ponceuses, il est difficile d’argumenter en faveur d’une caldeira sous-marine.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Modèles à blocs latents"

1

Brault, Vincent. „Estimation et sélection de modèle pour le modèle des blocs latents“. Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112238/document.

Der volle Inhalt der Quelle
Annotation:
Le but de la classification est de partager des ensembles de données en sous-ensembles les plus homogènes possibles, c'est-à-dire que les membres d'une classe doivent plus se ressembler entre eux qu'aux membres des autres classes. Le problème se complique lorsque le statisticien souhaite définir des groupes à la fois sur les individus et sur les variables. Le modèle des blocs latents définit une loi pour chaque croisement de classe d'objets et de classe de variables, et les observations sont supposées indépendantes conditionnellement au choix de ces classes. Toutefois, il est impossible de factoriser la loi jointe des labels empêchant le calcul de la logvraisemblance et l'utilisation de l'algorithme EM. Plusieurs méthodes et critères existent pour retrouver ces partitions, certains fréquentistes, d'autres bayésiens, certains stochastiques, d'autres non. Dans cette thèse, nous avons d'abord proposé des conditions suffisantes pour obtenir l'identifiabilité. Dans un second temps, nous avons étudié deux algorithmes proposés pour contourner le problème de l'algorithme EM : VEM de Govaert et Nadif (2008) et SEM-Gibbs de Keribin, Celeux et Govaert (2010). En particulier, nous avons analysé la combinaison des deux et mis en évidence des raisons pour lesquelles les algorithmes dégénèrent (terme utilisé pour dire qu'ils renvoient des classes vides). En choisissant des lois a priori judicieuses, nous avons ensuite proposé une adaptation bayésienne permettant de limiter ce phénomène. Nous avons notamment utilisé un échantillonneur de Gibbs dont nous proposons un critère d'arrêt basé sur la statistique de Brooks-Gelman (1998). Nous avons également proposé une adaptation de l'algorithme Largest Gaps (Channarond et al. (2012)). En reprenant leurs démonstrations, nous avons démontré que les estimateurs des labels et des paramètres obtenus sont consistants lorsque le nombre de lignes et de colonnes tendent vers l'infini. De plus, nous avons proposé une méthode pour sélectionner le nombre de classes en ligne et en colonne dont l'estimation est également consistante à condition que le nombre de ligne et de colonne soit très grand. Pour estimer le nombre de classes, nous avons étudié le critère ICL (Integrated Completed Likelihood) dont nous avons proposé une forme exacte. Après avoir étudié l'approximation asymptotique, nous avons proposé un critère BIC (Bayesian Information Criterion) puis nous conjecturons que les deux critères sélectionnent les mêmes résultats et que ces estimations seraient consistantes ; conjecture appuyée par des résultats théoriques et empiriques. Enfin, nous avons comparé les différentes combinaisons et proposé une méthodologie pour faire une analyse croisée de données
Classification aims at sharing data sets in homogeneous subsets; the observations in a class are more similar than the observations of other classes. The problem is compounded when the statistician wants to obtain a cross classification on the individuals and the variables. The latent block model uses a law for each crossing object class and class variables, and observations are assumed to be independent conditionally on the choice of these classes. However, factorizing the joint distribution of the labels is impossible, obstructing the calculation of the log-likelihood and the using of the EM algorithm. Several methods and criteria exist to find these partitions, some frequentist ones, some bayesian ones, some stochastic ones... In this thesis, we first proposed sufficient conditions to obtain the identifiability of the model. In a second step, we studied two proposed algorithms to counteract the problem of the EM algorithm: the VEM algorithm (Govaert and Nadif (2008)) and the SEM-Gibbs algorithm (Keribin, Celeux and Govaert (2010)). In particular, we analyzed the combination of both and highlighted why the algorithms degenerate (term used to say that it returns empty classes). By choosing priors wise, we then proposed a Bayesian adaptation to limit this phenomenon. In particular, we used a Gibbs sampler and we proposed a stopping criterion based on the statistics of Brooks-Gelman (1998). We also proposed an adaptation of the Largest Gaps algorithm (Channarond et al. (2012)). By taking their demonstrations, we have shown that the labels and parameters estimators obtained are consistent when the number of rows and columns tend to infinity. Furthermore, we proposed a method to select the number of classes in row and column, the estimation provided is also consistent when the number of row and column is very large. To estimate the number of classes, we studied the ICL criterion (Integrated Completed Likelihood) whose we proposed an exact shape. After studying the asymptotic approximation, we proposed a BIC criterion (Bayesian Information Criterion) and we conjecture that the two criteria select the same results and these estimates are consistent; conjecture supported by theoretical and empirical results. Finally, we compared the different combinations and proposed a methodology for co-clustering
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Tami, Myriam. „Approche EM pour modèles multi-blocs à facteurs à une équation structurelle“. Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT303/document.

Der volle Inhalt der Quelle
Annotation:
Les modèles d'équations structurelles à variables latentes permettent de modéliser des relations entre des variables observables et non observables. Les deux paradigmes actuels d'estimation de ces modèles sont les méthodes de moindres carrés partiels sur composantes et l'analyse de la structure de covariance. Dans ce travail, après avoir décrit les deux principales méthodes d'estimation que sont PLS et LISREL, nous proposons une approche d'estimation fondée sur la maximisation par algorithme EM de la vraisemblance globale d'un modèle à facteurs latents et à une équation structurelle. Nous en étudions les performances sur des données simulées et nous montrons, via une application sur des données réelles environnementales, comment construire pratiquement un modèle et en évaluer la qualité. Enfin, nous appliquons l'approche développée dans le contexte d'un essai clinique en cancérologie pour l'étude de données longitudinales de qualité de vie. Nous montrons que par la réduction efficace de la dimension des données, l'approche EM simplifie l'analyse longitudinale de la qualité de vie en évitant les tests multiples. Ainsi, elle contribue à faciliter l'évaluation du bénéfice clinique d'un traitement
Structural equation models enable the modeling of interactions between observed variables and latent ones. The two leading estimation methods are partial least squares on components and covariance-structure analysis. In this work, we first describe the PLS and LISREL methods and, then, we propose an estimation method using the EM algorithm in order to maximize the likelihood of a structural equation model with latent factors. Through a simulation study, we investigate how fast and accurate the method is, and thanks to an application to real environmental data, we show how one can handly construct a model or evaluate its quality. Finally, in the context of oncology, we apply the EM approach on health-related quality-of-life data. We show that it simplifies the longitudinal analysis of quality-of-life and helps evaluating the clinical benefit of a treatment
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Robert, Valérie. „Classification croisée pour l'analyse de bases de données de grandes dimensions de pharmacovigilance“. Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS111/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse regroupe des contributions méthodologiques à l'analyse statistique des bases de données de pharmacovigilance. Les difficultés de modélisation de ces données résident dans le fait qu'elles produisent des matrices souvent creuses et de grandes dimensions. La première partie des travaux de cette thèse porte sur la classification croisée du tableau de contingence de pharmacovigilance à l’aide du modèle des blocs latents de Poisson normalisé. L'objectif de la classification est d'une part de fournir aux pharmacologues des zones intéressantes plus réduites à explorer de manière plus précise, et d'autre part de constituer une information a priori utilisable lors de l'analyse des données individuelles de pharmacovigilance. Dans ce cadre, nous détaillons une procédure d'estimation partiellement bayésienne des paramètres du modèle et des critères de sélection de modèles afin de choisir le modèle le plus adapté aux données étudiées. Les données étant de grandes dimensions, nous proposons également une procédure pour explorer de manière non exhaustive mais pertinente, l'espace des modèles en coclustering. Enfin, pour mesurer la performance des algorithmes, nous développons un indice de classification croisée calculable en pratique pour un nombre de classes élevé. Les développements de ces outils statistiques ne sont pas spécifiques à la pharmacovigilance et peuvent être utile à toute analyse en classification croisée. La seconde partie des travaux de cette thèse porte sur l'analyse statistique des données individuelles, plus nombreuses mais également plus riches en information. L'objectif est d'établir des classes d'individus selon leur profil médicamenteux et des sous-groupes d'effets et de médicaments possiblement en interaction, palliant ainsi le phénomène de coprescription et de masquage que peuvent présenter les méthodes existantes sur le tableau de contingence. De plus, l'interaction entre plusieurs effets indésirables y est prise en compte. Nous proposons alors le modèle des blocs latents multiple qui fournit une classification croisée simultanée des lignes et des colonnes de deux tableaux de données binaires en leur imposant le même classement en ligne. Nous discutons des hypothèses inhérentes à ce nouveau modèle et nous énonçons des conditions suffisantes de son identifiabilité. Ensuite, nous présentons une procédure d'estimation de ses paramètres et développons des critères de sélection de modèles associés. De plus, un modèle de simulation numérique des données individuelles de pharmacovigilance est proposé et permet de confronter les méthodes entre elles et d'étudier leurs limites. Enfin, la méthodologie proposée pour traiter les données individuelles de pharmacovigilance est explicitée et appliquée à un échantillon de la base française de pharmacovigilance entre 2002 et 2010
This thesis gathers methodological contributions to the statistical analysis of large datasets in pharmacovigilance. The pharmacovigilance datasets produce sparse and large matrices and these two characteritics are the main statistical challenges for modelling them. The first part of the thesis is dedicated to the coclustering of the pharmacovigilance contingency table thanks to the normalized Poisson latent block model. The objective is on the one hand, to provide pharmacologists with some interesting and reduced areas to explore more precisely. On the other hand, this coclustering remains a useful background information for dealing with individual database. Within this framework, a parameter estimation procedure for this model is detailed and objective model selection criteria are developed to choose the best fit model. Datasets are so large that we propose a procedure to explore the model space in coclustering, in a non exhaustive way but a relevant one. Additionnally, to assess the performances of the methods, a convenient coclustering index is developed to compare partitions with high numbers of clusters. The developments of these statistical tools are not specific to pharmacovigilance and can be used for any coclustering issue. The second part of the thesis is devoted to the statistical analysis of the large individual data, which are more numerous but also provides even more valuable information. The aim is to produce individual clusters according their drug profiles and subgroups of drugs and adverse effects with possible links, which overcomes the coprescription and masking phenomenons, common contingency table issues in pharmacovigilance. Moreover, the interaction between several adverse effects is taken into account. For this purpose, we propose a new model, the multiple latent block model which enables to cocluster two binary tables by imposing the same row ranking. Assertions inherent to the model are discussed and sufficient identifiability conditions for the model are presented. Then a parameter estimation algorithm is studied and objective model selection criteria are developed. Moreover, a numeric simulation model of the individual data is proposed to compare existing methods and study its limits. Finally, the proposed methodology to deal with individual pharmacovigilance data is presented and applied to a sample of the French pharmacovigilance database between 2002 and 2010
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Febrissy, Mickaël. „Nonnegative Matrix Factorization and Probabilistic Models : A unified framework for text data“. Electronic Thesis or Diss., Paris, CNAM, 2021. http://www.theses.fr/2021CNAM1291.

Der volle Inhalt der Quelle
Annotation:
Depuis l’avènement du Big data, les techniques de réduction de la dimension sont devenues essentielles pour l’exploration et l’analyse de données hautement dimensionnelles issues de nombreux domaines scientifiques. En créant un espace à faible dimension intrinsèque à l’espace de données original, ces techniques offrent une meilleure compréhension dans de nombreuses applications de la science des données. Dans le contexte de l’analyse de textes où les données recueillies sont principalement non négatives, les techniques couramment utilisées produisant des transformations dans l’espace des nombres réels (par exemple, l’analyse en composantes principales, l’analyse sémantique latente) sont devenues moins intuitives car elles ne pouvaient pas fournir une interprétation directe. De telles applications montrent la nécessité de techniques de réduction de la dimensionnalité comme la factorisation matricielle non négative (NMF), utile pour intégrer par exemple, des documents ou des mots dans l’espace de dimension réduite. Par définition, la NMF vise à approximer une matrice non négative par le produit de deux matrices non négatives de plus faible dimension, ce qui aboutit à la résolution d’un problème d’optimisation non linéaire. Notons cependant que cet objectif peut être exploité dans le domaine du regroupement de documents/mots, même si ce n’est pas l’objectif de la NMF. En s’appuyant sur la NMF, cette thèse se concentre sur l’amélioration de la qualité du clustering de grandes données textuelles se présentant sous la forme de matrices document-terme très creuses. Cet objectif est d’abord atteint en proposant plusieurs types de régularisations de la fonction objectif originale de la NMF. En plaçant cet objectif dans un contexte probabiliste, un nouveau modèle NMF est introduit, apportant des bases théoriques pour établir la connexion entre la NMF et les modèles de mélange finis de familles exponentielles, ce qui permet d’offrir des régularisations intéressantes. Cela permet d’inscrire, entre autres, la NMF dans un véritable esprit de clustering. Enfin, un modèle bayésien de blocs latents de Poisson est proposé pour améliorer le regroupement de documents et de mots simultanément en capturant des caractéristiques de termes bruyants. Ce modèle peut être relié à la NMTF (Nonnegative Matrix Tri-Factorization) consacrée au co-clustering. Des expériences sur des jeux de données réelles ont été menées pour soutenir les propositions de la thèse
Since the exponential growth of available Data (Big data), dimensional reduction techniques became essential for the exploration and analysis of high-dimensional data arising from many scientific areas. By creating a low-dimensional space intrinsic to the original data space, theses techniques offer better understandings across many data Science applications. In the context of text analysis where the data gathered are mainly nonnegative, recognized techniques producing transformations in the space of real numbers (e.g. Principal component analysis, Latent semantic analysis) became less intuitive as they could not provide a straightforward interpretation. Such applications show the need of dimensional reduction techniques like Nonnegative Matrix factorization (NMF) useful to embed, for instance, documents or words in the space of reduced dimension. By definition, NMF aims at approximating a nonnegative matrix by the product of two lower dimensionalnonnegative matrices, which results in the solving of a nonlinear optimization problem. Note however that this objective can be harnessed to document/word clustering domain even it is not the objective of NMF. In relying on NMF, this thesis focuses on improving clustering of large text data arising in the form of highly sparse document-term matrices. This objective is first achieved, by proposing several types of regularizations of the original NMF objective function. Setting this objective in a probabilistic context, a new NMF model is introduced bringing theoretical foundations for establishing the connection between NMF and Finite Mixture Models of exponential families leading, therefore, to offer interesting regularizations. This allows to set NMF in a real clustering spirit. Finally, a Bayesian Poisson Latent Block model is proposed to improve document andword clustering simultaneously by capturing noisy term features. This can be connected to NMTF (Nonnegative Matrix factorization Tri-factorization) devoted to co-clustering. Experiments on real datasets have been carried out to support the proposals of the thesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Lomet, Aurore. „Sélection de modèle pour la classification croisée de données continues“. Compiègne, 2012. http://www.theses.fr/2012COMP2041.

Der volle Inhalt der Quelle
Annotation:
La classification croisée a pour objectif de partitionner simultanément les lignes et les colonnes d'un tableau de données pour révéler la structure en blocs homogènes. Parmi les différentes méthodes proposées, l'une d'entre elles utilise le modèle probabiliste des blocs latents. Pour un même jeu de données, plusieurs classifications croisées qui diffèrent par le nombre de classes par exemple peuvent être proposées. La sélection du nombre de classes devient alors un problème fondamental afin d'obtenir une classification des données pertinente. De plus, l'absence de jeu de données réelles de référence limite l'évaluation objective des méthodes d'apprentissage. De ce fait, l'utilisation des données simulées est particulièrement intéressante. Cependant, leur conception pose plusieurs problèmes : la quantification de la difficulté du problème d'apprentissage qui s'exprime par le risque de Bayes en classification simple est problématique en raison de la double nature de la dimension du tableau. La première contribution de cette thèse réside donc en la définition d'une mesure objective du niveau de difficulté d'un problème de classification croisée afin de proposer un protocole de simulation pour lequel le degré de mélange des classes est contrôlé. Pour ce faire, nous revenons sur la définition des fonctions de coût des règles de Bayes et des risques. Puis, nous décrivons les difficultés liées à l'estimation de ces quantités. A partir de ces dernières, nous définissons un risque de Bayes conditionné par le tableau de données observé comme mesure du niveau de difficulté. Par la suite, nous proposons un protocole de simulation utilisant le modèle de blocs latents pour lequel le niveau de difficulté exprimé par ce risque conditionnel est contrôlé. Pour le choix du nombre de classes, nous proposons dans cette thèse une nouvelle procédure utilisant des critères de sélection de modelé reposant sur des justifications théoriques et ne nécessitant pas de calculs supplémentaires coûteux après l'estimation du modèle de blocs latents. Puisque nous employons un modèle probabiliste, nous adaptons le critère ICL qui a été initialement défini pour le choix du nombre de composants des modèles de mélange. Nous développons trois versions qui diffèrent suivant les hypothèses et les distributions a priori posées. Nous proposons également un critère dérivé BIC. Les résultats obtenus du critère ICL exact informatif et des deux critères asymptotiques ICLBIC et BIC sur des jeux de données simulées et réelles montrent que ceux-ci sont performants et robustes pour des tableaux suffisamment grands quant à la sélection du nombre de classes et du type de modèle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Schmutz, Amandine. „Contributions à l'analyse de données fonctionnelles multivariées, application à l'étude de la locomotion du cheval de sport“. Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1241.

Der volle Inhalt der Quelle
Annotation:
Avec l'essor des objets connectés pour fournir un suivi systématique, objectif et fiable aux sportifs et à leur entraineur, de plus en plus de paramètres sont collectés pour un même individu. Une alternative aux méthodes d'évaluation en laboratoire est l'utilisation de capteurs inertiels qui permettent de suivre la performance sans l'entraver, sans limite d'espace et sans procédure d'initialisation fastidieuse. Les données collectées par ces capteurs peuvent être vues comme des données fonctionnelles multivariées : se sont des entités quantitatives évoluant au cours du temps de façon simultanée pour un même individu statistique. Cette thèse a pour objectif de chercher des paramètres d'analyse de la locomotion du cheval athlète à l'aide d'un capteur positionné dans la selle. Cet objet connecté (centrale inertielle, IMU) pour le secteur équestre permet de collecter l'accélération et la vitesse angulaire au cours du temps, dans les trois directions de l'espace et selon une fréquence d'échantillonnage de 100 Hz. Une base de données a ainsi été constituée rassemblant 3221 foulées de galop, collectées en ligne droite et en courbe et issues de 58 chevaux de sauts d'obstacles de niveaux et d'âges variés. Nous avons restreint notre travail à la prédiction de trois paramètres : la vitesse par foulée, la longueur de foulée et la qualité de saut. Pour répondre aux deux premiers objectifs nous avons développé une méthode de clustering fonctionnelle multivariée permettant de diviser notre base de données en sous-groupes plus homogènes du point de vue des signaux collectés. Cette méthode permet de caractériser chaque groupe par son profil moyen, facilitant leur compréhension et leur interprétation. Mais, contre toute attente, ce modèle de clustering n'a pas permis d'améliorer les résultats de prédiction de vitesse, les SVM restant le modèle ayant le pourcentage d'erreur inférieur à 0.6 m/s le plus faible. Il en est de même pour la longueur de foulée où une précision de 20 cm est atteinte grâce aux Support Vector Machine (SVM). Ces résultats peuvent s'expliquer par le fait que notre base de données est composée uniquement de 58 chevaux, ce qui est un nombre d'individus très faible pour du clustering. Nous avons ensuite étendu cette méthode au co-clustering de courbes fonctionnelles multivariées afin de faciliter la fouille des données collectées pour un même cheval au cours du temps. Cette méthode pourrait permettre de détecter et prévenir d'éventuels troubles locomoteurs, principale source d'arrêt du cheval de saut d'obstacle. Pour finir, nous avons investigué les liens entre qualité du saut et les signaux collectés par l'IMU. Nos premiers résultats montrent que les signaux collectés par la selle seuls ne suffisent pas à différencier finement la qualité du saut d'obstacle. Un apport d'information supplémentaire sera nécessaire, à l'aide d'autres capteurs complémentaires par exemple ou encore en étoffant la base de données de façon à avoir un panel de chevaux et de profils de sauts plus variés
With the growth of smart devices market to provide athletes and trainers a systematic, objective and reliable follow-up, more and more parameters are monitored for a same individual. An alternative to laboratory evaluation methods is the use of inertial sensors which allow following the performance without hindering it, without space limits and without tedious initialization procedures. Data collected by those sensors can be classified as multivariate functional data: some quantitative entities evolving along time and collected simultaneously for a same individual. The aim of this thesis is to find parameters for analysing the athlete horse locomotion thanks to a sensor put in the saddle. This connected device (inertial sensor, IMU) for equestrian sports allows the collection of acceleration and angular velocity along time in the three space directions and with a sampling frequency of 100 Hz. The database used for model development is made of 3221 canter strides from 58 ridden jumping horses of different age and level of competition. Two different protocols are used to collect data: one for straight path and one for curved path. We restricted our work to the prediction of three parameters: the speed per stride, the stride length and the jump quality. To meet the first to objectives, we developed a multivariate functional clustering method that allow the division of the database into smaller more homogeneous sub-groups from the collected signals point of view. This method allows the characterization of each group by it average profile, which ease the data understanding and interpretation. But surprisingly, this clustering model did not improve the results of speed prediction, Support Vector Machine (SVM) is the model with the lowest percentage of error above 0.6 m/s. The same applied for the stride length where an accuracy of 20 cm is reached thanks to SVM model. Those results can be explained by the fact that our database is build from 58 horses only, which is a quite low number of individuals for a clustering method. Then we extend this method to the co-clustering of multivariate functional data in order to ease the datamining of horses’ follow-up databases. This method might allow the detection and prevention of locomotor disturbances, main source of interruption of jumping horses. Lastly, we looked for correlation between jumping quality and signals collected by the IMU. First results show that signals collected by the saddle alone are not sufficient to differentiate finely the jumping quality. Additional information will be needed, for example using complementary sensors or by expanding the database to have a more diverse range of horses and jump profiles
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Anakok, Emre. „Prise en compte des effets d'échantillonnage pour la détection de structure des réseaux écologiques“. Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASM049.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous intéressons aux biais que peut causer l'échantillonnage sur l'estimation des modèles statistiques et des métriques décrivant les réseaux d'interactions écologiques. D'abord, nous proposons de combiner un modèle d'observation qui traite des efforts d'échantillonnage et un modèle à blocs stochastiques représentant la structure des interactions possibles. L'identifiabilité du modèle est démontrée et un algorithme est proposé pour estimer ses paramètres. La pertinence et l'intérêt pratique de ce modèle sont confirmés par un grand ensemble de données de réseaux plantes-pollinisateurs, où nous observons un changement structurel dans la plupart des réseaux. Ensuite, nous nous penchons sur un jeu de données massif issu d'un programme de sciences participatives. En utilisant de récents progrès en intelligence artificielle, nous proposons un moyen d'obtenir une reconstruction du réseau écologique débarrassé des effets d'échantillonnage dus aux niveaux d'expérience différents des observateurs. Enfin, nous présentons des méthodes pour identifier les variables d'intérêt écologique qui influencent la connectance du réseau et montrons que la prise en compte de l'effet d'échantillonnage modifie en partie l'estimation de ces effets. Nos méthodes, implémentées soit en R soit en Python, sont accessibles librement
In this thesis, we focus on the biases that sampling can cause on the estimation of statistical models and metrics describing ecological interaction networks. First, we propose to combine an observation model that accounts for sampling with a stochastic block model representing the structure of possible interactions. The identifiability of the model is demonstrated and an algorithm is proposed to estimate its parameters. Its relevance and its practical interest are attested on a large dataset of plant-pollinator networks, as we observe structural change on most of the networks. We then examine a large dataset sampled by a citizen science program. Using recent advances in artificial intelligence, we propose a method to reconstruct the ecological network free from sampling effects caused by the varying levels of experience among observers. Finally, we present methods to highlight variables of ecological interest that influence the network's connectivity and show that accounting for sampling effects partially alters the estimation of these effects. Our methods, implemented in either R or Python, are freely accessible
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Mero, Gulten. „Modèles à facteurs latents et rentabilités des actifs financiers“. Rennes 1, 2010. http://www.theses.fr/2010REN1G011.

Der volle Inhalt der Quelle
Annotation:
Devant l'échec empirique des facteurs de risque observables dans l'explication des rentabilités financières, le but de cette thèse est d'utiliser les modèles à facteurs latents et les développements économétriques récents afin d'améliorer la compréhension du risque affectant les actifs. Dans un premier temps, nous décrivons les modèles à facteurs latents appliqués à la finance et les principales méthodes d'estimation. Nous présentons également comment le recours aux théories financières et économétriques permet de relier les facteurs statistiques avec des variables économiques et financières afin de faciliter leur interprétation. Dans un second temps, nous utilisons les modèles à facteurs latents en coupes transversales afin d'estimer et interpréter le profil de risque des Hedge Funds et des actions. La méthodologie mise en place est cohérente avec les propriétés statistiques inhérentes aux échantillons de grandes dimensions ainsi qu'avec le caractère dynamique du risque systématique. Dans un troisième temps, nous modélisons un marché où les prix et les volumes sont sensibles aux chocs de liquidité intra-journaliers. Nous proposons un modèle structurel de mélange de distributions à deux facteurs latents permettant de capturer l'impact des chocs d'information et des frictions de liquidité. Ce modèle permet de construire une mesure de liquidité statique propre à chaque titre. Ensuite, nous étendons notre modèle structurel afin de tenir compte des propriétés dynamiques du risque de liquidité. En particulier nous distinguons deux problèmes de liquidité : les frictions de liquidité se produisant à une fréquence intra-journalière et les événements d'illiquidité détériorant la qualité de marché de façon persistante. Enfin, nous avons recours à la modélisation statistique en séries chronologiques pour construire des mesures dynamiques de liquidité
This thesis aims at using latent factor models and recent econometric developments in order to obtain a better understanding of underlying asset risk. Firstly, we describe the various latent factor models currently applied to finance as well as the main estimation methodologies. We also present how financial and econometrical theories allow us to link statistical factors to economic and financial variables, hence facilitating their interpretation. Secondly, we use a cross-sectional approach in order to explain and interpret the risk profile of hedge fund and stock returns. Our methodology is consistent with statistical properties inherent to large samples as well as the dynamic properties of systematic risk. Thirdly, we model a market where prices and volumes are influenced by intra-day liquidity shocks. We propose a mixture of distribution model with two latent factors allowing us to capture the respective impacts of both information shocks and liquidity frictions. This model enables us to build a static stock-specific liquidity measure using daily data. Moreover, we extend our structural model in order to take into account dynamic properties of liquidity risk. In particular, we distinguish two liquidity issues : intra-day liquidity frictions and illiquidity events deteriorating market quality in a persistent manner. Finally, we use signal extraction modeling in order to build dynamic liquidity measures
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Frichot, Eric. „Modèles à facteurs latents pour les études d'association écologique en génétique des populations“. Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENS018/document.

Der volle Inhalt der Quelle
Annotation:
Nous introduisons un ensemble de modèles à facteurs latents dédié à la génomique du paysage et aux tests d'associations écologiques. Cela comprend des méthodes statistiques pour corriger des effets d'autocorrélation spatiale sur les cartes de composantes principales en génétique des populations (spFA), des méthodes pour estimer rapidement et efficacement les coefficients de métissage individuel à partir de matrices de génotypes de grande taille et évaluer le nombre de populations ancestrales (sNMF) et des méthodes pour identifier les polymorphismes génétiques qui montrent de fortes corrélations avec des gradients environnementaux ou avec des variables utilisées comme des indicateurs pour des pressions écologiques (LFMM). Nous avons aussi développé un ensemble de logiciels libres associés à ces méthodes, basés sur des programmes optimisés en C qui peuvent passer à l'échelle avec la dimension de très grand jeu de données, afin d'effectuer des analyses de structures de population et des cribles génomiques pour l'adaptation locale
We introduce a set of latent factor models dedicated to landscape genomics and ecological association tests. It includes statistical methods for correcting principal component maps for effects of spatial autocorrelation (spFA); methods for estimating ancestry coefficients from large genotypic matrices and evaluating the number of ancestral populations (sNMF); and methods for identifying genetic polymorphisms that exhibit high correlation with some environmental gradient or with the variables used as proxies for ecological pressures (LFMM). We also developed a set of open source softwares associated with the methods, based on optimized C programs that can scale with the dimension of very large data sets, to run analyses of population structure and genome scans for local adaptation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Galéra, Cyril. „Construction de blocs géographiques cohérents dans GOCAD“. Vandoeuvre-les-Nancy, INPL, 2002. http://www.theses.fr/2002INPLA05N.

Der volle Inhalt der Quelle
Annotation:
La définition d'un modèle géologique 3D est un travail complexe, fait à partir de données peu précises et laisse une large place à l'interprétation du géologue. Pour valider la cohérence de son modèle, le géologue dispose de méthodes de restaurations qui consistent à déplier le modèle pour voir si avant déformation, le modèle apparaît probable. Néanmoins l'efficacité de ces méthodes en 3D est sujette à caution. Aussi, une autre approche présentée dans cette thèse et implémentée dans le géomodeleur GOCAD, consiste à construire de nouveaux horizons en se basant directement sur les données les plus fiables et le mode de déformation supposé, le cisaillement simple ou glissement couche à couche. Grâce à ces outils, le géologue pourra ainsi compléter ou tester la cohérence du modèle. La développabilité ou dépliabilité a également été étudiée dans cette thèse pour impléménter de nouvelles méthodes de dépliages et de corrections d' artéfacts
The definition of a 3D geological model is a complicated task, done ftom poor data and let a large space to the geologist interpretation. Thanks to restorations methods which consist in unfolding the model in order to see if it seems credible before deformation. Nevertheless, the efficiency of this method in 3D is subject to caution. Also, another approach presented in this thesis and implemented in the GOCAD geomodeller consist in building directly new horizons based on the most reliable data and the supposed deformation, the simple shear or flexural slip. Thanks to these tools, the geologist will thus be able to comp!ete and check the model coherency. The developability or unfoldability of the horizons have also been study in these in order to implement new unfoldable methods and artefacts corrections
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Modèles à blocs latents"

1

AUBERT, Julie, Pierre BARBILLON, Sophie DONNET und Vincent MIELE. „Modèles à blocs latents pour la détection de structures dans les réseaux écologiques“. In Approches statistiques pour les variables cachées en écologie, 131–50. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9047.ch6.

Der volle Inhalt der Quelle
Annotation:
Nous nous intéressons aux interactions entre espèces. Les données d'interactions sont représentées par un réseau dont la structure est étudiée pour comprendre l'organisation de l'écosystème. Pour ce faire, nous présentons les modèles à blocs stochastiques qui sont des modèles de mélange adaptés aux réseaux et qui permettent d'obtenir une classification des espèces sur la base de leurs patrons d'interactions.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

BYSTROVA, Daria, Giovanni POGGIATO, Julyan ARBEL und Wilfried THUILLER. „Réduction de la dimension dans les modèles de distributions jointes d’espèces“. In Approches statistiques pour les variables cachées en écologie, 151–74. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9047.ch7.

Der volle Inhalt der Quelle
Annotation:
Nous présentons les modèles à facteurs latents dans le contexte des modèles de distribution joints d'espèces (JSDM), en soulignant leur utilité en écologie des communautés. Ces modèles permettent de faire face à la grande dimension des données d'observation dans l'espace et le temps, et qui limitent l'application des JSDMs. L'inférence se fait selon une approche bayésienne et est illustrée sur des données d'espèces végétales.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie