Дисертації з теми "Statistiques géométriques"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Statistiques géométriques.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-47 дисертацій для дослідження на тему "Statistiques géométriques".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Miolane, Nina. "Statistiques géométriques pour l'anatomie numérique." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4146/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse développe les statistiques géométriques pour l'analyse de lavariabilité normale et pathologique des formes d'organe en anatomienumérique. Les statistiques géométriques s’intéressent aux données issues devariétés avec structures géométriques additionnelles. En anatomie numérique,les formes d'un organe peuvent être vues comme des déformations d'un organede référence - i.e. comme éléments d'un groupe de Lie, une variété avec unestructure de groupe - ou comme les classes d'équivalence de leur configuration3D sous l'action de transformations - i.e. comme éléments d'un quotient, unevariété avec une stratification. Les images médicales peuvent êtrereprésentées par des variétés avec une distribution horizontale. Lacontribution de cette thèse est d'étendre les statistiques géométriques au delàdes géométries riemanniennes ou métriques maintenant classiques pourprendre en compte des structures additionnelles. Premièrement, nousdéfinissons les statistiques géométriques sur les groupes de Lie. Nousproposons une construction algorithmique de (pseudo-)métriqueRiemannienne, compatible avec la structure de groupe, lorsqu'elle existe. Noustrouvons que certains groupes n'admettent pas de telle (pseudo-)métrique etdéfendons l'idée de statistiques non-métriques sur les groupes de Lie. Ensuite,nous utilisons les statistiques géométriques pour analyser l'algorithme decalcul d'organe de référence, reformulé avec des espaces quotient. Nousmontrons son biais et suggérons un algorithme amélioré. Enfin, nousappliquons les statistiques géométriques au traitement d'images, engénéralisant les structures sous-Riemanniennes, utilisées en 2D, au 3D
This thesis develops Geometric Statistics to analyze the normal andpathological variability of organ shapes in Computational Anatomy. Geometricstatistics consider data that belong to manifolds with additional geometricstructures. In Computational Anatomy, organ shapes may be modeled asdeformations of a template - i.e. as elements of a Lie group, a manifold with agroup structure - or as the equivalence classes of their 3D configurations underthe action of transformations - i.e. as elements of a quotient space, a manifoldwith a stratification. Medical images can be modeled as manifolds with ahorizontal distribution. The contribution of this thesis is to extend GeometricStatistics beyond the now classical Riemannian and metric geometries in orderto account for these additional structures. First, we tackle the definition ofGeometric Statistics on Lie groups. We provide an algorithm that constructs a(pseudo-)Riemannian metric compatible with the group structure when itexists. We find that some groups do not admit such a (pseudo-)metric andadvocate for non-metric statistics on Lie groups. Second, we use GeometricStatistics to analyze the algorithm of organ template computation. We show itsasymptotic bias by considering the geometry of quotient spaces. We illustratethe bias on brain templates and suggest an improved algorithm. We then showthat registering organ shapes induces a bias in their statistical analysis, whichwe offer to correct. Third, we apply Geometric Statistics to medical imageprocessing, providing the mathematics to extend sub-Riemannian structures,already used in 2D, to our 3D images
2

Vauglin, François. "Modèles statistiques des imprécisions géométriques des objets géographiques linéaires." Université de Marne-la-Vallée, 1997. http://www.theses.fr/1997MARN0010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these, placee dans la perspective des travaux sur la qualite des donnees geographiques, presente trois modelisations des incertitudes geometriques des donnees geographiques lineaires. Le rapport, articule en trois chapitres, debute par l'etude des concepts sur la qualite des donnees geographiques et sur les outils qui la manipulent, pour montrer l'interet du sujet etudie : nous cherchons des outils d'evaluation et de mise en forme de la qualite geometrique pour modeliser les incertitudes geometriques et valider la modelisation etablie sur des applications. Le choix d'une methode de mesure des incertitudes geometriques s'est fait au vu de la capacite de la methode retenue a evaluer les ecarts de geometrie tant pour des lots de donnees que pour de simples objets lineaires individuels. La methode retenue est fondee sur les composantes de la distance de hausdorff. L'application de cette methode sur des donnees reelles a fonde la demarche de modelisation. Differents modeles sont proposes : modele de l'incertitude de positionnement d'un point quelconque d'une polyligne (modele dit ges, pour gaussienne et exponentielle symetrique) ; modele sur la dependance relative des incertitudes le long d'une polyligne (modele hybride de variogramme de pepite, lineaire generalise et periodique) ; modele sur l'incertitude introduite par la representation des donnees lineaires par des polylignes (modele par mouvements browniens fractionnaires). Les relations qu'il a ete possible d'etablir entre ces trois modeles sont fournies. Differentes utilisations des modeles sont proposees : simulation pour generer des incertitudes selon les modeles ges et de mouvement brownien fractionnaire, et propagation du modele ges sur des operations geometriques elementaires comme le calcul de distance et le regroupement de points. Cette utilisation des modeles proposes montre leurs apports et leurs interets, theoriques et pratiques
3

Formont, Pierre. "Outils statistiques et géométriques pour la classification des images SAR polarimétriques hautement texturées." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00983304.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les radars à synthèse d'ouverture (Synthetic Aperture Radar ou SAR) permettent de fournir des images à très haute résolution de la surface de la Terre. Les algorithmes de classification traditionnels se basent sur une hypothèse de bruit gaussien comme modèle de signal, qui est rapidement mise en défaut lorsque l'environnement devient inhomogène ou impulsionnel, comme c'est particulièrement le cas dans les images SAR polarimétriques haute résolution, notamment au niveau des zones urbaines. L'utilisation d'un modèle de bruit composé, appelé modèle SIRV, permet de mieux prendre en compte ces phénomènes et de représenter la réalité de manière plus adéquate. Cette thèse s'emploie alors à étudier l'application et l'impact de ce modèle pour la classification des images SAR polarimétriques afin d'améliorer l'interprétation des classifications au sens de la polarimétrie et à proposer des outils adaptés à ce nouveau modèle. En effet, il apparaît rapidement que les techniques classiques utilisent en réalité beaucoup plus l'information relative à la puissance de chaque pixel plutôt qu'à la polarimétrie pour la classification. Par ailleurs, les techniques de classification traditionnelles font régulièrement appel à la moyenne de matrices de covariance, calculée comme une moyenne arithmétique. Cependant, étant donnée la nature riemannienne de l'espace des matrices de covariance, cette définition n'est pas applicable et il est nécessaire d'employer une définition plus adaptée à cette structure riemannienne. Nous mettons en évidence l'intérêt d'utiliser un modèle de bruit non gaussien sur des données réelles et nous proposons plusieurs approches pour tirer parti de l'information polarimétrique qu'il apporte. L'apport de la géométrie de l'information pour le calcul de la moyenne est de même étudié, sur des données simulées mais également sur des données réelles acquises par l'ONERA. Enfin, une étude préliminaire d'une extension de ces travaux au cas de l'imagerie hyperspectrale est proposée, de par la proximité de ce type de données avec les données SAR polarimétriques.
4

Formont, P. "Outils statistiques et géométriques pour la classification des images SAR polarimétriques hautement texturées." Phd thesis, Supélec, 2013. http://tel.archives-ouvertes.fr/tel-01020050.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les radars à synthèse d'ouverture (Synthetic Aperture Radar ou SAR) permettent de fournir des images à très haute résolution de la surface de la Terre. Les algorithmes de classification traditionnels se basent sur une hypothèse de bruit gaussien comme modèle de signal, qui est rapidement mise en défaut lorsque l'environnement devient inhomogène ou impulsionnel, comme c'est particulièrement le cas dans les images SAR polarimétriques haute résolution, notamment au niveau des zones urbaines. L'utilisation d'un modèle de bruit composé, appelé modèle SIRV, permet de mieux prendre en compte ces phénomènes et de représenter la réalité de manière plus adéquate. Cette thèse s'emploie alors à étudier l'application et l'impact de ce modèle pour la classification des images SAR polarimétriques afin d'améliorer l'interprétation des classifications au sens de la polarimétrie et à proposer des outils adaptés à ce nouveau modèle. En effet, il apparaît rapidement que les techniques classiques utilisent en réalité beaucoup plus l'information relative à la puissance de chaque pixel plutôt qu'à la polarimétrie pour la classification. Par ailleurs, les techniques de classification traditionnelles font régulièrement appel à la moyenne de matrices de covariance, calculée comme une moyenne arithmétique. Cependant, étant donnée la nature riemannienne de l'espace des matrices de covariance, cette définition n'est pas applicable et il est nécessaire d'employer une définition plus adaptée à cette structure riemannienne. Nous mettons en évidence l'intérêt d'utiliser un modèle de bruit non gaussien sur des données réelles et nous proposons plusieurs approches pour tirer parti de l'information polarimétrique qu'il apporte. L'apport de la géométrie de l'information pour le calcul de la moyenne est de même étudié, sur des données simulées mais également sur des données réelles acquises par l'ONERA. Enfin, une étude préliminaire d'une extension de ces travaux au cas de l'imagerie hyperspectrale est proposée, de par la proximité de ce type de données avec les données SAR polarimétriques.
5

Ghorbel, Faouzi. "Vers une approche unifiée des aspects géométriques et statistiques de la reconnaissance de formes planes." Rennes 1, 1990. http://www.theses.fr/1990REN10131.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous nous intéressons essentiellement à l'étude d'un espace des représentations des formes par le moyen de son identification à l'espace des invariants. Cette transcription à un sens algébrique traduit par la propriété complétion et un sens topologique exprimé par la stabilité propriété que nous proposons en la définissant dans le cas de formes se réduisant à leur contour. Dans un deuxième temps, nous construisons une famille d'invariants complète et stable sur l'espace des objets par rapport au groupe des similitudes directes. Cet espace d'objet est, a son tour, obtenu grâce à une famille complète et stable sur l'espace des paramétrisations de tous les objets représentant une forme, par rapport au point de départ sur la courbe. D'autre part, la stabilité nous a permis de développer l'idée principale de ce travail, en dévoilant le fort lien existant entre l'aspect géométrique et l'aspect statistique puisque une telle propriété permet de conserver la notion de dispersion statistique dans les deux types d'espace, espace des formes et espaces des invariants. La connaissance de l'étendue de l'espace des invariants et de sa topologie choisie comme sous espace d'un espace de Hilbert, permet d'affiner la conception et l'évaluation des performances de classifieurs en utilisant des méthodes d'estimations non paramétriques des densités de probabilité, adaptées à la nature algébrique des données. Dans ce sens nous avons développé un nouvel estimateur de densité compte-tenu d'informations sur le support. Nous avons proposé une estimation de la distance de Patrick-Fischer à l'aide des fonctions orthogonales, permettant ainsi de les exprimer dans le cas où l'espace des représentations est borne ou semi-borne. Enfin, des exemples sont donnés illustrant l'importance et les difficultés de cette approche mathématique unifiant aspect géométrique et aspect statistique dans le cadre de formes planes
6

Krzakala, Florent. "Aspects géométriques et paysages d'énergies des verres de spins : étude d'un système désordonné et frustré en dimension finie." Paris 6, 2002. https://tel.archives-ouvertes.fr/tel-00002232.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Krzakala, Florent. "Aspects géométriques et paysage d'énergie des verres de spins: étude d'un système désordonné et frustré en dimension finie." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2002. http://tel.archives-ouvertes.fr/tel-00002232.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes vitreux sont caracterisés par un grand nombre d'états métastables. Cette thèse présente une étude de ces états dans les verres de spins en dimension finie - l'un des paradigmes de la physique statistique des systèmes désordonnés - à l'aide de modèles simples, d'approches phénoménologiques et de calculs numériques utilisant l'optimisation combinatoire. Nous nous interressons particulièrement à la structure du paysage d'énergie, à la nature du diagramme des phases ainsi qu'à l'éventuelle présence de chaos en température. Nos résultats indiquent que la structure du paysage d'énergie est complexe et qu'il existe des excitations macroscopiques d'énergie O(1) comme prévu par la théorie champ moyen, correspondant à des amas spongieux dont la topologie est non-triviale. Le diagramme des phases semble par contre être trivial, contrairement à ces prédictions: l'éventuelle phase verre de spins sous champ magnétique ainsi que la phase mixte où coexistent ordre ferromagnétique et ordre verre de spins semblent être absentes. Un scenario nommé TNT, pour Trivial - Non Trivial, pour lequel ces propriétés sont attendues, est présenté et est compatible avec l'ensemble des résultats connus. La présence de chaos en température est mise en évidence dans deux modèles : un verre de spins sous l'approximation champ moyen de Curie-Weiss et un modèle avec énergies et entropies aléatoires soluble analytiquement. Enfin, des propriétés générales des fondamentaux de systèmes désordonnés ont été étudiées numériquement et analytiquement. Les excitations et leur nature, les effets de tailles finies, les fluctuations d'échantillon à échantillon, l'unversalité par rapport à la réalisation du désordre, la dimension critique inférieure ainsi que la nature des statistiques extrêmes ont ainsi été abordés.
8

Bonis, Thomas. "Algorithmes d'apprentissage statistique pour l'analyse géométrique et topologique de données." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS459/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, on s'intéresse à des algorithmes d'analyse de données utilisant des marches aléatoires sur des graphes de voisinage, ou graphes géométriques aléatoires, construits à partir des données. On sait que les marches aléatoires sur ces graphes sont des approximations d'objets continus appelés processus de diffusion. Dans un premier temps, nous utilisons ce résultat pour proposer un nouvel algorithme de partitionnement de données flou de type recherche de modes. Dans cet algorithme, on définit les paquets en utilisant les propriétés d'un certain processus de diffusion que l'on approche par une marche aléatoire sur un graphe de voisinage. Après avoir prouvé la convergence de notre algorithme, nous étudions ses performances empiriques sur plusieurs jeux de données. Nous nous intéressons ensuite à la convergence des mesures stationnaires des marches aléatoires sur des graphes géométriques aléatoires vers la mesure stationnaire du processus de diffusion limite. En utilisant une approche basée sur la méthode de Stein, nous arrivons à quantifier cette convergence. Notre résultat s'applique en fait dans un cadre plus général que les marches aléatoires sur les graphes de voisinage et nous l'utilisons pour prouver d'autres résultats : par exemple, nous arrivons à obtenir des vitesses de convergence pour le théorème central limite. Dans la dernière partie de cette thèse, nous utilisons un concept de topologie algébrique appelé homologie persistante afin d'améliorer l'étape de "pooling" dans l'approche "sac-de-mots" pour la reconnaissance de formes 3D
In this thesis, we study data analysis algorithms using random walks on neighborhood graphs, or random geometric graphs. It is known random walks on such graphs approximate continuous objects called diffusion processes. In the first part of this thesis, we use this approximation result to propose a new soft clustering algorithm based on the mode seeking framework. For our algorithm, we want to define clusters using the properties of a diffusion process. Since we do not have access to this continuous process, our algorithm uses a random walk on a random geometric graph instead. After proving the consistency of our algorithm, we evaluate its efficiency on both real and synthetic data. We then deal tackle the issue of the convergence of invariant measures of random walks on random geometric graphs. As these random walks converge to a diffusion process, we can expect their invariant measures to converge to the invariant measure of this diffusion process. Using an approach based on Stein's method, we manage to obtain quantitfy this convergence. Moreover, the method we use is more general and can be used to obtain other results such as convergence rates for the Central Limit Theorem. In the last part of this thesis, we use the concept of persistent homology, a concept of algebraic topology, to improve the pooling step of the bag-of-words approach for 3D shapes
9

Aamari, Eddie. "Vitesses de convergence en inférence géométrique." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS203.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Certains jeux de données présentent des caractéristiques géométriques et topologiques non triviales qu'il peut être intéressant d'inférer.Cette thèse traite des vitesses non-asymptotiques d'estimation de différentes quantités géométriques associées à une sous-variété M ⊂ RD. Dans chaque cas, on dispose d'un n-échantillon i.i.d. de loi commune P ayant pour support M. On étudie le problème d'estimation de la sous-variété M pour la perte donnée par la distance de Hausdorff, du reach τM, de l'espace tangent TX M et de la seconde forme fondamentale I I MX, pour X ∈ M à la fois déterministe et aléatoire.Les vitesses sont données en fonction la taille $n$ de l'échantillon, de la dimension intrinsèque de M ainsi que de sa régularité.Dans l'analyse, on obtient des résultats de stabilité pour des techniques de reconstruction existantes, une procédure de débruitage ainsi que des résultats sur la géométrie du reach τM. Une extension du lemme d'Assouad est exposée, permettant l'obtention de bornes inférieures minimax dans des cadres singuliers
Some datasets exhibit non-trivial geometric or topological features that can be interesting to infer.This thesis deals with non-asymptotic rates for various geometric quantities associated with submanifolds M ⊂ RD. In all the settings, we are given an i.i.d. n-sample with common distribution P having support M. We study the optimal rates of estimation of the submanifold M for the loss given by the Hausdorff metric, of the reach τM, of the tangent space TX M and the second fundamental form I I MX, for X ∈ M both deterministic and random.The rates are given in terms of the sample size n, the instrinsic dimension of M, and its smoothness.In the process, we obtain stability results for existing reconstruction techniques, a denoising procedure and results on the geometry of the reach τM. An extension of Assouad's lemma is presented, allowing to derive minimax lower bounds in singular frameworks
10

Flandin, Guillaume. "Utilisation d'informations géométriques pour l'analyse statistique des données d'IRM fonctionnelle." Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00633520.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'imagerie par résonance magnétique fonctionnelle (IRMf) est une modalité récente permettant de mesurer in vivo l'activité neuronale chez le sujet sain ou le patient et d'étudier le lien entre la structure et la fonction cérébrale. Nous nous sommes intéressés à l'utilisation de l'information de l'anatomie cérébrale pour l'analyse des données fonctionnelles. Ainsi, nous avons reconsidéré l'analyse classique typiquement réalisée voxel par voxel avec lissage spatial pour proposer un modèle de représentation des données reposant sur une parcellisation anatomo-fonctionnelle du cortex. Cette représentation permet de réduire la dimension des données en un nombre restreint d'éléments pertinents du point de vue des neurosciences. Nous présentons des exemples d'utilisation de cette approche de parcellisation fondée sur l'anatomie seulement dans un premier temps. Une étude de détection d'activations par modèle linéaire met en évidence une sensibilité accrue comparée à une approche voxel par voxel. Nous présentons également deux autres applications utilisant des parcellisations, concernant la sélection de modèle régional et les études de connectivité fonctionnelle. Cette description permet en outre de proposer une solution au problème de l'analyse d'un groupe de sujets qui peuvent présenter une forte variabilité anatomique et fonctionnelle. Pour s'affranchir du délicat problème de mise en correspondance des différents sujets, nous avons présenté une parcellisation regroupant entre les sujets les régions homogènes du point de vue à la fois anatomique et fonctionnel. L'application de cette méthode sur un protocole fonctionnel montre sa robustesse pour les analyses multi-sujets.
11

Brécheteau, Claire. "Vers une vision robuste de l'inférence géométrique." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS334/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le volume de données disponibles est en perpétuelle expansion. Il est primordial de fournir des méthodes efficaces et robustes permettant d'en extraire des informations pertinentes. Nous nous focalisons sur des données pouvant être représentées sous la forme de nuages de points dans un certain espace muni d'une métrique, e.g. l'espace Euclidien R^d, générées selon une certaine distribution. Parmi les questions naturelles que l'on peut se poser lorsque l'on a accès à des données, trois d'entre elles sont abordées dans cette thèse. La première concerne la comparaison de deux ensembles de points. Comment décider si deux nuages de points sont issus de formes ou de distributions similaires ? Nous construisons un test statistique permettant de décider si deux nuages de points sont issus de distributions égales (modulo un certain type de transformations e.g. symétries, translations, rotations...). La seconde question concerne la décomposition d'un ensemble de points en plusieurs groupes. Étant donné un nuage de points, comment faire des groupes pertinents ? Souvent, cela consiste à choisir un système de k représentants et à associer chaque point au représentant qui lui est le plus proche, en un sens à définir. Nous développons des méthodes adaptées à des données échantillonnées selon certains mélanges de k distributions, en présence de données aberrantes. Enfin, lorsque les données n'ont pas naturellement une structure en k groupes, par exemple, lorsqu'elles sont échantillonnées à proximité d'une sous-variété de R^d, une question plus pertinente est de construire un système de k représentants, avec k grand, à partir duquel on puisse retrouver la sous-variété. Cette troisième question recouvre le problème de la quantification d'une part, et le problème de l'approximation de la distance à un ensemble d'autre part. Pour ce faire, nous introduisons et étudions une variante de la méthode des k-moyennes adaptée à la présence de données aberrantes dans le contexte de la quantification. Les réponses que nous apportons à ces trois questions dans cette thèse sont de deux types, théoriques et algorithmiques. Les méthodes proposées reposent sur des objets continus construits à partir de distributions et de sous-mesures. Des études statistiques permettent de mesurer la proximité entre les objets empiriques et les objets continus correspondants. Ces méthodes sont faciles à implémenter en pratique lorsque des nuages de points sont à disposition. L'outil principal utilisé dans cette thèse est la fonction distance à la mesure, introduite à l'origine pour adapter les méthodes d'analyse topologique des données à des nuages de points corrompus par des données aberrantes
It is primordial to establish effective and robust methods to extract pertinent information from datasets. We focus on datasets that can be represented as point clouds in some metric space, e.g. Euclidean space R^d; and that are generated according to some distribution. Of the natural questions that may arise when one has access to data, three are addressed in this thesis. The first question concerns the comparison of two sets of points. How to decide whether two datasets have been generated according to similar distributions? We build a statistical test allowing to one to decide whether two point clouds have been generated from distributions that are equal (up to some rigid transformation e.g. symmetry, translation, rotation...).The second question is about the decomposition of a set of points into clusters. Given a point cloud, how does one make relevant clusters? Often, it consists of selecting a set of k representatives, and associating every point to its closest representative (in some sense to be defined). We develop methods suited to data sampled according to some mixture of k distributions, possibly with outliers. Finally, when the data can not be grouped naturally into $k$ clusters, e.g. when they are generated in a close neighborhood of some sub-manifold in R^d, a more relevant question is the following. How to build a system of $k$ representatives, with k large, from which it is possible to recover the sub-manifold? This last question is related to the problems of quantization and compact set inference. To address it, we introduce and study a modification of the $k$-means method adapted to the presence of outliers, in the context of quantization. The answers we bring in this thesis are of two types, theoretical and algorithmic. The methods we develop are based on continuous objects built from distributions and sub-measures. Statistical studies allow us to measure the proximity between the empirical objects and the continuous ones. These methods are easy to implement in practice, when samples of points are available. The main tool in this thesis is the function distance-to-measure, which was originally introduced to make topological data analysis work in the presence of outliers
12

Xia, Gui-Song. "Méthodes géométriques pour l'analyse d'images et de textures." Paris, Télécom ParisTech, 2011. https://pastel.archives-ouvertes.fr/pastel-00682590.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse se concentre sur l’étude de l’extraction et de la caractérisation des structures locales, dans le contexte de l’analyse d’images et des textures. S’appuyant sur les lignes de niveau des images ou sur la notion duale et moins structuré e d’orientation du gradient, les contributions de cette thèse se concentrent sur trois thèmes suivants : La première partie présente une nouvelle méthode pour l’analyse de texture qui dans l’esprit est similaire à la granulométrie morphologique, tout en permettant un haut degré d’invariance géométrique et radiométrique. Avec l’aide de la représentation par carte topographique, la deuxième partie de cette thèse développe une approche générale pour l’abstraction d’images, dont le but est de générer automatiquement des images abstraites à partir de photographies réalistes. Le sujet de la dernière partie de cette thèse est la détection des jonctions dans les images naturelles. L’approche s’appuie sur les directions locales de lignes de niveau à travers l’orientation du gradient de l’image. Nous introduisons un système générique d’analyse de jonction. Le premier avantage de la procédure proposée est un critère pour la détection automatique de jonctions. Celui-ci permet de traiter des parties texturées de l’image dans lesquelles aucune détection n’est attendue. Deuxièmement, la méthode donne une caractérisation des jonctions en L-, Y et en X, y compris un calcul précis de leur type, de leur localisation et de leur échelle. Contrairement aux approches classiques, la caractérisation de l’échelle ne repose pas sur un espace-échelle linéaire, et permet donc d’obtenir une bonne précision géométrique
This thesis focuses on the studies of the extraction and characterization of local image structures, in the context of images and texture analysis. Relying on the level lines of images or on the somehow dual and less structured notion of gradient orientation, the contributions of the thesis concentrate on following three themes: The first part of this thesis presents a new method for texture analysis that in spirit is similar to morphological granulometries, while allowing a high degree of geometrical and radiometric invariances. Also using the topographic map representation, the second part of this thesis develops a general approach for the abstraction of images, the aim of which is to automatically generate abstract images from realistic photographs. The subject of the last part of this thesis is the detection of junctions in natural images. The approach relies on the local directions of level lines through the orientation of image gradient. We introduce a generic junction analysis scheme. The first asset of the proposed procedure is an automatic criterion for the detection of junctions, permitting to deal with textured parts in which no detection is expected. Second, the method yields a characterization of L-, Y- and X- junctions, including a precise computation of their type, localization and scale. Contrary to classical approaches, scale characterization does not rely on the linear scale-space, therefore enabling geometric accuracy
13

Pedersen, Morten Akhøj. "Méthodes riemanniennes et sous-riemanniennes pour la réduction de dimension." Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ4087.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous proposons dans cette thèse de nouvelles méthodes de réduction de dimension fondées sur la géométrie différentielle. Il s'agit de trouver une représentation d'un ensemble d'observations dans un espace de dimension inférieure à l'espace d'origine des données. Les méthodes de réduction de dimension constituent la pierre angulaire des statistiques et ont donc un très large éventail d'applications. Dans les statistiques euclidiennes ordinaires, les données appartiennent à un espace vectoriel et l'espace de dimension inférieure peut être un sous-espace linéaire ou une sous-variété non linéaire approximant les observations. L'étude de telles variétés lisses, la géométrie différentielle, joue naturellement un rôle important dans ce dernier cas. Lorsque l'espace des données est lui-même une variété, l'espace approximant de dimension réduite est naturellement une sous-variété de la variété initiale. Les méthodes d'analyse de ce type de données relèvent du domaine des statistiques géométriques. Les statistiques géométriques pour des observations appartenant à une variété riemannienne sont le point de départ de cette thèse, mais une partie de notre travail apporte une contribution même dans le cas de données appartenant à l'espace euclidien, mathbb{R}^d.Les formes, dans notre cas des courbes ou des surfaces discrètes ou continues, sont un exemple important de données à valeurs dans les variétés. En biologie évolutive, les chercheurs s'intéressent aux raisons et aux implications des différences morphologiques entre les espèces. Cette application motive la première contribution principale de la thèse. Nous généralisons une méthode de réduction de dimension utilisée en biologie évolutive, l'analyse en composantes principales phylogénétiques (P-PCA), pour travailler sur des données à valeur dans une variété riemannienne - afin qu'elle puisse être appliquée à des données de forme. P-PCA est une version de PCA pour des observations qui sont les feuilles d'un arbre phylogénétique. D'un point de vue statistique, la propriété importante de ces données est que les observations ne sont pas indépendantes. Nous définissons et estimons des moyennes et des covariances intrinsèquement pondérées sur une variété qui prennent en compte cette dépendance des observations. Nous définissons ensuite l'ACP phylogénétique sur une variété comme la décomposition propre de la covariance pondérée dans l'espace tangent de la moyenne pondérée. Nous montrons que l'estimateur de moyenne actuellement utilisé en biologie évolutive pour étudier la morphologie correspond à ne prendre qu'une seule étape de notre algorithme de descente de gradient riemannien pour la moyenne intrinsèque, lorsque les observations sont représentées dans l'espace des formes de Kendall.Notre deuxième contribution principale est une méthode non paramétrique de réduction de dimension fondée sur une classe très flexible de sous-variétés qui est novatrice même dans le cas de données euclidiennes. Grâce à une PCA locale, nous construisons tout d'abord un sous-fibré du fibré tangent sur la variété des données que nous appelons le sous-fibré principal. Cette distribution (au sens géométrique) induit une structure sous riemannienne. Nous montrons que les géodésiques sous-riemanniennes correspondantes restent proches de l'ensemble des observations et que l'ensemble des géodésiques partant d'un point donné génèrent localement une sous-variété qui est radialement alignée avec le sous-fibré principal, même lorsqu'il est non intégrables, ce qui apparait lorsque les données sont bruitées. Notre méthode démontre que la géométrie sous-riemannienne est le cadre naturel pour traiter de tels problèmes. Des expériences numériques illustrent la puissance de notre cadre en montrant que nous pouvons réaliser des reconstructions d'une extension importante, même en présence de niveaux de bruit assez élevés
In this thesis, we propose new methods for dimension reduction based on differential geometry, that is, finding a representation of a set of observations in a space of lower dimension than the original data space. Methods for dimension reduction form a cornerstone of statistics, and thus have a very wide range of applications. For instance, a lower dimensional representation of a data set allows visualization and is often necessary for subsequent statistical analyses. In ordinary Euclidean statistics, the data belong to a vector space and the lower dimensional space might be a linear subspace or a non-linear submanifold approximating the observations. The study of such smooth manifolds, differential geometry, naturally plays an important role in this last case, or when the data space is itself a known manifold. Methods for analysing this type of data form the field of geometric statistics. In this setting, the approximating space found by dimension reduction is naturally a submanifold of the given manifold. The starting point of this thesis is geometric statistics for observations belonging to a known Riemannian manifold, but parts of our work form a contribution even in the case of data belonging to Euclidean space, mathbb{R}^d.An important example of manifold valued data is shapes, in our case discrete or continuous curves or surfaces. In evolutionary biology, researchers are interested in studying reasons for and implications of morphological differences between species. Shape is one way to formalize morphology. This application motivates the first main contribution of the thesis. We generalize a dimension reduction method used in evolutionary biology, phylogenetic principal component analysis (P-PCA), to work for data on a Riemannian manifold - so that it can be applied to shape data. P-PCA is a version of PCA for observations that are assumed to be leaf nodes of a phylogenetic tree. From a statistical point of view, the important property of such data is that the observations (leaf node values) are not necessarily independent. We define and estimate intrinsic weighted means and covariances on a manifold which takes the dependency of the observations into account. We then define phylogenetic PCA on a manifold to be the eigendecomposition of the weighted covariance in the tangent space of the weighted mean. We show that the mean estimator that is currently used in evolutionary biology for studying morphology corresponds to taking only a single step of our Riemannian gradient descent algorithm for the intrinsic mean, when the observations are represented in Kendall's shape space. Our second main contribution is a non-parametric method for dimension reduction that can be used for approximating a set of observations based on a very flexible class of submanifolds. This method is novel even in the case of Euclidean data. The method works by constructing a subbundle of the tangent bundle on the data manifold via local PCA. We call this subbundle the principal subbundle. We then observe that this subbundle induces a sub-Riemannian structure and we show that the resulting sub-Riemannian geodesics with respect to this structure stay close to the set of observations. Moreover, we show that sub-Riemannian geodesics starting from a given point locally generate a submanifold which is radially aligned with the estimated subbundle, even for non-integrable subbundles. Non-integrability is likely to occur when the subbundle is estimated from noisy data, and our method demonstrates that sub-Riemannian geometry is a natural framework for dealing which such problems. Numerical experiments illustrate the power of our framework by showing that we can achieve impressively large range reconstructions even in the presence of quite high levels of noise
I denne afhandling præsenteres nye metoder til dimensionsreduktion, baseret p˚adifferential geometri. Det vil sige metoder til at finde en repræsentation af et datasæti et rum af lavere dimension end det opringelige rum. S˚adanne metoder spiller enhelt central rolle i statistik, og har et meget bredt anvendelsesomr˚ade. En laveredimensionalrepræsentation af et datasæt tillader visualisering og er ofte nødvendigtfor efterfølgende statistisk analyse. I traditionel, Euklidisk statistik ligger observationernei et vektor rum, og det lavere-dimensionale rum kan være et lineært underrumeller en ikke-lineær undermangfoldighed som approksimerer observationerne.Studiet af s˚adanne glatte mangfoldigheder, differential geometri, spiller en vigtig rollei sidstnævnte tilfælde, eller hvis rummet hvori observationerne ligger i sig selv er enmangfoldighed. Metoder til at analysere observationer p˚a en mangfoldighed udgørfeltet geometrisk statistik. I denne kontekst er det approksimerende rum, fundetvia dimensionsreduktion, naturligt en submangfoldighed af den givne mangfoldighed.Udgangspunktet for denne afhandling er geometrisk statistik for observationer p˚a ena priori kendt Riemannsk mangfoldighed, men dele af vores arbejde udgør et bidragselv i tilfældet med observationer i Euklidisk rum, Rd.Et vigtigt eksempel p˚a data p˚a en mangfoldighed er former, i vores tilfældediskrete kurver eller overflader. I evolutionsbiologi er forskere interesseret i at studeregrunde til og implikationer af morfologiske forskelle mellem arter. Former er ´en m˚adeat formalisere morfologi p˚a. Denne anvendelse motiverer det første hovedbidrag idenne afhandling. We generaliserer en metode til dimensionsreduktion brugt i evolutionsbiologi,phylogenetisk principal component analysis (P-PCA), til at virke for datap˚a en Riemannsk mangfoldighed - s˚a den kan anvendes til observationer af former. PPCAer en version af PCA for observationer som antages at være de yderste knuder iet phylogenetisk træ. Fra et statistisk synspunkt er den vigtige egenskab ved s˚adanneobservationer at de ikke nødvendigvis er uafhængige. We definerer og estimerer intrinsiskevægtede middelværdier og kovarianser p˚a en mangfoldighed, som tager højde fors˚adanne observationers afhængighed. Vi definerer derefter phylogenetisk PCA p˚a enmangfoldighed som egendekomposition af den vægtede kovarians i tanget-rummet tilden vægtede middelværdi. Vi viser at estimatoren af middelværdien som pt. bruges ievolutionsbiologi til at studere morfologi svarer til at tage kun et enkelt skridt af voresRiemannske gradient descent algoritme for den intrinsiske middelværdi, n˚ar formernerepræsenteres i Kendall´s form-mangfoldighed.Vores andet hovedbidrag er en ikke-parametrisk metode til dimensionsreduktionsom kan bruges til at approksimere et data sæt baseret p˚a en meget flexibel klasse afsubmangfoldigheder. Denne metode er ny ogs˚a i tilfældet med Euklidisk data. Metodenvirker ved at konstruere et under-bundt af tangentbundet p˚a datamangfoldighedenM via lokale PCA´er. Vi kalder dette underbundt principal underbundtet. Viobserverer at dette underbundt inducerer en sub-Riemannsk struktur p˚a M og vi viserat sub-Riemannske geodæter fra et givent punkt lokalt genererer en submangfoldighedsom radialt flugter med det estimerede subbundt, selv for ikke-integrable subbundter.Ved støjfyldt data forekommer ikke-integrabilitet med stor sandsynlighed, og voresmetode demonstrerer at sub-Riemannsk geometri er en naturlig tilgang til at h˚andteredette. Numeriske eksperimenter illustrerer styrkerne ved metoden ved at vise at denopn˚ar rekonstruktioner over store afstande, selv under høje niveauer af støj
14

Zhu, Zuowei. "Modèles géométriques avec defauts pour la fabrication additive." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN021/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les différentes étapes et processus de la fabrication additive (FA) induisent des erreurs de sources multiples et complexes qui soulèvent des problèmes majeurs au niveau de la qualité géométrique du produit fabriqué. Par conséquent, une modélisation effective des écarts géométriques est essentielle pour la FA. Le paradigme Skin Model Shapes (SMS) offre un cadre intégral pour la modélisation des écarts géométriques des produits manufacturés et constitue ainsi une solution efficace pour la modélisation des écarts géométriques en FA.Dans cette thèse, compte tenu de la spécificité de fabrication par couche en FA, un nouveau cadre de modélisation à base de SMS est proposé pour caractériser les écarts géométriques en FA en combinant une approche dans le plan et une approche hors plan. La modélisation des écarts dans le plan vise à capturer la variabilité de la forme 2D de chaque couche. Une méthode de transformation des formes est proposée et qui consiste à représenter les effets de variations sous la forme de transformations affines appliquées à la forme nominale. Un modèle paramétrique des écarts est alors établi dans un système de coordonnées polaires, quelle que soit la complexité de la forme. Ce modèle est par la suite enrichi par un apprentissage statistique permettant la collecte simultanée de données des écarts de formes multiples et l'amélioration des performances de la méthode.La modélisation des écarts hors plan est réalisée par la déformation de la couche dans la direction de fabrication. La modélisation des écarts hors plan est effectuée à l'aide d'une méthode orientée données. Sur la base des données des écarts obtenues à partir de simulations par éléments finis, deux méthodes d'analyse modale: la transformée en cosinus discrète (DCT) et l'analyse statistique des formes (SSA) sont exploitées. De plus, les effets des paramètres des pièces et des procédés sur les modes identifiés sont caractérisés par le biais d'un modèle à base de processus Gaussien.Les méthodes présentées sont finalement utilisées pour obtenir des SMSs haute-fidélité pour la fabrication additive en déformant les contours de la couche nominale avec les écarts prédits et en reconstruisant le modèle de surface non idéale complet à partir de ces contours déformés. Une toolbox est développée dans l'environnement MATLAB pour démontrer l'efficacité des méthodes proposées
The intricate error sources within different stages of the Additive Manufacturing (AM) process have brought about major issues regarding the dimensional and geometrical accuracy of the manufactured product. Therefore, effective modeling of the geometric deviations is critical for AM. The Skin Model Shapes (SMS) paradigm offers a comprehensive framework aiming at addressing the deviation modeling problem at different stages of product lifecycle, and is thus a promising solution for deviation modeling in AM. In this thesis, considering the layer-wise characteristic of AM, a new SMS framework is proposed which characterizes the deviations in AM with in-plane and out-of-plane perspectives. The modeling of in-plane deviation aims at capturing the variability of the 2D shape of each layer. A shape transformation perspective is proposed which maps the variational effects of deviation sources into affine transformations of the nominal shape. With this assumption, a parametric deviation model is established based on the Polar Coordinate System which manages to capture deviation patterns regardless of the shape complexity. This model is further enhanced with a statistical learning capability to simultaneously learn from deviation data of multiple shapes and improve the performance on all shapes.Out-of-plane deviation is defined as the deformation of layer in the build direction. A layer-level investigation of out-of-plane deviation is conducted with a data-driven method. Based on the deviation data collected from a number of Finite Element simulations, two modal analysis methods, Discrete Cosine Transform (DCT) and Statistical Shape Analysis (SSA), are adopted to identify the most significant deviation modes in the layer-wise data. The effect of part and process parameters on the identified modes is further characterized with a Gaussian Process (GP) model. The discussed methods are finally used to obtain high-fidelity SMSs of AM products by deforming the nominal layer contours with predicted deviations and rebuilding the complete non-ideal surface model from the deformed contours. A toolbox is developed in the MATLAB environment to demonstrate the effectiveness of the proposed methods
15

Deveaux, Vincent. "Modèles markoviens partiellement orientés. Approche géométrique des Automates cellulaires probabilistes." Phd thesis, Université de Rouen, 2008. http://tel.archives-ouvertes.fr/tel-00325051.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le sujet global de cette thèse est l'étude d'automates cellulaires probabilistes. Elle est divisée en deux grandes parties.

Au cours de la première, nous définissons la notion de chaîne partiellement ordonnée qui généralise celle d'automate cellulaire probabiliste. Cette définition se fait par l'intermédiaire de spécification partiellement ordonnée de la même façon que les mesures de Gibbs sont définies à l'aide de spécifications. Nous obtenons des résultats analogues sur l'espace des phases : caractérisation des mesures extrêmes, construction/reconstruction en partant des noyaux sur un seul site, critères d'unicité. Les résultats sont appliqués tout au long du texte à des automates déjà connus.

La deuxième partie est essentiellement vouée à l'étude d'automates cellulaires unidimensionnels à deux voisins et deux états. Nous donnons deux décompositions des configurations spatio-temporelles en flot d'information. Ces flots ont une signification géométrique. De cela nous tirons deux critères d'unicité.

En annexe, nous donnons une démonstration de transition de phase d'un automate cellulaire défini par A. Toom, le modèle NEC. Tout au long du texte, des simulations sont présentées.
16

Castonguay, Jean-Philippe. "Contribution à la modélisation statistique du comportement énergétique et géométrique de la batterie LMP." Mémoire, École de technologie supérieure, 2007. http://espace.etsmtl.ca/1078/1/CASTONGUAY_Jean%2DPhilippe.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les exigences du milieu manufacturier sont grandissantes : compétitivité accrue, cycle de développement raccourci, niveau de qualité supérieur et contraintes environnementales croissantes. Une entreprise dans un contexte de mondialisation se doit constamment d'investir dans la recherche et développement afin de demeurer concurrentielle. C'est dans ce cadre que le présent mémoire se situe. Il s'agit d'un projet de recherche appliqué dans l'industrie de l'énergie. Plus spécifiquement, notre projet est un apport pour le développement d'une nouvelle génération de batterie. Le présent mémoire se veut une modeste contribution à la modélisation des comportements géométriques et énergétique de la batterie Lithium-Métal-Polymère (LMP) développée par Avestor (Boucherville, Québec). Par modèle, nous désignons une construction mathématique semi-empirique qui vise la reproduction du comportement statistique des caractéristiques critiques de la batterie LMP: la hauteur (contrainte d'assemblabilité), les occurrences de courts-circuits (contraintes environnementales et sécuritaires) et la capacité énergétique (contrainte concurrentielle). L'établissement d'un modèle efficient nous conduira à la phase de 1 'optimisation (contraintes économiques). Durant notre étude, le formalisme statistique sera incorporé et employé. Les résultats seront exprimés par des espérances selon un niveau de confiance préétabli. Nous démontrons que, dans le cas étudié, l'usage des indices de capabilité traditionnels n'est pas suffisant pour maîtriser les variations. Nous démontrons aussi que, selon la méthode d'assemblage retenue, l'effet de l'auto corrélation n'est pas négligeable. Nous développons un nouveau formalisme mathématique pour les inclure. Finalement, nous proposons, pour 1 'usage industriel, l'utilisation de nouveaux indices de capabilité dits de la deuxième génération.
17

Matei, Cornel-Marius. "Comparaison entre les approches statistique et géométrique dans la détection des détection des défaillances." Lille 1, 2000. http://www.theses.fr/2000LIL10125.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Deveaux, Vincent. "Modèles markoviens partiellement orientés. Approche géométrique des automates cellulaires probabilistes." Phd thesis, Rouen, 2008. http://www.theses.fr/2008ROUES004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le sujet global de cette thèse est l'étude d'automates cellulaires probabilistes. Elle est divisée en deux grandes parties. Au cours de la première, nous définissons la notion de chaîne partiellement ordonnée qui généralise celle d'automate cellulaire probabiliste. Cette définition se fait par l'intermédiaire de spécification partiellement ordonnée de la même façon que les mesures de Gibbs sont définie à l'aide de spécifications. Nous obtenons des résultats analogues sur l'espace des phases : caractérisation des mesures extrêmes, construction/reconstruction en partant des noyaux sur un seul site, critères d'unicité. Les résultats sont appliqués tout au long du texte à des automates déjà connus. La deuxième partie est essentiellement vouée à l'étude d'automates cellulaires unidimensionnels à deux voisins et deux états. Nous donnons deux décompositions des configurations spatio-temporelles en flot d'information. Ces flots ont une signification géométrique. De cela nous tirons deux critères d'unicité. En annexe, nous donnons une démonstration de transition de phase d'un automate cellulaire défini par A. Toom, le modèle NEC. Tout au long du texte, des simulations sont présentées
The global subject of this thesis is probabilistic cellular automata (PCA). It is divided into two parts. In the first part, we define the notion of partially ordered chains (POC) that generalise PCA. They are defined thought partially ordered specification (POS) in analogy with the statistical mechanics notion of Gibbs measure. We obtain the analogous of Gibbs measure phase space properties characterization of extremal measures, construction/reconstruction starting from single site kernels, criterion of uniqueness. These results are applied to some well-known PCA. The second part is essentially devoted to 1-dimensional PCA with two neighbours and two states. We show two decompositions of space-time configurations in flow of information. Those flows have a geometrical meaning that induce two uniqueness criteria. In appendix, we give a version of the proof of phase transition of the NEC Toom's PCA. The whole thesis is punctuated by simulations
19

Lepoultier, Guilhem. "Transport numérique de quantités géométriques." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112202/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une part importante de l’activité en calcul scientifique et analyse numérique est consacrée aux problèmes de transport d’une quantité par un champ donné (ou lui-même calculé numériquement). Les questions de conservations étant essentielles dans ce domaine, on formule en général le problème de façon eulérienne sous la forme d’un bilan au niveau de chaque cellule élémentaire du maillage, et l’on gère l’évolution en suivant les valeurs moyennes dans ces cellules au cours du temps. Une autre approche consiste à suivre les caractéristiques du champ et à transporter les valeurs ponctuelles le long de ces caractéristiques. Cette approche est délicate à mettre en oeuvre, n’assure pas en général une parfaite conservation de la matière transportée, mais peut permettre dans certaines situations de transporter des quantités non régulières avec une grande précision, et sur des temps très longs (sans conditions restrictives sur le pas de temps comme dans le cas des méthodes eulériennes). Les travaux de thèse présentés ici partent de l’idée suivante : dans le cadre des méthodes utilisant un suivi de caractéristiques, transporter une quantité supplémentaire géométrique apportant plus d’informations sur le problème (on peut penser à un tenseur des contraintes dans le contexte de la mécanique des fluides, une métrique sous-jacente lors de l’adaptation de maillage, etc. ). Un premier pan du travail est la formulation théorique d’une méthode de transport de telles quantités. Elle repose sur le principe suivant : utiliser la différentielle du champ de transport pour calculer la différentielle du flot, nous donnant une information sur la déformation locale du domaine nous permettant de modifier nos quantités géométriques. Cette une approche a été explorée dans dans le contexte des méthodes particulaires plus particulièrement dans le domaine de la physique des plasmas. Ces premiers travaux amènent à travailler sur des densités paramétrées par un couple point/tenseur, comme les gaussiennes par exemple, qui sont un contexte d’applications assez naturelles de la méthode. En effet, on peut par la formulation établie transporter le point et le tenseur. La question qui se pose alors et qui constitue le second axe de notre travail est celle du choix d’une distance sur des espaces de densités, permettant par exemple d’étudier l’erreur commise entre la densité transportée et son approximation en fonction de la « concentration » au voisinage du point. On verra que les distances Lp montrent des limites par rapport au phénomène que nous souhaitons étudier. Cette étude repose principalement sur deux outils, les distances de Wasserstein, tirées de la théorie du transport optimal, et la distance de Fisher, au carrefour des statistiques et de la géométrie différentielle
In applied mathematics, question of moving quantities by vector is an important question : fluid mechanics, kinetic theory… Using particle methods, we're going to move an additional quantity giving more information on the problem. First part of the work is the theorical formulation for this kind of transport. It's going to use the differential in space of the vector field to compute the differential of the flow. An immediate and natural application is density who are parametrized by and point and a tensor, like gaussians. We're going to move such densities by moving point and tensor. Natural question is now the accuracy of such approximation. It's second part of our work , which discuss of distance to estimate such type of densities
20

Sidobre, Daniel. "Raisonnement géométrique et synthèse de stratégies d'assemblage en robotique." Toulouse 3, 1990. http://www.theses.fr/1990TOU30102.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans cette thèse portent sur la programmation de systèmes robotiques, plus particulièrement sur la génération automatique de trajectoires d'assemblage pour deux objets mécaniques décrits par leur modèle polyédrique en position assemblée. Deux aspects sont abordes: l'étude du modèle des liaisons de contact, et la description d'une méthode de calcul de stratégies d'assemblages. La première partie introduit les notions de coordonnée généralisée et de contrainte de contact qui permettent une modélisation systématique des taches de manipulation. Le mouvement relatif des objets au contact est obtenu par intégration de ce modèle. Une stratégie d'assemblage est définie par une suite de segments de trajectoires, chacun d'eux conservant une relation de contact constante. La deuxième partie montre que ces stratégies peuvent être représentées par un chemin sur un graphe. Les nuds correspondent a des relations de contact a zéro degré de liberté (limites des segments de trajectoires) et les arcs a des liaisons a un degré de liberte (trajectoires). La méthode de construction incrémentale du graphe proposée consiste en la génération de quintuplets de contraintes de contact conduisant à des mouvements compatibles avec la description polyédrique des objets
21

Térouanne, Eric. "A propos de quelques modèles mathématiques." Montpellier 2, 1987. http://www.theses.fr/1987MON20266.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these se compose de trois parties. La premiere a trait a ce qu'on appelle generalement les "figures impossibles". On nomme ainsi des dessins qui evoquent a premiere vue des objets de nature geometrique ou architecturale, et se revelent a l'examen ne par correspondre a l'objet que l'on avait d'abord imagine. Nous montrons que si l'on ne peut pas donner une definition operationnelle de la notion de "figure impossible", on peut par contre developper un modele mathematique efficace pour decrire les diverses interpretations possibles d'une figure donnee. Ceci etant fait, l'analyse geometrique d'une telle interpretation permet de decider si elle est realisable ou non. La seconde partie est de nature statistique. Elle reunit des travaux qui trouvent pour la plupart leur origine dans notre activite de consultant aupres de specialistes de diverses disciplines (biologistes, sociologues, medecins, psychologues. . . ). Elle comporte cinq chapitres traitant de decision composee et d'empirique bayesien, de dependance statistique monotone, de redondance de l'information ou inference bayesienne, d'utilisation d'outils descriptifs dans l'etude d'un probleme ecologique et d'echantillonnage. La troisieme partie est consacree a l'etude des processus de partage entier proportionnel tels qu'ils apparaissent en particulier dans les problemes electoraux. Nous proposons un modele mathematique englobant et generalisant largement toutes les methodes connues. Nous enoncons une serie de proprietes que peut posseder un processus de partage et caracterisons des familles de processus possedant chacune de ces proprietes. Nous formalisons la notion de biais qui permet de comparer ces processus. Enfin, nous proposons divers travaux d'application
22

Maignant, Elodie. "Plongements barycentriques pour l'apprentissage géométrique de variétés : application aux formes et graphes." Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ4096.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une image obtenue par IRM, c'est plus de 60 000 pixels. La plus grosse protéine connue chez l'être humain est constituée d'environ 30 000 acides aminés. On parle de données en grande dimension. En réalité, la plupart des données en grande dimension ne le sont qu'en apparence. Par exemple, de toutes les images que l'on pourrait générer aléatoirement en coloriant 256 x 256 pixels, seule une infime proportion ressemblerait à l'image IRM d'un cerveau humain. C'est ce qu'on appelle la dimension intrinsèque des données. En grande dimension, apprentissage rime donc souvent avec réduction de dimension. Il existe de nombreuses méthodes de réduction de dimension, les plus récentes pouvant être classées selon deux approches.Une première approche, connue sous le nom d'apprentissage de variétés (manifold learning) ou réduction de dimension non linéaire, part du constat que certaines lois physiques derrière les données que l'on observe ne sont pas linéaires. Ainsi, espérer expliquer la dimension intrinsèque des données par un modèle linéaire est donc parfois irréaliste. Au lieu de cela, les méthodes qui relèvent du manifold learning supposent un modèle localement linéaire.D'autre part, avec l'émergence du domaine de l'analyse statistique de formes, il y eu une prise de conscience que de nombreuses données sont naturellement invariantes à certaines symétries (rotations, permutations, reparamétrisations...), invariances qui se reflètent directement sur la dimension intrinsèque des données. Ces invariances, la géométrie euclidienne ne peut pas les retranscrire fidèlement. Ainsi, on observe un intérêt croissant pour la modélisation des données par des structures plus fines telles que les variétés riemanniennes. Une deuxième approche en réduction de dimension consiste donc à généraliser les méthodes existantes à des données à valeurs dans des espaces non-euclidiens. On parle alors d'apprentissage géométrique. Jusqu'à présent, la plupart des travaux en apprentissage géométrique se sont focalisés sur l'analyse en composantes principales.Dans la perspective de proposer une approche qui combine à la fois apprentissage géométrique et manifold learning, nous nous sommes intéressés à la méthode appelée locally linear embedding, qui a la particularité de reposer sur la notion de barycentre, notion a priori définie dans les espaces euclidiens mais qui se généralise aux variétés riemanniennes. C'est d'ailleurs sur cette même notion que repose une autre méthode appelée barycentric subspace analysis, et qui fait justement partie des méthodes qui généralisent l'analyse en composantes principales aux variétés riemanniennes. Ici, nous introduisons la notion nouvelle de plongement barycentrique, qui regroupe les deux méthodes. Essentiellement, cette notion englobe un ensemble de méthodes dont la structure rappelle celle des méthodes de réduction de dimension linéaires et non linéaires, mais où le modèle (localement) linéaire est remplacé par un modèle barycentrique -- affine.Le cœur de notre travail consiste en l'analyse de ces méthodes, tant sur le plan théorique que pratique. Du côté des applications, nous nous intéressons à deux exemples importants en apprentissage géométrique : les formes et les graphes. En particulier, on démontre que par rapport aux méthodes standard de réduction de dimension en analyse statistique des graphes, les plongements barycentriques se distinguent par leur meilleure interprétabilité. En plus des questions pratiques liées à l'implémentation, chacun de ces exemples soulève ses propres questions théoriques, principalement autour de la géométrie des espaces quotients. Parallèlement, nous nous attachons à caractériser géométriquement les plongements localement barycentriques, qui généralisent la projection calculée par locally linear embedding. Enfin, de nouveaux algorithmes d'apprentissage géométrique, novateurs dans leur approche, complètent ce travail
An MRI image has over 60,000 pixels. The largest known human protein consists of around 30,000 amino acids. We call such data high-dimensional. In practice, most high-dimensional data is high-dimensional only artificially. For example, of all the images that could be randomly generated by coloring 256 x 256 pixels, only a very small subset would resemble an MRI image of a human brain. This is known as the intrinsic dimension of such data. Therefore, learning high-dimensional data is often synonymous with dimensionality reduction. There are numerous methods for reducing the dimension of a dataset, the most recent of which can be classified according to two approaches.A first approach known as manifold learning or non-linear dimensionality reduction is based on the observation that some of the physical laws behind the data we observe are non-linear. In this case, trying to explain the intrinsic dimension of a dataset with a linear model is sometimes unrealistic. Instead, manifold learning methods assume a locally linear model.Moreover, with the emergence of statistical shape analysis, there has been a growing awareness that many types of data are naturally invariant to certain symmetries (rotations, reparametrizations, permutations...). Such properties are directly mirrored in the intrinsic dimension of such data. These invariances cannot be faithfully transcribed by Euclidean geometry. There is therefore a growing interest in modeling such data using finer structures such as Riemannian manifolds. A second recent approach to dimension reduction consists then in generalizing existing methods to non-Euclidean data. This is known as geometric learning.In order to combine both geometric learning and manifold learning, we investigated the method called locally linear embedding, which has the specificity of being based on the notion of barycenter, a notion a priori defined in Euclidean spaces but which generalizes to Riemannian manifolds. In fact, the method called barycentric subspace analysis, which is one of those generalizing principal component analysis to Riemannian manifolds, is based on this notion as well. Here we rephrase both methods under the new notion of barycentric embeddings. Essentially, barycentric embeddings inherit the structure of most linear and non-linear dimension reduction methods, but rely on a (locally) barycentric -- affine -- model rather than a linear one.The core of our work lies in the analysis of these methods, both on a theoretical and practical level. In particular, we address the application of barycentric embeddings to two important examples in geometric learning: shapes and graphs. In addition to practical implementation issues, each of these examples raises its own theoretical questions, mostly related to the geometry of quotient spaces. In particular, we highlight that compared to standard dimension reduction methods in graph analysis, barycentric embeddings stand out for their better interpretability. In parallel with these examples, we characterize the geometry of locally barycentric embeddings, which generalize the projection computed by locally linear embedding. Finally, algorithms for geometric manifold learning, novel in their approach, complete this work
23

Bertrand, Samuel. "Modélisation géométrique 3D in vivo du tronc humain à partir de l'imageur basse dose EOS." Phd thesis, Paris, ENSAM, 2005. http://pastel.archives-ouvertes.fr/pastel-00001505.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'utilisation de modèles en éléments finis du corps humain a été initiée au début des années 90 comme outil d'aide à la conception de dispositifs de sécurité automobile. Obtenir une personnalisation géométrique de tels modèles est une préoccupation récente afin d'en optimiser la biofidélité. Le but de cette étude est donc d'accroître notre compréhension des géométries externes et internes du corps humain, et fournir des outils de personnalisation de modèles numériques. En premier lieu, une base de données géométriques externes (anthropométrie corps entier) et internes(morphométrie du rachis, du bassin et du thorax) collectées sur 85 volontaires a été constituée à l'aide de mesures anthropométriques classiques et des méthodes de reconstruction stéréoradiographiques tridimensionnelles. L'exploitation de cette base de données a abouti à une description détaillée des géométries externes et internes de sujets asymptomatiques. Elle a également permis de développer et évaluer une méthode statistique d'estimation de paramètres anthropométriques (externes) et morphométriques (internes) basée sur près de 200 modèles anthropométriques (i.e. régressions linéaires simples et multiples) externe/externe et externe/interne. Grâce à cette méthode, 10 mesures anthropométriques suffisent pour modéliser la géométrie externe (43 dimensions du corps entier assis et debout) et interne (155 dimensions du bassin, vertèbres C3 à L5, et côtes niveaux 1 à 10) d'un individu (errreur moyenne: 2,3%(2
24

Godichon-Baggioni, Antoine. "Algorithmes stochastiques pour la statistique robuste en grande dimension." Thesis, Dijon, 2016. http://www.theses.fr/2016DIJOS053/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur l'étude d'algorithmes stochastiques en grande dimension ainsi qu'à leur application en statistique robuste. Dans la suite, l'expression grande dimension pourra aussi bien signifier que la taille des échantillons étudiés est grande ou encore que les variables considérées sont à valeurs dans des espaces de grande dimension (pas nécessairement finie). Afin d'analyser ce type de données, il peut être avantageux de considérer des algorithmes qui soient rapides, qui ne nécessitent pas de stocker toutes les données, et qui permettent de mettre à jour facilement les estimations. Dans de grandes masses de données en grande dimension, la détection automatique de points atypiques est souvent délicate. Cependant, ces points, même s'ils sont peu nombreux, peuvent fortement perturber des indicateurs simples tels que la moyenne ou la covariance. On va se concentrer sur des estimateurs robustes, qui ne sont pas trop sensibles aux données atypiques. Dans une première partie, on s'intéresse à l'estimation récursive de la médiane géométrique, un indicateur de position robuste, et qui peut donc être préférée à la moyenne lorsqu'une partie des données étudiées est contaminée. Pour cela, on introduit un algorithme de Robbins-Monro ainsi que sa version moyennée, avant de construire des boules de confiance non asymptotiques et d'exhiber leurs vitesses de convergence $L^{p}$ et presque sûre.La deuxième partie traite de l'estimation de la "Median Covariation Matrix" (MCM), qui est un indicateur de dispersion robuste lié à la médiane, et qui, si la variable étudiée suit une loi symétrique, a les mêmes sous-espaces propres que la matrice de variance-covariance. Ces dernières propriétés rendent l'étude de la MCM particulièrement intéressante pour l'Analyse en Composantes Principales Robuste. On va donc introduire un algorithme itératif qui permet d'estimer simultanément la médiane géométrique et la MCM ainsi que les $q$ principaux vecteurs propres de cette dernière. On donne, dans un premier temps, la forte consistance des estimateurs de la MCM avant d'exhiber les vitesses de convergence en moyenne quadratique.Dans une troisième partie, en s'inspirant du travail effectué sur les estimateurs de la médiane et de la "Median Covariation Matrix", on exhibe les vitesses de convergence presque sûre et $L^{p}$ des algorithmes de gradient stochastiques et de leur version moyennée dans des espaces de Hilbert, avec des hypothèses moins restrictives que celles présentes dans la littérature. On présente alors deux applications en statistique robuste: estimation de quantiles géométriques et régression logistique robuste.Dans la dernière partie, on cherche à ajuster une sphère sur un nuage de points répartis autour d'une sphère complète où tronquée. Plus précisément, on considère une variable aléatoire ayant une distribution sphérique tronquée, et on cherche à estimer son centre ainsi que son rayon. Pour ce faire, on introduit un algorithme de gradient stochastique projeté et son moyenné. Sous des hypothèses raisonnables, on établit leurs vitesses de convergence en moyenne quadratique ainsi que la normalité asymptotique de l'algorithme moyenné
This thesis focus on stochastic algorithms in high dimension as well as their application in robust statistics. In what follows, the expression high dimension may be used when the the size of the studied sample is large or when the variables we consider take values in high dimensional spaces (not necessarily finite). In order to analyze these kind of data, it can be interesting to consider algorithms which are fast, which do not need to store all the data, and which allow to update easily the estimates. In large sample of high dimensional data, outliers detection is often complicated. Nevertheless, these outliers, even if they are not many, can strongly disturb simple indicators like the mean and the covariance. We will focus on robust estimates, which are not too much sensitive to outliers.In a first part, we are interested in the recursive estimation of the geometric median, which is a robust indicator of location which can so be preferred to the mean when a part of the studied data is contaminated. For this purpose, we introduce a Robbins-Monro algorithm as well as its averaged version, before building non asymptotic confidence balls for these estimates, and exhibiting their $L^{p}$ and almost sure rates of convergence.In a second part, we focus on the estimation of the Median Covariation Matrix (MCM), which is a robust dispersion indicator linked to the geometric median. Furthermore, if the studied variable has a symmetric law, this indicator has the same eigenvectors as the covariance matrix. This last property represent a real interest to study the MCM, especially for Robust Principal Component Analysis. We so introduce a recursive algorithm which enables us to estimate simultaneously the geometric median, the MCM, and its $q$ main eigenvectors. We give, in a first time, the strong consistency of the estimators of the MCM, before exhibiting their rates of convergence in quadratic mean.In a third part, in the light of the work on the estimates of the median and of the Median Covariation Matrix, we exhibit the almost sure and $L^{p}$ rates of convergence of averaged stochastic gradient algorithms in Hilbert spaces, with less restrictive assumptions than in the literature. Then, two applications in robust statistics are given: estimation of the geometric quantiles and application in robust logistic regression.In the last part, we aim to fit a sphere on a noisy points cloud spread around a complete or truncated sphere. More precisely, we consider a random variable with a truncated spherical distribution, and we want to estimate its center as well as its radius. In this aim, we introduce a projected stochastic gradient algorithm and its averaged version. We establish the strong consistency of these estimators as well as their rates of convergence in quadratic mean. Finally, the asymptotic normality of the averaged algorithm is given
25

Elharfaoui, Echarif. "La convergence faible des U-statistiques multivariées pour des processus non stationnaires dépendants." Toulouse 3, 2003. http://www.theses.fr/2003TOU30144.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Yang, Ruiping. "Simulation numérique de diffusion de la lumiére par une goutte pendante par tracé de rayons vectoriels complexes statistiques." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR143.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée à la simulation numérique tridimensionnelle de la diffusion d’une onde plane par une gouttelette pendante à l’aide d’un modèle de Tracé de Rayons Vectoriels Complexes Statistiques (TRVCS), basé sur modèle de Tracé de Rayons Vectoriels Complexes (TRVC) précédemment mis au point par le laboratoire CORIA. La métrologie optique est largement utilisée dans de nombreux domaines de la recherche scientifique et non intrusive. De nombreuses techniques de mesure ont été développées pour caractériser la taille, la température, ... des particules. Mais la plupart d’entre elles sont limitées aux particules de forme simple en raison de l’absence d’outils théorique ou numérique permettant de prédire la relation entre la lumière diffusée et les propriétés des diffuseurs, en particulier pour les grosses particules non sphériques. Pour surmonter cet obstacle, TRVC a été développé. Dans ce modèle, la courbe du front d’onde est introduite comme une nouvelle propriété des rayons lumineux. La divergence et la convergence d’une onde sur la surface courbée de la particule peuvent être facilement prédites par l’équation du front d’onde. Ainsi, il peut être appliqué à la diffusion de la lumière par de grosses particules de forme quelconque et de surface lisse. La TRVC a été validée expérimentalement et numériquement dans les cas de diffusion dans un plan de diffusion symétrique. Afin de contourner le problème de l’interpolation 2D avec des données irrégulières, nous proposons un modèle de TRVCS. Mais le phénomène d’interférence n’est pas pris en compte dans sa version initiale. Dans cette thèse, la méthode de calcul de la phase due au chemin optique, aux coefficients de Fresnel et aux lignes focales sont soigneusement étudiés pour une particule non sphérique dans le cadre de TRVCS. Il est ensuite appliqué à la simulation de la diffusion en trois dimensions d’une gouttelette pendante. Les figures de diffusion aux alentours des arcs-en-ciel du premier et du second ordre, dans la direction avant, sont simulées pour quatre formes typiques de gouttelettes pendantes obtenues expérimentalement. Les résultats numériques sont en bon accord avec les résultats expérimentaux. Le mécanisme de diffusion et la contribution de différents ordres de rayons sont également étudiés
This thesis is devoted to the numerical simulation of the scattering of plane wave by a pendent droplet in three dimensions using the Statistic Vectorial Complex Ray Model (SVCRM), which is based on the Vectorial Complex Ray Model (VCRM) developed in the laboratory CORIA. Optical metrology is widely used in many domains of scientific research due to its advantages of being fast and non-intrusive. Numerous measurement techniques have been developed to characterize the size, the temperature, ... of the particles. But most of them are limited to the particles of simple shape because of the lack of theoretical model to predict the relation of the scattered light with the properties of the scatterers, especially for the large non-spherical particle. To overcome this obstacle, the Vectorial Complex Ray Model (VCRM) has been developed. In this model, the wave front curvature is introduced as a new property of light rays. The divergence and the convergence of a wave on the curved surface of the particle can be described easily by the wave front equation. So it can be applied to the scattering of light by large particles of any shape with smooth surface. The VCRM has been validated experimentally and numerically in the cases of scattering in a symmetric plane of scatterer. In order to get over the problem of 2D interpolation with irregular data, Statistic Vectorial Complex Ray Model (SVCRM) is proposed. But the interference phenomena is not considered in its initial version. In this thesis, the method to count the phase due to the optical path, the Fresnel coefficients and the focal liens are carefully studied for a non-spherical particle in the framework of SVCRM. It is then applied to the simulation of the three dimension scattering of a pendent droplet. The scattering patterns around the first and the second order rainbows, in the forward direction are exampled for four typical shapes of pendent droplets obtained experimentally. The results are found in good agreement with experimental scattering patterns. The scattering mechanism and the contribution of different orders of rays are also investigated
27

Humbert, Ludovic. "Contribution à l'automatisation du traitement des radiographies du système ostéoarticulaire pour la modélisation géométrique et l'analyse clinique." Phd thesis, Paris, ENSAM, 2008. http://pastel.archives-ouvertes.fr/pastel-00004241.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Pour comprendre et diagnostiquer des pathologies telles que la scoliose qui affectent l'organisation spatiale de notre squelette, il est essentiel d'aborder ces problématiques en trois dimensions. Dans le cadre de leur collaboration franco-canadienne, le Laboratoire de Biomécanique et le Laboratoire de recherche en Imagerie et Orthopédie ont développé des méthodes de reconstruction 3D du squelette à partir de radiographies biplanes, notamment à partir du système de radiographie base dose EOS (Biospace Med, Paris). Ces techniques permettent une analyse clinique globale du patient, en position debout et avec très peu d'irradiations. Néanmoins, le temps de reconstruction reste contraignant pour une utilisation en routine clinique. L'objectif de cette thèse est donc de progresser dans l'automatisation des méthodes de reconstruction 3D à partir de radiographies biplanes. Les méthodes développées seront appliquées au rachis thoracique et lombaire, dans le contexte spécifique de l'étude de la scoliose. Une méthode de reconstruction s'appuyant sur une description paramétrée du rachis et sur des inférences statistiques longitudinales et transversales a été proposée et évaluée. Cette méthode permet, à partir de la saisie opérateur de quelques repères anatomiques dans les radiographies, d'obtenir très rapidement (2min 30s) une reconstruction 3D pré-personnalisée du rachis ainsi que des paramètres cliniques dédiés au diagnostic de la scoliose. Une reconstruction 3D plus précise peut être obtenue en un temps relativement réduit (10min) à partir d'ajustement opérateurs du modèle, qui s'auto-améliore par inférences au fur et à mesure des retouches. Afin de poursuivre la semi-automatisation de cette méthode, des techniques de recalage 2D/3D par traitement d'image, basées sur la segmentation des radiographies mais également sur des mesures de similarités entre des radiographies simulées et les clichés réels ont été proposées. Ces algorithmes s'appuient sur des modèles pseudo-volumiques de vertèbres, plus réalistes que les modèles surfaciques couramment utilisés. Les techniques de recalage ont été intégrées dans le protocole de reconstruction utilisant une description paramétrée du rachis et des inférences, pour proposer et évaluer une nouvelle méthode de reconstruction. Ce travail de thèse ouvre des perspectives concrètes en termes d'utilisation de telles méthodes en routine clinique et permet de poser des bases importantes pour automatiser les méthodes de reconstruction 3D à partir de radiographies biplanes de l'ensemble du squelette.
28

Xu, Hao. "Estimation statistique d'atlas probabiliste avec les données multimodales et son application à la segmentation basée sur l'atlas." Phd thesis, Ecole Polytechnique X, 2014. http://pastel.archives-ouvertes.fr/pastel-00969176.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les atlases d'anatomie informatisé jouent un rôle important dans l'analyse d'images médicales. Cependant un atlas se réfère généralement à une image standard ou une moyenne d'image aussi appelé template, qui probablement représente bien d'une population observée, il ne suffit pas pour caractériser la population observée en détail. Un template doit être apprises conjointement avec la variabilité géométrique des formes représentées dans les observations. Ces deux quantités seront par la suite former l'atlas de la population correspondante. La variabilité géométrique est modélisée comme des déformations du template de sorte qu'il s'adapte aux observations. Dans la première partie du travail, nous fournissons un nouveau modèle statistique générative basée sur des templates déformables denses qui représente plusieurs types de tissus observés dans les images médicales. Notre atlas contient à la fois une estimation des templates probabiliste de chaque tissu (appelée classes) et la métrique de déformation. Nous utilisons un algorithme stochastique pour l'estimation de l'atlas probabilistes donné un ensemble de données. Cet atlas est ensuite utilisé pour la méthode de segmentation basée sur l'atlas pour segmenter les nouvelles images. Expériences sont montrées sur les images T1 du cerveau. Les analyses traditionnelles d'imagerie de résonance magnétique fonctionnelle utilisent peu d'informations anatomies. Le recalage des images vers un template est basé sur l'anatomie individuelle et ne tient pas compte des informations fonctionnelles, donc les activations détectées ne se limitent pas à la matière grise. Dans la deuxième partie du travail, on propose un modèle statistique pour estimer un atlas probabiliste de l'IRM fonctionnelle et T1 qui résume à la fois des informations anatomies et fonctionnelles et la variabilité géométrique de la population. Le recalage et la segmentation sont effectuées conjointement pendant l'estimation de l'atlas et l'activité fonctionnelle est limitée à la matière grise, augmenter la précision de l'atlas. Inférer l'abondance des protéines de l'intensité de peptides est l'étape clé dans la protéomique quantitative. La conclusion est nécessairement plus précis quand de nombreux peptides sont pris en compte pour une protéine donnée. Pourtant, l'information apportée par les peptides partagées par différentes protéines est souvent jeté. Dans la troisième partie du travail, nous proposons un système statistique basée sur une modèle hiérarchique à inclure cette information. Notre méthodologie, basée sur une analyse simultanée de tous les peptides quantifiés, gère les erreurs biologiques et techniques ainsi que l'effet des peptides. En outre, nous proposons une mise en œuvre pratique adapté à l'analyse de grandes bases de données. Par rapport à une méthode basée sur l'analyse d'une protéine à la fois (ce qui ne comprend pas les peptides partagés), notre méthodologie s'est révélée être beaucoup plus fiable pour estimer l'abondance de protéines et de tester les changements d'abondance.
29

Decker, Leslie. "Approche alternative à la normalisation et l'évaluation de patrons locomoteurs : application au sprint athlétique." Paris 6, 2006. http://www.theses.fr/2006PA066461.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette recherche s’inscrit dans la continuité de travaux antérieurs dont la méthodologie mise en œuvre était originale : la méthode Procuste, initialement destinée à l’analyse quantitative de formes biologiques en morphométrie géométrique, étant appliquée à l’étude de formes « dynamiques » créées par les déplacements spatio-temporels des articulations au cours des cycles locomoteurs. Ces premiers travaux, utilisant les concepts de la morphométrie géométrique, constituent une approche quantitative objective mettant en évidence des différences ou similitudes fonctionnelles entre les patrons locomoteurs. Dans le cadre de la thèse de doctorat, les objectifs ont été de comparer les comportements adoptés par des sprinters de 100 mètres de niveaux d’expertise variés afin d’identifier des différences éventuelles dans la gestion de leur course et de cerner les caractéristiques de la performance de haut niveau dans le sprint athlétique. Cette recherche, menée en étroite collaboration avec les entraîneurs nationaux et les athlètes français du plus haut niveau, a fait appel aux méthodes exploratoires multidimensionnelles et aux techniques explicatives et prévisionnelles pour tenter de prédire la performance à partir de paramètres rythmiques et cinématiques recueillis dans la phase de vitesse maximale d'une épreuve de 100 mètres. La finalité de cette recherche est la conception et la validation d’outils et de méthodes qui rendent possible une évaluation scientifique de l’efficacité motrice du coureur. Cette recherche est concrétisée par le développement du logiciel « MÉMOSPORT » permettant la mise en correspondance des données objectives mesurables et analytiques avec les données subjectives et qualitatives fournies par l'expert du domaine
This research follows on logically from a previous work, of which the originality lays in the methodology used, i. E. The Procrustes method. This method, which was initially designed to allow quantitative analyses of biological shapes using geometric morphometrics, was applied here to an investigation of the "dynamic shapes" created by the spatio-temporal displacements of the runner’s bone-joints during the locomotor cycles. These first studies, which used concepts and methods based on geometric morphometry, provide a new and objective quantitative approach revealing functional differences and similarities among locomotor patterns. In the framework of my doctoral dissertation, the endeavour was to compare behaviors adopted by 100-meter sprinters with different levels of expertise in order to identify possible differences in the way each of these groups manages a race and thus to determine the characteristics of performance in high level sprinting. This investigation, undertaken in close collaboration with the highest ranking French national coaches and athletes, drew on the multivariate exploratory methods and the explanatory predictive techniques to attempt predicting the performance using rhythmical and kinematic parameters collected during the stabilized phase of a 100-meters race. The purpose of this research is to design and validate tools and methods permitting a scientific evaluation of the runner’s motor efficiency. In concrete terms, this has involved the development of a "Memosport" software package allowing the comparison of the measurable and analytical objective data with the qualitative and subjective data supplied by the experts in the field
30

Fallot, Yann. "Maîtrise de la qualité géométrique des pièces de formes complexes dans le contexte de la continuité numérique." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces travaux de recherche sont réalisés dans le cadre d'une thèse CIFRE en collaboration entre Safran Aircraft Engines et le LURPA de l'ENS Paris-Saclay. Safran Aircraft Engines conçoit et réalise des moteurs pour avions civils et militaires. Afin de répondre au fort développement industriel mondial, Safran Aircraft Engines est constamment en recherche d'optimisation des définitions de ses pièces tout en respectant les cadences de fabrication. Les normes de tolérancement évoluent et les moyens de contrôle s'améliorent. La problématique des travaux est de maîtriser la qualité géométrique des pièces de formes complexes dans le contexte de la continuité numérique.Une méthode permet d'établir les liens entre les fonctions et les spécifications géométriques. De plus, la traçabilité des caractéristiques dimensionnelles et géométriques est établie lors de la phase de tolérancement du produit.Une extension de la méthode CLIC à des composants qui se déforme localement est proposée. Cette extension s'intègre dans la méthode de tolérancement qui établit les liens entre les fonctions et les spécifications.Une méthode originale de génération de descripteurs de forme sur des surfaces permettant la séparation des écarts de taille, de forme, de position et d'orientation est présentée afin de réaliser une Décomposition Modale Discrète. De plus, l'analyse des résultats de la Décomposition Modale Discrète appliquée sur trente surfaces complexes permet de connaître la répétabilité du processus de fabrication
This PhD work is being carried out as part of a CIFRE PhD thesis in collaboration between Safran Aircraft Engines and the LURPA of the ENS Paris-Saclay. Safran Aircraft Engines designs and manufactures engines for civil and military aircraft. In order to meet the high level of global industrial development, Safran Aircraft Engines is constantly seeking to optimize the definitions of its parts while respecting production rate. Tolerancing standards are changing and control methods are improving. The challenge of this work is to control the geometric quality of complex shaped parts in the context of digital continuity.A method is used to establish the links between functions and geometric specifications. In addition, the traceability of dimensional and geometric characteristics is established during the product tolerancing phase.An extension of the CLIC method to components that deform locally is proposed. This extension is integrated into the tolerance method used to establish the links between functions and specifications.An innovative method of generating shape descriptors on surfaces allowing the separation of size, of shape, of position, and of orientation deviations is described in order to achieve a Discrete Modal Decomposition. In addition, the analysis of the results of the Discrete Modal Decomposition applied to thirty complex surfaces allows us to know the repeatability of the manufacturing process
31

Taillandier, Franck. "Reconstruction de bâti en milieu urbain : une approche multi-vues." Phd thesis, Ecole Polytechnique X, 2004. http://pastel.archives-ouvertes.fr/pastel-00000927.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En dépit des progrès réalisés en vision par ordinateur et en photogrammétrie, la reconstruction tridimensionnelle de scènes à partir de photographies reste un problème extraordinairement complexe et loin d'être résolu. Dans cette thèse, nous nous intéressons au domaine plus restreint de la reconstruction automatique de bâtiments à partir d'images aériennes en multi-recouvrement. En décalage par rapport aux méthodes à base de modèles prédéfinis, notre approche utilise une modélisation très générique des bâtiments comme polyèdres sans surplomb. Pour pallier le manque de robustesse inhérent à la plupart des approches génériques, des contraintes a priori sont introduites dans la sélection de la meilleure représentation favorisant ainsi, sans les imposer, des choix correspondant à des situations récurrentes dans un environnement urbain: parallélisme, horizontalité, orthogonalité, symétrie verticale de certaines facettes. Par ce raisonnement, le système concilie à la fois les problématiques de généricité et de généralisation. La stratégie générale se compose de quatre étapes majeures. La première consiste à extraire des images trois types de primitives tridimensionnelles qui serviront à construire les modèles de bâtiments puis à sélectionner la meilleure représentation: segments 3D, facettes planes, discontinuités altimétriques. Dans un deuxième temps, l'algorithme extrait, à partir de l'arrangement de plans déduit des primitives planes, toutes les hypothèses de bâtiments modélisés comme surfaces polyédriques continues et sans surplomb. Il est prouvé, à cet effet, que cette procédure se ramène à la recherche exhaustive des cliques maximales d'un graphe adéquat. Dans l'ensemble de toutes ces hypothèses, la sélection du modèle final se fait, dans un troisième temps, par le biais d'une formulation bayésienne qui prend en compte différents types d'observation. La complexité du modèle de bâtiment et les contraintes a priori sur les primitives telles qu'orthogonalité, parallélisme, symétrie, horizontalité sont naturellement introduites dans cette formulation pour concilier adéquation aux données et simplicité de formes. Enfin, les contraintes détectées sur les primitives sont effectivement introduites dans la reconstruction. L'algorithme utilise alors une paramétrisation implicite du bâtiment qui assure l'application des contraintes sur le modèle final. La méthodologie de recherche de l'ensemble des formes admissibles par cliques maximales constitue, avec l'intégration de contraintes dans le processus de choix de la représentation et de recalage du modèle, les contributions majeures du système présenté. Des résultats et une évaluation sur images aériennes prouvent la validité de cette approche qui permet de traiter des bâtiments aux formes arbitrairement complexes et de pallier, le cas échéant, les défauts de focalisation. Malgré cette généricité, le système se révèle tolérant aux erreurs des détecteurs de primitives et présente des caractéristiques intéressantes pour la modélisation de scènes péri-urbaines.
32

Zitouna, Souha. "Les valeurs extrêmes dans le cas discret." Paris 6, 1986. http://www.theses.fr/1986PA066255.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Romon, Gabriel. "Contributions to high-dimensional, infinite-dimensional and nonlinear statistics." Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAG013.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Trois problèmes sont abordés dans cette thèse: l'inférence en régression multi-tâche de grande dimension, les quantiles géométriques dans les espaces normés de dimension infinie, et les moyennes de Fréchet généralisées dans les arbres métriques. Premièrement, nous considérons un modèle de régression multi-tâche avec une hypothèse de sparsité sur les lignes de la matrice paramètre. L'estimation est faite en haute dimension avec l'estimateur Lasso multi-tâche. Afin de corriger le biais induit par la pénalité, nous introduisons un nouvel objet dépendant uniquement des données que nous appelons matrice d'interaction. Cet outil nous permet d'établir des résultats asymptotiques avec des lois limites normales ou chi². Il en découle des intervalles de confiance et des ellipsoïdes de confiance, qui sont valides dans des régimes de sparsité qui ne sont pas couverts par la littérature existante. Deuxièmement, nous étudions le quantile géométrique, qui généralise le quantile classique au cadre des espaces normés. Nous commençons par fournir de nouveaux résultats sur l'existence et l'unicité des quantiles géométriques. L'estimation est effectuée avec un M-estimateur approché et nous examinons ses propriétés asymptotiques en dimension infinie. Quand le quantile théorique n'est pas unique, nous utilisons la théorie de la convergence variationnelle pour obtenir des résultats asymptotiques sur les sous-suites dans la topologie faible. Quand le quantile théorique est unique, nous montrons que l'estimateur est consistant pour la topologie de la norme dans une large classe d'espaces de Banach, en particulier dans les espaces séparables et uniformément convexes. Dans les Hilbert séparables nous démontrons des représentations de Bahadur-Kiefer de l'estimateur, dont découle immédiatement la normalité asymptotique à la vitesse paramétrique. Finalement, nous considérons des mesures de tendance centrale pour des données vivant sur un réseau, qui est modélisé par un arbre métrique. Les paramètres de localisation que nous étudions sont appelés moyennes de Fréchet généralisées: elles sont obtenues en remplaçant le carré dans la définition de la moyenne de Fréchet par une fonction de perte convexe et croissante. Nous élaborons une notion de dérivée directionnelle dans l'arbre, ce qui nous aide à localiser et caractériser les minimiseurs. Nous examinons les propriétés statistiques du M-estimateur correspondant: nous étendons le concept de moyenne collante au contexte des arbres métriques, puis nous obtenons un théorème collant non-asymptotique et une loi des grands nombres collante. Pour la médiane de Fréchet, nous établissons des bornes de concentration non-asymptotiques et des théorèmes central limite collants
Three topics are explored in this thesis: inference in high-dimensional multi-task regression, geometric quantiles in infinite-dimensional Banach spaces and generalized Fréchet means in metric trees. First, we consider a multi-task regression model with a sparsity assumption on the rows of the unknown parameter matrix. Estimation is performed in the high-dimensional regime using the multi-task Lasso estimator. To correct for the bias induced by the penalty, we introduce a new data-driven object that we call the interaction matrix. This tool lets us develop normal and chi-square asymptotic distribution results, from which we obtain confidence intervals and confidence ellipsoids in sparsity regimes that are not covered by the existing literature. Second, we study the geometric quantile, which generalizes the classical univariate quantile to normed spaces. We begin by providing new results on the existence and uniqueness of geometric quantiles. Estimation is then conducted with an approximate M-estimator and we investigate its large-sample properties in infinite dimension. When the population quantile is not uniquely defined, we leverage the theory of variational convergence to obtain asymptotic statements on subsequences in the weak topology. When there is a unique population quantile, we show that the estimator is consistent in the norm topology for a wide range of Banach spaces including every separable uniformly convex space. In separable Hilbert spaces, we establish novel Bahadur-Kiefer representations of the estimator, from which asymptotic normality at the parametric rate follows. Lastly, we consider measures of central tendency for data that lives on a network, which is modeled by a metric tree. The location parameters that we study are called generalized Fréchet means: they obtained by relaxing the square in the definition of the Fréchet mean to an arbitrary convex nondecreasing loss. We develop a notion of directional derivative in the tree, which helps us locate and characterize the minimizers. We examine the statistical properties of the corresponding M-estimator: we extend the notion of stickiness to the setting of metrics trees, and we state a non-asymptotic sticky theorem, as well as a sticky law of large numbers. For the Fréchet median, we develop non-asymptotic concentration bounds and sticky central limit theorems
34

Portefaix, Christophe. "Modélisation des signaux et des images par les attracteurs fractals de systèmes de fonctions itérées (IFS)." Angers, 2004. http://www.theses.fr/2004ANGE0026.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes de fonctions itérées (IFS) constituent des modèles fractals possédant des propriétés multiéchelles susceptibles de décrire de nombreux processus complexes. Un modèle d'IFS 1D minimal est utilisé pour en comprenbdre et en maîtriser les mécanismes. Notre étude a permis la modélisation de signaux avec un contrôle des moments géométriques, des coefficients de Fourier complexes ou réels, de la dimension fractale et de la continuité. Cette analyse systématique a ensuite été étendue à des modèles basiques d'IFS en 2 et 3 dimensions. Ces modèles ont également permis de décrire les modifications des propriétés de l'attracteur lorsqu'il est projeté. Toutes les propriétés démontrées dans cette étude améliorent la compréhension et les possibilités de contrôle de ces modèles d'IFS. Bien que s'agissant de modèles minimaux, ces modèles fractals montrent d'énormes potentialités d'applications dans des domaines très variés en signal image
Résumé en anglais
35

Pellerin, Jeanne. "Prise en compte de la complexité géométrique des modèles structuraux dans des méthodes de maillage fondées sur le diagramme de Voronoï." Phd thesis, Université de Lorraine, 2014. http://tel.archives-ouvertes.fr/tel-01005722.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Selon la méthode utilisée pour construire un modèle structural en trois dimensions et selon l'application à laquelle il est destiné, son maillage, en d'autres termes sa représentation informatique, doit être adapté afin de respecter des critères de type, de nombre et de qualité de ses éléments. Les méthodes de maillage développées dans d'autres domaines que la géomodélisation ne permettent pas de modifier le modèle d'entrée. Ceci est souhaitable en géomodélisation afin de mieux contrôler le nombre d'éléments du maillage et leur qualité. L'objectif de cette thèse est de développer des méthodes de maillage permettant de remplir ces objectifs afin de gérer la complexité géométrique des modèles structuraux définis par frontières. Premièrement, une analyse des sources de complexité géométrique dans ces modèles est proposée. Les mesures développées constituent une première étape dans la définition d'outils permettant la comparaison objective de différents modèles et aident à caractériser précisément les zones plus compliquées à mailler dans un modèle. Ensuite, des méthodes originales de remaillage surfacique et de maillage volumique fondées sur l'utilisation des diagrammes de Voronoï sont proposées. Les fondements de ces deux méthodes sont identiques : (1) une optimisation de type Voronoï barycentrique est utilisée pour globalement obtenir un nombre contrôlé d'éléments de bonne qualité et (2) des considérations combinatoires permettant de construire localement le maillage final, éventuellement en modifiant le modèle initial. La méthode de remaillage surfacique est automatique et permet de simplifier un modèle à une résolution donnée. L'originalité de la méthode de maillage volumique est que les éléments générés sont de types différents. Des prismes et pyramides sont utilisés pour remplir les zones très fines du modèle, tandis que le reste du modèle est rempli avec des tétraèdres.
36

Bienaise, Solène. "Tests combinatoires en analyse géométrique des données - Etude de l'absentéisme dans les industries électriques et gazières de 1995 à 2011 à travers des données de cohorte." Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00941220.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La première partie de la thèse traite d'inférence combinatoire en Analyse Géométrique des Données (AGD). Nous proposons des tests multidimensionnels sans hypothèse sur le processus d'obtention des données ou les distributions. Nous nous intéressons ici aux problèmes de typicalité (comparaison d'un point moyen à un point de référence ou d'un groupe d'observations à une population de référence) et d'homogénéité (comparaison de plusieurs groupes). Nous utilisons des procédures combinatoires pour construire un ensemble de référence par rapport auquel nous situons les données. Les statistiques de test choisies mènent à des prolongements originaux : interprétation géométrique du seuil observé et construction d'une zone de compatibilité.La seconde partie présente l'étude de l'absentéisme dans les Industries Electriques et Gazières de 1995 à 2011 (avec construction d'une cohorte épidémiologique). Des méthodes d'AGD sont utilisées afin d'identifier des pathologies émergentes et des groupes d'agents sensibles.
37

Chabani, Arezki. "Analyse méthodologique et caractérisation multi-échelle des systèmes de fractures à l’interface socle/couverture sédimentaire – application à la géothermie (bassin de Valence, SE France)." Electronic Thesis or Diss., Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM046.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le bassin de Valence, un fossé d’effondrement appartenant au système ECRIS localisé le long du couloir Rhodanien, est l’objet d’études approfondies quant à son potentiel géothermique. Dû à l’histoire évolutive polyphasée du bassin, les réseaux de fractures du socle et de la base de la couverture sédimentaire ciblés pour l’exploitation géothermique présentent une organisation complexe. Cette étude vise donc à caractériser l’organisation du bassin de Valence et de ces réseaux de fractures. Elle s’appuie sur les données sismiques et de forages du bassin, ainsi que les cartes géologiques, le modèle numérique du terrain et des affleurements de la marge ardéchoise. Deux méthodes de caractérisation des orientations et des longueurs des fractures sont développées dans ce travail. Leur application a permis de déterminer les paramètres des modèles de réseaux de fractures, et a mis en évidence un fort héritage structural mais aussi un découplage du socle et de la couverture
The Valence basin is a graben located in the Rhodanian corridor which belongs to the ECRIS system, and is the subject of many studies due to its geothermal potential. In response to its a multiphase history, fracture networks of the basement and sedimentary cover which are targeted for geothermal exploitation show a complex organization. This study aims to characterize facture networks organization in the Valence basin. It is based on seismic and borehole data in the basin, as well as geological maps, digital elevation model (DEM) and outcrops on the Ardèche margin. Two methodological studies were developed to characterize the orientation and length distributions. These methods allowed to determine fracture network modelling parameters, and highlighted a structural heritage but also a detachment between the basement and the cover
38

Hullo, Jean-Francois. "Consolidation de relevés laser d'intérieurs construits : pour une approche probabiliste initialisée par géolocalisation." Phd thesis, Université de Strasbourg, 2013. http://tel.archives-ouvertes.fr/tel-00801974.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La préparation d'interventions de maintenance dans les installations industrielles a dorénavant recours à des outils d'étude, de modélisation et de simulation basés sur l'exploitation de modèles virtuels 3D des installations. L'acquisition de ces modèles tridimensionnels s'effectue à partir de nuages de points mesurés, depuis plusieurs points de vue, par balayage angulaire horizontal et vertical d'un faisceau laser par scanner laser terrestre. L'expression dans un repère commun de l'ensemble des données acquises est appelée consolidation, au cours de laquelle les paramètres de changement de repères entre les stations sont calculés. L'objectif de cette thèse est d'améliorer la méthode d'acquisition de données laser en environnements industriels. Celle-ci doit, au final, garantir la précision et l'exactitude nécessaires des données tout en optimisant le temps et les protocoles d'acquisition sur site, en libérant l'opérateur d'un certain nombre de contraintes inhérentes au relevé topographique classique. Nous examinons, dans un premier temps, l'état de l'art des moyens et méthodes mis en œuvre lors de l'acquisition de nuages de points denses de scènes d'intérieurs complexes (Partie I). Dans un deuxième temps, nous étudions et évaluons les données utilisables pour la consolidation: données laser terrestres, algorithmes de reconstruction de primitives et systèmes de géolocalisation d'intérieur (Partie II). Dans une troisième partie, nous formalisons et expérimentons ensuite un algorithme de recalage basé sur l'utilisation de primitives appariées, reconstruites dans les nuages de points (Partie~III). Nous proposons finalement une approche probabiliste de l'appariement de primitives permettant l'intégration des informations et incertitudes a priori dans le système de contraintes utilisé pour le calcul des poses (Partie IV).
39

Mansuy, Mathieu. "Aide au tolérancement tridimensionnel : modèle des domaines." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00734713.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Face à la demande de plus en plus exigeante en terme de qualité et de coût de fabrication des produits manufacturés, la qualification et quantification optimal des défauts acceptables est primordial. Le tolérancement est le moyen de communication permettant de définir les variations géométriques autorisé entre les différents corps de métier intervenant au cours du cycle de fabrication du produit. Un tolérancement optimal est le juste compromis entre coût de fabrication et qualité du produit final. Le tolérancement repose sur 3 problématiques majeures: la spécification (normalisation d'un langage complet et univoque), la synthèse et l'analyse de tolérances. Nous proposons dans ce document de nouvelles méthodes d'analyse et de synthèse du tolérancement tridimensionnel. Ces méthodes se basent sur une modélisation de la géométrie à l'aide de l'outil domaine jeux et écarts développé au laboratoire. La première étape consiste à déterminer les différentes topologies composant un mécanisme tridimensionnel. Pour chacune de ces topologies est définie une méthode de résolution des problématiques de tolérancement. Au pire des cas, les conditions de respect des exigences fonctionnelles se traduisent par des conditions d'existence et d'inclusions sur les domaines. Ces équations de domaines peuvent ensuite être traduites sous forme de système d'inéquations scalaires. L'analyse statistique s'appuie sur des tirages de type Monte-Carlo. Les variables aléatoires sont les composantes de petits déplacements des torseur écarts défini à l'intérieur de leur zone de tolérance (modélisée par un domaine écarts) et les dimensions géométriques fixant l'étendue des jeux (taille du domaine jeux associé). A l'issue des simulations statistiques, il est possible d'estimer le risque de non-qualité et les jeux résiduels en fonction du tolérancement défini. Le développement d'une nouvelle représentation des domaines jeux et écarts plus adapté, permet de simplifier les calculs relatifs aux problématiques de tolérancement. Le traitement local de chaque topologie élémentaire de mécanisme permet d'effectuer le traitement global des mécanismes tridimensionnels complexes avec prise en compte des jeux.
40

Da, Silva Sébastien. "Fouille de données spatiales et modélisation de linéaires de paysages agricoles." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0156/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans un partenariat entre l'INRA et l'INRIA et dans le champs de l'extraction de connaissances à partir de bases de données spatiales. La problématique porte sur la caractérisation et la simulation de paysages agricoles. Plus précisément, nous nous concentrons sur des lignes qui structurent le paysage agricole, telles que les routes, les fossés d'irrigation et les haies. Notre objectif est de modéliser les haies en raison de leur rôle dans de nombreux processus écologiques et environnementaux. Nous étudions les moyens de caractériser les structures de haies sur deux paysages agricoles contrastés, l'un situé dans le sud-Est de la France (majoritairement composé de vergers) et le second en Bretagne (Ouest de la France, de type bocage). Nous déterminons également si, et dans quelles circonstances, la répartition spatiale des haies est structurée par la position des éléments linéaires plus pérennes du paysage tels que les routes et les fossés et l'échelle de ces structures. La démarche d'extraction de connaissances à partir de base de données (ECBD) mise en place comporte différentes étapes de prétraitement et de fouille de données, alliant des méthodes mathématiques et informatiques. La première partie du travail de thèse se concentre sur la création d'un indice spatial statistique, fondé sur une notion géométrique de voisinage et permettant la caractérisation des structures de haies. Celui-Ci a permis de décrire les structures de haies dans le paysage et les résultats montrent qu'elles dépendent des éléments plus pérennes à courte distance et que le voisinage des haies est uniforme au-Delà de 150 mètres. En outre différentes structures de voisinage ont été mises en évidence selon les principales orientations de haies dans le sud-Est de la France, mais pas en Bretagne. La seconde partie du travail de thèse a exploré l'intérêt du couplage de méthodes de linéarisation avec des méthodes de Markov. Les méthodes de linéarisation ont été introduites avec l'utilisation d'une variante des courbes de Hilbert : les chemins de Hilbert adaptatifs. Les données spatiales linéaires ainsi construites ont ensuite été traitées avec les méthodes de Markov. Ces dernières ont l'avantage de pouvoir servir à la fois pour l'apprentissage sur les données réelles et pour la génération de données, dans le cadre, par exemple, de la simulation d'un paysage. Les résultats montrent que ces méthodes couplées permettant un apprentissage et une génération automatique qui capte des caractéristiques des différents paysages. Les premières simulations sont encourageantes malgré le besoin d'un post-Traitement. Finalement, ce travail de thèse a permis la création d'une méthode d'exploration de données spatiales basée sur différents outils et prenant en charge toutes les étapes de l'ECBD classique, depuis la sélection des données jusqu'à la visualisation des résultats. De plus, la construction de cette méthode est telle qu'elle peut servir à son tour à la génération de données, volet nécessaire pour la simulation de paysage
This thesis is part of a partnership between INRA and INRIA in the field of knowledge extraction from spatial databases. The study focuses on the characterization and simulation of agricultural landscapes. More specifically, we focus on linears that structure the agricultural landscape, such as roads, irrigation ditches and hedgerows. Our goal is to model the spatial distribution of hedgerows because of their role in many ecological and environmental processes. We more specifically study how to characterize the spatial structure of hedgerows in two contrasting agricultural landscapes, one located in south-Eastern France (mainly composed of orchards) and the second in Brittany (western France, \emph{bocage}-Type). We determine if the spatial distribution of hedgerows is structured by the position of the more perennial linear landscape features, such as roads and ditches, or not. In such a case, we also detect the circumstances under which this spatial distribution is structured and the scale of these structures. The implementation of the process of Knowledge Discovery in Databases (KDD) is comprised of different preprocessing steps and data mining algorithms which combine mathematical and computational methods. The first part of the thesis focuses on the creation of a statistical spatial index, based on a geometric neighborhood concept and allowing the characterization of structures of hedgerows. Spatial index allows to describe the structures of hedgerows in the landscape. The results show that hedgerows depend on more permanent linear elements at short distances, and that their neighborhood is uniform beyond 150 meters. In addition different neighborhood structures have been identified depending on the orientation of hedgerows in the South-East of France but not in Brittany. The second part of the thesis explores the potential of coupling linearization methods with Markov methods. The linearization methods are based on the use of alternative Hilbert curves: Hilbert adaptive paths. The linearized spatial data thus constructed were then treated with Markov methods. These methods have the advantage of being able to serve both for the machine learning and for the generation of new data, for example in the context of the simulation of a landscape. The results show that the combination of these methods for learning and automatic generation of hedgerows captures some characteristics of the different study landscapes. The first simulations are encouraging despite the need for post-Processing. Finally, this work has enabled the creation of a spatial data mining method based on different tools that support all stages of a classic KDD, from the selection of data to the visualization of results. Furthermore, this method was constructed in such a way that it can also be used for data generation, a component necessary for the simulation of landscapes
41

Riou-Durand, Lionel. "Theoretical contributions to Monte Carlo methods, and applications to Statistics." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLG006/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La première partie de cette thèse concerne l'inférence de modèles statistiques non normalisés. Nous étudions deux méthodes d'inférence basées sur de l'échantillonnage aléatoire : Monte-Carlo MLE (Geyer, 1994), et Noise Contrastive Estimation (Gutmann et Hyvarinen, 2010). Cette dernière méthode fut soutenue par une justification numérique d'une meilleure stabilité, mais aucun résultat théorique n'avait encore été prouvé. Nous prouvons que Noise Contrastive Estimation est plus robuste au choix de la distribution d'échantillonnage. Nous évaluons le gain de précision en fonction du budget computationnel. La deuxième partie de cette thèse concerne l'échantillonnage aléatoire approché pour les distributions de grande dimension. La performance de la plupart des méthodes d’échantillonnage se détériore rapidement lorsque la dimension augmente, mais plusieurs méthodes ont prouvé leur efficacité (e.g. Hamiltonian Monte Carlo, Langevin Monte Carlo). Dans la continuité de certains travaux récents (Eberle et al., 2017 ; Cheng et al., 2018), nous étudions certaines discrétisations d’un processus connu sous le nom de kinetic Langevin diffusion. Nous établissons des vitesses de convergence explicites vers la distribution d'échantillonnage, qui ont une dépendance polynomiale en la dimension. Notre travail améliore et étend les résultats de Cheng et al. pour les densités log-concaves
The first part of this thesis concerns the inference of un-normalized statistical models. We study two methods of inference based on sampling, known as Monte-Carlo MLE (Geyer, 1994), and Noise Contrastive Estimation (Gutmann and Hyvarinen, 2010). The latter method was supported by numerical evidence of improved stability, but no theoretical results had yet been proven. We prove that Noise Contrastive Estimation is more robust to the choice of the sampling distribution. We assess the gain of accuracy depending on the computational budget. The second part of this thesis concerns approximate sampling for high dimensional distributions. The performance of most samplers deteriorates fast when the dimension increases, but several methods have proven their effectiveness (e.g. Hamiltonian Monte Carlo, Langevin Monte Carlo). In the continuity of some recent works (Eberle et al., 2017; Cheng et al., 2018), we study some discretizations of the kinetic Langevin diffusion process and establish explicit rates of convergence towards the sampling distribution, that scales polynomially fast when the dimension increases. Our work improves and extends the results established by Cheng et al. for log-concave densities
42

Riou-Durand, Lionel. "Theoretical contributions to Monte Carlo methods, and applications to Statistics." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLG006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La première partie de cette thèse concerne l'inférence de modèles statistiques non normalisés. Nous étudions deux méthodes d'inférence basées sur de l'échantillonnage aléatoire : Monte-Carlo MLE (Geyer, 1994), et Noise Contrastive Estimation (Gutmann et Hyvarinen, 2010). Cette dernière méthode fut soutenue par une justification numérique d'une meilleure stabilité, mais aucun résultat théorique n'avait encore été prouvé. Nous prouvons que Noise Contrastive Estimation est plus robuste au choix de la distribution d'échantillonnage. Nous évaluons le gain de précision en fonction du budget computationnel. La deuxième partie de cette thèse concerne l'échantillonnage aléatoire approché pour les distributions de grande dimension. La performance de la plupart des méthodes d’échantillonnage se détériore rapidement lorsque la dimension augmente, mais plusieurs méthodes ont prouvé leur efficacité (e.g. Hamiltonian Monte Carlo, Langevin Monte Carlo). Dans la continuité de certains travaux récents (Eberle et al., 2017 ; Cheng et al., 2018), nous étudions certaines discrétisations d’un processus connu sous le nom de kinetic Langevin diffusion. Nous établissons des vitesses de convergence explicites vers la distribution d'échantillonnage, qui ont une dépendance polynomiale en la dimension. Notre travail améliore et étend les résultats de Cheng et al. pour les densités log-concaves
The first part of this thesis concerns the inference of un-normalized statistical models. We study two methods of inference based on sampling, known as Monte-Carlo MLE (Geyer, 1994), and Noise Contrastive Estimation (Gutmann and Hyvarinen, 2010). The latter method was supported by numerical evidence of improved stability, but no theoretical results had yet been proven. We prove that Noise Contrastive Estimation is more robust to the choice of the sampling distribution. We assess the gain of accuracy depending on the computational budget. The second part of this thesis concerns approximate sampling for high dimensional distributions. The performance of most samplers deteriorates fast when the dimension increases, but several methods have proven their effectiveness (e.g. Hamiltonian Monte Carlo, Langevin Monte Carlo). In the continuity of some recent works (Eberle et al., 2017; Cheng et al., 2018), we study some discretizations of the kinetic Langevin diffusion process and establish explicit rates of convergence towards the sampling distribution, that scales polynomially fast when the dimension increases. Our work improves and extends the results established by Cheng et al. for log-concave densities
43

Vincent, Rémy. "Identification passive en acoustique : estimateurs et applications au SHM." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT020/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’identité de Ward est une relation qui permet d’identifier unmilieu de propagation linéaire dissipatif, c'est-à-dire d'estimer des paramètres qui le caractérisent. Dans les travaux exposés, cette identité est utilisée pour proposer de nouveaux modèles d’observation caractérisant un contexte d’estimation qualifié de passif : les sources qui excitent le système ne sont pas contrôlées par l’utilisateur. La théorie de l’estimation/détection dans ce contexte est étudiée et des analyses de performances sont menées sur divers estimateurs. La portée applicative des méthodes proposées concerne le domaine du Structural Health Monitoring (SHM), c’est-à-dire le suivi de l’état de santé desbâtiment, des ponts... L'approche est développée pour la modalité acoustique aux fréquences audibles, cette dernière s'avérant complémentaire des techniques de l’état de l’art du SHM et permettant entre autre, d’accéder à des paramètres structuraux et géométriques. Divers scénarios sont illustrés par la mise en oeuvre expérimentale des algorithmes développés et adaptés à des contraintes de calculs embarqués sur un réseau de capteurs autonome
Ward identity is a relationship that enables damped linear system identification, ie the estimation its caracteristic properties. This identity is used to provide new observation models that are available in an estimation context where sources are uncontrolled by the user. An estimation and detection theory is derived from these models and various performances studies areconducted for several estimators. The reach of the proposed methods is extended to Structural Health Monitoring (SHM), that aims at measuring and tracking the health of buildings, such as a bridge or a sky-scraper for instance. The acoustic modality is chosen as it provides complementary parameters estimation to the state of the art in SHM, such as structural and geometrical parameters recovery. Some scenarios are experimentally illustrated by using the developed algorithms, adapted to fit the constrains set by embedded computation on anautonomous sensor network
44

Da, Silva Sébastien. "Fouille de données spatiales et modélisation de linéaires de paysages agricoles." Electronic Thesis or Diss., Université de Lorraine, 2014. http://docnum.univ-lorraine.fr/prive/DDOC_T_2014_0156_DA_SILVA.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'inscrit dans un partenariat entre l'INRA et l'INRIA et dans le champs de l'extraction de connaissances à partir de bases de données spatiales. La problématique porte sur la caractérisation et la simulation de paysages agricoles. Plus précisément, nous nous concentrons sur des lignes qui structurent le paysage agricole, telles que les routes, les fossés d'irrigation et les haies. Notre objectif est de modéliser les haies en raison de leur rôle dans de nombreux processus écologiques et environnementaux. Nous étudions les moyens de caractériser les structures de haies sur deux paysages agricoles contrastés, l'un situé dans le sud-Est de la France (majoritairement composé de vergers) et le second en Bretagne (Ouest de la France, de type bocage). Nous déterminons également si, et dans quelles circonstances, la répartition spatiale des haies est structurée par la position des éléments linéaires plus pérennes du paysage tels que les routes et les fossés et l'échelle de ces structures. La démarche d'extraction de connaissances à partir de base de données (ECBD) mise en place comporte différentes étapes de prétraitement et de fouille de données, alliant des méthodes mathématiques et informatiques. La première partie du travail de thèse se concentre sur la création d'un indice spatial statistique, fondé sur une notion géométrique de voisinage et permettant la caractérisation des structures de haies. Celui-Ci a permis de décrire les structures de haies dans le paysage et les résultats montrent qu'elles dépendent des éléments plus pérennes à courte distance et que le voisinage des haies est uniforme au-Delà de 150 mètres. En outre différentes structures de voisinage ont été mises en évidence selon les principales orientations de haies dans le sud-Est de la France, mais pas en Bretagne. La seconde partie du travail de thèse a exploré l'intérêt du couplage de méthodes de linéarisation avec des méthodes de Markov. Les méthodes de linéarisation ont été introduites avec l'utilisation d'une variante des courbes de Hilbert : les chemins de Hilbert adaptatifs. Les données spatiales linéaires ainsi construites ont ensuite été traitées avec les méthodes de Markov. Ces dernières ont l'avantage de pouvoir servir à la fois pour l'apprentissage sur les données réelles et pour la génération de données, dans le cadre, par exemple, de la simulation d'un paysage. Les résultats montrent que ces méthodes couplées permettant un apprentissage et une génération automatique qui capte des caractéristiques des différents paysages. Les premières simulations sont encourageantes malgré le besoin d'un post-Traitement. Finalement, ce travail de thèse a permis la création d'une méthode d'exploration de données spatiales basée sur différents outils et prenant en charge toutes les étapes de l'ECBD classique, depuis la sélection des données jusqu'à la visualisation des résultats. De plus, la construction de cette méthode est telle qu'elle peut servir à son tour à la génération de données, volet nécessaire pour la simulation de paysage
This thesis is part of a partnership between INRA and INRIA in the field of knowledge extraction from spatial databases. The study focuses on the characterization and simulation of agricultural landscapes. More specifically, we focus on linears that structure the agricultural landscape, such as roads, irrigation ditches and hedgerows. Our goal is to model the spatial distribution of hedgerows because of their role in many ecological and environmental processes. We more specifically study how to characterize the spatial structure of hedgerows in two contrasting agricultural landscapes, one located in south-Eastern France (mainly composed of orchards) and the second in Brittany (western France, \emph{bocage}-Type). We determine if the spatial distribution of hedgerows is structured by the position of the more perennial linear landscape features, such as roads and ditches, or not. In such a case, we also detect the circumstances under which this spatial distribution is structured and the scale of these structures. The implementation of the process of Knowledge Discovery in Databases (KDD) is comprised of different preprocessing steps and data mining algorithms which combine mathematical and computational methods. The first part of the thesis focuses on the creation of a statistical spatial index, based on a geometric neighborhood concept and allowing the characterization of structures of hedgerows. Spatial index allows to describe the structures of hedgerows in the landscape. The results show that hedgerows depend on more permanent linear elements at short distances, and that their neighborhood is uniform beyond 150 meters. In addition different neighborhood structures have been identified depending on the orientation of hedgerows in the South-East of France but not in Brittany. The second part of the thesis explores the potential of coupling linearization methods with Markov methods. The linearization methods are based on the use of alternative Hilbert curves: Hilbert adaptive paths. The linearized spatial data thus constructed were then treated with Markov methods. These methods have the advantage of being able to serve both for the machine learning and for the generation of new data, for example in the context of the simulation of a landscape. The results show that the combination of these methods for learning and automatic generation of hedgerows captures some characteristics of the different study landscapes. The first simulations are encouraging despite the need for post-Processing. Finally, this work has enabled the creation of a spatial data mining method based on different tools that support all stages of a classic KDD, from the selection of data to the visualization of results. Furthermore, this method was constructed in such a way that it can also be used for data generation, a component necessary for the simulation of landscapes
45

Meyer, Valentine. "Apport de la reconstruction virtuelle du bassin Regourdou 1 (Dordogne, France) à la connaissance des mécaniques obstétricales néandertaliennes." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-01059802.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La découverte d'un nouveau bassin, Regourdou 1, offre l'occasion de discuter de l'implication fonctionnelle de la morphologie pelvienne néandertalienne. Dans un premier temps, ce spécimen est décrit, ce qui permet de vérifier son appartenance aux Néandertaliens et mettre en évidence certains traits spécifiques à cette population. Bien qu'aucun ne soit autapomorphique, la combinaison de ces caractères caractérise la ceinture pelvienne néandertalienne. Le bassin Regourdou 1 est ensuite reconstruit à l'aide d'une estimation desdonnées manquantes, par thin-plate spline à partir de Kebara 2. Les dimensions du canal pelvien de Regourdou 1sont comparées à celles de deux autres spécimens néandertaliens (Tabun C1 et Kebara 2) et d'une populationmoderne (n=151). L'analyse de la morphologie des détroits obstétricaux néandertaliens (par morphométrie géométrique), et de la relation céphalo-pelvienne, met en évidence la présence de caractéristiques associées chez l'Homme anatomiquement moderne à la naissance rotationnelle. Notre travail confirme l'existence de mécaniques obstétricales néandertaliennes de type moderne. Cette interprétation permet d'enrichir notre connaissance biologique et culturelle de cette population.
46

Sango, Joel. "Sur les tests de type diagnostic dans la validation des hypothèses de bruit blanc et de non corrélation." Thèse, 2016. http://hdl.handle.net/1866/18382.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans la modélisation statistique, nous sommes le plus souvent amené à supposer que le phénomène étudié est généré par une structure pouvant s’ajuster aux données observées. Cette structure fait apparaître une partie principale qui représente le mieux possible le phénomène étudié et qui devrait expliquer les données et une partie supposée négligeable appelée erreur ou innovation. Cette structure complexe est communément appelée un modèle, dont la forme peut être plus ou moins complexe. Afin de simplifier la structure, il est souvent supposé qu’elle repose sur un nombre fini de valeurs, appelées paramètres. Basé sur les données, ces paramètres sont estimés avec ce que l’on appelle des estimateurs. La qualité du modèle pour les données à notre disposition est également fonction des estimateurs et de leurs propriétés, par exemple, est-ce que les estimateurs sont raisonnablement proches des valeurs idéales, c’est-à-dire les vraies valeurs. Des questions d’importance portent sur la qualité de l’ajustement d’un modèle aux données, ce qui se fait par l’étude des propriétés probabilistes et statistiques du terme d’erreur. Aussi, l’étude des relations ou l’absence de ces dernières entre les phénomènes sous des hypothèses complexes sont aussi d’intérêt. Des approches possibles pour cerner ce genre de questions consistent dans l’utilisation des tests portemanteaux, dits également tests de diagnostic. La thèse est présentée sous forme de trois projets. Le premier projet est rédigé en langue anglaise. Il s’agit en fait d’un article actuellement soumis dans une revue avec comité de lecture. Dans ce projet, nous étudions le modèle vectoriel à erreurs multiplicatives (vMEM) pour lequel nous utilisons les propriétés des estimateurs des paramètres du modèle selon la méthode des moments généralisés (GMM) afin d’établir la distribution asymptotique des autocovariances résiduelles. Ceci nous permet de proposer des nouveaux tests diagnostiques pour ce type de modèle. Sous l’hypothèse nulle d’adéquation du modèle, nous montrons que la statistique usuelle de Hosking-Ljung-Box converge vers une somme pondérée de lois de khi-carré indépendantes à un degré de liberté. Un test généralisé de Hosking-Ljung-Box est aussi obtenu en comparant la densité spectrale des résidus de l’estimation et celle présumée sous l’hypothèse nulle. Un avantage des tests spectraux est qu’ils nécessitent des estimateurs qui convergent à la vitesse n−1/2 où n est la taille de l’échantillon, et leur utilisation n’est pas restreinte à une technique particulière, comme par exemple la méthode des moments généralisés. Dans le deuxième projet, nous établissons la distribution asymptotique sous l’hypothèse de faible dépendance des covariances croisées de deux processus stationnaires en covariance. La faible dépendance ici est définie en terme de l’effet limité d’une observation donnée sur les observations futures. Nous utilisons la notion de stabilité et le concept de contraction géométrique des moments. Ces conditions sont plus générales que celles de l’invariance des moments conditionnels d’ordre un à quatre utilisée jusque là par plusieurs auteurs. Un test statistique basé sur les covariances croisées et la matrice des variances et covariances de leur distribution asymptotique est alors proposé et sa distribution asymptotique établie. Dans l’implémentation du test, la matrice des variances et covariances des covariances croisées est estimée à l’aide d’une procédure autorégressive vectorielle robuste à l’autocorrélation et à l’hétéroscédasticité. Des simulations sont ensuite effectuées pour étudier les propriétés du test proposé. Dans le troisième projet, nous considérons un modèle périodique multivarié et cointégré. La présence de cointégration entraîne l’existence de combinaisons linéaires périodiquement stationnaires des composantes du processus étudié. Le nombre de ces combinaisons linéaires linéairement indépendantes est appelé rang de cointégration. Une méthode d’estimation en deux étapes est considérée. La première méthode est appelée estimation de plein rang. Dans cette approche, le rang de cointégration est ignoré. La seconde méthode est appelée estimation de rang réduit. Elle tient compte du rang de cointégration. Cette dernière est une approche non linéaire basée sur des itérations dont la valeur initiale est l’estimateur de plein rang. Les propriétés asymptotiques de ces estimateurs sont aussi établies. Afin de vérifier l’adéquation du modèle, des statistiques de test de type portemanteau sont considérées et leurs distributions asymptotiques sont étudiées. Des simulations sont par la suite présentées afin d’illustrer le comportement du test proposé.
In statistical modeling, we assume that the phenomenon of interest is generated by a model that can be fitted to the observed data. The part of the phenomenon not explained by the model is called error or innovation. There are two parts in the model. The main part is supposed to explain the observed data, while the unexplained part which is supposed to be negligible is also called error or innovation. In order to simplify the structures, the model are often assumed to rely on a finite set of parameters. The quality of a model depends also on the parameter estimators and their properties. For example, are the estimators relatively close to the true parameters ? Some questions also address the goodness-of-fit of the model to the observed data. This question is answered by studying the statistical and probabilistic properties of the innovations. On the other hand, it is also of interest to evaluate the presence or the absence of relationships between the observed data. Portmanteau or diagnostic type tests are useful to address such issue. The thesis is presented in the form of three projects. The first project is written in English as a scientific paper. It was recently submitted for publication. In that project, we study the class of vector multiplicative error models (vMEM). We use the properties of the Generalized Method of Moments to derive the asymptotic distribution of sample autocovariance function. This allows us to propose a new test statistic. Under the null hypothesis of adequacy, the asymptotic distributions of the popular Hosking-Ljung-Box (HLB) test statistics are found to converge in distribution to weighted sums of independent chi-squared random variables. A generalized HLB test statistic is motivated by comparing a vector spectral density estimator of the residuals with the spectral density calculated under the null hypothesis. In the second project, we derive the asymptotic distribution under weak dependence of cross covariances of covariance stationary processes. The weak dependence is defined in term of the limited effect of a given information on future observations. This recalls the notion of stability and geometric moment contraction. These conditions of weak dependence defined here are more general than the invariance of conditional moments used by many authors. A test statistic based on cross covariances is proposed and its asymptotic distribution is established. In the elaboration of the test statistics, the covariance matrix of the cross covariances is obtained from a vector autoregressive procedure robust to autocorrelation and heteroskedasticity. Simulations are also carried on to study the properties of the proposed test and also to compare it to existing tests. In the third project, we consider a cointegrated periodic model. Periodic models are present in the domain of meteorology, hydrology and economics. When modelling many processes, it can happen that the processes are just driven by a common trend. This situation leads to spurious regressions when the series are integrated but have some linear combinations that are stationary. This is called cointegration. The number of stationary linear combinations that are linearly independent is called cointegration rank. So, to model the real relationship between the processes, it is necessary to take into account the cointegration rank. In the presence of periodic time series, it is called periodic cointegration. It occurs when time series are periodically integrated but have some linear combinations that are periodically stationary. A two step estimation method is considered. The first step is the full rank estimation method that ignores the cointegration rank. It provides initial estimators to the second step estimation which is the reduced rank estimation. It is non linear and iterative. Asymptotic properties of the estimators are also established. In order to check for model adequacy, portmanteau type tests and their asymptotic distributions are also derived and their asymptotic distribution are studied. Simulation results are also presented to show the behaviour of the proposed test.
47

Atchadé, Yves F. "Quelques contributions sur les méthodes de Monte Carlo." Thèse, 2003. http://hdl.handle.net/1866/14581.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

До бібліографії